- (16) 3376-2047
- [email protected]
- Portfólio de Serviços
- AT
Nesta seção, vamos estudar as convergências em média p, porém, inicialmente necessitamos de desigualdades importantes como por exemplo as desigualdades de Markov e Chebyshev. Chebyshev estabeleceu uma simples desigualdade que permitiu uma prova trivial da Lei dos Fraca dos Grandes Números. A seguir, apresentamos as principais desigualdades.
Seja X uma variável aleatória não negativa, ou seja, que assume apenas valores reais positivos. Então temos que para qualquer $\varepsilon > 0$:
$$\mathbb{P}[X > \varepsilon]\leq \displaystyle \frac{\mathbb{E}[X]}{\varepsilon}$$
Demonstração:
Para todo $\varepsilon > 0$, observe que
$$X\geq X 1\!\!1_{\{X\geq \varepsilon\}}\geq \varepsilon 1\!\!1_{\{X\geq \varepsilon\}}$$
Logo, $\mathbb{E}[X]\geq \varepsilon \mathbb{P}\{X\geq \varepsilon\}$
Portanto, $\mathbb{P}\{X\geq \varepsilon \} \leq \dfrac{\mathbb{E}[X]}{\varepsilon}$ segue a desigualdade de Markov.
$\Box$
Seja X uma variável aleatória tal que $\mathbb{E}(X)< \infty$, $\text{Var}(X)<\infty$ e $\varepsilon > 0$ então:
$$\mathbb{P}[|X-\mathbb{E}[X]|> \varepsilon]\leq \displaystyle \frac{\text{Var}(X)}{\varepsilon^2}.$$
Demonstração:
Primeiramente vamos definir uma variável aleatória $Y=(X-\mathbb{E}[X])^2.$ Note que a variável Y satisfaz as hipóteses da desigualdade de Markov, pois Y é uma variável não negativa. Assim, temos que:
$$\mathbb{P}[Y> \varepsilon^2]\leq \displaystyle \dfrac{\mathbb{E}[Y]}{\varepsilon^2}=\dfrac{\mathbb{E}[(X-\mathbb{E}[X])^2]}{\varepsilon^2}$$
Por definição temos que $\mathbb{E}[(X-\mathbb{E}[X])^2]=\text{Var}[X],$ então
$$\mathbb{P}[Y> \varepsilon^2]\leq \displaystyle \frac{\text{Var}[X]}{\varepsilon^2}.$$
Mas sabemos que $(X-\mathbb{E}[X])^2\geq \varepsilon^2 \Leftrightarrow |X-\mathbb{E}[X]|\geq \varepsilon$. Portanto segue a desigualdade de Chebyshev.
$\Box$
A seguir, vamos enunciar uma desigualdade importante, que é a desigualdade de Jensen, muito utilizada na teoria das probabilidades. Johan Valdemar Jensen, engenheiro de telecomunicações dinamarquês, publicou esta desigualdade em 1906 na Acta Matemática.
Seja X uma variável aleatória, então para toda a variável aleatória $X\in \mathcal{L}^1(\mathbb{P})$ tal que $-\infty\leq a< X< b\leq +\infty$ e $\varphi: (a,b)\rightarrow \mathbb{R}$ convexa
$$\varphi(\mathbb{E}[X])\leq \mathbb{E}[\varphi(X)]$$
Demonstração:
Ideia intuitiva: (Caso particular) Seja $\varphi(x)=x^2$ uma função $\varphi: (a,b)\rightarrow \mathbb{R}$ convexa. Vimos na seção variância de variáveis aleatórias que
\[\text{Var}(X)=\mathbb{E}(X^2)-[\mathbb{E}(X)]^2.\]
Podemos rescrever como
$$\mathbb{E}(X^2)=\underbrace{\text{Var}(X)}_{\geq 0}+[\mathbb{E}(X)]^2\geq [\mathbb{E}(X)]^2$$
O caso geral, pode ser visto no artigo de Johan L. W. V. Jensen. Podemos ver uma outra demonstração no conteúdo Propriedades do valor esperado.
$\Box$
Sejam X e Y uma variáveis aleatórias, tais que $\mathbb{E}[X^2]<\infty$ e $\mathbb{E}[Y^2]<\infty,$ então
$$\mathbb{E}[|X|.|Y|]\leq \sqrt{\mathbb{E}[X^2]\mathbb{E}[Y^2]}$$
Demonstração:
Para $\lambda\in \mathbb{R},$
$$0\leq\mathbb{E}\left[(\lambda|X|+|Y|)^2\right]=\mathbb{E}[\lambda^2|X|^2+2\lambda|X|.|Y|+|Y|^2]=\lambda^2\mathbb{E}[X^2]+2\lambda\mathbb{E}[|X|.|Y|]+\mathbb{E}[|Y|^2]$$
Usamos a ideia do discriminante na solução da equação do 2º grau da seguinte forma
$$\Delta=4(\mathbb{E}[|X|.|Y|])^2-4\mathbb{E}[|X|^2]\mathbb{E}[|Y|^2]\leq0$$
Portanto,
$$\mathbb{E}[|X|.|Y|]\leq \sqrt{\mathbb{E}[X^2]\mathbb{E}[Y^2]}$$
$\Box$
Com isso, vamos definir a convergência em média p da seguinte forma.
Considere $X$ uma variável aleatória com $\mathbb{E}[|X|^p]< \infty$ e $\{X_n\}_{n\geq 1}$ sequência de variáveis aleatórias. Dizemos que $X_n$ converge em média p para X ou converge em $\mathcal{L}^p$ para X (caso queira saber mais sobre os espaço $\mathcal{L}^p$ consulte o conteúdo Propriedades do espaço L^p) se
$$\lim_{n\rightarrow\infty}\mathbb{E}\left[|X_n-X|^p\right]=0,\quad \text{para}~p\geq 1$$
Notação: $X_n\xrightarrow{\mathcal{L}^p}X$
quando $p=2,$ dizemos que converge em média quadrática.
Se $X_n\xrightarrow{\mathcal{L}^p}X$ então $X_n\xrightarrow{P}X$ para p ≥ 1.
Demonstração:
Dado $\varepsilon> 0,$ e da desigualdade de Chebyshev obtemos que
$$0\leq \mathbb{P}\{|X_n-X|\geq \varepsilon\}\overset{\text{Des. Chebychev}}{\leq} \frac{\mathbb{E}\left[|X_n-X|^p\right]}{\varepsilon^p}\xrightarrow{n\rightarrow\infty}0.$$
$\Box$
Se $X_n\xrightarrow{\mathcal{L}^{2}}X$ então $X_n\xrightarrow{\mathcal{L}^{1}}X$
Demonstração:
Sejam Xn, n≥1 e X variáveis aleatórias com $\mathbb{E}[|X_n|^2]<\infty$ e $\mathbb{E}[|X|^2]<\infty.$ Então pela desigualdade de Cauchy-Schwartz temos que
$$\mathbb{E}[|X_n-X|.1]\leq \mathbb{E}\left[|X_n-X|^2\right]^{\frac{1}{2}}.1$$
Como por hipótese $X_n\xrightarrow{\mathcal{L}^{2}}X,$ isto implica que
$$0\leq\mathbb{E}[|X_n-X|]\leq \mathbb{E}\left[|X_n-X|^2\right]\xrightarrow{n\rightarrow\infty}0.$$
Portanto, $X_n\xrightarrow{\mathcal{L}^{1}}X$
$\Box$
Sejam p ≥ 1 e s ≥ 0. Se $X_n\xrightarrow{\mathcal{L}^{p+s}}X$ então $X_n\xrightarrow{\mathcal{L}^{p}}X$
Demonstração:
Consideramos $q=p+s$ e pela desigualdade de Jensen obtemos que
$$\left(\mathbb{E}|X_n-X|^p\right)^{\frac{1}{p}}\leq \left(\mathbb{E}|X_n-X|^q\right)^{\frac{1}{q}}\rightarrow 0$$
$\Box$
No caso particular, temos que se Xn converge em média quadrática para X, então também Xn converge em média para X (lema 7.1.3.1). No teorema 7.1.3.1 vimos que se Xn converge em média p para X então converge em probabilidade, porém a recíproca nem sempre é verdadeira. A seguir, apresentamos um caso particular em que vale a volta.
Se $X_n\xrightarrow{P}X$ e existe Y tal que $\mathbb{E}[Y^p]< \infty$ e $|X_n|\leq Y$ para todo $n\geq 1,$ então $X_n\xrightarrow{\mathcal{L}^p}X$
Demonstração:
Observe que para qualquer subsequência $n_k,$ tomamos uma subsequência $n_{k_j}$ tal que $X_{n_{k_j}}-X\xrightarrow{q.c.}0.$
Como $|X_{n_{k_j}}-X|^p\leq (|X_{n_{k_j}}|+|X|)^p\overset{\text{hipótese}}{\leq}(2Y)^p< \infty $
Pelo teorema da convergência dominada temos que
$$\mathbb{E}[|X_{n_{k_j}}-X|^p]\rightarrow 0.$$
Logo, vale sempre para alguma subsequência de uma sequência arbitrária $n_k.$
Portanto, $\mathbb{E}[|X_{n_{k_j}}-X|^p]\rightarrow 0.$
$\Box$
Seja $(X_n)$ uma sequência de variáveis aleatórias não negativas tal que
$X_n\stackrel{q.c}{\rightarrow}X$ e $\mathbb{E}[X_n]\rightarrow \mathbb{E}[X]$, então $X_n\stackrel{\mathcal{L}^1}{\rightarrow}X$
Demonstração:
Para n suficientemente grande temos que $\mathbb{E}[X_n]< \infty$ e temos que
$$\mathbb{E}[|X_n-X|]=\mathbb{E}[X-X_n]1\!\!1_{\{X_n\leq X\}}+\mathbb{E}[X_n-X]1\!\!1_{\{X_n> X\}}=2\mathbb{E}[X-X_n]1\!\!1_{\{X_n\leq X\}}+\mathbb{E}[|X_n-X|].$$
Mas $0\leq |X_n-X|1\!\!1_{X_n\leq X}\leq X $.
Assim pelo teorema da convergência dominada temos que
$$\lim \mathbb{E}[X-X_n]1\!\!1_{\{X_n\leq X\}}=0\quad\text{e}\quad\mathbb{E}[X_n]\rightarrow \mathbb{E}[X],$$
o que prova o resultado.
$\Box$
Seja $\alpha=1$ e $\{X_n\}_{n\geq 1}$ sequência de variáveis aleatórias tais que $$\begin{array}{l}\mathbb{P}\{X_n=1\}=1-\frac{1}{n^\alpha}\\\mathbb{P}\{X_n=n\}=\frac{1}{n^\alpha}\end{array},\quad n\geq 1.$$
Primeiramente, vamos verificar a convergência em probabilidade. Assim, dado $\varepsilon> 0,$
$$\mathbb{P}\{|X_n-1|\geq \varepsilon\}\leq \mathbb{P}\{X_n=n\}=\frac{1}{n^\alpha}\rightarrow0,\quad n\rightarrow\infty,~\forall \alpha\geq 1$$
Agora, vamos verificar a convergência quase certa. De fato,
$$X_n\xrightarrow{q.c.}1\quad\Rightarrow \quad \mathbb{P}\{|X_n-1|\geq \varepsilon,i.v.\}=0,~~\forall \varepsilon > 0.$$
Por fim, vamos verificar a convergência em média p. Com efeito,
$$\mathbb{E}[|X_n-1|^p]=(n-1)^p\frac{1}{n^\alpha}=\frac{(n-1)^p}{n^p}\frac{1}{n^{\alpha-p}}=\left(1-\frac{1}{p}\right)^p\frac{1}{n^{\alpha-p}}\longrightarrow \left\{\begin{array}{l}0,\quad~~~ p< \alpha\\1,\quad~~~ \alpha=p\\+\infty,\quad p> \alpha\end{array}\right.$$
Mas, $X_n\xrightarrow{\mathcal{L}^p}1$ se, e somente se, 1≤p<$\alpha$.
Suponha que $X_n\xrightarrow{\mathcal{L}^{p}}X$ e $X_n\xrightarrow{q.c.}Y.$ Mostre que $\mathbb{P}\{X=Y\}=1.$
De fato, podemos mostrar este resultado de duas maneiras.
1º modo)
Como da hipótese $X_n\xrightarrow{\mathcal{L}^{p}}X$ e $X_n\xrightarrow{q.c.}Y,$ isto implica que $X_n\xrightarrow{P}X$ e $X_n\xrightarrow{P}Y,$ então do teorema 7.1.1.7 temos que $\mathbb{P}\{X=Y\}=1.$
2º modo)
Como da hipótese $X_n\xrightarrow{\mathcal{L}^{p}}X$ e $X_n\xrightarrow{q.c.}Y,$ isto implica que $X_n\xrightarrow{P}X$ e $X_n\xrightarrow{P}Y.$ Assim,
$$\varepsilon\leq |X-Y|\leq |X_n-X|+|X_n-Y|$$
Agora, observamos os seguintes eventos
$$[|X-Y|\geq \varepsilon]\subseteq [|X_n-X|\geq \frac{\varepsilon}{2}]\cup[|X_n-Y|\geq \frac{\varepsilon}{2}].$$
Logo,
$$0\leq \mathbb{P}[|X-Y|\geq \varepsilon]\leq \mathbb{P}[|X_n-X|\geq \frac{\varepsilon}{2}]+[|X_n-Y|\geq \frac{\varepsilon}{2}]\rightarrow 0$$
o que implica que $\mathbb{P}[|X-Y|\geq \varepsilon]\rightarrow 0,~\forall \varepsilon> 0$
Portanto, $$\mathbb{P}[|X-Y|> 0]=\lim_{n\rightarrow \infty}\mathbb{P}\left(|X-Y|> \frac{1}{n}\right)=0.$$
Suponha $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias tal que $\mathbb{E}[X_n]=\mu_n\rightarrow\mu,~\mu\in \mathbb{R}$ e $\sigma^2_n=\text{Var}(X_n)\xrightarrow{n\rightarrow\infty} 0.$ Mostre que $X_n\xrightarrow{P}\mu$
De fato, observe que
$$\mathbb{E}\left[(X_n-\mu)^2\right]=\mathbb{E}\left[(X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-\mu)^2\right]=$$
$$=\mathbb{E}\left[(X_n-\mathbb{E}[X_n])^2\right]+\mathbb{E}\left[(\mathbb{E}[X_n]-\mu)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\underbrace{\mathbb{E}\left[(\mathbb{E}[X_n]-\mu)\right]}_{\longrightarrow 0}=$$
$$=\underbrace{\text{Var}(X_n)}_{\xrightarrow{n\rightarrow\infty}0}+\mathbb{E}\left[(\mathbb{E}[X_n]-\mu)^2\right]\xrightarrow{n\rightarrow\infty}0$$
Portanto, $X_n\xrightarrow{\mathcal{L}^{2}}\mu\quad \overset{\text{Des. de Markov}}{\Rightarrow}\quad X_n\xrightarrow{P}\mu.$
A seguir, apresentamos um exemplo que a convergência em probabilidade não implica em convergência em média p para X.
Seja $(X_n)_{n\in\mathbb{N}}$ uma sequência de variáveis aleatórias, definida da seguinte forma:
$$X_n(\omega)=\left\{ \begin{array}{l} e^n~~~ se~0\leq \omega\leq 1/n^2 \\ 0~~~ c.c .\end{array} \right.$$
Note que $X_n\stackrel{q.c.}{\nrightarrow} X=0$, pois para $0<\varepsilon< 1$
$$\sum_{i=1}^{n}\mathbb{P}(|X_n-0|\geq \varepsilon)=\sum_{i=1}^{\infty}\mathbb{P}(|X_n|=e^n)=\sum_{i=1}^{\infty}1/n^2< \infty$$
Logo converge quase certamente e portanto converge em probabilidade. Mas observe que não converge em média p para $X=0$, pois
$$\lim_{n\rightarrow\infty} \mathbb{E}[|X_n|^p]=\lim_{n\rightarrow\infty} \frac{e^{np}}{n^2}=\infty, ~~\forall p\geq 1.$$
Suponha $(X_n)_{n\geq 1}$ uma sequência de v.a's tal que
$$\mathbb{P}(X=0)=1-\displaystyle \frac{1}{n}$$
$$\mathbb{P}(X_n=1)=\displaystyle \frac{1}{2n}=\mathbb{P}(X_n=-1).$$
Mostre que $X_n\stackrel{P}{\rightarrow} 0$ e $X_n\stackrel{\mathcal{L}^p}{\rightarrow} 0,$ para todo p≥1.
Primeiramente vamos mostrar que $X_n\stackrel{P}{\rightarrow} 0.$ Para isto, dado ε>0,
$$\mathbb{P}(|X_n-0|\geq \varepsilon)=\mathbb{P}(X_n=0;X=0)+\mathbb{P}(X_n=0;X=1)+\mathbb{P}(X_n=0;X=-1)=$$
$=\left(1-\dfrac{1}{n}\right)\dfrac{1}{2n}+\dfrac{1}{4n^2}+\dfrac{1}{4n^2}\xrightarrow{n\rightarrow\infty}0$
Portanto concluímos que,
$$X_n\stackrel{P}{\rightarrow} 0.$$
Agora, vamos mostrar que $X_n\stackrel{\mathcal{L}^p}{\rightarrow} 0,$ para todo p≥1. Para tanto
$$\mathbb{E}[|X_n-0|^p]=1^p\frac{1}{2^n}+0^p\left(1-\frac{1}{n}\right)+(-1)^p\frac{1}{2n}=(1+(-1)^p)\frac{1}{2n}\xrightarrow{n\rightarrow\infty}0$$
Portanto $X_n\stackrel{\mathcal{L}^p}{\rightarrow} 0.$
Para $c\in\mathbb{R}$, constante, mostre que $X_n\stackrel{\mathcal{L}^2}{\rightarrow} c$ se, e somente se, $\mathbb{E}[X_n]\rightarrow c$ e $Var[X_n]\rightarrow 0$.
Primeiramente supomos que $X_n\stackrel{\mathcal{L}^2}{\rightarrow} c$.
$$\mathbb{E}\left[(X_n-c)^2\right]=\mathbb{E}\left[(X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-c)^2\right]=$$
$$=\mathbb{E}\left[(X_n-\mathbb{E}[X_n])^2\right]+\mathbb{E}\left[(\mathbb{E}[X_n]-c)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\mathbb{E}\left[(\mathbb{E}[X_n]-c)\right]=$$
$$=\text{Var}(X_n)+\mathbb{E}\left[(\mathbb{E}[X_n]-c)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\mathbb{E}\left[(\mathbb{E}[X_n]-c)\right]\xrightarrow{n\rightarrow\infty}0$$
Isto ocorre se todas as parcelas convergem a zero. Portanto
$$\text{Var}[X_n]\rightarrow 0,$$
$$\quad(\mathbb{E}[X_n]-c)^2\rightarrow 0~~\text{e}~~\mathbb{E}[X_n]-c\rightarrow0,~\text{ou seja},~\mathbb{E}[X_n]\rightarrow c$$
Por outro lado, suponhamos que $\mathbb{E}[X_n]\rightarrow c$ e $\text{Var}[X_n]\rightarrow 0$. Usando os mesmos argumentos, obtemos que
$$\mathbb{E}\left[(X_n-c)^2\right]=\mathbb{E}\left[(X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-c)^2\right]=$$
$$=\mathbb{E}\left[(X_n-\mathbb{E}[X_n])^2\right]+\mathbb{E}\left[(\mathbb{E}[X_n]-c)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\underbrace{\mathbb{E}\left[(\mathbb{E}[X_n]-c)\right]}_{\longrightarrow 0}=$$
$$=\underbrace{\text{Var}(X_n)}_{\xrightarrow{n\rightarrow\infty}0}+\mathbb{E}\left[(\underbrace{\mathbb{E}[X_n]}_{\xrightarrow{n\rightarrow\infty} c}-c)^2\right]\xrightarrow{n\rightarrow\infty}0$$
Portanto $X_n\stackrel{\mathcal{L}^2}{\rightarrow} c.$
A principal preocupação entre as relações dos tipos de convergência estocástica é saber se é uma condição necessária e suficiente. Para isto vamos introduzir o conceito de Uniformemente Integrável (UI) e limitado em $\mathcal{L}^1.$ A seguir, vamos apresentar resultados e definições para mostrar que uma condição necessária e suficiente para que a convergência em média p para X, implique em convergência em probabilidade.
Seja $(X_n)_{n\in\mathbb{N}}$ uma sequência de variáveis aleatórias tais que exista Y≥0 variável aleatória tal que Xn≤Y, para todo n≥1 $\mathbb{E}[Y]<\infty$ . Dizemos que $\mathbb{X}=\{X:~X$ é uma variável aleatória,$|X|\leq Y\}$ família de variáveis aleatórias é limitada em $\mathcal{L}^p,~1\leq p\leq \infty$ se $\sup_{n\geq 1}\sqrt[p]{\mathbb{E}[|X|^p]}< \infty,$ e também definimos
$$I_{\mathbb{X}}(\delta)=\sup\{\mathbb{E}(|X|1\!\!1_{A});~~X\in \mathbb{X},~A\in \mathcal{A},~\mathbb{P}(A)\leq\delta\}$$
Obs: (caso queira saber mais sobre os espaço $\mathcal{L}^p$ consulte o conteúdo Propriedades do espaço L^p)
Observamos que $\mathbb{X}$ é limitada em $\mathcal{L}^1$ se, e somente se $I_{\mathbb{X}}(1)< \infty.$
Seja $\mathbb{X}$ uma família de variáveis aleatórias. Dizemos que $\mathbb{X}$ é Uniformemente Integrável (U.I.) se $\mathbb{X}$ é limitada em $\mathcal{L}^1$ e $I_{\mathbb{X}}(\delta)\downarrow 0$ quando $\delta \downarrow 0.$
Observamos que da desigualdade de Hölder, para os índices p, q $\in(1,\infty)$ temos que
$$\mathbb{E}(|X|1\!\!1_A)\leq \sqrt[p]{\mathbb{E}[|X|^p]}\sqrt[q]{\mathbb{P}(A)}$$
Logo, se $\mathbb{X}$ é limitada em $\mathcal{L}^p$ para algum p$\in(1,\infty)$ então $\mathbb{X}$ é U.I.
Seja $(\Omega,\mathcal{A},\mathbb{P})$ espaço de probabilidade fixado e X uma variável aleatória integrável e o conjunto
$$I_X(\delta)=\sup\{\mathbb{E}[|X|1\!\!1_A];~~A\in\mathcal{A},\mathbb{P}(A)\leq \delta\}$$
Então $I_X(\delta)\downarrow 0$ quando $\delta \downarrow 0.$
Demonstração:
Suponha $I_X(\delta)\downarrow 0$ quando $\delta \downarrow 0$ não ocorre. Então para algum ε>0, existe $A_n\in \mathcal{A}$ com $\mathbb{P}(A_n)\leq\frac{1}{2^n}$ e $\mathbb{E}[|X|1\!\!1_{A_n}]\geq \varepsilon$ para todo n≥1.
Pelo lema de Borel-Cantelli item (i) $\mathbb{P}(A_n,~i.v.)=0.$
Porém, pelo teorema da convergência dominada e definindo $B_n=\displaystyle\bigcup_{m\geq n}A_m$ temos que
$$\varepsilon\leq \mathbb{E}[|X|1\!\!1_{B_m}]\rightarrow \mathbb{E}[|X|1\!\!1_{A_n,~i.v.}]=0$$
que é uma contradição.
$\Box$
O lema 7.1.3.1 mostra que variáveis aleatórias integráveis é uniformemente integrável. A extensão deste resultado é obtido para qualquer coleção de variáveis aleatórias integráveis. Logo, para qualquer variável aleatória integrável $Y$ o conjunto $\mathbb{X}$ é uniformemente integrável, pois $\mathbb{E}(|X|1\!\!1_A)\leq \mathbb{E}[Y1\!\!1_A]$ para todo $A\in \mathcal{A}. $
A seguir, apresentamos uma outra caracterização de U.I.
Seja $\mathbb{X}$ uma família de variáveis aleatórias. Então $\mathbb{X}$ é U.I. se, e somente se,
$$\sup\{\mathbb{E}(|X|\)1\!\!1_{\{|X|\geq K\}}:~~X\in \mathbb{X}\}\rightarrow 0, \quad \text{quando}~K\rightarrow\infty$$
Demonstração:
Suponhamos que $\mathbb{X}$ é U.I. Dado ε>0, escolhemos um δ>0, tal que $I_{\mathbb{X}}(\delta)<\varepsilon,$ então para $K<\infty$ tal que $I_{\mathbb{X}}(1)\leq K\delta.$
Logo, para $X\in\mathbb{X}$ e $A=\{|X|\geq K\}$ obtemos que
$$\mathbb{P}(A)\leq \delta,~~\text{enquanto}~\mathbb{E}(|X|1\!\!1_A)< \varepsilon.$$
Portanto, quando $K\rightarrow\infty,$
$$\sup\{\mathbb{E}(|X|\)1\!\!1_{\{|X|\geq K\}}:~~X\in \mathbb{X}\}\rightarrow 0$$
Reciprocamente, suponhamos que $\displaystyle\sup\{\mathbb{E}(|X|\)1\!\!1_{\{|X|\geq K\}}:~X\in \mathbb{X}\}\rightarrow 0,$ quando $K\rightarrow\infty.$ Desde que
$$\mathbb{E}(|X|)\leq K+\mathbb{E}(|X|_A)$$
obtemos que $I_{\mathbb{X}}(1)<\infty.$ Assim, dado ε>0, escolhemos K < ∞ tal que
$$\mathbb{E}(|X|1\!\!1_A)<\frac{\varepsilon}{2}, \quad \forall X\in\mathbb{X}$$
Então escolhemos um δ>0, tal que Kδ < ε/2.
Logo, para todo $X\in \mathbb{X}$ e $A\in\mathcal{A}$ com $\mathbb{P}(A)< \delta,$ obtemos que
$$\mathbb{E}(|X|1\!\!1_A)\leq \mathbb{E}(|X|1\!\!1_{\{|X|\geq K\}})+K\mathbb{P}(A)< \varepsilon$$
Portanto, $\mathbb{X}$ é U.I.
$\Box$
Agora, necessitamos de uma definição e um resultado que são de grande importância para demonstração do último resultado deste assunto.
Seja $(X_n)_{n\geq 1}$ sequência de variáveis aleatórias definidas no espaço de probabilidade $(\Omega,\mathcal{A},\mathbb{P}).$ Dizemos que $(X_n)_{n\geq 1}$ é uniformemente limitada se existe uma constante K tal que
$$-K\leq X_n(\omega)\leq K, \quad\text{para todo} \omega \in \Omega , ~n\geq 1$$
Seja $(X_n)_{n\geq 1}$ uma sequência uniformemente limitada com $X_n\leq X_{n+1}.$ Então $X^K_n\rightarrow X^K$ quando $n\rightarrow \infty$
Demonstração:
Vamos omitir esta demonstração, pois necessitamos de resultados de análise funcional.
$\Box$
Finalmente, vamos provar o resultado que mostra a condição necessária e suficiente para que a convergência em média p para X, implique em convergência em probabilidade.
Seja $(X_n)_{n\geq 1}$ uma sequência de variáveis aleatórias e X variável aleatória. Obtemos as seguintes equivalências:
Demonstração:
Suponha (1) satisfeita, então pelo teorema 7.1.3.1 para p=1, temos que $X_n\xrightarrow{P}X.$ Além disso, dado ε>0, existe N tal que
$$\mathbb{E}(|X_n-X|)<\frac{\varepsilon}{2},\quad \forall n\geq N.$$
Então, podemos encontrar um δ>0, tal que $\mathbb{P}(A)$≤ δ, isto implica que
$$\mathbb{E}(|X|1\!\!1_A)\leq\frac{\varepsilon}{2},\quad\text{e}\quad\mathbb{E}(|X_n|1\!\!1_A)\leq\varepsilon,\quad\text{para}~n=1,\dots.N$$
Assim, para n ≥ N e $\mathbb{P}(A)\leq\delta$
$$\mathbb{E}(|X_n|1\!\!1_A)\leq\mathbb{E}(|X_n-X|)+\mathbb{E}(|X|1\!\!1_A)\leq\varepsilon$$
Portanto, $(X_n)_{n\geq 1}$ é U.I., com isso, (1)$\Rightarrow$(2).
Agora, suponhamos que (2) é satisfeita. Assim, temos uma subsequência $(n_k)_{k\geq 1}$ tal que $X_n\xrightarrow{q.c.}X$ pelo teorema 7.1.1.4 .
Inicialmente, vamos enunciar o lema de Fatou.
Considere $(X_n)_{n\geq 1}$ sequência de variáveis aleatórias não negativas. Então pelo Teorema da Convergência Monótona temos que $\mathbb{E}[\liminf Xn]\leq\liminf_n \mathbb{E}[X_n].$
Logo, pelo lema de Fatou $\mathbb{E}[|X|]\leq\displaystyle\liminf_k \mathbb{E}[|X_{n_k}|]<\infty.$
Com isso, dado ε > 0, existe um K < ∞ tal que para todo n ≥ 1, temos que
$$\mathbb{E}\left[|X_n|1\!\!1_{\{|X_n|\geq K\}}\right]<\frac{\varepsilon}{3}\quad \text{e}\quad \mathbb{E}\left[|X|1\!\!1_{\{|X|\geq K\}}\right]<\frac{\varepsilon}{3}$$
Consideramos a sequência uniformemente limitada $X^K_n$ e definimos $X^K.$ Então pelo teorema da convergência limitada (teorema 7.1.3.5) existe N tal que, para todo n ≥ N,
$$\mathbb{E}\left[|X^k_n-X|\right]< \frac{\varepsilon}{3}$$
Logo, para todo n ≥ N,
$$\mathbb{E}\left[|X_n-X|\right] \leq \mathbb{E}\left[|X_n|1\!\!1_{\{|X_n|\geq K\}}\right]+\mathbb{E}\left[|X^K_n-X^K|\right]+\mathbb{E}\left[|X|1\!\!1_{\{|X|\geq K\}}\right]<\varepsilon$$
Como tomamos um ε > 0 arbritrário, podemos concluir que (2)$\Rightarrow$(1).
$\Box$
Para finalizar esta seção, vamos apresentar um diagrama dos principais resultados.
Figura 7.1.3.1: Diagrama de implicações entre os tipos de convergência.
O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.