7.1.3 - Convergência em média p

Você está aqui

Nesta seção, vamos estudar as convergências em média p, porém, inicialmente necessitamos de desigualdades importantes como por exemplo as desigualdades de Markov e Chebyshev. Chebyshev estabeleceu uma simples desigualdade que permitiu uma prova trivial da Lei dos Fraca dos Grandes Números. A seguir, apresentamos as principais desigualdades.

Proposição 7.1.3.1:(Desigualdade de Markov)

Seja X uma variável aleatória não negativa, ou seja, que assume apenas valores reais positivos. Então temos que para qualquer $ \varepsilon \textgreater 0 $:


$$\mathbb{P}[X \textgreater \varepsilon]\leq \displaystyle \frac{\mathbb{E}[X]}{\varepsilon}$$

Demonstração:

Para todo $ \varepsilon \textgreater 0 $, observe que


$$X\geq X 1\!\!1_{\{X\geq \varepsilon\}}\geq \varepsilon 1\!\!1_{\{X\geq \varepsilon\}}$$

Logo, $ \mathbb{E}[X]\geq \varepsilon \mathbb{P}\{X\geq \varepsilon\} $

Portanto, $ \mathbb{P}\{X\geq \varepsilon \} \leq \dfrac{\mathbb{E}[X]}{\varepsilon} $ segue a desigualdade de Markov.

$ \Box $

Proposição 7.1.3.2: (Desigualdade de Chebyshev)

Seja X uma variável aleatória tal que $ \mathbb{E}(X)\textless \infty $, $ \text{Var}(X)\textless\infty $ e $ \varepsilon \textgreater 0 $ então:


$$\mathbb{P}[|X-\mathbb{E}[X]|\textgreater \varepsilon]\leq \displaystyle \frac{\text{Var}(X)}{\varepsilon^2}.$$

Demonstração:

Primeiramente vamos definir uma variável aleatória $ Y=(X-\mathbb{E}[X])^2. $ Note que a variável Y satisfaz as hipóteses da desigualdade de Markov, pois Y é uma variável não negativa. Assim, temos que:


$$\mathbb{P}[Y\textgreater \varepsilon^2]\leq \displaystyle \dfrac{\mathbb{E}[Y]}{\varepsilon^2}=\dfrac{\mathbb{E}[(X-\mathbb{E}[X])^2]}{\varepsilon^2}$$

Por definição temos que $ \mathbb{E}[(X-\mathbb{E}[X])^2]=\text{Var}[X], $ então


$$\mathbb{P}[Y\textgreater \varepsilon^2]\leq \displaystyle \frac{\text{Var}[X]}{\varepsilon^2}.$$

Mas sabemos que $ (X-\mathbb{E}[X])^2\geq \varepsilon^2 \Leftrightarrow |X-\mathbb{E}[X]|\geq \varepsilon $. Portanto segue a desigualdade de Chebyshev.

$ \Box $

A seguir, vamos enunciar uma desigualdade importante, que é a desigualdade de Jensen, muito utilizada na teoria das probabilidades. Johan Valdemar Jensen, engenheiro de telecomunicações dinamarquês, publicou esta desigualdade em 1906 na Acta Matemática.

Proposição 7.1.3.3: (Desigualdade de Jensen)

Seja X uma variável aleatória, então para toda a variável aleatória $ X\in \mathcal{L}^1(\mathbb{P}) $ tal que $ -\infty\leq a\textless X\textless b\leq +\infty $ e  (a,b)\rightarrow \mathbb{R} $ convexa


$$\varphi(\mathbb{E}[X])\leq \mathbb{E}[\varphi(X)]$$

Demonstração:

Ideia intuitiva: (Caso particular) Seja $ \varphi(x)=x^2 $ uma função  (a,b)\rightarrow \mathbb{R} $ convexa. Vimos na seção variância de variáveis aleatórias que


\[\text{Var}(X)=\mathbb{E}(X^2)-[\mathbb{E}(X)]^2.\]

Podemos rescrever como


$$\mathbb{E}(X^2)=\underbrace{\text{Var}(X)}_{\geq 0}+[\mathbb{E}(X)]^2\geq [\mathbb{E}(X)]^2$$

O caso geral, pode ser visto no artigo de Johan L. W. V. Jensen. Podemos ver uma outra demonstração no conteúdo Propriedades do valor esperado.

$ \Box $

Proposição 7.1.3.4: (Desigualdade de Cauchy-Schwartz)

Sejam X e Y uma variáveis aleatórias, tais que $ \mathbb{E}[X^2]\textless\infty $ e $ \mathbb{E}[Y^2]\textless\infty, $ então


$$\mathbb{E}[|X|.|Y|]\leq \sqrt{\mathbb{E}[X^2]\mathbb{E}[Y^2]}$$

Demonstração:

Para $ \lambda\in \mathbb{R}, $


$$0\leq\mathbb{E}\left[(\lambda|X|+|Y|)^2\right]=\mathbb{E}[\lambda^2|X|^2+2\lambda|X|.|Y|+|Y|^2]=\lambda^2\mathbb{E}[X^2]+2\lambda\mathbb{E}[|X|.|Y|]+\mathbb{E}[|Y|^2]$$

Usamos a ideia do discriminante na solução da equação do 2º grau da seguinte forma


$$\Delta=4(\mathbb{E}[|X|.|Y|])^2-4\mathbb{E}[|X|^2]\mathbb{E}[|Y|^2]\leq0$$

Portanto,


$$\mathbb{E}[|X|.|Y|]\leq \sqrt{\mathbb{E}[X^2]\mathbb{E}[Y^2]}$$

$ \Box $

Com isso, vamos definir a convergência em média p da seguinte forma.

Definição 7.1.3.1:

Considere $ X $ uma variável aleatória com $ \mathbb{E}[|X|^p]\textless \infty $ e $ \{X_n\}_{n\geq 1} $ sequência de variáveis aleatórias. Dizemos que $ X_n $ converge em média p para X ou converge em $ \mathcal{L}^p $ para X (caso queira saber mais sobre os espaço $ \mathcal{L}^p $ consulte o conteúdo Propriedades do espaço L^p) se


$$\lim_{n\rightarrow\infty}\mathbb{E}\left[|X_n-X|^p\right]=0,\quad \text{para}~p\geq 1$$

Notação: $ X_n\xrightarrow{\mathcal{L}^p}X $

Observação:

quando $ p=2, $ dizemos que converge em média quadrática.

Teorema 7.1.3.1:

Se $ X_n\xrightarrow{\mathcal{L}^p}X $ então $ X_n\xrightarrow{P}X $ para p ≥ 1.

Demonstração:

Dado $ \varepsilon\textgreater 0, $ e da desigualdade de Chebyshev obtemos que


$$0\leq \mathbb{P}\{|X_n-X|\geq \varepsilon\}\overset{\text{Des. Chebychev}}{\leq} \frac{\mathbb{E}\left[|X_n-X|^p\right]}{\varepsilon^p}\xrightarrow{n\rightarrow\infty}0.$$

$ \Box $

Lema 7.1.3.1:

Se   $ X_n\xrightarrow{\mathcal{L}^{2}}X $ então  $ X_n\xrightarrow{\mathcal{L}^{1}}X $

Demonstração:

Sejam Xn, n≥1 e X variáveis aleatórias com $ \mathbb{E}[|X_n|^2]\textless\infty $ e $ \mathbb{E}[|X|^2]\textless\infty. $ Então pela desigualdade de Cauchy-Schwartz temos que


$$\mathbb{E}[|X_n-X|.1]\leq \mathbb{E}\left[|X_n-X|^2\right]^{\frac{1}{2}}.1$$

Como por hipótese $ X_n\xrightarrow{\mathcal{L}^{2}}X, $ isto implica que


$$0\leq\mathbb{E}[|X_n-X|]\leq \mathbb{E}\left[|X_n-X|^2\right]\xrightarrow{n\rightarrow\infty}0.$$

Portanto, $ X_n\xrightarrow{\mathcal{L}^{1}}X $

$ \Box $

Teorema 7.1.3.2:

Sejam p ≥ 1 e s ≥ 0. Se   $ X_n\xrightarrow{\mathcal{L}^{p+s}}X $ então  $ X_n\xrightarrow{\mathcal{L}^{p}}X $

Demonstração:

Consideramos $ q=p+s $ e pela desigualdade de Jensen obtemos que


$$\left(\mathbb{E}|X_n-X|^p\right)^{\frac{1}{p}}\leq \left(\mathbb{E}|X_n-X|^q\right)^{\frac{1}{q}}\rightarrow 0$$

$ \Box $

No caso particular, temos que se  Xn converge em média quadrática para X, então também Xn converge em média para X (lema 7.1.3.1). No teorema 7.1.3.1 vimos que se Xn converge em média p para X então converge em probabilidade, porém a recíproca nem sempre é verdadeira. A seguir, apresentamos um caso particular em que vale a volta.

Teorema 7.1.3.3: (Caso dominado)

Se $ X_n\xrightarrow{P}X $ e existe Y tal que $ \mathbb{E}[Y^p]\textless \infty $ e $ |X_n|\leq Y $ para todo $ n\geq 1, $ então $ X_n\xrightarrow{\mathcal{L}^p}X $

Demonstração:

Observe que para qualquer subsequência $ n_k, $ tomamos uma subsequência $ n_{k_j} $ tal que $ X_{n_{k_j}}-X\xrightarrow{q.c.}0. $

Como $ |X_{n_{k_j}}-X|^p\leq (|X_{n_{k_j}}|+|X|)^p\overset{\text{hipótese}}{\leq}(2Y)^p\textless \infty  $

Pelo teorema da convergência dominada temos que


$$\mathbb{E}[|X_{n_{k_j}}-X|^p]\rightarrow 0.$$

Logo, vale sempre para alguma subsequência de uma sequência arbitrária $ n_k. $

Portanto, $ \mathbb{E}[|X_{n_{k_j}}-X|^p]\rightarrow 0. $

$ \Box $

Teorema 7.1.3.4:

Seja $ (X_n) $ uma sequência de variáveis aleatórias não negativas tal que

$ X_n\stackrel{q.c}{\rightarrow}X $ e $ \mathbb{E}[X_n]\rightarrow \mathbb{E}[X] $, então $ X_n\stackrel{\mathcal{L}^1}{\rightarrow}X $

Demonstração:

Para n suficientemente grande temos que $ \mathbb{E}[X_n]\textless \infty $ e temos que


$$\mathbb{E}[|X_n-X|]=\mathbb{E}[X-X_n]1\!\!1_{\{X_n\leq X\}}+\mathbb{E}[X_n-X]1\!\!1_{\{X_n\textgreater X\}}=2\mathbb{E}[X-X_n]1\!\!1_{\{X_n\leq X\}}+\mathbb{E}[|X_n-X|].$$

Mas $ 0\leq |X_n-X|1\!\!1_{X_n\leq X}\leq X  $.

Assim pelo teorema da convergência dominada  temos que


$$\lim \mathbb{E}[X-X_n]1\!\!1_{\{X_n\leq X\}}=0\quad\text{e}\quad\mathbb{E}[X_n]\rightarrow \mathbb{E}[X],$$

o que prova o resultado.

$ \Box $

Exemplo 7.1.3.1:

Seja $ \alpha=1 $ e $ \{X_n\}_{n\geq 1} $ sequência de variáveis aleatórias tais que

$$\begin{array}{l}\mathbb{P}\{X_n=1\}=1-\frac{1}{n^\alpha}\\\mathbb{P}\{X_n=n\}=\frac{1}{n^\alpha}\end{array},\quad n\geq 1.$$

Primeiramente, vamos verificar a convergência em probabilidade. Assim, dado $ \varepsilon\textgreater 0, $


$$\mathbb{P}\{|X_n-1|\geq \varepsilon\}\leq \mathbb{P}\{X_n=n\}=\frac{1}{n^\alpha}\rightarrow0,\quad n\rightarrow\infty,~\forall \alpha\geq 1$$

Agora, vamos verificar a convergência quase certa. De fato,


$$X_n\xrightarrow{q.c.}1\quad\Rightleftarrow \quad \mathbb{P}\{|X_n-1|\geq \varepsilon,i.v.\}=0,~~\forall \varepsilon \textgreater 0.$$

Por fim, vamos verificar a convergência em média p. Com efeito,


$$\mathbb{E}[|X_n-1|^p]=(n-1)^p\frac{1}{n^\alpha}=\frac{(n-1)^p}{n^p}\frac{1}{n^{\alpha-p}}=\left(1-\frac{1}{p}\right)^p\frac{1}{n^{\alpha-p}}\longrightarrow \left\{\begin{array}{l}0,\quad~~~ p\textless \alpha\\1,\quad~~~ \alpha=p\\+\infty,\quad p\textgreater \alpha\end{array}\right.$$

Mas, $ X_n\xrightarrow{\mathcal{L}^p}1 $ se, e somente se, 1≤p<$ \alpha $.

Exemplo 7.1.3.2:

Suponha que $ X_n\xrightarrow{\mathcal{L}^{p}}X $ e $ X_n\xrightarrow{q.c.}Y. $ Mostre que $ \mathbb{P}\{X=Y\}=1. $

De fato, podemos mostrar este resultado de duas maneiras.

1º modo)

Como da hipótese $ X_n\xrightarrow{\mathcal{L}^{p}}X $ e $ X_n\xrightarrow{q.c.}Y, $ isto implica que   $ X_n\xrightarrow{P}X $ e $ X_n\xrightarrow{P}Y, $então do teorema 7.1.1.7 temos que $ \mathbb{P}\{X=Y\}=1. $

2º modo)

Como da hipótese $ X_n\xrightarrow{\mathcal{L}^{p}}X $ e $ X_n\xrightarrow{q.c.}Y, $ isto implica que   $ X_n\xrightarrow{P}X $ e $ X_n\xrightarrow{P}Y. $ Assim,


$$\varepsilon\leq |X-Y|\leq |X_n-X|+|X_n-Y|$$

Agora, observamos os seguintes eventos


$$[|X-Y|\geq \varepsilon]\subseteq [|X_n-X|\geq \frac{\varepsilon}{2}]\cup[|X_n-Y|\geq \frac{\varepsilon}{2}].$$

Logo,


$$0\leq \mathbb{P}[|X-Y|\geq \varepsilon]\leq \mathbb{P}[|X_n-X|\geq \frac{\varepsilon}{2}]+[|X_n-Y|\geq \frac{\varepsilon}{2}]\rightarrow 0$$

o que implica que $ \mathbb{P}[|X-Y|\geq \varepsilon]\rightarrow 0,~\forall \varepsilon\textgreater 0 $

Portanto,

$$\mathbb{P}[|X-Y|\textgreater 0]=\lim_{n\rightarrow \infty}\mathbb{P}\left(|X-Y|\textgreater \frac{1}{n}\right)=0.$$

Exemplo 7.1.3.3:

Suponha $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias tal que $ \mathbb{E}[X_n]=\mu_n\rightarrow\mu,~\mu\in \mathbb{R} $ e $ \sigma^2_n=\text{Var}(X_n)\xrightarrow{n\rightarrow\infty} 0. $ Mostre que $ X_n\xrightarrow{P}\mu $

De fato, observe que


$$\mathbb{E}\left[(X_n-\mu)^2\right]=\mathbb{E}\left[(X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-\mu)^2\right]=$$


$$=\mathbb{E}\left[(X_n-\mathbb{E}[X_n])^2\right]+\mathbb{E}\left[(\mathbb{E}[X_n]-\mu)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\underbrace{\mathbb{E}\left[(\mathbb{E}[X_n]-\mu)\right]}_{\longrightarrow 0}=$$


$$=\underbrace{\text{Var}(X_n)}_{\xrightarrow{n\rightarrow\infty}0}+\mathbb{E}\left[(\mathbb{E}[X_n]-\mu)^2\right]\xrightarrow{n\rightarrow\infty}0$$

Portanto, $ X_n\xrightarrow{\mathcal{L}^{2}}\mu\quad \overset{\text{Des. de Markov}}{\Rightarrow}\quad X_n\xrightarrow{P}\mu. $

A seguir, apresentamos um exemplo que a convergência em probabilidade não implica em convergência em média p para X.

Exemplo 7.1.3.4: 

Seja $ (X_n)_{n\in\mathbb{N}} $ uma sequência de variáveis aleatórias, definida da seguinte forma:


$$X_n(\omega)=\left\{ \begin{array}{l} e^n~~~ se~0\leq \omega\leq 1/n^2 \\ 0~~~ c.c .\end{array} \right.$$

Note que $ X_n\stackrel{q.c.}{\nrightarrow} X=0 $, pois para $ 0\textless\varepsilon\textless 1 $


$$\sum_{i=1}^{n}\mathbb{P}(|X_n-0|\geq \varepsilon)=\sum_{i=1}^{\infty}\mathbb{P}(|X_n|=e^n)=\sum_{i=1}^{\infty}1/n^2\textless \infty$$

Logo converge quase certamente e portanto converge em probabilidade. Mas observe que não converge em média p para $ X=0 $, pois


$$\lim_{n\rightarrow\infty} \mathbb{E}[|X_n|^p]=\lim_{n\rightarrow\infty} \frac{e^{np}}{n^2}=\infty, ~~\forall p\geq 1.$$

Exemplo 7.1.3.5:

Suponha $ (X_n)_{n\geq 1} $ uma sequência de v.a's tal que


$$\mathbb{P}(X=0)=1-\displaystyle \frac{1}{n}$$


$$\mathbb{P}(X_n=1)=\displaystyle \frac{1}{2n}=\mathbb{P}(X_n=-1).$$

Mostre que $ X_n\stackrel{P}{\rightarrow} 0 $ e $ X_n\stackrel{\mathcal{L}^p}{\rightarrow} 0, $ para todo p≥1.

Primeiramente vamos mostrar que $ X_n\stackrel{P}{\rightarrow} 0. $ Para isto, dado ε>0,


$$\mathbb{P}(|X_n-0|\geq \varepsilon)=\mathbb{P}(X_n=0;X=0)+\mathbb{P}(X_n=0;X=1)+\mathbb{P}(X_n=0;X=-1)=$$

$ =\left(1-\dfrac{1}{n}\right)\dfrac{1}{2n}+\dfrac{1}{4n^2}+\dfrac{1}{4n^2}\xrightarrow{n\rightarrow\infty}0 $

Portanto concluímos que,


$$X_n\stackrel{P}{\rightarrow} 0.$$

Agora, vamos mostrar que $ X_n\stackrel{\mathcal{L}^p}{\rightarrow} 0, $ para todo p≥1. Para tanto


$$\mathbb{E}[|X_n-0|^p]=1^p\frac{1}{2^n}+0^p\left(1-\frac{1}{n}\right)+(-1)^p\frac{1}{2n}=(1+(-1)^p)\frac{1}{2n}\xrightarrow{n\rightarrow\infty}0$$

Portanto $ X_n\stackrel{\mathcal{L}^p}{\rightarrow} 0. $

Exemplo 7.1.3.6:

Para $ c\in\mathbb{R} $, constante, mostre que $ X_n\stackrel{\mathcal{L}^2}{\rightarrow} c $ se, e somente se, $ \mathbb{E}[X_n]\rightarrow c $ e $ Var[X_n]\rightarrow 0 $.

Primeiramente supomos que $ X_n\stackrel{\mathcal{L}^2}{\rightarrow} c $.


$$\mathbb{E}\left[(X_n-c)^2\right]=\mathbb{E}\left[(X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-c)^2\right]=$$


$$=\mathbb{E}\left[(X_n-\mathbb{E}[X_n])^2\right]+\mathbb{E}\left[(\mathbb{E}[X_n]-c)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\mathbb{E}\left[(\mathbb{E}[X_n]-c)\right]=$$


$$=\text{Var}(X_n)+\mathbb{E}\left[(\mathbb{E}[X_n]-c)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\mathbb{E}\left[(\mathbb{E}[X_n]-c)\right]\xrightarrow{n\rightarrow\infty}0$$

Isto ocorre se todas as parcelas convergem a zero. Portanto


$$\text{Var}[X_n]\rightarrow 0,$$


$$\quad(\mathbb{E}[X_n]-c)^2\rightarrow 0~~\text{e}~~\mathbb{E}[X_n]-c\rightarrow0,~\text{ou seja},~\mathbb{E}[X_n]\rightarrow c$$

Por outro lado, suponhamos que $ \mathbb{E}[X_n]\rightarrow c $ e $ \text{Var}[X_n]\rightarrow 0 $. Usando os mesmos argumentos, obtemos que


$$\mathbb{E}\left[(X_n-c)^2\right]=\mathbb{E}\left[(X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-c)^2\right]=$$


$$=\mathbb{E}\left[(X_n-\mathbb{E}[X_n])^2\right]+\mathbb{E}\left[(\mathbb{E}[X_n]-c)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\underbrace{\mathbb{E}\left[(\mathbb{E}[X_n]-c)\right]}_{\longrightarrow 0}=$$


$$=\underbrace{\text{Var}(X_n)}_{\xrightarrow{n\rightarrow\infty}0}+\mathbb{E}\left[(\underbrace{\mathbb{E}[X_n]}_{\xrightarrow{n\rightarrow\infty} c}-c)^2\right]\xrightarrow{n\rightarrow\infty}0$$

Portanto  $ X_n\stackrel{\mathcal{L}^2}{\rightarrow} c. $

 

Uniformemente integrável e limitado em $ \mathcal{L}^1. $

A principal preocupação entre as relações dos tipos de convergência estocástica é saber se é uma condição necessária e suficiente. Para isto vamos introduzir o conceito de Uniformemente Integrável (UI) e limitado em $ \mathcal{L}^1. $ A seguir, vamos apresentar resultados e definições para mostrar que uma condição necessária e suficiente para que a convergência em média p para X, implique em convergência em probabilidade.

Definição 7.1.3.2:

Seja $ (X_n)_{n\in\mathbb{N}} $ uma sequência de variáveis aleatórias tais que exista Y≥0 variável aleatória tal que Xn≤Y, para todo n≥1 $ \mahtbb{E}[Y]\textless\infty $ . Dizemos que ~X $ é uma variável aleatória,$ |X|\leq Y\} $ família de variáveis aleatórias é limitada em $ \mathcal{L}^p,~1\leq p\leq \infty $se $ \sup_{n\geq 1}\sqrt[p]{\mathbb{E}[|X|^p]}\textless \infty, $ e também definimos


$$I_{\mathbb{X}}(\delta)=\sup\{\mathbb{E}(|X|1\!\!1_{A});~~X\in \mathbb{X},~A\in \mathcal{A},~\mathbb{P}(A)\leq\delta\}$$

Obs: (caso queira saber mais sobre os espaço $ \mathcal{L}^p $ consulte o conteúdo Propriedades do espaço L^p)

Observamos que $ \mathbb{X} $ é limitada em $ \mathcal{L}^1 $ se, e somente se $ I_{\mathbb{X}}(1)\textless \infty. $

Definição 7.1.3.3:

Seja $ \mathbb{X} $ uma família de variáveis aleatórias. Dizemos que $ \mathbb{X} $ é Uniformemente Integrável (U.I.) se $ \mathbb{X} $ é limitada em $ \mathcal{L}^1 $ e $ I_{\mathbb{X}}(\delta)\downarrow 0 $ quando $ \delta \downarrow 0. $ 

Observamos que da desigualdade de Hölder, para os índices p, q $ \in(1,\infty) $ temos que


$$\mathbb{E}(|X|1\!\!1_A)\leq \sqrt[p]{\mathbb{E}[|X|^p]}\sqrt[q]{\mathbb{P}(A)}$$

Logo, se $ \mathbb{X} $ é limitada em $ \mathcal{L}^p $ para algum p$ \in(1,\infty) $ então $ \mathbb{X} $ é U.I.

Lema 7.1.3.1:

Seja $ (\Omega,\mathcal{A},\mathbb{P}) $ espaço de probabilidade fixado e X uma variável aleatória integrável e o conjunto


$$I_X(\delta)=\sup\{\mahtbb{E}[|X|1\!\!1_A];~~A\in\mathcal{A},\mathbb{P}(A)\leq \delta\}$$

Então $ I_X(\delta)\downarrow 0 $ quando $ \delta \downarrow 0. $

Demonstração:

Suponha $ I_X(\delta)\downarrow 0 $ quando $ \delta \downarrow 0 $ não ocorre. Então para algum ε>0, existe $ A_n\in \mathcal{A} $ com $ \mathbb{P}(A_n)\leq\frac{1}{2^n} $ e $ \mathbb{E}[|X|1\!\!1_{A_n}]\geq \varepsilon $ para todo n≥1.

Pelo lema de Borel-Cantelli item (i) $ \mathbb{P}(A_n,~i.v.)=0. $

Porém, pelo teorema da convergência dominada  e definindo $ B_n=\displaystyle\bigcup_{m\geq n}A_m $ temos que


$$\varepsilon\leq \mathbb{E}[|X|1\!\!1_{B_m}]\rightarrow \mathbb{E}[|X|1\!\!1_{A_n,~i.v.}]=0$$

que é uma contradição.

$ \Box $

O lema 7.1.3.1 mostra que variáveis aleatórias integráveis é uniformemente integrável. A extensão deste resultado é obtido para qualquer coleção de variáveis aleatórias integráveis. Logo, para qualquer variável aleatória integrável $ Y $ o conjunto $ \mathbb{X} $ é uniformemente integrável, pois $ \mathbb{E}(|X|1\!\!1_A)\leq \mathbb{E}[Y1\!\!1_A] $ para todo $ A\in \mathcal{A}.  $

A seguir, apresentamos uma outra caracterização de U.I.

Lema 7.1.3.2:

Seja $ \mathbb{X} $ uma família de variáveis aleatórias. Então $ \mathbb{X} $ é U.I. se, e somente se,


~~X\in \mathbb{X}\}\rightarrow 0, \quad \text{quando}~K\rightarrow\infty$$

Demonstração:

Suponhamos que $ \mathbb{X} $ é U.I. Dado ε>0, escolhemos um δ>0, tal que $ I_{\mathbb{X}}(\delta)\textless\varepsilon, $ então para $ K\textless\infty $ tal que $ I_{\mathbb{X}}(1)\leq K\delta. $

Logo, para $ X\in\mathbb{X} $ e $ A=\{|X|\geq K\} $ obtemos que


$$\mathbb{P}(A)\leq \delta,~~\text{enquanto}~\mathbb{E}(|X|1\!\!1_A)\textless \varepsilon.$$

Portanto, quando $ K\rightarrow\infty, $


~~X\in \mathbb{X}\}\rightarrow 0$$

Reciprocamente, suponhamos que ~X\in \mathbb{X}\}\rightarrow 0, $ quando $ K\rightarrow\infty. $ Desde que


$$\mathbb{E}(|X|)\leq K+\mathbb{E}(|X|_A)$$

obtemos que $ I_{\mathbb{X}}(1)\textless\infty. $ Assim, dado ε>0, escolhemos K < ∞ tal que


$$\mahtbb{E}(|X|1\!\!1_A)\textless\frac{\varepsilon}{2}, \quad \forall X\in\mahtbb{X}$$

Então escolhemos um δ>0, tal que Kδ < ε/2.

Logo, para todo $ X\in \mathbb{X} $ e $ A\in\mathcal{A} $ com $ \mathbb{P}(A)\textless \delta, $ obtemos que


$$\mathbb{E}(|X|1\!\!1_A)\leq \mathbb{E}(|X|1\!\!1_{\{|X|\geq K\}})+K\mathbb{P}(A)\textless \varepsilon$$

Portanto, $ \mathbb{X} $ é U.I.

$ \Box $

Agora, necessitamos de uma definição e um resultado que são de grande importância para demonstração do último resultado  deste assunto.

Definição 7.1.3.4:

Seja $ (X_n)_{n\geq 1} $ sequência de variáveis aleatórias definidas no espaço de probabilidade $ (\Omega,\mathcal{A},\mathbb{P}). $ Dizemos que $ (X_n)_{n\geq 1} $ é uniformemente limitada se existe uma constante K tal que


$$-K\leq X_n(\omega)\leq K, \quad\text{para todo} \omega \in \Omega , ~n\geq 1$$

Teorema 7.1.3.5:

Seja $ (X_n)_{n\geq 1} $ uma sequência uniformemente limitada com $ X_n\leq X_{n+1}. $ Então $ X^K_n\rightarrow X^K $ quando $ n\rightarrow \infty $

Demonstração:

Vamos omitir esta demonstração, pois necessitamos de resultados de análise funcional.

$ \Box $

Finalmente, vamos provar o resultado que mostra a condição necessária e suficiente para que a convergência em média p para X, implique em convergência em probabilidade.

Teorema 7.1.3.6:

Seja $ (X_n)_{n\geq 1} $ uma sequência de variáveis aleatórias e X variável aleatória. Obtemos as seguintes equivalências:

  1. $ X_n\in \mathcal{L}^1 $ para todo n≥1, $ X\in \mahtcal{L}^1 $ e $ X_n\xrightarrow{\mathcal{L}^1} X $
  2. $ (X_n)_{n\geq 1} $ é U.I. e $ X_n\xrightarrow{P}X $

Demonstração:

Suponha (1) satisfeita, então pelo teorema 7.1.3.1 para p=1, temos que $ X_n\xrightarrow{P}X. $ Além disso, dado ε>0, existe N tal que


$$\mathbb{E}(|X_n-X|)\textless\frac{\varepsilon}{2},\quad \forall n\geq N.$$

Então, podemos encontrar um δ>0, tal que $ \mathbb{P}(A) $ δ, isto implica que


$$\mathbb{E}(|X|1\!\!1_A)\leq\frac{\varepsilon}{2},\quad\text{e}\quad\mathbb{E}(|X_n|1\!\!1_A)\leq\varepsilon,\quad\text{para}~n=1,\dots.N$$

Assim, para n ≥ N e $ \mathbb{P}(A)\leq\delta $


$$\mathbb{E}(|X_n|1\!\!1_A)\leq\mathbb{E}(|X_n-X|)+\mathbb{E}(|X|1\!\!1_A)\leq\varepsilon$$

Portanto, $ (X_n)_{n\geq 1} $ é U.I., com isso, (1)$ \Rightarrow $(2).

Agora, suponhamos que (2) é satisfeita. Assim, temos uma subsequência $ (n_k)_{k\geq 1} $ tal que $ X_n\xrightarrow{q.c.}X $ pelo teorema 7.1.1.4 .

Inicialmente, vamos enunciar o lema de Fatou.

Lema de Fatou:

Considere $ (X_n)_{n\geq 1} $ sequência de variáveis aleatórias não negativas. Então pelo  Teorema da Convergência Monótona temos que $ \mathbb{E}[\liminf Xn]\leq\liminf_n \mathbb{E}[X_n]. $

Logo, pelo lema de Fatou $ \mathbb{E}[|X|]\leq\displaystyle\liminf_k \mathbb{E}[|X_{n_k}|]\textless\infty. $

Com isso, dado ε > 0, existe um K < ∞ tal que para todo n ≥ 1, temos que


$$\mathbb{E}\left[|X_n|1\!\!1_{\{|X_n|\geq K\}}\right]\textless\frac{\varepsilon}{3}\quad \text{e}\quad \mathbb{E}\left[|X|1\!\!1_{\{|X|\geq K\}}\right]\textless\frac{\varepsilon}{3}$$

Consideramos a sequência uniformemente limitada $ X^K_n $ e definimos $ X^K. $ Então pelo teorema da convergência limitada (teorema 7.1.3.5) existe N tal que, para todo n ≥ N,


$$\mathbb{E}\left[|X^k_n-X|\right]\textless \frac{\varepsilon}{3}$$

Logo, para todo n ≥ N,


$$\mathbb{E}\left[|X_n-X|\right] \leq \mathbb{E}\left[|X_n|1\!\!1_{\{|X_n|\geq K\}}\right]+\mathbb{E}\left[|X^K_n-X^K|\right]+\mathbb{E}\left[|X|1\!\!1_{\{|X|\geq K\}}\right]\textless\varepsilon$$

Como tomamos um ε > 0 arbritrário, podemos concluir que (2)$ \Rightarrow $(1).

$ \Box $

Para finalizar esta seção, vamos apresentar um diagrama dos principais resultados.


Figura 7.1.3.1: Diagrama de implicações entre os tipos de convergência.

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]