7.1.3 - Convergência em média p

Você está aqui

Nesta seção, vamos estudar as convergências em média p, porém, inicialmente necessitamos de desigualdades importantes como por exemplo as desigualdades de Markov e Chebyshev. Chebyshev estabeleceu uma simples desigualdade que permitiu uma prova trivial da Lei dos Fraca dos Grandes Números. A seguir, apresentamos as principais desigualdades.

Proposição 7.1.3.1:(Desigualdade de Markov)

Seja X uma variável aleatória não negativa, ou seja, que assume apenas valores reais positivos. Então temos que para qualquer $\varepsilon > 0$:

$$\mathbb{P}[X > \varepsilon]\leq \displaystyle \frac{\mathbb{E}[X]}{\varepsilon}$$

Demonstração:

Para todo $\varepsilon > 0$, observe que

$$X\geq X 1\!\!1_{\{X\geq \varepsilon\}}\geq \varepsilon 1\!\!1_{\{X\geq \varepsilon\}}$$

Logo, $\mathbb{E}[X]\geq \varepsilon \mathbb{P}\{X\geq \varepsilon\}$

Portanto, $\mathbb{P}\{X\geq \varepsilon \} \leq \dfrac{\mathbb{E}[X]}{\varepsilon}$ segue a desigualdade de Markov.

$\Box$

Proposição 7.1.3.2: (Desigualdade de Chebyshev)

Seja X uma variável aleatória tal que $\mathbb{E}(X)< \infty$, $\text{Var}(X)<\infty$ e $\varepsilon > 0$ então:

$$\mathbb{P}[|X-\mathbb{E}[X]|> \varepsilon]\leq \displaystyle \frac{\text{Var}(X)}{\varepsilon^2}.$$

Demonstração:

Primeiramente vamos definir uma variável aleatória $Y=(X-\mathbb{E}[X])^2.$ Note que a variável Y satisfaz as hipóteses da desigualdade de Markov, pois Y é uma variável não negativa. Assim, temos que:

$$\mathbb{P}[Y> \varepsilon^2]\leq \displaystyle \dfrac{\mathbb{E}[Y]}{\varepsilon^2}=\dfrac{\mathbb{E}[(X-\mathbb{E}[X])^2]}{\varepsilon^2}$$

Por definição temos que $\mathbb{E}[(X-\mathbb{E}[X])^2]=\text{Var}[X],$ então

$$\mathbb{P}[Y> \varepsilon^2]\leq \displaystyle \frac{\text{Var}[X]}{\varepsilon^2}.$$

Mas sabemos que $(X-\mathbb{E}[X])^2\geq \varepsilon^2 \Leftrightarrow |X-\mathbb{E}[X]|\geq \varepsilon$. Portanto segue a desigualdade de Chebyshev.

$\Box$

A seguir, vamos enunciar uma desigualdade importante, que é a desigualdade de Jensen, muito utilizada na teoria das probabilidades. Johan Valdemar Jensen, engenheiro de telecomunicações dinamarquês, publicou esta desigualdade em 1906 na Acta Matemática.

Proposição 7.1.3.3: (Desigualdade de Jensen)

Seja X uma variável aleatória, então para toda a variável aleatória $X\in \mathcal{L}^1(\mathbb{P})$ tal que $-\infty\leq a< X< b\leq +\infty$ e $\varphi: (a,b)\rightarrow \mathbb{R}$ convexa

$$\varphi(\mathbb{E}[X])\leq \mathbb{E}[\varphi(X)]$$

Demonstração:

Ideia intuitiva: (Caso particular) Seja $\varphi(x)=x^2$ uma função $\varphi: (a,b)\rightarrow \mathbb{R}$ convexa. Vimos na seção variância de variáveis aleatórias que

\[\text{Var}(X)=\mathbb{E}(X^2)-[\mathbb{E}(X)]^2.\]

Podemos rescrever como

$$\mathbb{E}(X^2)=\underbrace{\text{Var}(X)}_{\geq 0}+[\mathbb{E}(X)]^2\geq [\mathbb{E}(X)]^2$$

O caso geral, pode ser visto no artigo de Johan L. W. V. Jensen. Podemos ver uma outra demonstração no conteúdo Propriedades do valor esperado.

$\Box$

Proposição 7.1.3.4: (Desigualdade de Cauchy-Schwartz)

Sejam X e Y uma variáveis aleatórias, tais que $\mathbb{E}[X^2]<\infty$ e $\mathbb{E}[Y^2]<\infty,$ então

$$\mathbb{E}[|X|.|Y|]\leq \sqrt{\mathbb{E}[X^2]\mathbb{E}[Y^2]}$$

Demonstração:

Para $\lambda\in \mathbb{R},$

$$0\leq\mathbb{E}\left[(\lambda|X|+|Y|)^2\right]=\mathbb{E}[\lambda^2|X|^2+2\lambda|X|.|Y|+|Y|^2]=\lambda^2\mathbb{E}[X^2]+2\lambda\mathbb{E}[|X|.|Y|]+\mathbb{E}[|Y|^2]$$

Usamos a ideia do discriminante na solução da equação do 2º grau da seguinte forma

$$\Delta=4(\mathbb{E}[|X|.|Y|])^2-4\mathbb{E}[|X|^2]\mathbb{E}[|Y|^2]\leq0$$

Portanto,

$$\mathbb{E}[|X|.|Y|]\leq \sqrt{\mathbb{E}[X^2]\mathbb{E}[Y^2]}$$

$\Box$

Com isso, vamos definir a convergência em média p da seguinte forma.

Definição 7.1.3.1:

Considere $X$ uma variável aleatória com $\mathbb{E}[|X|^p]< \infty$ e $\{X_n\}_{n\geq 1}$ sequência de variáveis aleatórias. Dizemos que $X_n$ converge em média p para X ou converge em $\mathcal{L}^p$ para X (caso queira saber mais sobre os espaço $\mathcal{L}^p$ consulte o conteúdo Propriedades do espaço L^p) se

$$\lim_{n\rightarrow\infty}\mathbb{E}\left[|X_n-X|^p\right]=0,\quad \text{para}~p\geq 1$$

Notação: $X_n\xrightarrow{\mathcal{L}^p}X$

Observação:

quando $p=2,$ dizemos que converge em média quadrática.

Teorema 7.1.3.1:

Se $X_n\xrightarrow{\mathcal{L}^p}X$ então $X_n\xrightarrow{P}X$ para p ≥ 1.

Demonstração:

Dado $\varepsilon> 0,$ e da desigualdade de Chebyshev obtemos que

$$0\leq \mathbb{P}\{|X_n-X|\geq \varepsilon\}\overset{\text{Des. Chebychev}}{\leq} \frac{\mathbb{E}\left[|X_n-X|^p\right]}{\varepsilon^p}\xrightarrow{n\rightarrow\infty}0.$$

$\Box$

Lema 7.1.3.1:

Se   $X_n\xrightarrow{\mathcal{L}^{2}}X$ então  $X_n\xrightarrow{\mathcal{L}^{1}}X$

Demonstração:

Sejam Xn, n≥1 e X variáveis aleatórias com $\mathbb{E}[|X_n|^2]<\infty$ e $\mathbb{E}[|X|^2]<\infty.$ Então pela desigualdade de Cauchy-Schwartz temos que

$$\mathbb{E}[|X_n-X|.1]\leq \mathbb{E}\left[|X_n-X|^2\right]^{\frac{1}{2}}.1$$

Como por hipótese $X_n\xrightarrow{\mathcal{L}^{2}}X,$ isto implica que

$$0\leq\mathbb{E}[|X_n-X|]\leq \mathbb{E}\left[|X_n-X|^2\right]\xrightarrow{n\rightarrow\infty}0.$$

Portanto, $X_n\xrightarrow{\mathcal{L}^{1}}X$

$\Box$

Teorema 7.1.3.2:

Sejam p ≥ 1 e s ≥ 0. Se   $X_n\xrightarrow{\mathcal{L}^{p+s}}X$ então  $X_n\xrightarrow{\mathcal{L}^{p}}X$

Demonstração:

Consideramos $q=p+s$ e pela desigualdade de Jensen obtemos que

$$\left(\mathbb{E}|X_n-X|^p\right)^{\frac{1}{p}}\leq \left(\mathbb{E}|X_n-X|^q\right)^{\frac{1}{q}}\rightarrow 0$$

$\Box$

No caso particular, temos que se  Xn converge em média quadrática para X, então também Xn converge em média para X (lema 7.1.3.1). No teorema 7.1.3.1 vimos que se Xn converge em média p para X então converge em probabilidade, porém a recíproca nem sempre é verdadeira. A seguir, apresentamos um caso particular em que vale a volta.

Teorema 7.1.3.3: (Caso dominado)

Se $X_n\xrightarrow{P}X$ e existe Y tal que $\mathbb{E}[Y^p]< \infty$ e $|X_n|\leq Y$ para todo $n\geq 1,$ então $X_n\xrightarrow{\mathcal{L}^p}X$

Demonstração:

Observe que para qualquer subsequência $n_k,$ tomamos uma subsequência $n_{k_j}$ tal que $X_{n_{k_j}}-X\xrightarrow{q.c.}0.$

Como $|X_{n_{k_j}}-X|^p\leq (|X_{n_{k_j}}|+|X|)^p\overset{\text{hipótese}}{\leq}(2Y)^p< \infty $

Pelo teorema da convergência dominada temos que

$$\mathbb{E}[|X_{n_{k_j}}-X|^p]\rightarrow 0.$$

Logo, vale sempre para alguma subsequência de uma sequência arbitrária $n_k.$

Portanto, $\mathbb{E}[|X_{n_{k_j}}-X|^p]\rightarrow 0.$

$\Box$

Teorema 7.1.3.4:

Seja $(X_n)$ uma sequência de variáveis aleatórias não negativas tal que

$X_n\stackrel{q.c}{\rightarrow}X$ e $\mathbb{E}[X_n]\rightarrow \mathbb{E}[X]$, então $X_n\stackrel{\mathcal{L}^1}{\rightarrow}X$

Demonstração:

Para n suficientemente grande temos que $\mathbb{E}[X_n]< \infty$ e temos que

$$\mathbb{E}[|X_n-X|]=\mathbb{E}[X-X_n]1\!\!1_{\{X_n\leq X\}}+\mathbb{E}[X_n-X]1\!\!1_{\{X_n> X\}}=2\mathbb{E}[X-X_n]1\!\!1_{\{X_n\leq X\}}+\mathbb{E}[|X_n-X|].$$

Mas $0\leq |X_n-X|1\!\!1_{X_n\leq X}\leq X $.

Assim pelo teorema da convergência dominada  temos que

$$\lim \mathbb{E}[X-X_n]1\!\!1_{\{X_n\leq X\}}=0\quad\text{e}\quad\mathbb{E}[X_n]\rightarrow \mathbb{E}[X],$$

o que prova o resultado.

$\Box$

Exemplo 7.1.3.1:

Seja $\alpha=1$ e $\{X_n\}_{n\geq 1}$ sequência de variáveis aleatórias tais que $$\begin{array}{l}\mathbb{P}\{X_n=1\}=1-\frac{1}{n^\alpha}\\\mathbb{P}\{X_n=n\}=\frac{1}{n^\alpha}\end{array},\quad n\geq 1.$$

Primeiramente, vamos verificar a convergência em probabilidade. Assim, dado $\varepsilon> 0,$

$$\mathbb{P}\{|X_n-1|\geq \varepsilon\}\leq \mathbb{P}\{X_n=n\}=\frac{1}{n^\alpha}\rightarrow0,\quad n\rightarrow\infty,~\forall \alpha\geq 1$$

Agora, vamos verificar a convergência quase certa. De fato,

$$X_n\xrightarrow{q.c.}1\quad\Rightarrow \quad \mathbb{P}\{|X_n-1|\geq \varepsilon,i.v.\}=0,~~\forall \varepsilon > 0.$$

Por fim, vamos verificar a convergência em média p. Com efeito,

$$\mathbb{E}[|X_n-1|^p]=(n-1)^p\frac{1}{n^\alpha}=\frac{(n-1)^p}{n^p}\frac{1}{n^{\alpha-p}}=\left(1-\frac{1}{p}\right)^p\frac{1}{n^{\alpha-p}}\longrightarrow \left\{\begin{array}{l}0,\quad~~~ p< \alpha\\1,\quad~~~ \alpha=p\\+\infty,\quad p> \alpha\end{array}\right.$$

Mas, $X_n\xrightarrow{\mathcal{L}^p}1$ se, e somente se, 1≤p<$\alpha$.

Exemplo 7.1.3.2:

Suponha que $X_n\xrightarrow{\mathcal{L}^{p}}X$ e $X_n\xrightarrow{q.c.}Y.$ Mostre que $\mathbb{P}\{X=Y\}=1.$

De fato, podemos mostrar este resultado de duas maneiras.

1º modo)

Como da hipótese $X_n\xrightarrow{\mathcal{L}^{p}}X$ e $X_n\xrightarrow{q.c.}Y,$ isto implica que   $X_n\xrightarrow{P}X$ e $X_n\xrightarrow{P}Y,$ então do teorema 7.1.1.7 temos que $\mathbb{P}\{X=Y\}=1.$

2º modo)

Como da hipótese $X_n\xrightarrow{\mathcal{L}^{p}}X$ e $X_n\xrightarrow{q.c.}Y,$ isto implica que   $X_n\xrightarrow{P}X$ e $X_n\xrightarrow{P}Y.$ Assim,

$$\varepsilon\leq |X-Y|\leq |X_n-X|+|X_n-Y|$$

Agora, observamos os seguintes eventos

$$[|X-Y|\geq \varepsilon]\subseteq [|X_n-X|\geq \frac{\varepsilon}{2}]\cup[|X_n-Y|\geq \frac{\varepsilon}{2}].$$

Logo,

$$0\leq \mathbb{P}[|X-Y|\geq \varepsilon]\leq \mathbb{P}[|X_n-X|\geq \frac{\varepsilon}{2}]+[|X_n-Y|\geq \frac{\varepsilon}{2}]\rightarrow 0$$

o que implica que $\mathbb{P}[|X-Y|\geq \varepsilon]\rightarrow 0,~\forall \varepsilon> 0$

Portanto, $$\mathbb{P}[|X-Y|> 0]=\lim_{n\rightarrow \infty}\mathbb{P}\left(|X-Y|> \frac{1}{n}\right)=0.$$

Exemplo 7.1.3.3:

Suponha $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias tal que $\mathbb{E}[X_n]=\mu_n\rightarrow\mu,~\mu\in \mathbb{R}$ e $\sigma^2_n=\text{Var}(X_n)\xrightarrow{n\rightarrow\infty} 0.$ Mostre que $X_n\xrightarrow{P}\mu$

De fato, observe que

$$\mathbb{E}\left[(X_n-\mu)^2\right]=\mathbb{E}\left[(X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-\mu)^2\right]=$$

$$=\mathbb{E}\left[(X_n-\mathbb{E}[X_n])^2\right]+\mathbb{E}\left[(\mathbb{E}[X_n]-\mu)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\underbrace{\mathbb{E}\left[(\mathbb{E}[X_n]-\mu)\right]}_{\longrightarrow 0}=$$

$$=\underbrace{\text{Var}(X_n)}_{\xrightarrow{n\rightarrow\infty}0}+\mathbb{E}\left[(\mathbb{E}[X_n]-\mu)^2\right]\xrightarrow{n\rightarrow\infty}0$$

Portanto, $X_n\xrightarrow{\mathcal{L}^{2}}\mu\quad \overset{\text{Des. de Markov}}{\Rightarrow}\quad X_n\xrightarrow{P}\mu.$

A seguir, apresentamos um exemplo que a convergência em probabilidade não implica em convergência em média p para X.

Exemplo 7.1.3.4: 

Seja $(X_n)_{n\in\mathbb{N}}$ uma sequência de variáveis aleatórias, definida da seguinte forma:

$$X_n(\omega)=\left\{ \begin{array}{l} e^n~~~ se~0\leq \omega\leq 1/n^2 \\ 0~~~ c.c .\end{array} \right.$$

Note que $X_n\stackrel{q.c.}{\nrightarrow} X=0$, pois para $0<\varepsilon< 1$

$$\sum_{i=1}^{n}\mathbb{P}(|X_n-0|\geq \varepsilon)=\sum_{i=1}^{\infty}\mathbb{P}(|X_n|=e^n)=\sum_{i=1}^{\infty}1/n^2< \infty$$

Logo converge quase certamente e portanto converge em probabilidade. Mas observe que não converge em média p para $X=0$, pois

$$\lim_{n\rightarrow\infty} \mathbb{E}[|X_n|^p]=\lim_{n\rightarrow\infty} \frac{e^{np}}{n^2}=\infty, ~~\forall p\geq 1.$$

Exemplo 7.1.3.5:

Suponha $(X_n)_{n\geq 1}$ uma sequência de v.a's tal que

$$\mathbb{P}(X=0)=1-\displaystyle \frac{1}{n}$$

$$\mathbb{P}(X_n=1)=\displaystyle \frac{1}{2n}=\mathbb{P}(X_n=-1).$$

Mostre que $X_n\stackrel{P}{\rightarrow} 0$ e $X_n\stackrel{\mathcal{L}^p}{\rightarrow} 0,$ para todo p≥1.

Primeiramente vamos mostrar que $X_n\stackrel{P}{\rightarrow} 0.$ Para isto, dado ε>0,

$$\mathbb{P}(|X_n-0|\geq \varepsilon)=\mathbb{P}(X_n=0;X=0)+\mathbb{P}(X_n=0;X=1)+\mathbb{P}(X_n=0;X=-1)=$$

$=\left(1-\dfrac{1}{n}\right)\dfrac{1}{2n}+\dfrac{1}{4n^2}+\dfrac{1}{4n^2}\xrightarrow{n\rightarrow\infty}0$

Portanto concluímos que,

$$X_n\stackrel{P}{\rightarrow} 0.$$

Agora, vamos mostrar que $X_n\stackrel{\mathcal{L}^p}{\rightarrow} 0,$ para todo p≥1. Para tanto

$$\mathbb{E}[|X_n-0|^p]=1^p\frac{1}{2^n}+0^p\left(1-\frac{1}{n}\right)+(-1)^p\frac{1}{2n}=(1+(-1)^p)\frac{1}{2n}\xrightarrow{n\rightarrow\infty}0$$

Portanto $X_n\stackrel{\mathcal{L}^p}{\rightarrow} 0.$

Exemplo 7.1.3.6:

Para $c\in\mathbb{R}$, constante, mostre que $X_n\stackrel{\mathcal{L}^2}{\rightarrow} c$ se, e somente se, $\mathbb{E}[X_n]\rightarrow c$ e $Var[X_n]\rightarrow 0$.

Primeiramente supomos que $X_n\stackrel{\mathcal{L}^2}{\rightarrow} c$.

$$\mathbb{E}\left[(X_n-c)^2\right]=\mathbb{E}\left[(X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-c)^2\right]=$$

$$=\mathbb{E}\left[(X_n-\mathbb{E}[X_n])^2\right]+\mathbb{E}\left[(\mathbb{E}[X_n]-c)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\mathbb{E}\left[(\mathbb{E}[X_n]-c)\right]=$$

$$=\text{Var}(X_n)+\mathbb{E}\left[(\mathbb{E}[X_n]-c)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\mathbb{E}\left[(\mathbb{E}[X_n]-c)\right]\xrightarrow{n\rightarrow\infty}0$$

Isto ocorre se todas as parcelas convergem a zero. Portanto

$$\text{Var}[X_n]\rightarrow 0,$$

$$\quad(\mathbb{E}[X_n]-c)^2\rightarrow 0~~\text{e}~~\mathbb{E}[X_n]-c\rightarrow0,~\text{ou seja},~\mathbb{E}[X_n]\rightarrow c$$

Por outro lado, suponhamos que $\mathbb{E}[X_n]\rightarrow c$ e $\text{Var}[X_n]\rightarrow 0$. Usando os mesmos argumentos, obtemos que

$$\mathbb{E}\left[(X_n-c)^2\right]=\mathbb{E}\left[(X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-c)^2\right]=$$

$$=\mathbb{E}\left[(X_n-\mathbb{E}[X_n])^2\right]+\mathbb{E}\left[(\mathbb{E}[X_n]-c)^2\right]-2\mathbb{E}\left[(X_n-\mathbb{E}[X_n])\right]\underbrace{\mathbb{E}\left[(\mathbb{E}[X_n]-c)\right]}_{\longrightarrow 0}=$$

$$=\underbrace{\text{Var}(X_n)}_{\xrightarrow{n\rightarrow\infty}0}+\mathbb{E}\left[(\underbrace{\mathbb{E}[X_n]}_{\xrightarrow{n\rightarrow\infty} c}-c)^2\right]\xrightarrow{n\rightarrow\infty}0$$

Portanto  $X_n\stackrel{\mathcal{L}^2}{\rightarrow} c.$

 

Uniformemente integrável e limitado em $\mathcal{L}^1.$

A principal preocupação entre as relações dos tipos de convergência estocástica é saber se é uma condição necessária e suficiente. Para isto vamos introduzir o conceito de Uniformemente Integrável (UI) e limitado em $\mathcal{L}^1.$ A seguir, vamos apresentar resultados e definições para mostrar que uma condição necessária e suficiente para que a convergência em média p para X, implique em convergência em probabilidade.

Definição 7.1.3.2:

Seja $(X_n)_{n\in\mathbb{N}}$ uma sequência de variáveis aleatórias tais que exista Y≥0 variável aleatória tal que Xn≤Y, para todo n≥1 $\mathbb{E}[Y]<\infty$ . Dizemos que $\mathbb{X}=\{X:~X$ é uma variável aleatória,$|X|\leq Y\}$ família de variáveis aleatórias é limitada em $\mathcal{L}^p,~1\leq p\leq \infty$ se $\sup_{n\geq 1}\sqrt[p]{\mathbb{E}[|X|^p]}< \infty,$ e também definimos

$$I_{\mathbb{X}}(\delta)=\sup\{\mathbb{E}(|X|1\!\!1_{A});~~X\in \mathbb{X},~A\in \mathcal{A},~\mathbb{P}(A)\leq\delta\}$$

Obs: (caso queira saber mais sobre os espaço $\mathcal{L}^p$ consulte o conteúdo Propriedades do espaço L^p)

Observamos que $\mathbb{X}$ é limitada em $\mathcal{L}^1$ se, e somente se $I_{\mathbb{X}}(1)< \infty.$

Definição 7.1.3.3:

Seja $\mathbb{X}$ uma família de variáveis aleatórias. Dizemos que $\mathbb{X}$ é Uniformemente Integrável (U.I.) se $\mathbb{X}$ é limitada em $\mathcal{L}^1$ e $I_{\mathbb{X}}(\delta)\downarrow 0$ quando $\delta \downarrow 0.$ 

Observamos que da desigualdade de Hölder, para os índices p, q $\in(1,\infty)$ temos que

$$\mathbb{E}(|X|1\!\!1_A)\leq \sqrt[p]{\mathbb{E}[|X|^p]}\sqrt[q]{\mathbb{P}(A)}$$

Logo, se $\mathbb{X}$ é limitada em $\mathcal{L}^p$ para algum p$\in(1,\infty)$ então $\mathbb{X}$ é U.I.

Lema 7.1.3.1:

Seja $(\Omega,\mathcal{A},\mathbb{P})$ espaço de probabilidade fixado e X uma variável aleatória integrável e o conjunto

$$I_X(\delta)=\sup\{\mathbb{E}[|X|1\!\!1_A];~~A\in\mathcal{A},\mathbb{P}(A)\leq \delta\}$$

Então $I_X(\delta)\downarrow 0$ quando $\delta \downarrow 0.$

Demonstração:

Suponha $I_X(\delta)\downarrow 0$ quando $\delta \downarrow 0$ não ocorre. Então para algum ε>0, existe $A_n\in \mathcal{A}$ com $\mathbb{P}(A_n)\leq\frac{1}{2^n}$ e $\mathbb{E}[|X|1\!\!1_{A_n}]\geq \varepsilon$ para todo n≥1.

Pelo lema de Borel-Cantelli item (i) $\mathbb{P}(A_n,~i.v.)=0.$

Porém, pelo teorema da convergência dominada  e definindo $B_n=\displaystyle\bigcup_{m\geq n}A_m$ temos que

$$\varepsilon\leq \mathbb{E}[|X|1\!\!1_{B_m}]\rightarrow \mathbb{E}[|X|1\!\!1_{A_n,~i.v.}]=0$$

que é uma contradição.

$\Box$

O lema 7.1.3.1 mostra que variáveis aleatórias integráveis é uniformemente integrável. A extensão deste resultado é obtido para qualquer coleção de variáveis aleatórias integráveis. Logo, para qualquer variável aleatória integrável $Y$ o conjunto $\mathbb{X}$ é uniformemente integrável, pois $\mathbb{E}(|X|1\!\!1_A)\leq \mathbb{E}[Y1\!\!1_A]$ para todo $A\in \mathcal{A}. $

A seguir, apresentamos uma outra caracterização de U.I.

Lema 7.1.3.2:

Seja $\mathbb{X}$ uma família de variáveis aleatórias. Então $\mathbb{X}$ é U.I. se, e somente se,

$$\sup\{\mathbb{E}(|X|)1\!\!1_{\{|X|\geq K\}}:~~X\in \mathbb{X}\}\rightarrow 0, \quad \text{quando}~K\rightarrow\infty$$

Demonstração:

Suponhamos que $\mathbb{X}$ é U.I. Dado ε>0, escolhemos um δ>0, tal que $I_{\mathbb{X}}(\delta)<\varepsilon,$ então para $K<\infty$ tal que $I_{\mathbb{X}}(1)\leq K\delta.$

Logo, para $X\in\mathbb{X}$ e $A=\{|X|\geq K\}$ obtemos que

$$\mathbb{P}(A)\leq \delta,~~\text{enquanto}~\mathbb{E}(|X|1\!\!1_A)< \varepsilon.$$

Portanto, quando $K\rightarrow\infty,$

$$\sup\{\mathbb{E}(|X|\)1\!\!1_{\{|X|\geq K\}}:~~X\in \mathbb{X}\}\rightarrow 0$$

Reciprocamente, suponhamos que $\displaystyle\sup\{\mathbb{E}(|X|\)1\!\!1_{\{|X|\geq K\}}:~X\in \mathbb{X}\}\rightarrow 0,$ quando $K\rightarrow\infty.$ Desde que

$$\mathbb{E}(|X|)\leq K+\mathbb{E}(|X|_A)$$

obtemos que $I_{\mathbb{X}}(1)<\infty.$ Assim, dado ε>0, escolhemos K < ∞ tal que

$$\mathbb{E}(|X|1\!\!1_A)<\frac{\varepsilon}{2}, \quad \forall X\in\mathbb{X}$$

Então escolhemos um δ>0, tal que Kδ < ε/2.

Logo, para todo $X\in \mathbb{X}$ e $A\in\mathcal{A}$ com $\mathbb{P}(A)< \delta,$ obtemos que

$$\mathbb{E}(|X|1\!\!1_A)\leq \mathbb{E}(|X|1\!\!1_{\{|X|\geq K\}})+K\mathbb{P}(A)< \varepsilon$$

Portanto, $\mathbb{X}$ é U.I.

$\Box$

Agora, necessitamos de uma definição e um resultado que são de grande importância para demonstração do último resultado  deste assunto.

Definição 7.1.3.4:

Seja $(X_n)_{n\geq 1}$ sequência de variáveis aleatórias definidas no espaço de probabilidade $(\Omega,\mathcal{A},\mathbb{P}).$ Dizemos que $(X_n)_{n\geq 1}$ é uniformemente limitada se existe uma constante K tal que

$$-K\leq X_n(\omega)\leq K, \quad\text{para todo} \omega \in \Omega , ~n\geq 1$$

Teorema 7.1.3.5:

Seja $(X_n)_{n\geq 1}$ uma sequência uniformemente limitada com $X_n\leq X_{n+1}.$ Então $X^K_n\rightarrow X^K$ quando $n\rightarrow \infty$

Demonstração:

Vamos omitir esta demonstração, pois necessitamos de resultados de análise funcional.

$\Box$

Finalmente, vamos provar o resultado que mostra a condição necessária e suficiente para que a convergência em média p para X, implique em convergência em probabilidade.

Teorema 7.1.3.6:

Seja $(X_n)_{n\geq 1}$ uma sequência de variáveis aleatórias e X variável aleatória. Obtemos as seguintes equivalências:

  1. $X_n\in \mathcal{L}^1$ para todo n≥1, $X\in \mathcal{L}^1$ e $X_n\xrightarrow{\mathcal{L}^1} X$
  2. $(X_n)_{n\geq 1}$ é U.I. e $X_n\xrightarrow{P}X$

Demonstração:

Suponha (1) satisfeita, então pelo teorema 7.1.3.1 para p=1, temos que $X_n\xrightarrow{P}X.$ Além disso, dado ε>0, existe N tal que

$$\mathbb{E}(|X_n-X|)<\frac{\varepsilon}{2},\quad \forall n\geq N.$$

Então, podemos encontrar um δ>0, tal que $\mathbb{P}(A)$≤ δ, isto implica que

$$\mathbb{E}(|X|1\!\!1_A)\leq\frac{\varepsilon}{2},\quad\text{e}\quad\mathbb{E}(|X_n|1\!\!1_A)\leq\varepsilon,\quad\text{para}~n=1,\dots.N$$

Assim, para n ≥ N e $\mathbb{P}(A)\leq\delta$

$$\mathbb{E}(|X_n|1\!\!1_A)\leq\mathbb{E}(|X_n-X|)+\mathbb{E}(|X|1\!\!1_A)\leq\varepsilon$$

Portanto, $(X_n)_{n\geq 1}$ é U.I., com isso, (1)$\Rightarrow$(2).

Agora, suponhamos que (2) é satisfeita. Assim, temos uma subsequência $(n_k)_{k\geq 1}$ tal que $X_n\xrightarrow{q.c.}X$ pelo teorema 7.1.1.4 .

Inicialmente, vamos enunciar o lema de Fatou.

Lema de Fatou:

Considere $(X_n)_{n\geq 1}$ sequência de variáveis aleatórias não negativas. Então pelo  Teorema da Convergência Monótona temos que $\mathbb{E}[\liminf Xn]\leq\liminf_n \mathbb{E}[X_n].$

Logo, pelo lema de Fatou $\mathbb{E}[|X|]\leq\displaystyle\liminf_k \mathbb{E}[|X_{n_k}|]<\infty.$

Com isso, dado ε > 0, existe um K < ∞ tal que para todo n ≥ 1, temos que

$$\mathbb{E}\left[|X_n|1\!\!1_{\{|X_n|\geq K\}}\right]<\frac{\varepsilon}{3}\quad \text{e}\quad \mathbb{E}\left[|X|1\!\!1_{\{|X|\geq K\}}\right]<\frac{\varepsilon}{3}$$

Consideramos a sequência uniformemente limitada $X^K_n$ e definimos $X^K.$ Então pelo teorema da convergência limitada (teorema 7.1.3.5) existe N tal que, para todo n ≥ N,

$$\mathbb{E}\left[|X^k_n-X|\right]< \frac{\varepsilon}{3}$$

Logo, para todo n ≥ N,

$$\mathbb{E}\left[|X_n-X|\right] \leq \mathbb{E}\left[|X_n|1\!\!1_{\{|X_n|\geq K\}}\right]+\mathbb{E}\left[|X^K_n-X^K|\right]+\mathbb{E}\left[|X|1\!\!1_{\{|X|\geq K\}}\right]<\varepsilon$$

Como tomamos um ε > 0 arbritrário, podemos concluir que (2)$\Rightarrow$(1).

$\Box$

Para finalizar esta seção, vamos apresentar um diagrama dos principais resultados.


Figura 7.1.3.1: Diagrama de implicações entre os tipos de convergência.

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]