7.1.2 - Convergência em distribuição ou Convergência fraca.

Você está aqui

Nesta seção, vamos discutir algumas características da convergência em distribuição ou convergência fraca das medidas de probabilidades. A seguir, apresentamos a seguinte definição.

Definição 7.1.2.1: 

Seja $ X $ uma variável aleatória com função de distribuição acumulada $ F $ e seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias com respectivas funções de distribuição acumuladas $ \{F_n\}_{n\geq 1} $ ($ F_n $ é a função de distribuição acumulada de $ X_n $). Então, dizemos que $ X_n $ converge em distribuição para $ X $ se $ F_n(x)\rightarrow F(x) $ para todo $ x $ quando $ n\rightarrow \infty $, em que $ x $ é um ponto de continuidade de $ F $.

Notação: $ X_n\xrightarrow{\mathcal{D}}X $

Exemplo 7.1.2.1: 

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias com respectivas funções de distribuição acumuladas $ \{F_{X_n}\}_{n\geq 1}. $ Definimos $ X_n=\dfrac{1}{n},~n\geq 1 $ e $ X=0 $.

Observamos que


\[F_{X_n}(x)=\mathbb{P}\left(X_n\leq x\right)=\left\{\begin{array}{l}0,\quad\text{se}~x \ \textless \ \frac{1}{n}\\ 1,\quad\text{caso contrário}\end{array}\right.\]

e que


\[F_X(x) = \mathbb{P}\left(X\leq x\right)=\left\{\begin{array}{l}0, \quad \text{se} \ x \ \textless \ 0\\1, \quad \text{se} \ x\geq 0\end{array}\right.\]

Então $ \displaystyle\lim_{n\rightarrow\infty}F_{X_n}(x)=F_X(x), $ para todo $ x\neq0 $Portanto, $ X_n\xrightarrow{\mathcal{D}}X $.

Teorema 7.1.2.1: 

Sejam $ F $ uma função de distribuição acumulada e $ \{F_{n}\}_{n\geq 1} $ uma sequência de funções de distribuição acumulada. Se $ F_{n}\rightarrow F $ então, para toda função \mathbb{R}\rightarrow\mathbb{R} $ contínua e limitada temos que:


\[\displaystyle\int{g(x)dF_n(x)}\rightarrow \int{g(x)dF(x)}.\]

Este teorema é conhecido como teorema de Helly Bray.

Demonstração:

Queremos mostrar que $ \displaystyle\int{g(x)dF_n(x)}\rightarrow \int{g(x)dF(x)} $. Para isso, precisamos mostrar que


\[\displaystyle\left|\displaystyle\int{g(x)dF_n(x)}-\int{g(x)dF(x)}\right| \ \textless \ \varepsilon,~~\forall \ \varepsilon \ \textgreater \ 0.\]

Sejam $ -\infty \ \textless \ a \ \textless \ b \ \textless \ \infty $. Podemos dividir a diferença entre as integrais acima da seguinte forma:


\[\int{g(x)dF_n(x)}-\int{g(x)dF(x)}= A - B\]

em que


\[A = \int_{-\infty}^{a}{g(x)dF_n(x)} +\int_{a}^{b}{g(x)dF_n(x)}+\int_{b}^{\infty}{g(x)dF_n(x)}\]

e


\[B = \int_{-\infty}^{a}{g(x)dF(x)}+\int_{a}^{b}{g(x)dF(x)}+\int_{b}^{\infty}g(x)dF(x).\]

Por hipótese temos que $ g $ é uma função limitada e, portanto, $ c=\sup_{x\in \mathbb{R}}|g(x)| \ \textless \ \infty $. Seja $ \varepsilon \ \textgreater \ 0 $ arbitrário. Usando a desigualdade triangular temos que


\[\displaystyle\left|\displaystyle\int{g(x)dF_n(x)} - \int{g(x)dF(x)}\right|\leq \left|\int g(x)dF_n-\int_{a}^{b}g(x)dF_n(x)\right|+\]


\[+\left|\int_{a}^{b}g(x)dF_n(x)-\int_{a}^{b}g(x)dF(x)\right|+\left|\int_{a}^{b}g(x)dF(x)-\int g(x)dF(x)\right|.\]

Notemos o seguinte fato:


\[\displaystyle\left|\int_{-\infty}^{a}g(x)dF_n(x)-\int_{-\infty}^{a}g(x)dF(x)\right|\leq\int_{-\infty}^{a}cdF_n(x)+\int_{-\infty}^{a}cdF(x)=c[F_n(a)+F(a)].\]

Se $ a $ é suficientemente pequeno, como $ F $ é não decrescente temos que para $ F(a) $ também será pequeno, e o mesmo vale para $ F_n(a) $. Desta forma concluímos que para cada $ \varepsilon_0 \ \textgreater \ 0 $ existe um a tal que:


\[c[F_n(a)-F(a)] \ \textless \ \varepsilon_0\]

Analogamente temos:


\[\displaystyle \left|\int_{b}^{\infty}g(x)dF_n(x)-\int_{b}^{\infty}g(x)dF(x)\right|\leq \int_{b}^{\infty}cdF_n(x)-\int_{b}^{\infty}cdF(x)=c[F_n(b)-F(b)].\]

Para $ b $ suficientemente grande temos que:


\[c[F_n(b)-F(b)] \ \textless \ \varepsilon_2.\]

Agora basta mostrarmos que:


\[\displaystyle\left|\int_{a}^{b}g(x)dF_n(x)-\int_{a}^{b}g(x)dF(x)\right| \ \textless \ \varepsilon_3.\]

Como por hipótese g é contínua e limitada, temos que no intervalo fechado $ [a,b] $ a função g é uniformemente contínua, pois toda função contínua defina em um compacto é uniformemente contínua.

Lembrando que um compacto nos reais é um conjunto fechado e limitado.

Assim, vamos considerar a seguinte partição do intervalo [a,b]:


\[x_0=a \ \textless \ x_1 \ \textless \ \cdots \ \textless \ x_m=b.\]

Para $ x\in\mathbb{R} $, com $ x_i \ \textless \ x \ \textless \ x_{i+1} $ temos que:


\[g(x)-g(x_i) \ \textless \ \varepsilon_4,~~\forall i,\]

Para $ \varepsilon_4 \ \textgreater \ 0 $. Vamos definir uma função $ g_j(x)=g(x_i) $ para todo $ x\in(x_i,x_i+1) $, observemos que $ g_j $ é uma função constante, desta forma mostremos o seguinte fato:


\[\displaystyle\int_{a}^{b}g(x_i)dF_n(x)=\sum_{i=0}^{m-1}g(x_i)[F_n(x_{i+1})-F_n(x_i)]\rightarrow\sum_{i=0}^{m-1}g(x_i)[F(x_{i+1})-F(x_i)]=\int_{a}^{b}g_j(x)dF(x).\]

Esta convergência decorre do fato de que por hipótese $ F_n $ converge para F.

Desta forma temos que para qualquer $ \varepsilon \ \textgreater \ 0 $ existe um n suficientemente grande tal que:


\[\displaystyle \left|\int_{a}^{b}g_m(x)dF_n(x)-\int_{a}^{b}g_m(x)dF(x)\right|\leq\varepsilon_5.\]

Mas


$$\left|\int_{a}^{b}g(x)dF_n(x)-\int_{a}^{b}g(x)dF(x)\right|\leq$$


$$\left|\int_{a}^{b}g(x)dF_n-\int_{a}^{b}g_m(x)dF_n\right|+\left|\int_{a}^{b}g_m(x)dF_n(x)-\int_{a}^{b}g_m(x)dF(x)\right|+$$


$$+\left|\int_{a}^{b}g_m(x)dF(x)-\int_{a}^{b}g(x)dF(x)\right|\leq\left|\int_{a}^{b}\varepsilon_4dF_n+\varepsilon_5+\int_{a}^{b}\varepsilon_4dF_n\right|\leq\varepsilon_5+ 2\varepsilon_4.$$

Portanto podemos concluir que:


$$\left|\int g(x)dF_n(x)-\int g(x)dF(x)\right|\rightarrow 0,$$

$ \Box $

Com isso, podemos ter uma definição alternativa, dada por

Definição 7.1.2.2: 

Dizemos que uma sequência de variáveis aleatórias $ (X_n)_{n\geq 1} $ converge em distribuição para a variável aleatória $ X $, se


$$\mathbb{E}[f(X_n)]\rightarrow \mathbb{E}[f(X)$$

 

para toda função contínua e limitada $ f $.

Teorema 7.1.2.2: 

Sejam $ \{F_n\}_{n\geq 1} $ uma sequência de funções de distribuição acumulada e $ \{\varphi_n\} $ uma sequência de funções características, com $ \varphi_n $ sendo a função característica de $ F_n $. Se $ \varphi_n $ converge pontualmente para $ \varphi $ e $ \varphi $ é contínua em zero, então existe uma função $ F $ tal que $ F_n \rightarrow F $ tal que $ \varphi $ é a função característica de $ F $.

Demonstração:

Vamos omitir a prova deste teorema por ser uma prova muito técnica, entretanto ela pode ser encontrada no livro do Barry James e em alguns outros livros que aparecem nas referências.

$ \Box $

Proposição 7.1.2.1: 

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias tal que $ \varphi_{X_n} $ é a função característica associada à variável aleatória $ X_n $. Se $ \varphi_{X_n}(t)\rightarrow e^{-t^2/2} $, então $ X_n $ converge em distribuição para uma variável aleatória com distribuição normal padronizada.

Demonstração:

Pelo Teorema 7.1.2.2 concluímos que uma função característica define a função de distribuição acumulada de forma única. Como a função característica da distribuição normal é $ e^{-t^{2}/2} $ temos que decorre imediatamente do Teorema 7.1.2.2 que $ X_n $ converge para a distribuição normal.

$ \Box $

Teorema 7.1.2.3: 

Sejam $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias, $ X $ uma variável aleatória e $ g $ uma função contínua a valores reais. Se $ X_n $ converge em distribuição para $ X $ então $ g(X_n) $ também converge em distribuição para $ g(X) $.

Demonstração:

Por hipótese temos que $ X_n $ converge em distribuição para $ X $. Assim para mostrarmos que $ g(X_n) $ converge em distribuição para $ g(X) $. Basta mostrarmos a convergência das funções características. Temos, por definição que


\[\varphi_{g(X_n)}(t)=\mathbb{E}[e^{itg(X_n)}]=\mathbb{E}[\cos{(tg(X_n))}]+i~\mathbb{E}[\text{sen}{(tg(X_n))}].\]

Mas $ \cos $ e $ \text{sen} $ são funções contínuas e limitadas e assim do Teorema 7.1.2.1 decorre que:


\[\varphi_{g(X_n)}\rightarrow \varphi_{g(X)}.\]

Portanto $ g(X_n) $ converge em distribuição para $ g(X) $.

$ \Box $

Teorema 7.1.2.4: (Slutsky)

Sejam $ \{X_n\}_{n\geq 1} $ e $ \{Y_n\}_{n\geq 1} $ duas sequências de variáveis aleatórias, tais que $ X_n $ converge em distribuição para uma variável $ X $ e $ Y_n $ converge em probabilidade para uma variável $ Y $ em que $ Y $ é uma variável constante real. Então as seguintes afirmações são verdadeiras

i) $ X_n+Y_n $ converge em distribuição para $ X+Y. $

ii) $ X_n-Y_n $ converge em distribuição para $ X-Y. $

iii) $ X_nY_n $ converge em distribuição para $ YX. $

iv) se $ Y\neq 0 $ e $ \mathbb{P}(Y_n\neq 0)=1 $, então $ \displaystyle \frac{X_n}{Y_n} $ converge em distribuição para $ \displaystyle \frac{X}{Y} $.

Demonstração:

i) Basta mostrarmos que $ \varphi_{X_n+Y_n}(t)\rightarrow \varphi_{X+Y}(t) $, mas temos 


$$\varphi_{X_n+Y_n}=\mathbb{E}[e^{it(X_n+Y_n)}]=\mathbb{E}[e^{it(X_n+Y)}]+\mathbb{E}[e^{itX_n}(e^{itY_n}-e^{itY})].$$

Como $ \mathbb{E}[e^{itX_n}]=\varphi_{X_n}(t)\rightarrow \varphi_X(t) $, e portanto


$$\mathbb{E}[e^{it(X_n+Y)}]=e^{itY}\mathbb{E}[e^{itX_n}]\rightarrow e^{itY}\varphi_X=\varphi_{X+Y}(t).$$

Desta forma, precisamos mostrar apenas que $ \mathbb{E}[e^{itX_n}(e^{itY_n}-e^{itY})]\rightarrow 0 $.


$$|\mathbb{E}[e^{itX_n}(e^{itY_n}-e^{itY})]|\leq \mathbb{E}[|e^{itX_n}(e^{it Y_n}e^{itY})|]=\mathbb{E}[e^{itY_n}-e^{itY}],$$

pois $ |e^{itX_n}|=1 $, assim precisamos apenas mostrar que $ \mathbb{E}[|e^{it(Y_n-Y)}|]\rightarrow 0 $. Mas esse fato é consequência do teorema da convergência dominada.

ii) Esta convergência é imediata de i), pois $ -Y_n\rightarrow -Y $.

iii) Vamos supor primeiramente que $ Y=0. $ Assim queremos mostrar que $ Y_nX_n $ converge em probabilidade para 0, pois convergência em probabilidade implica em convergência distribuição.

Portanto sejam $ \varepsilon,~\delta \ \textgreater \ 0 $ e $ x \ \textless \ 0 \ \textless \ y $ pontos de continuidade de $ F_X $, tais que $ F_X(y)-F_X(x)=\mathbb{P}[x \ \textless \ X \leq y] \ \textgreater \ 1-\delta $. Como por hipótese $ X_n $ converge em distribuição para $ X $, temos que


$$\mathbb{P}[x \ \textless \ X_n \leq y]=F_{X_n}(y)-F_{X_n}(x) \ \textgreater \ 1-\delta$$

para um $ n $ suficientemente grande. Além disso, definimos $ M=\max(y,-x). $ Então a convergência em probabilidade de $ Y_n $ para zero implica que $ \mathbb{P}[|Y_n| \ \textless \ \varepsilon/M] \ \textgreater \ 1-\delta $ para $ n $ suficientemente grande.


$$\mathbb{P}[x \ \textless \ X_n \ \textless \ y, |Y| \ \textless \ \varepsilon/M] \ \textgreater1-2\delta.$$

isto decorre da P10.

Além disso, temos que $ x \ \textless \ X_n \ \textless \ y $ e $ |Y_n| \ \textless \ \frac{\varepsilon}{M} $ o que implica que $ |X_nY_n| \ \textless \ \varepsilon $.

Logo $ \mathbb{P}[|X_nY_n| \ \textless \ \varepsilon] \ \textgreater \ 1-2\delta $ para $ n $ suficientemente grande.

Portanto temos que para todo $ \varepsilon \ \textgreater \ 0 $  temos que $ \mathbb{P}[|X_nY_n| \ \textless \ \varepsilon]\rightarrow 1 $, ou seja $ X_nY_n $ converge em probabilidade para zero.

Para demonstrarmos o caso geral em que $ Y=c $, basta analisarmos o seguinte fato


$$Y_nX_n=YX_n+(Yn-Y)X_n$$

 

e $ Y_n-Y $ converge em probabilidade para zero, assim segue do caso em que $ Y=0 $ que $ (Y_n-Y)X_n $ converge em probabilidade para zero.

Além disso, temos que


$$\varphi_{cX_n}(t)=\varphi_{X_n}(ct)\rightarrow \varphi_{X}(ct)=\varphi_{cX}(t)=\varphi_{YX}(t),$$

Assim do Teorema 7.1.2.5 decorre que $ YX_n $ converge $ YX $. Agora o resultado segue imediatamente do item i), pois temos a soma de dois termos em que um que converge em probabilidade para zero e outro converge em distribuição para $ YX $.

iv) Notemos que do Teorema 7.1.2.4 que $ \frac{1}{Y_n} $ converge em probabilidade para $ \frac{1}{Y} $ e em seguida basta aplicarmos o item iii) que o resultado segue.

$ \Box $

Teorema 7.1.2.4:(Cramér-Wold)

Sejam $ \widetilde{X}_n=(X_{n1},\cdots, X_{nk}) $ e $ \widetilde{X}=(X_1,\cdots,X_k) $, vetores aleatórias k-dimensionais. $ \widetilde{X_n} $ converge em distribuição para $ \widetilde{X} $ se, e somente se, $ \displaystyle \sum_{j=1}^{k}t_j X_{nj} $ converge em distribuição para $ \displaystyle\sum_{j=1}^{k}t_jX_j $, quando $ n\rightarrow \infty $, para todo $ (t_1,\cdots,t_k)\in \mathbb{R}^k $.

Demonstração:

Para iniciarmos essa demonstração vamos definir a função característica de um vetor aleatório.

Assim, consideramos um vetor j-dimensional $ \widetilde{X}=(X_1,\cdots,X_j) $ a função característica de $ \widetilde{X} $ é a função \mathbb{R}^j\rightarrow C $ a qual é definida por:


$$\displaystyle\varphi_{\widetilde{X}}(t_1,\cdots,t_j)=\mathbb{E}\left[\exp\left(i\sum_{k=1}^{j}t_jX_j\right)\right]=E\left[e^{i\widetilde{t} \widetilde{X}}\right].$$

 

Agora com a definição da função característica para um vetor aleatório em mãos podemos finalmente partir para a demonstração do teorema de Cramér-Wold.

Suponhamos que $ \sum_{j=1}^{k}t_jX_{nj} $ converge em distribuição para


$$\sum_{j=1}^{k}t_jX_{j}$$

Neste caso temos que:


\[\varphi_{X_n}(t_1,\cdots,t_k)=\mathbb{E}[e^{i\sum_{j=1}^{k}t_jX_{nj}}]\]


\[\varphi_{\sum_{j=1}^{k}t_jX_{nj}}(1)\rightarrow\varphi_{\sum_{j=1}^{k}tjXj}(1)=\varphi_{\widetilde{X}}(t_1,\cdots,t_k)\]

Assim decorre imediatamente que como $ \varphi_{\widetilde{X_n}}\rightarrow\varphi_{\widetilde{X}} $ que $ \widetilde{X_n} $ converge em distribuição para $ X $.

Agora vamos supor o caso contrário, suponha que $ X_n $ converge em distribuição para $ X $.

Assim notemos que:


$$\varphi_{\sum_{j=1}^{k}tjX_{nj}}=E\left[e^{it\sum_{j=1}^{k}t_jX_{nj}}\right]=E\left[e^{i \sum_{j=1}^{k}tt_jX_{nj}}\right]=$$


$$=\varphi_{\widetilde{X_n}}(tt_1,\cdots,tt_k)\rightarrow\varphi_{\widetilde{X}}(tt_1,\cdots,tt_k)=\varphi_{\sum_{j=1}^{k}t_jX_j}(t).$$

Portanto

$$\sum_{j=1}^{k}t_jX_{nj}$$

converge em distribuição para

$$\sum_{j=1}^{k}t_jX_{j}$$

$ \Box $

Proposição 7.1.2.2:

$ X_n\xrightarrow{\mathcal{D}}c $ se, e somente se, $ X_n\xrightarrow{P}c $

Demonstração:

Primeiramente suponhamos que


$$\lim_{n\rightarrow\infty}F_{X_n}(x)=\left\{\begin{array}{l}0,\quad\text{se}~x\textless c\\ 1,\quad\text{se}~x\geq c\end{array}\right.$$

Dado $ \varepsilon\textgreater 0 $


$$0\leq\mathbb{P}\{|X_n-c|\geq \varepsilon\}=\mathbb{P}\{X_n\geq c+\varepsilon\}+\mathbb{P}\{X_n\leq c-\varepsilon\}=1-\mathbb{P}\{X_n\textless c+\varepsilon\}+\mathbb{P}\{X_n\leq c-\varepsilon\}\leq$$

$ \leq 1-\mathbb{P}\left\{X_n\leq c+\frac{\varepsilon}{2}\right\}+\mathbb{P}\{X_n\leq c-\varepsilon\}\xrightarrow{n\rightarrow\infty}1-1+0=0 $

Portanto, $ X_n\xrightarrow{P}c $

Reciprocamente, seja $ F_n $ a função distribuição acumulada de $ X_n,~n\geq 1. $ Fixamos $ x\in\mathbb{R} $ para todo $ x $ ponto de continuidade de $ F $. Então para todo $ \varepsilon\textgreater0 $


$$\mathbb{P}\{X_n\leq x\}\leq\mathbb{P}\{X\leq x+\varepsilon\}+\mathbb{P}\{X_n\leq x~;~X\textgreater x+\varepsilon\}\leq \mathbb{P}\{X\leq x+\varepsilon\}+\mathbb{P}\{|X_n-c|\textgreater\varepsilon\}~~(7.1.2.1)$$

e similarmente


$$\mathbb{P}\{X_n\leq x\}\geq\mathbb{P}\{X\leq x-\varepsilon\}-\mathbb{P}\{|X_n-c|\textgreater\varepsilon\}~~(7.1.2.2)$$

Logo, de (7.1.2.1) e (7.1.2.2) obtemos que


$$F(x-\varepsilon)-\mathbb{P}\{|X_n-c|\textgreater \varepsilon\}\leq F_n(x)\leq F(x+\varepsilon)+\mathbb{P}\{|X_n-c|\textgreater\varepsilon\}$$

Como por hipótese temos que $ X_n\xrightarrow{P}c $ quando $ n\rightarrow\infty $ temos que


$$F(x-\varepsilon)\leq \liminf_{n\rightarrow\infty}F_n(x)\leq \limsup_{n\rightarrow\infty}F_n(x)\leq F(x+\varepsilon), \quad \forall~\varepsilon\textgreater 0~~(7.1.2.3).$$

Note que, para todo $ x\in\mathbb{R} $ ponto de continuidade de $ F $, temos que $ F(x^-)=F(x) $

Portanto, quando $ \varepsilon\downarrow 0 $ em (7.1.2.3) obtemos que


$$\lim_{n\rightarrow\infty}F_n(x)=F(x)$$

ou seja, $ X_n\xrightarrow{\mathcal{D}}c $

$ \Box $

Teorema 7.1.2.5:

$ X_n\xrightarrow{P}X, $ então $ X_n\xrightarrow{\mathcal{D}}X $

Demonstração:

Basta, usar a volta da proposição 7.1.2.2 trocando c por $ X. $

$ \Box $

Proposição 7.1.2.3: (Caso discreto)

Seja $ \{X_n\}_{n\geq 1} $ sequência de variáveis aleatórias que assumem valores em $ \mathbb{Z}^+ $ (inteiros positivos). Se $ \displaystyle\lim_{n\rightarrow \infty}\mathbb{P}\{X_n=k\}=\mathbb{P}\{X=k\}, $ então $ X_n\xrightarrow{\mathcal{D}}X.  $

Demonstração:

No caso $ x\textless 0 $ temos que


$$F_{X_n}(x)=0\rightarrow 0=F_X(x)$$

Agora, suponhamos que $ x\in (k,k+1),~k=0,1,\dots $ Disto obtemos que


$$F_{X_n}(x)=\sum^k_{i=0}\mathbb{P}\{X_n=i\}\xrightarrow{n\rightarrow\infty} \sum^k_{i=0}\mathbb{P}\{X=i\}=F_X(x)$$

Portanto, $ X_n\xrightarrow{\mathcal{D}}X.  $

$ \Box $

Exemplo 7.1.2.2: 

Seja $ X_n\sim Binom(n,p_n) $, $ X\sim Poisson(\lambda) $ e $ \displaystyle \lim_{n\rightarrow\infty}np_n=\lambda. $ Mostre que $ X_n\xrightarrow{\mathcal{D}}X. $

De fato,


$$\mathbb{P}\{X_n=k\}=\left(n\chosse k\right)p^k_n(1-p_n)^{n-k}=\frac{n.(n-1)\dots(n-(k-1))}{k!}p^k_n(1-p_n)^{n-k}=$$


$$=\frac{1}{k!}\left(1-\frac{1}{n}\right)\dots\left(1-\frac{k-1}{n}\right)(n p_n)^k\left(1-\frac{n p_n}{n}\right)^n\left(1-\frac{n p_n}{n}\right)^{-k}\xrightarrow{n\rightarrow\infty}\frac{1}{k!}e^{-\lambda}\lambda^k$$

pois $ (n p_n)^k\xrightarrow{n\rightarrow\infty}\lambda^k $ e $ \left(1-\dfrac{n p_n}{n}\right)^n\xrightarrow{n\rightarrow\infty}e^{-\lambda} $

Em particular, obtemos que $ X\sim $ Poisson$ (\lambda). $

Portanto, $ X_n\xrightarrow{\mathcal{D}}X. $

Exemplo 7.1.2.3: 

Suponha que  $ X\sim $ Uniforme $ \left(\frac{1}{n},\frac{2}{n},\dots,1\right). $ Mostre que $ X_n\xrightarrow{\mathcal{D}}X $ com $ X\sim U(0,1) $ e mostre se ocorre convergência em probabilidade.

De fato, observe que


$$F_{X_n}(x)=\left\{\begin{array}{l}0,\quad \text{se}~x\textless \frac{1}{n}\\ \dfrac{k}{n},\quad \text{se}~\frac{k}{n}\leq x\textless \frac{k+1}{n}\\1,\quad \text{se}~x\geq1\end{array}\right.$$


$$F_{X}(x)=\left\{\begin{array}{l}0,\quad \text{se}~x\textless 0\\ x,\quad \text{se}~0\leq x\textless 1\\1,\quad \text{se}~x\geq1\end{array}\right.$$

  • Para $ x\leq 0 $ ou $ x\geq 1 $ temos que $ F_{X_n}(x)\xrightarrow{n\rightarrow\infty}F_X(x). $
  • Para $ 0\textless x \textless 1 $ temos que existe $ n\textgreater \frac{1}{x} $ para $ k=1,\dots, n-1 $ tal que $ \frac{k}{n}\leq x\textless \frac{k+1}{n} $

Logo,


$$0\leq |F_{X_n}(x)-F_X(x)|=\left|\frac{k}{n}-x\right|\leq \frac{k}{n}-\frac{k+1}{n}=\frac{1}{n}\xrightarrow{n\rightarrow\infty}0$$

Portanto segue o resultado.

Agora, apresentamos um exemplo de uma sequência de variáveis aleatórias a qual converge em probabilidade e em média p para X $ \forall p\geq 1 $, mas não converge quase certamente.

Exemplo 7.1.2.4:

Seja $ (X_n)_{n\in\mathbb{N}} $ uma sequência de variáveis aleatórias com $ X_n\stackrel{P}{\rightarrow}X $ e $ X_n\stackrel{L^p}{\rightarrow}X $ mas $ X_n\stackrel{q.c}{\nrightarrow}X $.

Definimos $ A_n=[0,1/n] $ e seja $ X_n=1\!\!1_{A_n} $ com $ P $ a medida de Lebesgue no $ [0,1] $. Então para $ 0\textless \varepsilon \textless 1 $


$$\lim P(|X_n-0|\geq \varepsilon)=\lim P(|X_n|\geq \varepsilon)=\lim P(|X_n|= 1)=1/n\rightarrow 0$$

Logo converge em probabilidade para zero. Além disso,


$$\lim E[|X_n-0|^p]=\lim E[|X_n|^p]=\lim P[|X_n|^p=1]=\lim P[X_n^p=1]=\lim P[X_n=1]=\lim 1/n=0$$

portanto converge em média p para X.

Entretanto utilizando o lema de Borel-Cantelli temos que 


$$\displaystyle \sum_{n=1}^{\infty}P(|X_n|\geq \varepsilon)=\sum_{n=1}^{\infty}P(|X_n|=1)=\sum_{n=1}^{\infty}1/n =\infty$$

o que implica que 


$$P(|X_n|\geq \varepsilon, i.v.)=1$$

o que implica que $ X_n\stackrel{q.c.}{\nrightarrow} X $.

Para finalizar esta seção, vamos apresentar um diagrama dos principais resultados.

Figura 7.1.2.1: Diagrama de implicações entre os tipos de convergência.

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]