- Estatcamp: (16) 3376-2047 [email protected]
- [email protected] https://www.actionstat.com.br
Nesta seção, vamos discutir algumas características da convergência em distribuição ou convergência fraca das medidas de probabilidades. A seguir, apresentamos a seguinte definição.
Seja $X$ uma variável aleatória com função de distribuição acumulada $F$ e seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias com respectivas funções de distribuição acumuladas $\{F_n\}_{n\geq 1}$ ($F_n$ é a função de distribuição acumulada de $X_n$). Então, dizemos que $X_n$ converge em distribuição para $X$ se $F_n(x)\rightarrow F(x)$ para todo $x$ quando $n\rightarrow \infty$, em que $x$ é um ponto de continuidade de $F$.
Notação: $X_n\xrightarrow{\mathcal{D}}X$
Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias com respectivas funções de distribuição acumuladas $\{F_{X_n}\}_{n\geq 1}.$ Definimos $X_n=\dfrac{1}{n},~n\geq 1$ e $X=0$.
Observamos que
\[F_{X_n}(x)=\mathbb{P}\left(X_n\leq x\right)=\left\{\begin{array}{l}0,\quad\text{se}~x \ < \ \frac{1}{n}\\ 1,\quad\text{caso contrário}\end{array}\right.\]
e que
\[F_X(x) = \mathbb{P}\left(X\leq x\right)=\left\{\begin{array}{l}0, \quad \text{se} \ x \ < \ 0\\1, \quad \text{se} \ x\geq 0\end{array}\right.\]
Então $\displaystyle\lim_{n\rightarrow\infty}F_{X_n}(x)=F_X(x),$ para todo $x\neq0$. Portanto, $X_n\xrightarrow{\mathcal{D}}X$.
Sejam $F$ uma função de distribuição acumulada e $\{F_{n}\}_{n\geq 1}$ uma sequência de funções de distribuição acumulada. Se $F_{n}\rightarrow F$ então, para toda função $g:\mathbb{R}\rightarrow\mathbb{R}$ contínua e limitada temos que:
\[\displaystyle\int{g(x)dF_n(x)}\rightarrow \int{g(x)dF(x)}.\]
Este teorema é conhecido como teorema de Helly Bray.
Demonstração:
Queremos mostrar que $\displaystyle\int{g(x)dF_n(x)}\rightarrow \int{g(x)dF(x)}$. Para isso, precisamos mostrar que
\[\displaystyle\left|\displaystyle\int{g(x)dF_n(x)}-\int{g(x)dF(x)}\right| \ < \ \varepsilon,~~\forall \ \varepsilon \ > \ 0.\]
Sejam $-\infty \ < \ a \ < \ b \ < \ \infty$. Podemos dividir a diferença entre as integrais acima da seguinte forma:
\[\int{g(x)dF_n(x)}-\int{g(x)dF(x)}= A - B\]
em que
\[A = \int_{-\infty}^{a}{g(x)dF_n(x)} +\int_{a}^{b}{g(x)dF_n(x)}+\int_{b}^{\infty}{g(x)dF_n(x)}\]
e
\[B = \int_{-\infty}^{a}{g(x)dF(x)}+\int_{a}^{b}{g(x)dF(x)}+\int_{b}^{\infty}g(x)dF(x).\]
Por hipótese temos que $g$ é uma função limitada e, portanto, $c=\sup_{x\in \mathbb{R}}|g(x)| \ < \ \infty$. Seja $\varepsilon \ > \ 0$ arbitrário. Usando a desigualdade triangular temos que
\[\displaystyle\left|\displaystyle\int{g(x)dF_n(x)} - \int{g(x)dF(x)}\right|\leq \left|\int g(x)dF_n-\int_{a}^{b}g(x)dF_n(x)\right|+\]
\[+\left|\int_{a}^{b}g(x)dF_n(x)-\int_{a}^{b}g(x)dF(x)\right|+\left|\int_{a}^{b}g(x)dF(x)-\int g(x)dF(x)\right|.\]
Notemos o seguinte fato:
\[\displaystyle\left|\int_{-\infty}^{a}g(x)dF_n(x)-\int_{-\infty}^{a}g(x)dF(x)\right|\leq\int_{-\infty}^{a}cdF_n(x)+\int_{-\infty}^{a}cdF(x)=c[F_n(a)+F(a)].\]
Se $a$ é suficientemente pequeno, como $F$ é não decrescente temos que para $F(a)$ também será pequeno, e o mesmo vale para $F_n(a)$. Desta forma concluímos que para cada $\varepsilon_0 \ > \ 0$ existe um a tal que:
\[c[F_n(a)-F(a)] \ < \ \varepsilon_0\]
Analogamente temos:
\[\displaystyle \left|\int_{b}^{\infty}g(x)dF_n(x)-\int_{b}^{\infty}g(x)dF(x)\right|\leq \int_{b}^{\infty}cdF_n(x)-\int_{b}^{\infty}cdF(x)=c[F_n(b)-F(b)].\]
Para $b$ suficientemente grande temos que:
\[c[F_n(b)-F(b)] \ < \ \varepsilon_2.\]
Agora basta mostrarmos que:
\[\displaystyle\left|\int_{a}^{b}g(x)dF_n(x)-\int_{a}^{b}g(x)dF(x)\right| \ < \ \varepsilon_3.\]
Como por hipótese g é contínua e limitada, temos que no intervalo fechado $[a,b]$ a função g é uniformemente contínua, pois toda função contínua defina em um compacto é uniformemente contínua.
Lembrando que um compacto nos reais é um conjunto fechado e limitado.
Assim, vamos considerar a seguinte partição do intervalo [a,b]:
\[x_0=a \ < \ x_1 \ < \ \cdots \ < \ x_m=b.\]
Para $x\in\mathbb{R}$, com $x_i \ < \ x \ < \ x_{i+1}$ temos que:
\[g(x)-g(x_i) \ < \ \varepsilon_4,~~\forall i,\]
Para $\varepsilon_4 \ > \ 0$. Vamos definir uma função $g_j(x)=g(x_i)$ para todo $x\in(x_i,x_i+1)$, observemos que $g_j$ é uma função constante, desta forma mostremos o seguinte fato:
\[\displaystyle\int_{a}^{b}g(x_i)dF_n(x)=\sum_{i=0}^{m-1}g(x_i)[F_n(x_{i+1})-F_n(x_i)]\rightarrow\sum_{i=0}^{m-1}g(x_i)[F(x_{i+1})-F(x_i)]=\int_{a}^{b}g_j(x)dF(x).\]
Esta convergência decorre do fato de que por hipótese $F_n$ converge para F.
Desta forma temos que para qualquer $\varepsilon \ > \ 0$ existe um n suficientemente grande tal que:
\[\displaystyle \left|\int_{a}^{b}g_m(x)dF_n(x)-\int_{a}^{b}g_m(x)dF(x)\right|\leq\varepsilon_5.\]
Mas
$$\left|\int_{a}^{b}g(x)dF_n(x)-\int_{a}^{b}g(x)dF(x)\right|\leq$$
$$\left|\int_{a}^{b}g(x)dF_n-\int_{a}^{b}g_m(x)dF_n\right|+\left|\int_{a}^{b}g_m(x)dF_n(x)-\int_{a}^{b}g_m(x)dF(x)\right|+$$
$$+\left|\int_{a}^{b}g_m(x)dF(x)-\int_{a}^{b}g(x)dF(x)\right|\leq\left|\int_{a}^{b}\varepsilon_4dF_n+\varepsilon_5+\int_{a}^{b}\varepsilon_4dF_n\right|\leq\varepsilon_5+ 2\varepsilon_4.$$
Portanto podemos concluir que:
$$\left|\int g(x)dF_n(x)-\int g(x)dF(x)\right|\rightarrow 0,$$
$\Box$
Com isso, podemos ter uma definição alternativa, dada por
Dizemos que uma sequência de variáveis aleatórias $(X_n)_{n\geq 1}$ converge em distribuição para a variável aleatória $X$, se
$$\mathbb{E}[f(X_n)]\rightarrow \mathbb{E}[f(X)$$
para toda função contínua e limitada $f$.
Sejam $\{F_n\}_{n\geq 1}$ uma sequência de funções de distribuição acumulada e $\{\varphi_n\}$ uma sequência de funções características, com $\varphi_n$ sendo a função característica de $F_n$. Se $\varphi_n$ converge pontualmente para $\varphi$ e $\varphi$ é contínua em zero, então existe uma função $F$ tal que $F_n \rightarrow F$ tal que $\varphi$ é a função característica de $F$.
Demonstração:
Vamos omitir a prova deste teorema por ser uma prova muito técnica, entretanto ela pode ser encontrada no livro do Barry James e em alguns outros livros que aparecem nas referências.
$\Box$
Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias tal que $\varphi_{X_n}$ é a função característica associada à variável aleatória $X_n$. Se $\varphi_{X_n}(t)\rightarrow e^{-t^2/2}$, então $X_n$ converge em distribuição para uma variável aleatória com distribuição normal padronizada.
Demonstração:
Pelo Teorema 7.1.2.2 concluímos que uma função característica define a função de distribuição acumulada de forma única. Como a função característica da distribuição normal é $e^{-t^{2}/2}$ temos que decorre imediatamente do Teorema 7.1.2.2 que $X_n$ converge para a distribuição normal.
$\Box$
Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias, $X$ uma variável aleatória e $g$ uma função contínua a valores reais. Se $X_n$ converge em distribuição para $X$ então $g(X_n)$ também converge em distribuição para $g(X)$.
Demonstração:
Por hipótese temos que $X_n$ converge em distribuição para $X$. Assim para mostrarmos que $g(X_n)$ converge em distribuição para $g(X)$. Basta mostrarmos a convergência das funções características. Temos, por definição que
\[\varphi_{g(X_n)}(t)=\mathbb{E}[e^{itg(X_n)}]=\mathbb{E}[\cos{(tg(X_n))}]+i~\mathbb{E}[\text{sen}{(tg(X_n))}].\]
Mas $\cos$ e $\text{sen}$ são funções contínuas e limitadas e assim do Teorema 7.1.2.1 decorre que:
\[\varphi_{g(X_n)}\rightarrow \varphi_{g(X)}.\]
Portanto $g(X_n)$ converge em distribuição para $g(X)$.
$\Box$
Sejam $\{X_n\}_{n\geq 1}$ e $\{Y_n\}_{n\geq 1}$ duas sequências de variáveis aleatórias, tais que $X_n$ converge em distribuição para uma variável $X$ e $Y_n$ converge em probabilidade para uma variável $Y$ em que $Y$ é uma variável constante real. Então as seguintes afirmações são verdadeiras
i) $X_n+Y_n$ converge em distribuição para $X+Y.$
ii) $X_n-Y_n$ converge em distribuição para $X-Y.$
iii) $X_nY_n$ converge em distribuição para $YX.$
iv) se $Y\neq 0$ e $\mathbb{P}(Y_n\neq 0)=1$, então $\displaystyle \frac{X_n}{Y_n}$ converge em distribuição para $\displaystyle \frac{X}{Y}$.
Demonstração:
i) Basta mostrarmos que $\varphi_{X_n+Y_n}(t)\rightarrow \varphi_{X+Y}(t)$, mas temos
$$\varphi_{X_n+Y_n}=\mathbb{E}[e^{it(X_n+Y_n)}]=\mathbb{E}[e^{it(X_n+Y)}]+\mathbb{E}[e^{itX_n}(e^{itY_n}-e^{itY})].$$
Como $\mathbb{E}[e^{itX_n}]=\varphi_{X_n}(t)\rightarrow \varphi_X(t)$, e portanto
$$\mathbb{E}[e^{it(X_n+Y)}]=e^{itY}\mathbb{E}[e^{itX_n}]\rightarrow e^{itY}\varphi_X=\varphi_{X+Y}(t).$$
Desta forma, precisamos mostrar apenas que $\mathbb{E}[e^{itX_n}(e^{itY_n}-e^{itY})]\rightarrow 0$.
$$|\mathbb{E}[e^{itX_n}(e^{itY_n}-e^{itY})]|\leq \mathbb{E}[|e^{itX_n}(e^{it Y_n}e^{itY})|]=\mathbb{E}[e^{itY_n}-e^{itY}],$$
pois $|e^{itX_n}|=1$, assim precisamos apenas mostrar que $\mathbb{E}[|e^{it(Y_n-Y)}|]\rightarrow 0$. Mas esse fato é consequência do teorema da convergência dominada.
ii) Esta convergência é imediata de i), pois $-Y_n\rightarrow -Y$.
iii) Vamos supor primeiramente que $Y=0.$ Assim queremos mostrar que $Y_nX_n$ converge em probabilidade para 0, pois convergência em probabilidade implica em convergência distribuição.
Portanto sejam $\varepsilon,~\delta \ > \ 0$ e $x \ < \ 0 \ < \ y$ pontos de continuidade de $F_X$, tais que $F_X(y)-F_X(x)=\mathbb{P}[x \ < \ X \leq y] \ > \ 1-\delta$. Como por hipótese $X_n$ converge em distribuição para $X$, temos que
$$\mathbb{P}[x \ < \ X_n \leq y]=F_{X_n}(y)-F_{X_n}(x) \ > \ 1-\delta$$
para um $n$ suficientemente grande. Além disso, definimos $M=\max(y,-x).$ Então a convergência em probabilidade de $Y_n$ para zero implica que $\mathbb{P}[|Y_n| \ < \ \varepsilon/M] \ > \ 1-\delta$ para $n$ suficientemente grande.
$$\mathbb{P}[x \ < \ X_n \ < \ y, |Y| \ < \ \varepsilon/M] \ >1-2\delta.$$
isto decorre da P10.
Além disso, temos que $x \ < \ X_n \ < \ y$ e $|Y_n| \ < \ \frac{\varepsilon}{M}$ o que implica que $|X_nY_n| \ < \ \varepsilon$.
Logo $\mathbb{P}[|X_nY_n| \ < \ \varepsilon] \ > \ 1-2\delta$ para $n$ suficientemente grande.
Portanto temos que para todo $\varepsilon \ > \ 0$ temos que $\mathbb{P}[|X_nY_n| \ < \ \varepsilon]\rightarrow 1$, ou seja $X_nY_n$ converge em probabilidade para zero.
Para demonstrarmos o caso geral em que $Y=c$, basta analisarmos o seguinte fato
$$Y_nX_n=YX_n+(Yn-Y)X_n$$
e $Y_n-Y$ converge em probabilidade para zero, assim segue do caso em que $Y=0$ que $(Y_n-Y)X_n$ converge em probabilidade para zero.
Além disso, temos que
$$\varphi_{cX_n}(t)=\varphi_{X_n}(ct)\rightarrow \varphi_{X}(ct)=\varphi_{cX}(t)=\varphi_{YX}(t),$$
Assim do Teorema 7.1.2.5 decorre que $YX_n$ converge $YX$. Agora o resultado segue imediatamente do item i), pois temos a soma de dois termos em que um que converge em probabilidade para zero e outro converge em distribuição para $YX$.
iv) Notemos que do Teorema 7.1.2.4 que $\frac{1}{Y_n}$ converge em probabilidade para $\frac{1}{Y}$ e em seguida basta aplicarmos o item iii) que o resultado segue.
$\Box$
Sejam $\widetilde{X}_n=(X_{n1},\cdots, X_{nk})$ e $\widetilde{X}=(X_1,\cdots,X_k)$, vetores aleatórias k-dimensionais. $\widetilde{X_n}$ converge em distribuição para $\widetilde{X}$ se, e somente se, $\displaystyle \sum_{j=1}^{k}t_j X_{nj}$ converge em distribuição para $\displaystyle\sum_{j=1}^{k}t_jX_j$, quando $n\rightarrow \infty$, para todo $(t_1,\cdots,t_k)\in \mathbb{R}^k$.
Demonstração:
Para iniciarmos essa demonstração vamos definir a função característica de um vetor aleatório.
Assim, consideramos um vetor j-dimensional $\widetilde{X}=(X_1,\cdots,X_j)$ a função característica de $\widetilde{X}$ é a função $\varphi_{\widetilde{X}}:\mathbb{R}^j\rightarrow C$ a qual é definida por:
$$\displaystyle\varphi_{\widetilde{X}}(t_1,\cdots,t_j)=\mathbb{E}\left[\exp\left(i\sum_{k=1}^{j}t_jX_j\right)\right]=E\left[e^{i\widetilde{t} \widetilde{X}}\right].$$
Agora com a definição da função característica para um vetor aleatório em mãos podemos finalmente partir para a demonstração do teorema de Cramér-Wold.
Suponhamos que $\sum_{j=1}^{k}t_jX_{nj}$ converge em distribuição para
$$\sum_{j=1}^{k}t_jX_{j}$$
Neste caso temos que:
\[\varphi_{X_n}(t_1,\cdots,t_k)=\mathbb{E}[e^{i\sum_{j=1}^{k}t_jX_{nj}}]\]
\[\varphi_{\sum_{j=1}^{k}t_jX_{nj}}(1)\rightarrow\varphi_{\sum_{j=1}^{k}tjXj}(1)=\varphi_{\widetilde{X}}(t_1,\cdots,t_k)\]
Assim decorre imediatamente que como $\varphi_{\widetilde{X_n}}\rightarrow\varphi_{\widetilde{X}}$ que $\widetilde{X_n}$ converge em distribuição para $X$.
Agora vamos supor o caso contrário, suponha que $X_n$ converge em distribuição para $X$.
Assim notemos que:
$$\varphi_{\sum_{j=1}^{k}tjX_{nj}}=E\left[e^{it\sum_{j=1}^{k}t_jX_{nj}}\right]=E\left[e^{i \sum_{j=1}^{k}tt_jX_{nj}}\right]=$$
$$=\varphi_{\widetilde{X_n}}(tt_1,\cdots,tt_k)\rightarrow\varphi_{\widetilde{X}}(tt_1,\cdots,tt_k)=\varphi_{\sum_{j=1}^{k}t_jX_j}(t).$$
Portanto $$\sum_{j=1}^{k}t_jX_{nj}$$
converge em distribuição para $$\sum_{j=1}^{k}t_jX_{j}$$
$\Box$
$X_n\xrightarrow{\mathcal{D}}c$ se, e somente se, $X_n\xrightarrow{P}c$
Demonstração:
Primeiramente suponhamos que
$$\lim_{n\rightarrow\infty}F_{X_n}(x)=\left\{\begin{array}{l}0,\quad\text{se}~x< c\\ 1,\quad\text{se}~x\geq c\end{array}\right.$$
Dado $\varepsilon> 0$
$$0\leq\mathbb{P}\{|X_n-c|\geq \varepsilon\}=\mathbb{P}\{X_n\geq c+\varepsilon\}+\mathbb{P}\{X_n\leq c-\varepsilon\}=1-\mathbb{P}\{X_n< c+\varepsilon\}+\mathbb{P}\{X_n\leq c-\varepsilon\}\leq$$
$\leq 1-\mathbb{P}\left\{X_n\leq c+\frac{\varepsilon}{2}\right\}+\mathbb{P}\{X_n\leq c-\varepsilon\}\xrightarrow{n\rightarrow\infty}1-1+0=0$
Portanto, $X_n\xrightarrow{P}c$
Reciprocamente, seja $F_n$ a função distribuição acumulada de $X_n,~n\geq 1.$ Fixamos $x\in\mathbb{R}$ para todo $x$ ponto de continuidade de $F$. Então para todo $\varepsilon>0$
$$\mathbb{P}\{X_n\leq x\}\leq\mathbb{P}\{X\leq x+\varepsilon\}+\mathbb{P}\{X_n\leq x~;~X> x+\varepsilon\}\leq \mathbb{P}\{X\leq x+\varepsilon\}+\mathbb{P}\{|X_n-c|>\varepsilon\}~~(7.1.2.1)$$
e similarmente
$$\mathbb{P}\{X_n\leq x\}\geq\mathbb{P}\{X\leq x-\varepsilon\}-\mathbb{P}\{|X_n-c|>\varepsilon\}~~(7.1.2.2)$$
Logo, de (7.1.2.1) e (7.1.2.2) obtemos que
$$F(x-\varepsilon)-\mathbb{P}\{|X_n-c|> \varepsilon\}\leq F_n(x)\leq F(x+\varepsilon)+\mathbb{P}\{|X_n-c|>\varepsilon\}$$
Como por hipótese temos que $X_n\xrightarrow{P}c$ quando $n\rightarrow\infty$ temos que
$$F(x-\varepsilon)\leq \liminf_{n\rightarrow\infty}F_n(x)\leq \limsup_{n\rightarrow\infty}F_n(x)\leq F(x+\varepsilon), \quad \forall~\varepsilon> 0~~(7.1.2.3).$$
Note que, para todo $x\in\mathbb{R}$ ponto de continuidade de $F$, temos que $F(x^-)=F(x)$
Portanto, quando $\varepsilon\downarrow 0$ em (7.1.2.3) obtemos que
$$\lim_{n\rightarrow\infty}F_n(x)=F(x)$$
ou seja, $X_n\xrightarrow{\mathcal{D}}c$
$\Box$
$X_n\xrightarrow{P}X,$ então $X_n\xrightarrow{\mathcal{D}}X$
Demonstração:
Basta, usar a volta da proposição 7.1.2.2 trocando c por $X.$
$\Box$
Seja $\{X_n\}_{n\geq 1}$ sequência de variáveis aleatórias que assumem valores em $\mathbb{Z}^+$ (inteiros positivos). Se $\displaystyle\lim_{n\rightarrow \infty}\mathbb{P}\{X_n=k\}=\mathbb{P}\{X=k\},$ então $X_n\xrightarrow{\mathcal{D}}X. $
Demonstração:
No caso $x< 0$ temos que
$$F_{X_n}(x)=0\rightarrow 0=F_X(x)$$
Agora, suponhamos que $x\in (k,k+1),~k=0,1,\dots$ Disto obtemos que
$$F_{X_n}(x)=\sum^k_{i=0}\mathbb{P}\{X_n=i\}\xrightarrow{n\rightarrow\infty} \sum^k_{i=0}\mathbb{P}\{X=i\}=F_X(x)$$
Portanto, $X_n\xrightarrow{\mathcal{D}}X. $
$\Box$
Seja $X_n\sim Binom(n,p_n)$, $X\sim Poisson(\lambda)$ e $\displaystyle \lim_{n\rightarrow\infty}np_n=\lambda.$ Mostre que $X_n\xrightarrow{\mathcal{D}}X.$
De fato,
$$\mathbb{P}\{X_n=k\}=\left(n\choose k\right)p^k_n(1-p_n)^{n-k}=\frac{n.(n-1)\dots(n-(k-1))}{k!}p^k_n(1-p_n)^{n-k}=$$
$$=\frac{1}{k!}\left(1-\frac{1}{n}\right)\dots\left(1-\frac{k-1}{n}\right)(n p_n)^k\left(1-\frac{n p_n}{n}\right)^n\left(1-\frac{n p_n}{n}\right)^{-k}\xrightarrow{n\rightarrow\infty}\frac{1}{k!}e^{-\lambda}\lambda^k$$
pois $(n p_n)^k\xrightarrow{n\rightarrow\infty}\lambda^k$ e $\left(1-\dfrac{n p_n}{n}\right)^n\xrightarrow{n\rightarrow\infty}e^{-\lambda}$
Em particular, obtemos que $X\sim$ Poisson$(\lambda).$
Portanto, $X_n\xrightarrow{\mathcal{D}}X.$
Suponha que $X\sim$ Uniforme $\left(\frac{1}{n},\frac{2}{n},\dots,1\right).$ Mostre que $X_n\xrightarrow{\mathcal{D}}X$ com $X\sim U(0,1)$ e mostre se ocorre convergência em probabilidade.
De fato, observe que
$$F_{X_n}(x)=\left\{\begin{array}{l}0,\quad \text{se}~x< \frac{1}{n}\\ \dfrac{k}{n},\quad \text{se}~\frac{k}{n}\leq x< \frac{k+1}{n}\\1,\quad \text{se}~x\geq1\end{array}\right.$$
$$F_{X}(x)=\left\{\begin{array}{l}0,\quad \text{se}~x< 0\\ x,\quad \text{se}~0\leq x< 1\\1,\quad \text{se}~x\geq1\end{array}\right.$$
Logo,
$$0\leq |F_{X_n}(x)-F_X(x)|=\left|\frac{k}{n}-x\right|\leq \frac{k}{n}-\frac{k+1}{n}=\frac{1}{n}\xrightarrow{n\rightarrow\infty}0$$
Portanto segue o resultado.
Agora, apresentamos um exemplo de uma sequência de variáveis aleatórias a qual converge em probabilidade e em média p para X $\forall p\geq 1$, mas não converge quase certamente.
Seja $(X_n)_{n\in\mathbb{N}}$ uma sequência de variáveis aleatórias com $X_n\stackrel{P}{\rightarrow}X$ e $X_n\stackrel{L^p}{\rightarrow}X$ mas $X_n\stackrel{q.c}{\nrightarrow}X$.
Definimos $A_n=[0,1/n]$ e seja $X_n=1\!\!1_{A_n}$ com $P$ a medida de Lebesgue no $[0,1]$. Então para $0< \varepsilon < 1$
$$\lim P(|X_n-0|\geq \varepsilon)=\lim P(|X_n|\geq \varepsilon)=\lim P(|X_n|= 1)=1/n\rightarrow 0$$
Logo converge em probabilidade para zero. Além disso,
$$\lim E[|X_n-0|^p]=\lim E[|X_n|^p]=\lim P[|X_n|^p=1]=\lim P[X_n^p=1]=\lim P[X_n=1]=\lim 1/n=0$$
portanto converge em média p para X.
Entretanto utilizando o lema de Borel-Cantelli temos que
$$\displaystyle \sum_{n=1}^{\infty}P(|X_n|\geq \varepsilon)=\sum_{n=1}^{\infty}P(|X_n|=1)=\sum_{n=1}^{\infty}1/n =\infty$$
o que implica que
$$P(|X_n|\geq \varepsilon, i.v.)=1$$
o que implica que $X_n\stackrel{q.c.}{\nrightarrow} X$.
Para finalizar esta seção, vamos apresentar um diagrama dos principais resultados.
Figura 7.1.2.1: Diagrama de implicações entre os tipos de convergência.
O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.