7.1.2 - Convergência em distribuição ou Convergência fraca.

Você está aqui

Nesta seção, vamos discutir algumas características da convergência em distribuição ou convergência fraca das medidas de probabilidades. A seguir, apresentamos a seguinte definição.

Definição 7.1.2.1: 

Seja $X$ uma variável aleatória com função de distribuição acumulada $F$ e seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias com respectivas funções de distribuição acumuladas $\{F_n\}_{n\geq 1}$ ($F_n$ é a função de distribuição acumulada de $X_n$). Então, dizemos que $X_n$ converge em distribuição para $X$ se $F_n(x)\rightarrow F(x)$ para todo $x$ quando $n\rightarrow \infty$, em que $x$ é um ponto de continuidade de $F$.

Notação: $X_n\xrightarrow{\mathcal{D}}X$

Exemplo 7.1.2.1: 

Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias com respectivas funções de distribuição acumuladas $\{F_{X_n}\}_{n\geq 1}.$ Definimos $X_n=\dfrac{1}{n},~n\geq 1$ e $X=0$.

Observamos que

\[F_{X_n}(x)=\mathbb{P}\left(X_n\leq x\right)=\left\{\begin{array}{l}0,\quad\text{se}~x \ < \ \frac{1}{n}\\ 1,\quad\text{caso contrário}\end{array}\right.\]

e que

\[F_X(x) = \mathbb{P}\left(X\leq x\right)=\left\{\begin{array}{l}0, \quad \text{se} \ x \ < \ 0\\1, \quad \text{se} \ x\geq 0\end{array}\right.\]

Então $\displaystyle\lim_{n\rightarrow\infty}F_{X_n}(x)=F_X(x),$ para todo $x\neq0$. Portanto, $X_n\xrightarrow{\mathcal{D}}X$.

Teorema 7.1.2.1: 

Sejam $F$ uma função de distribuição acumulada e $\{F_{n}\}_{n\geq 1}$ uma sequência de funções de distribuição acumulada. Se $F_{n}\rightarrow F$ então, para toda função $g:\mathbb{R}\rightarrow\mathbb{R}$ contínua e limitada temos que:

\[\displaystyle\int{g(x)dF_n(x)}\rightarrow \int{g(x)dF(x)}.\]

Este teorema é conhecido como teorema de Helly Bray.

Demonstração:

Queremos mostrar que $\displaystyle\int{g(x)dF_n(x)}\rightarrow \int{g(x)dF(x)}$. Para isso, precisamos mostrar que

\[\displaystyle\left|\displaystyle\int{g(x)dF_n(x)}-\int{g(x)dF(x)}\right| \ < \ \varepsilon,~~\forall \ \varepsilon \ > \ 0.\]

Sejam $-\infty \ < \ a \ < \ b \ < \ \infty$. Podemos dividir a diferença entre as integrais acima da seguinte forma:

\[\int{g(x)dF_n(x)}-\int{g(x)dF(x)}= A - B\]

em que

\[A = \int_{-\infty}^{a}{g(x)dF_n(x)} +\int_{a}^{b}{g(x)dF_n(x)}+\int_{b}^{\infty}{g(x)dF_n(x)}\]

e

\[B = \int_{-\infty}^{a}{g(x)dF(x)}+\int_{a}^{b}{g(x)dF(x)}+\int_{b}^{\infty}g(x)dF(x).\]

Por hipótese temos que $g$ é uma função limitada e, portanto, $c=\sup_{x\in \mathbb{R}}|g(x)| \ < \ \infty$. Seja $\varepsilon \ > \ 0$ arbitrário. Usando a desigualdade triangular temos que

\[\displaystyle\left|\displaystyle\int{g(x)dF_n(x)} - \int{g(x)dF(x)}\right|\leq \left|\int g(x)dF_n-\int_{a}^{b}g(x)dF_n(x)\right|+\]

\[+\left|\int_{a}^{b}g(x)dF_n(x)-\int_{a}^{b}g(x)dF(x)\right|+\left|\int_{a}^{b}g(x)dF(x)-\int g(x)dF(x)\right|.\]

Notemos o seguinte fato:

\[\displaystyle\left|\int_{-\infty}^{a}g(x)dF_n(x)-\int_{-\infty}^{a}g(x)dF(x)\right|\leq\int_{-\infty}^{a}cdF_n(x)+\int_{-\infty}^{a}cdF(x)=c[F_n(a)+F(a)].\]

Se $a$ é suficientemente pequeno, como $F$ é não decrescente temos que para $F(a)$ também será pequeno, e o mesmo vale para $F_n(a)$. Desta forma concluímos que para cada $\varepsilon_0 \ > \ 0$ existe um a tal que:

\[c[F_n(a)-F(a)] \ < \ \varepsilon_0\]

Analogamente temos:

\[\displaystyle \left|\int_{b}^{\infty}g(x)dF_n(x)-\int_{b}^{\infty}g(x)dF(x)\right|\leq \int_{b}^{\infty}cdF_n(x)-\int_{b}^{\infty}cdF(x)=c[F_n(b)-F(b)].\]

Para $b$ suficientemente grande temos que:

\[c[F_n(b)-F(b)] \ < \ \varepsilon_2.\]

Agora basta mostrarmos que:

\[\displaystyle\left|\int_{a}^{b}g(x)dF_n(x)-\int_{a}^{b}g(x)dF(x)\right| \ < \ \varepsilon_3.\]

Como por hipótese g é contínua e limitada, temos que no intervalo fechado $[a,b]$ a função g é uniformemente contínua, pois toda função contínua defina em um compacto é uniformemente contínua.

Lembrando que um compacto nos reais é um conjunto fechado e limitado.

Assim, vamos considerar a seguinte partição do intervalo [a,b]:

\[x_0=a \ < \ x_1 \ < \ \cdots \ < \ x_m=b.\]

Para $x\in\mathbb{R}$, com $x_i \ < \ x \ < \ x_{i+1}$ temos que:

\[g(x)-g(x_i) \ < \ \varepsilon_4,~~\forall i,\]

Para $\varepsilon_4 \ > \ 0$. Vamos definir uma função $g_j(x)=g(x_i)$ para todo $x\in(x_i,x_i+1)$, observemos que $g_j$ é uma função constante, desta forma mostremos o seguinte fato:

\[\displaystyle\int_{a}^{b}g(x_i)dF_n(x)=\sum_{i=0}^{m-1}g(x_i)[F_n(x_{i+1})-F_n(x_i)]\rightarrow\sum_{i=0}^{m-1}g(x_i)[F(x_{i+1})-F(x_i)]=\int_{a}^{b}g_j(x)dF(x).\]

Esta convergência decorre do fato de que por hipótese $F_n$ converge para F.

Desta forma temos que para qualquer $\varepsilon \ > \ 0$ existe um n suficientemente grande tal que:

\[\displaystyle \left|\int_{a}^{b}g_m(x)dF_n(x)-\int_{a}^{b}g_m(x)dF(x)\right|\leq\varepsilon_5.\]

Mas

$$\left|\int_{a}^{b}g(x)dF_n(x)-\int_{a}^{b}g(x)dF(x)\right|\leq$$

$$\left|\int_{a}^{b}g(x)dF_n-\int_{a}^{b}g_m(x)dF_n\right|+\left|\int_{a}^{b}g_m(x)dF_n(x)-\int_{a}^{b}g_m(x)dF(x)\right|+$$

$$+\left|\int_{a}^{b}g_m(x)dF(x)-\int_{a}^{b}g(x)dF(x)\right|\leq\left|\int_{a}^{b}\varepsilon_4dF_n+\varepsilon_5+\int_{a}^{b}\varepsilon_4dF_n\right|\leq\varepsilon_5+ 2\varepsilon_4.$$

Portanto podemos concluir que:

$$\left|\int g(x)dF_n(x)-\int g(x)dF(x)\right|\rightarrow 0,$$

$\Box$

Com isso, podemos ter uma definição alternativa, dada por

Definição 7.1.2.2: 

Dizemos que uma sequência de variáveis aleatórias $(X_n)_{n\geq 1}$ converge em distribuição para a variável aleatória $X$, se

$$\mathbb{E}[f(X_n)]\rightarrow \mathbb{E}[f(X)$$ 

para toda função contínua e limitada $f$.

Teorema 7.1.2.2: 

Sejam $\{F_n\}_{n\geq 1}$ uma sequência de funções de distribuição acumulada e $\{\varphi_n\}$ uma sequência de funções características, com $\varphi_n$ sendo a função característica de $F_n$. Se $\varphi_n$ converge pontualmente para $\varphi$ e $\varphi$ é contínua em zero, então existe uma função $F$ tal que $F_n \rightarrow F$ tal que $\varphi$ é a função característica de $F$.

Demonstração:

Vamos omitir a prova deste teorema por ser uma prova muito técnica, entretanto ela pode ser encontrada no livro do Barry James e em alguns outros livros que aparecem nas referências.

$\Box$

Proposição 7.1.2.1: 

Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias tal que $\varphi_{X_n}$ é a função característica associada à variável aleatória $X_n$. Se $\varphi_{X_n}(t)\rightarrow e^{-t^2/2}$, então $X_n$ converge em distribuição para uma variável aleatória com distribuição normal padronizada.

Demonstração:

Pelo Teorema 7.1.2.2 concluímos que uma função característica define a função de distribuição acumulada de forma única. Como a função característica da distribuição normal é $e^{-t^{2}/2}$ temos que decorre imediatamente do Teorema 7.1.2.2 que $X_n$ converge para a distribuição normal.

$\Box$

Teorema 7.1.2.3: 

Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias, $X$ uma variável aleatória e $g$ uma função contínua a valores reais. Se $X_n$ converge em distribuição para $X$ então $g(X_n)$ também converge em distribuição para $g(X)$.

Demonstração:

Por hipótese temos que $X_n$ converge em distribuição para $X$. Assim para mostrarmos que $g(X_n)$ converge em distribuição para $g(X)$. Basta mostrarmos a convergência das funções características. Temos, por definição que

\[\varphi_{g(X_n)}(t)=\mathbb{E}[e^{itg(X_n)}]=\mathbb{E}[\cos{(tg(X_n))}]+i~\mathbb{E}[\text{sen}{(tg(X_n))}].\]

Mas $\cos$ e $\text{sen}$ são funções contínuas e limitadas e assim do Teorema 7.1.2.1 decorre que:

\[\varphi_{g(X_n)}\rightarrow \varphi_{g(X)}.\]

Portanto $g(X_n)$ converge em distribuição para $g(X)$.

$\Box$

Teorema 7.1.2.4: (Slutsky)

Sejam $\{X_n\}_{n\geq 1}$ e $\{Y_n\}_{n\geq 1}$ duas sequências de variáveis aleatórias, tais que $X_n$ converge em distribuição para uma variável $X$ e $Y_n$ converge em probabilidade para uma variável $Y$ em que $Y$ é uma variável constante real. Então as seguintes afirmações são verdadeiras

i) $X_n+Y_n$ converge em distribuição para $X+Y.$

ii) $X_n-Y_n$ converge em distribuição para $X-Y.$

iii) $X_nY_n$ converge em distribuição para $YX.$

iv) se $Y\neq 0$ e $\mathbb{P}(Y_n\neq 0)=1$, então $\displaystyle \frac{X_n}{Y_n}$ converge em distribuição para $\displaystyle \frac{X}{Y}$.

Demonstração:

i) Basta mostrarmos que $\varphi_{X_n+Y_n}(t)\rightarrow \varphi_{X+Y}(t)$, mas temos 

$$\varphi_{X_n+Y_n}=\mathbb{E}[e^{it(X_n+Y_n)}]=\mathbb{E}[e^{it(X_n+Y)}]+\mathbb{E}[e^{itX_n}(e^{itY_n}-e^{itY})].$$

Como $\mathbb{E}[e^{itX_n}]=\varphi_{X_n}(t)\rightarrow \varphi_X(t)$, e portanto

$$\mathbb{E}[e^{it(X_n+Y)}]=e^{itY}\mathbb{E}[e^{itX_n}]\rightarrow e^{itY}\varphi_X=\varphi_{X+Y}(t).$$

Desta forma, precisamos mostrar apenas que $\mathbb{E}[e^{itX_n}(e^{itY_n}-e^{itY})]\rightarrow 0$.

$$|\mathbb{E}[e^{itX_n}(e^{itY_n}-e^{itY})]|\leq \mathbb{E}[|e^{itX_n}(e^{it Y_n}e^{itY})|]=\mathbb{E}[e^{itY_n}-e^{itY}],$$

pois $|e^{itX_n}|=1$, assim precisamos apenas mostrar que $\mathbb{E}[|e^{it(Y_n-Y)}|]\rightarrow 0$. Mas esse fato é consequência do teorema da convergência dominada.

ii) Esta convergência é imediata de i), pois $-Y_n\rightarrow -Y$.

iii) Vamos supor primeiramente que $Y=0.$ Assim queremos mostrar que $Y_nX_n$ converge em probabilidade para 0, pois convergência em probabilidade implica em convergência distribuição.

Portanto sejam $\varepsilon,~\delta \ > \ 0$ e $x \ < \ 0 \ < \ y$ pontos de continuidade de $F_X$, tais que $F_X(y)-F_X(x)=\mathbb{P}[x \ < \ X \leq y] \ > \ 1-\delta$. Como por hipótese $X_n$ converge em distribuição para $X$, temos que

$$\mathbb{P}[x \ < \ X_n \leq y]=F_{X_n}(y)-F_{X_n}(x) \ > \ 1-\delta$$

para um $n$ suficientemente grande. Além disso, definimos $M=\max(y,-x).$ Então a convergência em probabilidade de $Y_n$ para zero implica que $\mathbb{P}[|Y_n| \ < \ \varepsilon/M] \ > \ 1-\delta$ para $n$ suficientemente grande.

$$\mathbb{P}[x \ < \ X_n \ < \ y, |Y| \ < \ \varepsilon/M] \ >1-2\delta.$$

isto decorre da P10.

Além disso, temos que $x \ < \ X_n \ < \ y$ e $|Y_n| \ < \ \frac{\varepsilon}{M}$ o que implica que $|X_nY_n| \ < \ \varepsilon$.

Logo $\mathbb{P}[|X_nY_n| \ < \ \varepsilon] \ > \ 1-2\delta$ para $n$ suficientemente grande.

Portanto temos que para todo $\varepsilon \ > \ 0$  temos que $\mathbb{P}[|X_nY_n| \ < \ \varepsilon]\rightarrow 1$, ou seja $X_nY_n$ converge em probabilidade para zero.

Para demonstrarmos o caso geral em que $Y=c$, basta analisarmos o seguinte fato

$$Y_nX_n=YX_n+(Yn-Y)X_n$$ 

e $Y_n-Y$ converge em probabilidade para zero, assim segue do caso em que $Y=0$ que $(Y_n-Y)X_n$ converge em probabilidade para zero.

Além disso, temos que

$$\varphi_{cX_n}(t)=\varphi_{X_n}(ct)\rightarrow \varphi_{X}(ct)=\varphi_{cX}(t)=\varphi_{YX}(t),$$

Assim do Teorema 7.1.2.5 decorre que $YX_n$ converge $YX$. Agora o resultado segue imediatamente do item i), pois temos a soma de dois termos em que um que converge em probabilidade para zero e outro converge em distribuição para $YX$.

iv) Notemos que do Teorema 7.1.2.4 que $\frac{1}{Y_n}$ converge em probabilidade para $\frac{1}{Y}$ e em seguida basta aplicarmos o item iii) que o resultado segue.

$\Box$

Teorema 7.1.2.4:(Cramér-Wold)

Sejam $\widetilde{X}_n=(X_{n1},\cdots, X_{nk})$ e $\widetilde{X}=(X_1,\cdots,X_k)$, vetores aleatórias k-dimensionais. $\widetilde{X_n}$ converge em distribuição para $\widetilde{X}$ se, e somente se, $\displaystyle \sum_{j=1}^{k}t_j X_{nj}$ converge em distribuição para $\displaystyle\sum_{j=1}^{k}t_jX_j$, quando $n\rightarrow \infty$, para todo $(t_1,\cdots,t_k)\in \mathbb{R}^k$.

Demonstração:

Para iniciarmos essa demonstração vamos definir a função característica de um vetor aleatório.

Assim, consideramos um vetor j-dimensional $\widetilde{X}=(X_1,\cdots,X_j)$ a função característica de $\widetilde{X}$ é a função $\varphi_{\widetilde{X}}:\mathbb{R}^j\rightarrow C$ a qual é definida por:

$$\displaystyle\varphi_{\widetilde{X}}(t_1,\cdots,t_j)=\mathbb{E}\left[\exp\left(i\sum_{k=1}^{j}t_jX_j\right)\right]=E\left[e^{i\widetilde{t} \widetilde{X}}\right].$$ 

Agora com a definição da função característica para um vetor aleatório em mãos podemos finalmente partir para a demonstração do teorema de Cramér-Wold.

Suponhamos que $\sum_{j=1}^{k}t_jX_{nj}$ converge em distribuição para

$$\sum_{j=1}^{k}t_jX_{j}$$

Neste caso temos que:

\[\varphi_{X_n}(t_1,\cdots,t_k)=\mathbb{E}[e^{i\sum_{j=1}^{k}t_jX_{nj}}]\]

\[\varphi_{\sum_{j=1}^{k}t_jX_{nj}}(1)\rightarrow\varphi_{\sum_{j=1}^{k}tjXj}(1)=\varphi_{\widetilde{X}}(t_1,\cdots,t_k)\]

Assim decorre imediatamente que como $\varphi_{\widetilde{X_n}}\rightarrow\varphi_{\widetilde{X}}$ que $\widetilde{X_n}$ converge em distribuição para $X$.

Agora vamos supor o caso contrário, suponha que $X_n$ converge em distribuição para $X$.

Assim notemos que:

$$\varphi_{\sum_{j=1}^{k}tjX_{nj}}=E\left[e^{it\sum_{j=1}^{k}t_jX_{nj}}\right]=E\left[e^{i \sum_{j=1}^{k}tt_jX_{nj}}\right]=$$

$$=\varphi_{\widetilde{X_n}}(tt_1,\cdots,tt_k)\rightarrow\varphi_{\widetilde{X}}(tt_1,\cdots,tt_k)=\varphi_{\sum_{j=1}^{k}t_jX_j}(t).$$

Portanto $$\sum_{j=1}^{k}t_jX_{nj}$$

converge em distribuição para $$\sum_{j=1}^{k}t_jX_{j}$$

$\Box$

Proposição 7.1.2.2:

$X_n\xrightarrow{\mathcal{D}}c$ se, e somente se, $X_n\xrightarrow{P}c$

Demonstração:

Primeiramente suponhamos que

$$\lim_{n\rightarrow\infty}F_{X_n}(x)=\left\{\begin{array}{l}0,\quad\text{se}~x< c\\ 1,\quad\text{se}~x\geq c\end{array}\right.$$

Dado $\varepsilon> 0$

$$0\leq\mathbb{P}\{|X_n-c|\geq \varepsilon\}=\mathbb{P}\{X_n\geq c+\varepsilon\}+\mathbb{P}\{X_n\leq c-\varepsilon\}=1-\mathbb{P}\{X_n< c+\varepsilon\}+\mathbb{P}\{X_n\leq c-\varepsilon\}\leq$$

$\leq 1-\mathbb{P}\left\{X_n\leq c+\frac{\varepsilon}{2}\right\}+\mathbb{P}\{X_n\leq c-\varepsilon\}\xrightarrow{n\rightarrow\infty}1-1+0=0$

Portanto, $X_n\xrightarrow{P}c$

Reciprocamente, seja $F_n$ a função distribuição acumulada de $X_n,~n\geq 1.$ Fixamos $x\in\mathbb{R}$ para todo $x$ ponto de continuidade de $F$. Então para todo $\varepsilon>0$

$$\mathbb{P}\{X_n\leq x\}\leq\mathbb{P}\{X\leq x+\varepsilon\}+\mathbb{P}\{X_n\leq x~;~X> x+\varepsilon\}\leq \mathbb{P}\{X\leq x+\varepsilon\}+\mathbb{P}\{|X_n-c|>\varepsilon\}~~(7.1.2.1)$$

e similarmente

$$\mathbb{P}\{X_n\leq x\}\geq\mathbb{P}\{X\leq x-\varepsilon\}-\mathbb{P}\{|X_n-c|>\varepsilon\}~~(7.1.2.2)$$

Logo, de (7.1.2.1) e (7.1.2.2) obtemos que

$$F(x-\varepsilon)-\mathbb{P}\{|X_n-c|> \varepsilon\}\leq F_n(x)\leq F(x+\varepsilon)+\mathbb{P}\{|X_n-c|>\varepsilon\}$$

Como por hipótese temos que $X_n\xrightarrow{P}c$ quando $n\rightarrow\infty$ temos que

$$F(x-\varepsilon)\leq \liminf_{n\rightarrow\infty}F_n(x)\leq \limsup_{n\rightarrow\infty}F_n(x)\leq F(x+\varepsilon), \quad \forall~\varepsilon> 0~~(7.1.2.3).$$

Note que, para todo $x\in\mathbb{R}$ ponto de continuidade de $F$, temos que $F(x^-)=F(x)$

Portanto, quando $\varepsilon\downarrow 0$ em (7.1.2.3) obtemos que

$$\lim_{n\rightarrow\infty}F_n(x)=F(x)$$

ou seja, $X_n\xrightarrow{\mathcal{D}}c$

$\Box$

Teorema 7.1.2.5:

$X_n\xrightarrow{P}X,$ então $X_n\xrightarrow{\mathcal{D}}X$

Demonstração:

Basta, usar a volta da proposição 7.1.2.2 trocando c por $X.$

$\Box$

Proposição 7.1.2.3: (Caso discreto)

Seja $\{X_n\}_{n\geq 1}$ sequência de variáveis aleatórias que assumem valores em $\mathbb{Z}^+$ (inteiros positivos). Se $\displaystyle\lim_{n\rightarrow \infty}\mathbb{P}\{X_n=k\}=\mathbb{P}\{X=k\},$ então $X_n\xrightarrow{\mathcal{D}}X. $

Demonstração:

No caso $x< 0$ temos que

$$F_{X_n}(x)=0\rightarrow 0=F_X(x)$$

Agora, suponhamos que $x\in (k,k+1),~k=0,1,\dots$ Disto obtemos que

$$F_{X_n}(x)=\sum^k_{i=0}\mathbb{P}\{X_n=i\}\xrightarrow{n\rightarrow\infty} \sum^k_{i=0}\mathbb{P}\{X=i\}=F_X(x)$$

Portanto, $X_n\xrightarrow{\mathcal{D}}X. $

$\Box$

Exemplo 7.1.2.2: 

Seja $X_n\sim Binom(n,p_n)$, $X\sim Poisson(\lambda)$ e $\displaystyle \lim_{n\rightarrow\infty}np_n=\lambda.$ Mostre que $X_n\xrightarrow{\mathcal{D}}X.$

De fato,

$$\mathbb{P}\{X_n=k\}=\left(n\choose k\right)p^k_n(1-p_n)^{n-k}=\frac{n.(n-1)\dots(n-(k-1))}{k!}p^k_n(1-p_n)^{n-k}=$$

$$=\frac{1}{k!}\left(1-\frac{1}{n}\right)\dots\left(1-\frac{k-1}{n}\right)(n p_n)^k\left(1-\frac{n p_n}{n}\right)^n\left(1-\frac{n p_n}{n}\right)^{-k}\xrightarrow{n\rightarrow\infty}\frac{1}{k!}e^{-\lambda}\lambda^k$$

pois $(n p_n)^k\xrightarrow{n\rightarrow\infty}\lambda^k$ e $\left(1-\dfrac{n p_n}{n}\right)^n\xrightarrow{n\rightarrow\infty}e^{-\lambda}$

Em particular, obtemos que $X\sim$ Poisson$(\lambda).$

Portanto, $X_n\xrightarrow{\mathcal{D}}X.$

Exemplo 7.1.2.3: 

Suponha que  $X\sim$ Uniforme $\left(\frac{1}{n},\frac{2}{n},\dots,1\right).$ Mostre que $X_n\xrightarrow{\mathcal{D}}X$ com $X\sim U(0,1)$ e mostre se ocorre convergência em probabilidade.

De fato, observe que

$$F_{X_n}(x)=\left\{\begin{array}{l}0,\quad \text{se}~x< \frac{1}{n}\\ \dfrac{k}{n},\quad \text{se}~\frac{k}{n}\leq x< \frac{k+1}{n}\\1,\quad \text{se}~x\geq1\end{array}\right.$$

$$F_{X}(x)=\left\{\begin{array}{l}0,\quad \text{se}~x< 0\\ x,\quad \text{se}~0\leq x< 1\\1,\quad \text{se}~x\geq1\end{array}\right.$$

  • Para $x\leq 0$ ou $x\geq 1$ temos que $F_{X_n}(x)\xrightarrow{n\rightarrow\infty}F_X(x).$
  • Para $0< x < 1$ temos que existe $n> \frac{1}{x}$ para $k=1,\dots, n-1$ tal que $\frac{k}{n}\leq x< \frac{k+1}{n}$

Logo,

$$0\leq |F_{X_n}(x)-F_X(x)|=\left|\frac{k}{n}-x\right|\leq \frac{k}{n}-\frac{k+1}{n}=\frac{1}{n}\xrightarrow{n\rightarrow\infty}0$$

Portanto segue o resultado.

Agora, apresentamos um exemplo de uma sequência de variáveis aleatórias a qual converge em probabilidade e em média p para X $\forall p\geq 1$, mas não converge quase certamente.

Exemplo 7.1.2.4:

Seja $(X_n)_{n\in\mathbb{N}}$ uma sequência de variáveis aleatórias com $X_n\stackrel{P}{\rightarrow}X$ e $X_n\stackrel{L^p}{\rightarrow}X$ mas $X_n\stackrel{q.c}{\nrightarrow}X$.

Definimos $A_n=[0,1/n]$ e seja $X_n=1\!\!1_{A_n}$ com $P$ a medida de Lebesgue no $[0,1]$. Então para $0< \varepsilon < 1$

$$\lim P(|X_n-0|\geq \varepsilon)=\lim P(|X_n|\geq \varepsilon)=\lim P(|X_n|= 1)=1/n\rightarrow 0$$

Logo converge em probabilidade para zero. Além disso,

$$\lim E[|X_n-0|^p]=\lim E[|X_n|^p]=\lim P[|X_n|^p=1]=\lim P[X_n^p=1]=\lim P[X_n=1]=\lim 1/n=0$$

portanto converge em média p para X.

Entretanto utilizando o lema de Borel-Cantelli temos que 

$$\displaystyle \sum_{n=1}^{\infty}P(|X_n|\geq \varepsilon)=\sum_{n=1}^{\infty}P(|X_n|=1)=\sum_{n=1}^{\infty}1/n =\infty$$

o que implica que 

$$P(|X_n|\geq \varepsilon, i.v.)=1$$

o que implica que $X_n\stackrel{q.c.}{\nrightarrow} X$.

Para finalizar esta seção, vamos apresentar um diagrama dos principais resultados.

Figura 7.1.2.1: Diagrama de implicações entre os tipos de convergência.

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]