7.2.1 - Lei Fraca dos Grandes Números.

Você está aqui

Fundada no final do século XIX, a escola de São Petersburgo produziu grandes matemáticos russos com grandes contribuições à Lei dos Grandes Números. Chebyshev influenciado por grandes matemáticos russos, publicou o importante livro Fundamentos da teoria matemática de probabilidades, que fazem parte das linhas estudadas por Daniel Bernoulli e Euler em São Petersburgo. Chebyshev foi o primeiro a raciocinar sistematicamente em termos de variáveis aleatórias e seus momentos. Chebyshev estabeleceu uma simples desigualdade que permitiu uma prova trivial da Lei Fraca dos Grandes Números.

Antes de definirmos e demonstrarmos formalmente a Lei Fraca dos Grandes Números, vamos necessitar de conhecimento de convergência em probabilidade e quase certa e de algumas desigualdades importantes , como as desigualdades de Markov e Chebyshev (para mais detalhes consulte o conteúdo de convergência de variáveis aleatórias).

A principal diferença entre a lei fraca e a lei forte dos grandes números é que a primeira converge em probabilidade e a segunda converge quase certamente. A convergência em probabilidade é uma convergência mais fraca que a convergência quase certa, pois se houver convergência quase certa há convergência em probabilidade. Vejamos isto através da seguinte proposição.

Proposição 7.1.1.1:

Se uma sequência de variáveis aleatórias $Y_n$ sobre um espaço de probabilidade $(\Omega , \mathcal{F} , \mathbb{P} )$ converge quase certamente para uma variável aleatória $Y $ então $Y_n \to Y$ em probabilidade.

Demonstração:

Dado $\varepsilon > \ 0 $ tome $ S_m = \{ Y_m : Y_m - Y > \varepsilon \} $ para todo $m \in \mathbb{N} $.

Como $Y_m \to Y $ quase certamente, temos

$\mathbb{P}(\limsup S_m ) \leq \limsup \mathbb{P}(S_m ) = 0 $ e $\mathbb{P}(S_m ) \ge 0$ para todo $m \in \mathbb{N} $. Assim temos $\mathbb{P}(S_m ) \to 0$ 

$\Box$

Teorema 7.1.1.1: (Lei Fraca de Chebyshev)

Sejam $X_i$ uma sequência enumerável de variáveis aleatórias independentes dois a dois. Se a sequência $X_i$ tem variância finita e uniformemente limitada, ou seja, existe uma constante $c\in \mathbb{R}$ tal que $\text{Var}[X_i]\leq c$. Então a sequência $X_i$ satisfaz a Lei Fraca dos Grandes Números:

$$\displaystyle \dfrac{S_n-\mathbb{E}\left[S_n\right]}{n}\xrightarrow{P} 0$$

em que $\displaystyle S_n=\sum_{i=1}^{n}X_i$

Demonstração:

Como $X_i$ são independentes temos que $\text{Var}\left[S_n\right]=\displaystyle\sum_{i=1}^{n}\text{Var}[X_i]\leq nc,$ logo as hipóteses da desigualdade de Chebyshev são satisfeitas.

Portanto, temos que

\[\mathbb{P}\left[\left|\displaystyle S_n - \mathbb{E}\left[S_n\right]\right|\right]\geq \varepsilon n]\leq\displaystyle \dfrac{\text{Var}\left[S_n\right]}{\varepsilon^2 n^2}\leq\dfrac{c}{\varepsilon^2 n^2}\rightarrow 0,~~\text{quando} ~~ n\rightarrow \infty.\]

$\Box$

Teorema 7.1.1.1: (Lei Fraca de Khintchine)

Sejam $X_i$ uma sequência enumerável de variáveis aleatórias independentes e identicamente distribuídas e integráveis com média $\mu.$ Então $X_i,~i\in\mathbb{N}$ satisfazem a Lei Fraca do Grandes Números:

$$\frac{S_n}{n}\xrightarrow{P}\mu$$

Demonstração:

De fato, como as $X_n$ são independentes e identicamente distribuídos e usando a função característica (para mais detalhes consulte o conteúdo Função Característica ou Transformada de Fourier), temos que

$$\varphi_{S_n/n}(t)=\left(\varphi_{X_1}\left(\frac{t}{n}\right)\right)^n=\left(1+it\frac{\mu}{n}+r_1\left(\frac{t}{n}\right)\right)^n$$

em que $\frac{r_1(t)}{t}\xrightarrow{t\rightarrow 0}0.$ Disto, obtemos que

$$\varphi_{S_n/n}(t)\xrightarrow{n\rightarrow \infty}e^{it\mu},\quad \forall ~t\in \mathbb{R}$$

Pelo teorema da continuidade de Lévy, temos que

$$\frac{S_n}{n}\xrightarrow{\mathcal{D}}\mu$$

Mas como $\mu$ é constante, temos que

$$\frac{S_n}{n}\xrightarrow{P}\mu$$

$\Box$

Proposição 7.1.1.4:

Sejam $X_1,\dots,X_n$ variáveis aleatórias independentes com $E[X_i]=\mu$ e $\text{Var}(X_i)=\sigma^2$ para $i=1,2,\dots,n.$ Então, para todos $\varepsilon> 0$ temos:

$$\mathbb{P}\left[\left|\frac{S_n}{n}-\mu\right|\geq \varepsilon \right]\leq \dfrac{\sigma^2}{n\varepsilon^2}$$

Demonstração:

Seja $S_n=X_1+\dots+X_n,$ aplicamos a desigualdade de Chebyshev e obtemos que

$$\mathbb{P}\left[\left|\frac{S_n}{n}-\mu\right|\geq \varepsilon \right]\leq \dfrac{\text{Var}\left(\frac{S_n}{n}\right)}{\varepsilon^2}=\dfrac{\sigma^2}{n\varepsilon^2}$$

$\Box$

A primeira lei dos grandes números foi proposta por Bernoulli em 1713 e é um caso particular da lei fraca de Chebychev, a qual é proposta como a proposição abaixo.

Proposição 7.1.1.5: (Lei Fraca dos Grandes Números de Bernoulli)

Seja $X_i$ uma sequência de ensaios de bernoulli independentes, com mesma probabilidade de sucesso. Então

$\displaystyle \frac{S_n}{n}\xrightarrow{P} p$

em que $S_n=\displaystyle\sum^n_{i=1}X_i$

Demonstração:

Podemos demonstrar esse resultado de duas formas. A primeira delas basta observarmos que $p=\mathbb{E}[X_i]$ e $\text{Var}[X_i]=p(1-p)$, e portanto a sequência $X_i$ tem variância uniformemente limitada. Assim, as hipóteses do teorema anterior são satisfeitas o que implica que:

$\displaystyle \frac{S_n-np}{n}=\frac{S_n}{n}-p\xrightarrow{P} 0$

ou seja,

$\displaystyle \frac{S_n}{n}\xrightarrow{P} p.$

A outra maneira de demonstrarmos este resultado seria usando a desigualdade de Chebychev. Como as hipóteses da desigualdade são satisfeitas, temos que

\[\mathbb{P}[|\displaystyle S_n-\mathbb{E}[S_n]|\geq \varepsilon n]=\mathbb{P}[|S_n -np]|\geq \varepsilon n]\leq\displaystyle \frac{\text{Var}[S_n]}{\varepsilon^2 n^2}\leq\frac{p(1-p)}{\varepsilon^2 n^2}\rightarrow 0,\]

quando $n\rightarrow \infty$, ou equivalentemente $\displaystyle \frac{S_n}{n}\xrightarrow{P} p.$

$\Box$

Para finalizarmos esta seção, vamos apresentar alguns exemplo para fixarmos os conceitos apresentados.

Exemplo 7.1.1.1:

Seja $X_i$ uma sequência de variáveis aleatórias, mostre que se $\mathbb{E}[X_i]\rightarrow \alpha$ e $\text{Var}[X_i]\rightarrow 0$, então $X_n\xrightarrow{P}\alpha$.

Como $\mathbb{E}[X_i]\rightarrow \alpha$ temos que para cada $\varepsilon > 0$, existe $n_0$ tal que $|\mathbb{E}[X_n]-\alpha|<\dfrac{\varepsilon}{2}$ para $n\geq n_0$.

Assim, para todo $n\geq n_0$ temos que:

$$[|X_n-\alpha|> \varepsilon]\subseteq[|X_n-\mathbb{E}[X_n]|> \dfrac{\varepsilon}{2}],$$

pois

$$\varepsilon < |X_n-\alpha|=|X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-\alpha|\leq|X_n-\mathbb{E}[X_n]|+|\mathbb{E}[X_n]-\alpha|\leq|X_n-\mathbb{E}[X_n]|+\dfrac{\varepsilon}{2}$$

Logo,

\[|X_n-\mathbb{E}[X_n]|+\dfrac{\varepsilon}{2}>\varepsilon\quad \Rightarrow\quad |X_n-\mathbb{E}[X_n]|> \dfrac{\varepsilon}{2}\]

Mas pela desigualdade de Chebyshev para todo $n\geq 1$.

$\mathbb{P}(|X_n-\mathbb{E}[X_n]|>\dfrac{\varepsilon}{2})\leq\displaystyle\dfrac{4}{\varepsilon^2}\text{Var}(X_n).$

Portanto para todo $n\geq n_0,$

$\mathbb{P}(|X_n-\alpha|> \varepsilon)\leq \dfrac{4}{\varepsilon^2}\text{Var}[X_n],$

mas como $\text{\text{Var}}[X_n]\rightarrow 0$, quando $n\rightarrow \infty$, concluímos que $X_n \xrightarrow{P} \alpha$.

Exemplo 7.1.1.2: 

Suponha que em uma fábrica borracha o número de borrachas produzidas por dia seja uma variável aleatória X com média $\mu=70$. Estime a probabilidade de que a produção diária seja maior que 210.

Neste caso basta usarmos a desigualdade de Markov, e obtemos o seguinte resultado:

$\mathbb{P}(X\geq 210)\leq\displaystyle\dfrac{\mathbb{E}[X]}{210}=\frac{70}{210}=\dfrac{1}{3}.$

Exemplo 7.1.1.3:

Se no exemplo acima a variância de X é igual a 20, qual a probabilidade de que a produção do dia esteja entre 40 e 100 borrachas produzidas ?

Utilizando a desigualdade de Chebyshev, obtemos que:

$\mathbb{P}(|X-\mathbb{E}[X]|\geq 30)=\displaystyle\dfrac{\text{Var}[X]}{30^2}=\dfrac{20}{30^2}=\dfrac{1}{45}$

ou seja,

$\mathbb{P}(X-\mathbb{E}[X]\leq 30)=1-\mathbb{P}(X-\mathbb{E}[X]\geq 30)=1-\displaystyle \dfrac{1}{45}=\dfrac{44}{45}\approx 0,977.$

Desta forma a probabilidade de que a produção do dia esteja entre 40 e 100 borrachas produzidas é de aproximadamente 97,7%.

Exemplo 7.1.1.4: 

Seja $A_i$ uma sequência de eventos aleatórios com o mesmo espaço de probabilidades. Seja $1\!\!1_{A_i}$ a função indicadora de do conjunto $A_i$, mostremos que $\mathbb{P}(A_n)\rightarrow 0 $ se, e somente se, $1\!\!1_{A_i}\xrightarrow{P} 0$.

Primeiramente vamos supor que $\mathbb{P}(A_n)\rightarrow 0 $. Então dado $\varepsilon > 0$, definimos $B_n=\{\omega| 1\!\!1_{A_n}\geq \varepsilon\}.$

Observe que se $\varepsilon > 1$, então $B_n=\emptyset,$ pois $1\!\!1_{A_n}$ assume apenas os valores zero ou 1 e neste caso $\mathbb{P}(B_n)=0$ e o resultado segue trivialmente.

Sendo assim, basta considerarmos apenas o caso em que $0 < \varepsilon \leq 1.$

Assim, temos que

$$B_n=\{\omega| 1\!\!1_{A_n}\geq \varepsilon\}=A_n,$$

Logo obtemos que:

$$\mathbb{P}[B_n]=\mathbb{P}[A_n]\rightarrow 0,$$

o que implica que $\mathbb{P}[B_n]\rightarrow 0$, ou seja,

$$\mathbb{P}[1\!\!1_{A_n}\leq \varepsilon]\rightarrow 0 \quad\Rightarrow\quad 1\!\!1_{A_i}\xrightarrow{P}0$$

Agora vamos supor que $1\!\!1_{A_i}\xrightarrow{P} 0$, isto é, $\mathbb{P}[1\!\!1_{A_n}\leq \varepsilon]\rightarrow 0$, então neste caso temos que:

$$B_n=\{\omega| 1\!\!1_{A_n}\geq \varepsilon\}=A_n\rightarrow \emptyset,$$

Portanto $\mathbb{P}[B_n]=\mathbb{P}[A_n]\rightarrow 0$

Exemplo 7.1.1.5:

Uma variável com variância zero é um valor determinístico.

De fato, seja X uma variável aleatória com variância zero $\text{Var}(X)=0,$ pela desigualdade de Chebyshev temos que

$$\mathbb{P}[|X-\mu|\geq k]\leq \dfrac{\text{Var}(X)}{k^2}\quad \Rightarrow \quad \mathbb{P}[|X-\mu|>0]=0$$

Portanto, $X=\mu$ com probabilidade 1, isto é, é determinístico.

Exemplo 7.1.1.6:

Um candidato a prefeito da cidade de São Carlos gostaria de ter uma ideia de quantos votos receberá nas próximas eleições. Para isto, foi feito uma pesquisa com os cidadães, em que $p$ representa a proporção de votos do candidato com $0\leq p< 1.$ Quantas pessoas devem ser entrevistadas com 95% de confiança para que o valor de $p$ tenha sido determinado com erro inferior a 5%, supondo que as escolhas de cada pessoa sejam independentes.

Seja $n$ o número de candidatos, denotamos $X_i, ~i=1,\dots,n$ a variável aleatória de Bernoulli que assume valor 1, com probabilidade p, se a i-ésima pessoa entrevistada declara a intenção de votar no candidato. Assume o valor 0, com probabilidade $1-p$ caso contrário.

Note que $S_n=X_1+\dots+X_n\sim b(n,p)$ (para mais detalhes consulte distribuição binomial). Assim, $\frac{S_n}{n}$ é uma aproximação do valor de $p$ que é desconhecido.

Logo, do enunciado, queremos

$$\mathbb{P}\left[\left|\frac{S_n}{n}-p\right|\leq 0,05\right]\geq 0,95$$

Da proposição 7.1.1.4 temos que

$$\mathbb{P}\left[\left|\frac{S_n}{n}-p\right|\geq 0,05\right]\leq \frac{p(1-p)}{n(0,05)^2}\leq \frac{1}{4n~(0,05)^2}, \quad\text{pois}~p(1-p)\leq \frac{1}{4}\quad (7.1.1.1)$$

A probabilidade do lado esquerdo de (7.1.1.1) é o complementar à probabilidade desejada, isto é, $1-0,95=0,05.$

Logo,

$$\frac{1}{4n(0,05)^2}\leq 0,05\quad \Rightarrow \quad n\geq 2000.$$

Portanto, devemos entrevistar pelo menos 2000 pessoas.

 

 

Exemplo 7.1.1.7:
Seja $A_1,A_2, \dots$ uma sequência de eventos aleatórios em $(\Omega,\mathbb{A},\mathbb{P})$ indicadores $\mathbb{1}_{A_1},\mathbb{1}_{A_2},\dots$. Mostre que $\mathbb{P}(A_n)\rightarrow 0$ se, e somente se, $\mathbb{1}_{A_n}\stackrel{\mathbb{P}}{\longrightarrow} 0.$

Sabemos que $\mathbb{E}(\mathbb{1}_{A_n})=\mathbb{P}(A_n),\quad n=1,2,\dots$. Então se
$$\mathbb{P}(A_n)\rightarrow 0$$
o que implica que
$$\mathbb{E}(\mathbb{1}_{A_n})\rightarrow 0$$
Agora, utilizando a desigualdade de Chebyshev:
$$\mathbb{P}(\mathbb{1}_{A_n}\geq \epsilon)=\mathbb{P}([\mathbb{1}_{A_n}\geq \epsilon])\leq\frac{\mathbb{E}(\mathbb{1}_{A_n})}{\epsilon}\rightarrow 0$$
o que implica que
$$\mathbb{1}_{A_n}\rightarrow 0$$
em probabilidade. Agora suponha que $$\mathbb{1}_{A_n}\rightarrow 0$$
em probabilidade e seja $0< \epsilon< 1$ então
$$\mathbb{P}([\mathbb{1}_{A_n}\geq \epsilon])=\mathbb{P}([\mathbb{1}_{A_n}=1])=\mathbb{P}(A_n)\rightarrow 0.$$
E o resultado segue
 

 

Exemplo 7.1.1.8:
Sejam $X_1,X_2,\dots$ variáveis aleatórias independentes com distribuição comum $Poisson(\lambda)$. Qual o limite em probabilidade da sequência $(Y_n)_{n\geq 1}$, no qual
$$Y_n=\frac{X_1^2+\dots+X^2_n}{n}$$

Temos que $\mathbb{E}(X_1^2)=Var(X_1)+[\mathbb{E}(X_1)]^2=\lambda+\lambda^2=\lambda(\lambda+1)$. Agora sejam $Z_i=X^2_i, i=1,2,\dots$ variável aleatória que serão independentes pela "propriedade hereditária", identicamente distribuídas e integráveis. Então, pela Lei Fraca de Khintchine
$$Y_n=\frac{X_1^2+\dots+X_n^2}{n}\stackrel{\mathbb{P}}{\rightarrow} \mathbb{E}(X_1^2)=\lambda(\lambda+1)$$
 

 

Exemplo 7.1.1.9:
Seja $(X_n)_{n\geq 1}$ uma sequência de variáveis aleatórias. Prove que se $\mathbb{E}(X_n)\rightarrow \alpha$.

Sejam $\epsilon > 0$ qualquer e
$$A_n=[|X_n-\alpha|\geq \epsilon]=[|X_n-\mathbb{E}(X_n)+\mathbb{E}(X_n)-\alpha|\geq \epsilon]$$
$$B_n=[(|X_n-\mathbb{E}(X_n)|+|\mathbb{E}(X_n)-\alpha|)\geq \epsilon]$$
Agora $\omega \in A_n$ o que implica que $\omega \in B_n$ pois
$$(|X_n-\mathbb{E}(X_n)|+|\mathbb{E}(X_n)-\alpha|)\geq |X_n-\alpha|\geq \epsilon$$
Então $A_n\subset B_n$ o que implica que
$$\mathbb{P}(A_n)\leq \mathbb{P}(B_n)$$
No entanto, através da desigualdade clássica de Chebyshev-Bienayme. Temos
$$\mathbb{P}(A_n)\leq \mathbb{P}(B_n)=\mathbb{P}((|X_n-\mathbb{E}(X_n)|+|\mathbb{E}(X_n)-\alpha|)\geq \epsilon)$$
$$=\mathbb{P}((|X_n-\mathbb{E}(X_n)|)\geq \epsilon-|\mathbb{E}(X_n)-\alpha|)\leq \frac{Var(X_n)}{[\epsilon-|\mathbb{E}(X_n-\alpha)|]^2}\rightarrow 0$$
 

 

Exemplo 7.1.1.10:
Sejam $X_1,X_2,\dots$ variáveis aleatórias independentes tais que $X_1=0$ e para $j\geq 2$, $X_j$ é variável aleatória discreta satisfazendo
$$\mathbb{P}(X_j=k)=\left\{\begin{array}{l}\frac{1}{j^3},\quad se \quad k=\pm 1,\pm 2,\dots,\pm j\\ 1-\frac{2}{j^2},\quad se \quad k=0.\end{array}\right.$$
Prove que
$$\frac{\displaystyle \sum_{j=1}^n X_j}{n^\alpha}\stackrel{\mathbb{P}}{\longrightarrow} 0$$
quando $n\rightarrow \infty$, se $\alpha > \frac{1}{2}$.

Temos que por conta da simetria $\mathbb{E}(X_j)=0$ para $j=1,2,\dots$ e
$$Var(X_j)=2\sum_{k=1}^n k^3\frac{1}{j^3}=\frac{2}{j^3}\sum_{k=1}^n k^2=\frac{j(j+1)(2j+1)}{6j^3}=\frac{2j^2+3j+1}{3j^2}$$
$$=\frac{2}{3}+\frac{1}{j}+\frac{1}{3j^2}\leq 2$$
Agora
$$Var\left(\sum_{j=1}^n X_j\right)=\sum_{j=1}^n Var X_j\leq 2n$$
Aplicando a desigualdade de Chebyshev-Bienayme temos
$$\mathbb{P}\left(\bigg|\frac{\sum_{j=1}^n X_j}{n^\alpha}\bigg|\geq \epsilon \right)=\mathbb{P}\left(|\sum_{j=1}^n X_j|\geq n^{\alpha}\epsilon\right)$$
$$\leq \frac{Var\left(\sum_{j=1}^n X_j\right)}{n^{2\alpha}\epsilon^2}\leq \frac{2}{n^{2\alpha-1}\epsilon^2}\rightarrow 0$$
 


 

Exemplo 7.1.1.11:
Seja S uma sequência finita de caras e coroas. Demonstre que se uma moeda não necessariamente honesta( com probabilidade de cara igual a p, $0< p< 1$) for jogada independentemente um número infinito de vezes então S sairá infinitas vezes na sequência obtida, com probabilidade 1.

Teremos
$$\Omega=\{W=(\omega_1,\omega_2,\dots),\quad no\quad qual\quad \omega_i=1 \quad ou\quad \omega_i=0,\quad todo\quad i\}$$
Seja $S_k$ a sequência finita(de k elementos) de caras e coroas
$$S_k=(s_1,s_2,\dots,s_k)$$
no qual $s_i\in \{0,1\}$ e $i=1,\dots,k$. Agora, seja a sequência de eventos aleatórios
$$A_1=\{\text{a ocorrência da sequência} S_k\text{nos k primeiros ensaios}\}$$
\colorbox[rgb]{1,1,0}{Revisar}
$$A_2=\{\text{a ocorrência da sequência} S_k\text{nos (k+1)2k primeiros ensaios}\}$$
$\vdots$
$$A_n=\{\text{a ocorrência da sequência} S_k\text{nos k primeiros ensaios}\}$$
ou seja, $A_n=\{\omega\in \Omega: \omega_{(n-1)k+i}=s_i, i=1,\dots,k\}$ no qual $A_1,A_2,\dots$ são eventos aleatórios independentes pois os ensaios são independentes, então temos
$$\mathbb{P}(A_n)=p^j(1-p)^{k-j}=q$$
no qual $S_k$ tem $j$ caras e $k-j$ coroas. Agora $\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty q=\infty$. Como $A_1,A_2,\dots$ são eventos aleatórios independentes aplicando o teorema de Borel-Cantelli, temos
$$\mathbb{P}(A_n,\quad i.o)=1$$
No entanto, sendo $\mathcal{S}$ o evento "ocorrência de S infinitas vezes", temos
$$\mathcal{S}\supset [A_n,\quad i.o.]$$
o que implica que $\mathbb{P}(\mathcal{S})\geq \mathbb{P}(A_n,\quad i.o)=1$ o que implica que $\mathbb{P}(\mathcal{S})=1$
 

 

Exemplo 7.1.1.12:
Sejam $X_1,X_2,\dots$ variáveis aleatórias independentes tais que $X_n$ tem distribuição $U[0,a_n]$, no qual $a_n> 0$. Mostre
(a) Se $a_n=n^2$, então com probabilidade 1, somente um número finito das $X_n$ toma valores menores que 1.

Seja $A_n=[X_n< 1]$. Então $A_1,A_2,\dots$ são eventos aleatórios independentes pois $A_i$ depende apenas de $X_i$. E
$$\mathbb{P}(A_n)=\mathbb{P}([X_n< 1])=\frac{1}{n^2}, \quad n=1,2,\dots$$
Então,
$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \frac{1}{n^2}< \infty$$
o que implica por Borel-Cantelli que
$$\mathbb{P}(A_n,\quad i.o)=0$$
o que implica que $\mathbb{P}(A_n,\quad f.o.)=1$.

(b) Se $a_n=n,$ então com probabilidade 1, um número infinito das $X_n$ toma valores menores que 1.

Então,
$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\mathbb{P}([X_n< 1])=\frac{1}{n}=\infty$$
por Borel-Cantelli e por $A_n$ ser independentes, isso implica que
$$\mathbb{P}(A_n,\quad i.o)=1$$
 


Exemplo 7.1.1.13:
Sejam $X_1, X_2,\dots$ variáveis aleatórias independentes tais que $\mathbb{P}(X_n=1)=1/n, \mathbb{P}(X_n=0)=1-1/n$. Mostre que $X_n\stackrel{\mathbb{P}}{\rightarrow}0$ mas $\mathbb{P}(X_n\rightarrow 0)=0.$

Para todo $\epsilon> 0,$
$$\mathbb{P}(|X_n|\geq \epsilon)\leq \mathbb{P}(X_n=1)=\frac{1}{n}\stackrel{n\rightarrow\infty}{\longrightarrow} 0$$
Seja $A_n=[X_n\neq 0]$, então $A_1,A_2,\dots$ são independentes pois $A_i$ depende de $X_i$. Então,
$$\mathbb{P}(A_n)=\mathbb{P}([X_n\neq 0])=\mathbb{P}(X_n=1)=\frac{1}{n}.$$
Agora,
$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \frac{1}{n}=\infty$$
por Borel-Cantelli temos que $\mathbb{P}(A_n,\quad i.o.)=1$. Então, um número infinito de $X_i$ são diferentes de zero. Então,
$$\mathbb{P}(\omega\in \Omega: X_n(\omega)\nrightarrow 0)=1$$
o que implica que
$$\mathbb{P}(\omega\in\Omega:X_n(\omega)\rightarrow 0)=0$$

 

Exemplo 7.1.1.14:
Sejam $X_1,X_2, \dots$ variáveis aleatórias independentes e identicamente distribuídas com distribuição exponencial de parâmetro 1. Mostre que
$$\displaystyle \mathbb{P}\left(\frac{X_n}{\ln(n)}> 1 \text{infinitas}\quad \text{vezes}\right)=1$$
mas
$$\displaystyle \mathbb{P}\left(\frac{X_n}{\ln(n)}> 2 \text{infinitas}\quad \text{vezes}\right)=0$$

Primeiramente vamos mostrar que
$$\displaystyle \mathbb{P}\left(\frac{X_n}{\ln(n)}> 1 \text{infinitas}\quad \text{vezes}\right)=1$$
Seja $A_n=\left[\frac{X_n}{\ln{(n)}}> 1\right]$ o que implica que $A_1, A_2, \dots$ são independentes pois $A_i$ depende apenas de $X_i$ que são variáveis aleatórias independentes. Agora,
$$\mathbb{P}(A_n)=\mathbb{P}\left(\left[\frac{X_n}{\ln(n)> 1}\right]\right)=\mathbb{P}(X_n> \ln(n))=e^{-\ln(n)}=\frac{1}{n}$$
então pelo lema de Borel-Cantelli temos que
$$\displaystyle \sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \frac{1}{n}=\infty$$
o que implica que $\mathbb{P}(A_n,\quad i.o.)=1$.

Agora vamos mostrar que
$$\displaystyle \mathbb{P}\left(\frac{X_n}{\ln(n)}> 2 \text{infinitas}\quad \text{vezes}\right)=0$$
Analogamente seja $B_n=\left[\frac{X_n}{\ln{n}}> 2\right]$, novamente temos que $B_i$ são independentes. Agora
$$\mathbb{P}(B_n)=\mathbb{P}\left(\frac{X_n}{\ln(n)}> 2\right)=\mathbb{P}(X_n> 2\ln(n))=e^{-2\ln(n)}=\frac{1}{n^2}$$
Então
$$\sum_{n=1}^\infty\mathbb{P}(B_n)=\sum_{n=1}^\infty \frac{1}{n^2}< \infty$$
pelo teorema de Borel-Cantelli temos que $\mathbb{P}(B_n,\quad i.o)=0$. E o resultado segue.

 

Exemplo 7.1.1.15:
Sejam $X_1,X_2, \dots$ variáveis aleatórias tais que
$$\mathbb{P}(X_n=0)=1-\frac{1}{n^2},\mathbb{P}(X_n=n^2)=\frac{1}{n^2}$$
para $n=1,2,\dots$. Demonstre que $X_n$ converge quase certamente (ache o limite X), mas $\mathbb{E}(X^m_n)\nrightarrow \mathbb{E}(X^m)$ quando $n\rightarrow \infty$, para todo $m=1,2,\dots$.

Vamos mostrar que $X_n\rightarrow 0$ q.c.
Seja $A_n=[X_n\neq 0]$ o que implica que $\mathbb{P}(A_n)=\mathbb{P}(X_n\neq 0)=1-\mathbb{P}(X_n=0)=\frac{1}{n^2}$ então
$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \frac{1}{n^2}< \infty$$
o que implica que $\mathbb{P}(A_n,\quad i.o.)=0$ o que implica que
$$\mathbb{P}(X_n\neq 0\quad\text{um número finito de vezes})=1$$
o que implica que $\mathbb{P}(X_n\rightarrow 0)=1$ o que implica que $X_n\stackrel{q.c.}{\rightarrow}0$

Agora vamos mostrar que
$$\mathbb{E}(X_n^m)\nrightarrow \mathbb{E}(X^m)$$
Temos que
$$\mathbb{P}(X_n^m=0)=\mathbb{P}(X_n=0)=1-\frac{1}{n^2}$$
Além disso,
$$\mathbb{P}(X_n^m=n^{2m})=\mathbb{P}(X_n=n^2)=\frac{1}{n^2}$$
Então,
$$\mathbb{E}(X_n^m)=n^{2m}\frac{1}{n^2}=n^{2(m-1)}$$
e ainda $$\mathbb{E}(X^m)=\mathbb{E}(0)=0$$
Agora, $\lim_{n\rightarrow \infty}\mathbb{E}(X_n^m)=\lim_{n\rightarrow \infty}n^{2(m-1)}=\left\{\begin{array}{l}1,\quad m=1\\ \infty, m=2,3,\dots \end{array}\right.$
Então, para $m=1,2,\dots,$ temos que $\mathbb{E}(X^m_n)\nrightarrow 0=\mathbb{E}(X^m)$.
 

 

Exemplo 7.1.1.16:
Sejam $X_1,X_2, \dots$ variáveis aleatórias
(a) Demonstre: se $\sum_{n=1}^\infty \mathbb{P}(|X_n|> n)< \infty$, então
$$\limsup_{n\rightarrow \infty} \frac{|X_n|}{n}\leq 1$$
quase certamente.

Note que $$\sum_{n=1}^\infty \mathbb{P}(|X_n|> n)=\sum_{n=1}^\infty \mathbb{P}\left(\frac{|X_n|}{n}> 1\right)< \infty$$

Seja $A_n=\left[\frac{|X_n|}{n}> 1\right]$ então pelo lema de Borel-Cantelli temos
$$\mathbb{P}(A_n,\quad i.o)=0$$
o que implica que
$$\mathbb{P}\left(\frac{|X_n|}{n}> 1,\quad \text{finita vezes}\right)=1$$
o que implica que
$$\mathbb{P}\left(\omega:\frac{|X_n(\omega)|}{n}> 1,\quad \text{finita vezes}\right)=1$$
o que implica que
$$\frac{|X_n(\omega)|}{n}> 1$$
finitas vezes, implica que
$$\frac{|X_n(\omega)|}{n}\leq 1$$
para n suficientemente grande, o que implica que
$$\liminf_{n\rightarrow \infty}\frac{|X_n(\omega)|}{n}\leq 1$$
Então, defina $A=\{\omega:\frac{|X_n(\omega)|}{n}> 1,\quad \text{finita vezes}\}$ e $B=\{\omega:\limsup_{n\rightarrow \infty}\frac{|X_n(\omega)|}{n}\leq 1\}$. Então, $A\subset B$ e portanto
$$\mathbb{P}(B)\geq \mathbb{P}(A)=1.$$

(b) Se as $X_n$ são identicamente distribuídas e integráveis, demonstre que
$$\limsup_{n\rightarrow \infty }\frac{|X_n|}{n}\leq 1$$
quase certamente.

Note que,
$$\sum_{n=1}^\infty \mathbb{P}(|X_n|> n)=\sum_{n=1}^\infty \mathbb{P}(|X_1|> n)$$
$$=\sum_{n=0}^\infty \mathbb{P}(|X_1|> n)-\mathbb{P}(|X_1|> 0)=\sum_{n=0}^\infty \mathbb{P}(|X_1|> n)-1$$
Agora, como $X_1$ é integrável, temos pelo critério da integrabilidade que
$$\sum_{n=0}^\infty \mathbb{P}(|X_1|\geq n)=\sum_{n=0}^\infty \mathbb{P}(|X_1|> n)< \infty$$
então
$$\sum_{n=1}^\infty \mathbb{P}(|X_n|> n)< \infty$$
o que implica que $\mathbb{P}(B)=1$.
 

 

Exemplo 7.1.1.17:
Sejam $X_1,X_2,\dots$ variáveis aleatórias independentes e identicamente distribuídas tais que $X_1\sim U[0,1]$. Prove que $n^{-X_n}\rightarrow 0$ em probabilidade, mas $n^{-X_n}$ não converge quase certamente para 0.

(a)$$\mathbb{P}(n^{-X_n}\geq \epsilon)=\mathbb{P}(-X_n\ln(x)\geq \ln(\epsilon))=\mathbb{P}(X_1\ln(n)\geq \ln(\epsilon))$$
$$=\mathbb{P}\left(X_n\leq -\frac{\ln(\epsilon)}{\ln(n)}\right)=\left\{\begin{array}{l}-\frac{\ln(\epsilon)}{\ln(n)},\quad 0< \epsilon< 1\\ 0,\quad \epsilon \geq 1\end{array}\right.$$
então, qualquer $\epsilon > 0$,
$$\mathbb{P}(n^{-X_n}\geq \epsilon)\leq \frac{\ln(\epsilon)}{\ln(n)}\stackrel{\longrightarrow}{n\rightarrow \infty} 0.$$

(b)Sejam os eventos: $A_n=[n^{-X_n}\neq 0]$ então $A_1,A_2,\dots$ eventos independentes e
$$\mathbb{P}(A_n)=\mathbb{P}(n^{-X_n}\neq 0)=\mathbb{P}(n^{-X_1}\neq 0)$$
$$=\left\{1,\quad n=1\\ \mathbb{P}(-X_1\neq 0)=\mathbb{P}(X_1\neq 0)=1,\quad n> 1\right.$$
Então $\mathbb{P}(A_n)=1$, para qualquer n. Então,
$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty 1=\infty$$
Agora, como $A_1,A_2, \dots$ são independentes o que implica pelo Lema de Borel-Cantelli
$$\mathbb{P}(A_n,\quad i.o)=1$$
o que implica que
$$\mathbb{P}(\omega: n^{-X_n(\omega)}\neq 0,\quad i.o.)=1\Rightarrow \mathbb{P}(\omega:n^{-X_n(\omega)}\nrightarrow 0)=1$$
$$\Rightarrow \mathbb{P}\left(\omega:n^{-X_n(\omega)}\rightarrow 0\right)=0\Rightarrow n^{-X_n}\nrightarrow 0$$
 

 

Exemplo 7.1.1.18:
Prove que para cada sequência $(X_n)_{n\geq 1}$ de variáveis aleatórias em $(\Omega,\mathbb{A},\mathbb{P})$, existe uma sequência $(b_n)_{n\geq 1}$ de números reais positivos tal que $\frac{X_n}{b_n}\rightarrow 0$ quase certamente.

a) Provaremos incialmente que para cada n existe $b_n$ tal que
$$\mathbb{P}(|X_n|> \frac{b_n}{n})< \frac{1}{n^2}$$
Para isso, vamos fixar um determinado n, e seja $(Y_m^n)_{m\geq 1}$ uma sequência de número reais onde
$$Y_m^n=\mathbb{P}\left(|X_n|> \frac{m}{n}\right)$$
Temos que $$\lim_{m\rightarrow \infty} Y_m^n=\lim_{m\rightarrow \infty}\left[\mathbb{P}\left(\frac{m^-}{n}\right)-1+\mathbb{P}\left(\frac{m}{n}\right)\right] = 0-1+1=0$$
Então dado $\epsilon> 0$ existe $m_0(\epsilon)\in \mathbb{N}$ tal que $m\geq m_0$ o que implica que
$$\bigg|\mathbb{P}\left(|X_n|> \frac{m}{m_0}\right)\bigg|< \frac{1}{\epsilon}.$$
Tome em $\epsilon=\frac{1}{n^2}$ e tomemos $b_n=m_0\left(\frac{1}{n^2}\right)$ então
$$\mathbb{P}\left(|X_n|> \frac{b_n}{n}\right)< \frac{1}{n^2}$$
Repetindo o procedimento acima descrito obtemos todos os $b_n\in \mathbb{N}^\star \subset \mathbb{R}^+_\star$.

b) Agora temos fazendo $\epsilon > 0$ e
$$A_n=\left[\bigg|\frac{X_n}{b_n}\bigg|> \epsilon\right]$$
o que implica que existe $n_0(\epsilon)$, tal que $n> n_0$ o que implica que
$\frac{1}{n}< \epsilon$ e $n> n_0$.
$$\omega\in \left[\bigg|\frac{X_n}{b_n}\bigg|> \frac{1}{n}\right]$$
o que implica que
$$\mathbb{P}(A_n)\leq \mathbb{P}\left(\bigg|\frac{X_n}{b_n}\bigg|> \frac{1}{n}\right)$$
Então,
$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \mathbb{P}(A_n)+ \sum_{n> n_0} \mathbb{P}(A_n)$$
$$\leq n_0+\sum_{n> n_0}\mathbb{P}\left(\bigg|\frac{X_n}{b_n}\bigg|> \frac{1}{n}\right)\leq n_0+ \sum_{n> n_0}\frac{1}{n^2}< \infty$$
Então, pelo Lema de Borel-Cantelli.
$$\mathbb{P}(A_n,\quad i.o.)=0$$
o que implica que para qualquer $\epsilon> 0$ temos
$$\mathbb{P}\left(\omega:\bigg|\frac{X_n(\omega)}{b_n}\bigg|> \epsilon,i.o.\right)=0$$
o que implica que
$$\mathbb{P}\left(\omega:\bigg|\frac{X_n(\omega)}{b_n}\bigg|\leq \epsilon, \quad n \text{suficientemente grande}\right)=1$$
o que implica que
$$\mathbb{P}\left(\omega:\bigg|\frac{X_n(\omega)}{b_n}\bigg|\rightarrow 0\right)=1$$
então
$$\frac{X_n}{b_n}\rightarrow 0.$$
 

Na próxima seção, vamos estudar a Lei Forte dos Grandes Números.

 

 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]