7.2.1 - Lei Fraca dos Grandes Números.

Você está aqui

Fundada no final do século XIX, a escola de São Petersburgo produziu grandes matemáticos russos com grandes contribuições à Lei dos Grandes Números. Chebyshev influenciado por grandes matemáticos russos, publicou o importante livro Fundamentos da teoria matemática de probabilidades, que fazem parte das linhas estudadas por Daniel Bernoulli e Euler em São Petersburgo. Chebyshev foi o primeiro a raciocinar sistematicamente em termos de variáveis aleatórias e seus momentos. Chebyshev estabeleceu uma simples desigualdade que permitiu uma prova trivial da Lei Fraca dos Grandes Números.

Antes de definirmos e demonstrarmos formalmente a Lei Fraca dos Grandes Números, vamos necessitar de conhecimento de convergência em probabilidade e quase certa e de algumas desigualdades importantes , como as desigualdades de Markov e Chebyshev (para mais detalhes consulte o conteúdo de convergência de variáveis aleatórias).

A principal diferença entre a lei fraca e a lei forte dos grandes números é que a primeira converge em probabilidade e a segunda converge quase certamente. A convergência em probabilidade é uma convergência mais fraca que a convergência quase certa, pois se houver convergência quase certa há convergência em probabilidade. Vejamos isto através da seguinte proposição.

Proposição 7.1.1.1:

Se uma sequência de variáveis aleatórias $ Y_n $ sobre um espaço de probabilidade $ (\Omega , \mathcal{F} , \mathbb{P} ) $ converge quase certamente para uma variável aleatória $ Y  $ então $ Y_n \to Y $ em probabilidade.

Demonstração:

Dado $ \varepsilon \textgreater \ 0  $ tome  Y_m - Y \textgreater \varepsilon \}  $ para todo $ m \in \mathbb{N}  $.

Como $ Y_m \to Y  $ quase certamente, temos

$ \mathbb{P}(\limsup S_m ) \leq \limsup \mathbb{P}(S_m ) = 0  $ e $ \mathbb{P}(S_m ) \ge 0 $ para todo $ m \in \mathbb{N}  $. Assim temos $ \mathbb{P}(S_m ) \to 0 $ 

$ \Box $

Teorema 7.1.1.1: (Lei Fraca de Chebyshev)

Sejam $ X_i $ uma sequência enumerável de variáveis aleatórias independentes dois a dois. Se a sequência $ X_i $ tem variância finita e uniformemente limitada, ou seja, existe uma constante $ c\in \mathds{R} $ tal que $ \text{Var}[X_i]\leq c $. Então a sequência $ X_i $ satisfaz a Lei Fraca dos Grandes Números:


$$\displaystyle \dfrac{S_n-\mathbb{E}\left[S_n\right]}{n}\xrightarrow{P} 0$$

em que $ \displaystyle S_n=\sum_{i=1}^{n}X_i $

Demonstração:

Como $ X_i $ são independentes temos que $ \text{Var}\left[S_n\right]=\displaystyle\sum_{i=1}^{n}\text{Var}[X_i]\leq nc, $ logo as hipóteses da desigualdade de Chebyshev são satisfeitas.

Portanto, temos que


\[\mathbb{P}\left[\left|\displaystyle S_n - \mathbb{E}\left[S_n\right]\right|\right]\geq \varepsilon n]\leq\displaystyle \dfrac{\text{Var}\left[S_n\right]}{\varepsilon^2 n^2}\leq\dfrac{c}{\varepsilon^2 n^2}\rightarrow 0,~~\text{quando} ~~ n\rightarrow \infty.\]

$ \Box $

Teorema 7.1.1.1: (Lei Fraca de Khintchine)

Sejam $ X_i $ uma sequência enumerável de variáveis aleatórias independentes e identicamente distribuídas e integráveis com média $ \mu. $ Então $ X_i,~i\in\mathbb{N} $ satisfazem a Lei Fraca do Grandes Números:


$$\frac{S_n}{n}\xrightarrow{P}\mu$$

Demonstração:

De fato, como as $ X_n $ são independentes e identicamente distribuídos e usando a função característica (para mais detalhes consulte o conteúdo Função Característica ou Transformada de Fourier), temos que


$$\varphi_{S_n/n}(t)=\left(\varphi_{X_1}\left(\frac{t}{n}\right)\right)^n=\left(1+it\frac{\mu}{n}+r_1\left(\frac{t}{n}\right)\right)^n$$

em que $ \frac{r_1(t)}{t}\xrightarrow{t\rightarrow 0}0. $ Disto, obtemos que


$$\varphi_{S_n/n}(t)\xrightarrow{n\rightarrow \infty}e^{it\mu},\quad \forall ~t\in \mathbb{R}$$

Pelo teorema da continuidade de Lévy, temos que


$$\frac{S_n}{n}\xrightarrow{\mathcal{D}}\mu$$

Mas como $ \mu $ é constante, temos que


$$\frac{S_n}{n}\xrightarrow{P}\mu$$

$ \Box $

Proposição 7.1.1.4:

Sejam $ X_1,\dots,X_n $ variáveis aleatórias independentes com $ E[X_i]=\mu $ e $ \text{Var}(X_i)=\sigma^2 $ para $ i=1,2,\dots,n. $ Então, para todos $ \varepsilon\textgreater 0 $ temos:


$$\mathbb{P}\left[\left|\frac{S_n}{n}-\mu\right|\geq \varepsilon \right]\leq \dfrac{\sigma^2}{n\varepsilon^2}$$

Demonstração:

Seja $ S_n=X_1+\dots+X_n, $ aplicamos a desigualdade de Chebyshev e obtemos que


$$\mathbb{P}\left[\left|\frac{S_n}{n}-\mu\right|\geq \varepsilon \right]\leq \dfrac{\text{Var}\left(\frac{S_n}{n}\right)}{\varepsilon^2}=\dfrac{\sigma^2}{n\varepsilon^2}$$

$ \Box $

A primeira lei dos grandes números foi proposta por Bernoulli em 1713 e é um caso particular da lei fraca de Chebychev, a qual é proposta como a proposição abaixo.

Proposição 7.1.1.5: (Lei Fraca dos Grandes Números de Bernoulli)

Seja $ X_i $ uma sequência de ensaios de bernoulli independentes, com mesma probabilidade de sucesso. Então

$ \displaystyle \frac{S_n}{n}\xrightarrow{P} p $

em que $ S_n=\displaystyle\sum^n_{i=1}X_i $

Demonstração:

Podemos demonstrar esse resultado de duas formas. A primeira delas basta observarmos que $ p=\mathbb{E}[X_i] $ e $ \text{Var}[X_i]=p(1-p) $, e portanto a sequência $ X_i $ tem variância uniformemente limitada. Assim, as hipóteses do teorema anterior são satisfeitas o que implica que:

$ \displaystyle \frac{S_n-np}{n}=\frac{S_n}{n}-p\xrightarrow{P} 0 $

ou seja,

$ \displaystyle \frac{S_n}{n}\xrightarrow{P} p. $

A outra maneira de demonstrarmos este resultado seria usando a desigualdade de Chebychev. Como as hipóteses da desigualdade são satisfeitas, temos que


\[\mathbb{P}[|\displaystyle S_n-\mathbb{E}[S_n]|\geq \varepsilon n]=\mathbb{P}[|S_n -np]|\geq \varepsilon n]\leq\displaystyle \frac{\text{Var}[S_n]}{\varepsilon^2 n^2}\leq\frac{p(1-p)}{\varepsilon^2 n^2}\rightarrow 0,\]

quando $ n\rightarrow \infty $, ou equivalentemente $ \displaystyle \frac{S_n}{n}\xrightarrow{P} p. $

$ \Box $

Para finalizarmos esta seção, vamos apresentar alguns exemplo para fixarmos os conceitos apresentados.

Exemplo 7.1.1.1:

Seja $ X_i $ uma sequência de variáveis aleatórias, mostre que se $ \mathbb{E}[X_i]\rightarrow \alpha $ e $ \text{Var}[X_i]\rightarrow 0 $, então $ X_n\xrightarrow{P}\alpha $.

Como $ \mathbb{E}[X_i]\rightarrow \alpha $ temos que para cada $ \varepsilon \textgreater 0 $, existe $ n_0 $ tal que $ |\mathbb{E}[X_n]-\alpha|\textless\dfrac{\varepsilon}{2} $ para $ n\geq n_0 $.

Assim, para todo $ n\geq n_0 $ temos que:


$$[|X_n-\alpha|\textgreater \varepsilon]\subseteq[|X_n-\mathbb{E}[X_n]|\textgreater \dfrac{\varepsilon}{2}],$$

pois


$$\varepsilon \textless |X_n-\alpha|=|X_n-\mathbb{E}[X_n]+\mathbb{E}[X_n]-\alpha|\leq|X_n-\mathbb{E}[X_n]|+|\mathbb{E}[X_n]-\alpha|\leq|X_n-\mathbb{E}[X_n]|+\dfrac{\varepsilon}{2}$$

Logo,


\[|X_n-\mathbb{E}[X_n]|+\dfrac{\varepsilon}{2}\textgreater\varepsilon\quad \Rightarrow\quad |X_n-\mathbb{E}[X_n]|\textgreater \dfrac{\varepsilon}{2}\]

Mas pela desigualdade de Chebyshev para todo $ n\geq 1 $.

$ \mathbb{P}(|X_n-\mathbb{E}[X_n]|\textgreater\dfrac{\varepsilon}{2})\leq\displaystyle\dfrac{4}{\varepsilon^2}\text{Var}(X_n). $

Portanto para todo $ n\geq n_0, $

$ \mathbb{P}(|X_n-\alpha|\textgreater \varepsilon)\leq \dfrac{4}{\varepsilon^2}\text{Var}[X_n], $

mas como $ \text{\text{Var}}[X_n]\rightarrow 0 $, quando $ n\rightarrow \infty $, concluímos que $ X_n \xrightarrow{P} \alpha $.

Exemplo 7.1.1.2: 

Suponha que em uma fábrica borracha o número de borrachas produzidas por dia seja uma variável aleatória X com média $ \mu=70 $. Estime a probabilidade de que a produção diária seja maior que 210.

Neste caso basta usarmos a desigualdade de Markov, e obtemos o seguinte resultado:

$ \mathbb{P}(X\geq 210)\leq\displaystyle\dfrac{\mathbb{E}[X]}{210}=\frac{70}{210}=\dfrac{1}{3}. $

Exemplo 7.1.1.3:

Se no exemplo acima a variância de X é igual a 20, qual a probabilidade de que a produção do dia esteja entre 40 e 100 borrachas produzidas ?

Utilizando a desigualdade de Chebyshev, obtemos que:

$ \nathbb{P}(|X-\mathbb{E}[X]|\geq 30)=\displaystyle\dfrac{\text{Var}[X]}{30^2}=\dfrac{20}{30^2}=\dfrac{1}{45} $

ou seja,

$ \mathbb{P}(X-\mathbb{E}[X]\leq 30)=1-\mathbb{P}(X-\mathbb{E}[X]\geq 30)=1-\displaystyle \dfrac{1}{45}=\dfrac{44}{45}\approx 0,977. $

Desta forma a probabilidade de que a produção do dia esteja entre 40 e 100 borrachas produzidas é de aproximadamente 97,7%.

Exemplo 7.1.1.4: 

Seja $ A_i $ uma sequência de eventos aleatórios com o mesmo espaço de probabilidades. Seja $ 1\!\!1_{A_i} $ a função indicadora de do conjunto $ A_i $, mostremos que $ \mathbb{P}(A_n)\rightarrow 0  $ se, e somente se, $ 1\!\!1_{A_i}\xrightarrow{P} 0 $.

Primeiramente vamos supor que $ \mathbb{P}(A_n)\rightarrow 0  $. Então dado $ \varepsilon \textgreater 0 $, definimos $ B_n=\{\omega| 1\!\!1_{A_n}\geq \varepsilon\}. $

Observe que se $ \varepsilon \textgreater 1 $, então $ B_n=\emptyset, $ pois $ 1\!\!1_{A_n} $ assume apenas os valores zero ou 1 e neste caso $ \mathbb{P}(B_n)=0 $ e o resultado segue trivialmente.

Sendo assim, basta considerarmos apenas o caso em que $ 0 \textless \varepsilon \leq 1. $

Assim, temos que


$$B_n=\{\omega| 1\!\!1_{A_n}\geq \varepsilon\}=A_n,$$

Logo obtemos que:


$$\mathbb{P}[B_n]=\mathbb{P}[A_n]\rightarrow 0,$$

o que implica que $ \mathbb{P}[B_n]\rightarrow 0 $, ou seja,


$$\mathbb{P}[1\!\!1_{A_n}\leq \varepsilon]\rightarrow 0 \quad\Rightarrow\quad 1\!\!1_{A_i}\xrightarrow{P}0$$

Agora vamos supor que $ 1\!\!1_{A_i}\xrightarrow{P} 0 $, isto é, $ \mathbb{P}[1\!\!1_{A_n}\leq \varepsilon]\rightarrow 0 $, então neste caso temos que:


$$B_n=\{\omega| 1\!\!1_{A_n}\geq \varepsilon\}=A_n\rightarrow \emptyset,$$

Portanto $ \mathbb{P}[B_n]=\mathbb{P}[A_n]\rightarrow 0 $

Exemplo 7.1.1.5:

Uma variável com variância zero é um valor determinístico.

De fato, seja X uma variável aleatória com variância zero $ \text{Var}(X)=0, $ pela desigualdade de Chebyshev temos que


$$\mathbb{P}[|X-\mu|\geq k]\leq \dfrac{\text{Var}(X)}{k^2}\quad \Rightarrow \quad \mathbb{P}[|X-\mu|\textgreater0]=0$$

Portanto, $ X=\mu $ com probabilidade 1, isto é, é determinístico.

Exemplo 7.1.1.6:

Um candidato a prefeito da cidade de São Carlos gostaria de ter uma ideia de quantos votos receberá nas próximas eleições. Para isto, foi feito uma pesquisa com os cidadães, em que $ p $ representa a proporção de votos do candidato com $ 0\leq p\textless 1. $ Quantas pessoas devem ser entrevistadas com 95% de confiança para que o valor de $ p $ tenha sido determinado com erro inferior a 5%, supondo que as escolhas de cada pessoa sejam independentes.

Seja $ n $ o número de candidatos, denotamos $ X_i, ~i=1,\dots,n $ a variável aleatória de Bernoulli que assume valor 1, com probabilidade p, se a i-ésima pessoa entrevistada declara a intenção de votar no candidato. Assume o valor 0, com probabilidade $ 1-p $ caso contrário.

Note que $ S_n=X_1+\dots+X_n\sim b(n,p) $ (para mais detalhes consulte distribuição binomial). Assim, $ \frac{S_n}{n} $ é uma aproximação do valor de $ p $ que é desconhecido.

Logo, do enunciado, queremos


$$\mathbb{P}\left[\left|\frac{S_n}{n}-p\right|\leq 0,05\right]\geq 0,95$$

Da proposição 7.1.1.4 temos que


$$\mathbb{P}\left[\left|\frac{S_n}{n}-p\right|\geq 0,05\right]\leq \frac{p(1-p)}{n(0,05)^2}\leq \frac{1}{4n~(0,05)^2}, \quad\text{pois}~p(1-p)\leq \frac{1}{4}\quad (7.1.1.1)$$

A probabilidade do lado esquerdo de (7.1.1.1) é o complementar à probabilidade desejada, isto é, $ 1-0,95=0,05. $

Logo,


$$\frac{1}{4n(0,05)^2}\leq 0,05\quad \Rightarrow \quad n\geq 2000.$$

Portanto, devemos entrevistar pelo menos 2000 pessoas.

 

 

Exemplo 7.1.1.7:
Seja $ A_1,A_2, \dots $ uma sequência de eventos aleatórios em $ (\Omega,\mathbb{A},\mathbb{P}) $ indicadores $ \mathds{1}_{A_1},\mathds{1}_{A_2},\dots $. Mostre que $ \mathbb{P}(A_n)\rightarrow 0 $ se, e somente se, $ \mathds{1}_{A_n}\stackrel{\mathbb{P}}{\longrightarrow} 0. $

Sabemos que $ \mathbb{E}(\mathds{1}_{A_n})=\mathbb{P}(A_n),\quad n=1,2,\dots $. Então se

$$\mathbb{P}(A_n)\rightarrow 0$$

o que implica que

$$\mathbb{E}(\mathds{1}_{A_n})\rightarrow 0$$

Agora, utilizando a desigualdade de Chebyshev:

$$\mathbb{P}(\mathds{1}_{A_n}\geq \epsilon)=\mathbb{P}([\mathds{1}_{A_n}\geq \epsilon])\leq\frac{\mathbb{E}(\mathds{1}_{A_n})}{\epsilon}\rightarrow 0$$

o que implica que

$$\mathds{1}_{A_n}\rightarrow 0$$

em probabilidade. Agora suponha que

$$\mathds{1}_{A_n}\rightarrow 0$$

em probabilidade e seja $ 0\textless \epsilon\textless 1 $ então

$$\mathbb{P}([\mathds{1}_{A_n}\geq \epsilon])=\mathbb{P}([\mathds{1}_{A_n}=1])=\mathbb{P}(A_n)\rightarrow 0.$$

E o resultado segue
 

 

Exemplo 7.1.1.8:
Sejam $ X_1,X_2,\dots $ variáveis aleatórias independentes com distribuição comum $ Poisson(\lambda) $. Qual o limite em probabilidade da sequência $ (Y_n)_{n\geq 1} $, no qual

$$Y_n=\frac{X_1^2+\dots+X^2_n}{n}$$

Temos que $ \mathbb{E}(X_1^2)=Var(X_1)+[\mathbb{E}(X_1)]^2=\lambda+\lambda^2=\lambda(\lambda+1) $. Agora sejam $ Z_i=X^2_i, i=1,2,\dots $ variável aleatória que serão independentes pela "propriedade hereditária", identicamente distribuídas e integráveis. Então, pela Lei Fraca de Khintchine

$$Y_n=\frac{X_1^2+\dots+X_n^2}{n}\stackrel{\mathbb{P}}{\rightarrow} \mathbb{E}(X_1^2)=\lambda(\lambda+1)$$

 

 

Exemplo 7.1.1.9:
Seja $ (X_n)_{n\geq 1} $ uma sequência de variáveis aleatórias. Prove que se $ \mathbb{E}(X_n)\rightarrow \alpha $.

Sejam $ \epsilon \textgreater 0 $ qualquer e

$$A_n=[|X_n-\alpha|\geq \epsilon]=[|X_n-\mathbb{E}(X_n)+\mathbb{E}(X_n)-\alpha|\geq \epsilon]$$

$$B_n=[(|X_n-\mathbb{E}(X_n)|+|\mathbb{E}(X_n)-\alpha|)\geq \epsilon]$$

Agora $ \omega \in A_n $ o que implica que $ \omega \in B_n $ pois

$$(|X_n-\mathbb{E}(X_n)|+|\mathbb{E}(X_n)-\alpha|)\geq |X_n-\alpha|\geq \epsilon$$

Então $ A_n\subset B_n $ o que implica que

$$\mathbb{P}(A_n)\leq \mathbb{P}(B_n)$$

No entanto, através da desigualdade clássica de Chebyshev-Bienayme. Temos

$$\mathbb{P}(A_n)\leq \mathbb{P}(B_n)=\mathbb{P}((|X_n-\mathbb{E}(X_n)|+|\mathbb{E}(X_n)-\alpha|)\geq \epsilon)$$

$$=\mathbb{P}((|X_n-\mathbb{E}(X_n)|)\geq \epsilon-|\mathbb{E}(X_n)-\alpha|)\leq \frac{Var(X_n)}{[\epsilon-|\mathbb{E}(X_n-\alpha)|]^2}\rightarrow 0$$

 

 

Exemplo 7.1.1.10:
Sejam $ X_1,X_2,\dots $ variáveis aleatórias independentes tais que $ X_1=0 $ e para $ j\geq 2 $, $ X_j $ é variável aleatória discreta satisfazendo

$$\mathbb{P}(X_j=k)=\left\{\begin{array}{l}\frac{1}{j^3},\quad se \quad k=\pm 1,\pm 2,\dots,\pm j\\ 1-\frac{2}{j^2},\quad se \quad k=0.\end{array}\right.$$

Prove que

$$\frac{\displaystyle \sum_{j=1}^n X_j}{n^\alpha}\stackrel{\mathbb{P}}{\longrightarrow} 0$$

quando $ n\rightarrow \infty $, se $ \alpha \textgreater \frac{1}{2} $.

Temos que por conta da simetria $ \mathbb{E}(X_j)=0 $ para $ j=1,2,\dots $ e

$$Var(X_j)=2\sum_{k=1}^n k^3\frac{1}{j^3}=\frac{2}{j^3}\sum_{k=1}^n k^2=\frac{j(j+1)(2j+1)}{6j^3}=\frac{2j^2+3j+1}{3j^2}$$

$$=\frac{2}{3}+\frac{1}{j}+\frac{1}{3j^2}\leq 2$$

Agora

$$Var\left(\sum_{j=1}^n X_j\right)=\sum_{j=1}^n Var X_j\leq 2n$$

Aplicando a desigualdade de Chebyshev-Bienayme temos

$$\mathbb{P}\left(\bigg|\frac{\sum_{j=1}^n X_j}{n^\alpha}\bigg|\geq \epsilon \right)=\mathbb{P}\left(|\sum_{j=1}^n X_j|\geq n^{\alpha}\epsilon\right)$$

$$\leq \frac{Var\left(\sum_{j=1}^n X_j\right)}{n^{2\alpha}\epsilon^2}\leq \frac{2}{n^{2\alpha-1}\epsilon^2}\rightarrow 0$$

 

 

Exemplo 7.1.1.11:
Seja S uma sequência finita de caras e coroas. Demonstre que se uma moeda não necessariamente honesta( com probabilidade de cara igual a p, $ 0\textless p\textless 1 $) for jogada independentemente um número infinito de vezes então S sairá infinitas vezes na sequência obtida, com probabilidade 1.

Teremos

$$\Omega=\{W=(\omega_1,\omega_2,\dots),\quad no\quad qual\quad \omega_i=1 \quad ou\quad \omega_i=0,\quad todo\quad i\}$$

Seja $ S_k $ a sequência finita(de k elementos) de caras e coroas

$$S_k=(s_1,s_2,\dots,s_k)$$

no qual $ s_i\in \{0,1\} $ e $ i=1,\dots,k $. Agora, seja a sequência de eventos aleatórios

$$A_1=\{\text{a ocorrência da sequência} S_k\text{nos k primeiros ensaios}\}$$

\colorbox[rgb]{1,1,0}{Revisar}

$$A_2=\{\text{a ocorrência da sequência} S_k\text{nos (k+1)2k primeiros ensaios}\}$$

$ \vdots $

$$A_n=\{\text{a ocorrência da sequência} S_k\text{nos k primeiros ensaios}\}$$

ou seja,  \omega_{(n-1)k+i}=s_i, i=1,\dots,k\} $ no qual $ A_1,A_2,\dots $ são eventos aleatórios independentes pois os ensaios são independentes, então temos

$$\mathbb{P}(A_n)=p^j(1-p)^{k-j}=q$$

no qual $ S_k $ tem $ j $ caras e $ k-j $ coroas. Agora $ \sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty q=\infty $. Como $ A_1,A_2,\dots $ são eventos aleatórios independentes aplicando o teorema de Borel-Cantelli, temos

$$\mathbb{P}(A_n,\quad i.o)=1$$

No entanto, sendo $ \mathcal{S} $ o evento "ocorrência de S infinitas vezes", temos

$$\mathcal{S}\supset [A_n,\quad i.o.]$$

o que implica que $ \mathbb{P}(\mathcal{S})\geq \mathbb{P}(A_n,\quad i.o)=1 $ o que implica que $ \mathbb{P}(\mathcal{S})=1 $
 

 

Exemplo 7.1.1.12:
Sejam $ X_1,X_2,\dots $ variáveis aleatórias independentes tais que $ X_n $ tem distribuição $ U[0,a_n] $, no qual $ a_n\textgreater 0 $. Mostre
(a) Se $ a_n=n^2 $, então com probabilidade 1, somente um número finito das $ X_n $ toma valores menores que 1.

Seja $ A_n=[X_n\textless 1] $. Então $ A_1,A_2,\dots $ são eventos aleatórios independentes pois $ A_i $ depende apenas de $ X_i $. E

$$\mathbb{P}(A_n)=\mathbb{P}([X_n\textless 1])=\frac{1}{n^2}, \quad n=1,2,\dots$$

Então,

$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \frac{1}{n^2}\textless \infty$$

o que implica por Borel-Cantelli que

$$\mathbb{P}(A_n,\quad i.o)=0$$

o que implica que $ \mathbb{P}(A_n,\quad f.o.)=1 $.

(b) Se $ a_n=n, $ então com probabilidade 1, um número infinito das $ X_n $ toma valores menores que 1.

Então,

$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\mathbb{P}([X_n\textless 1])=\frac{1}{n}=\infty$$

por Borel-Cantelli e por $ A_n $ ser independentes, isso implica que

$$\mathbb{P}(A_n,\quad i.o)=1$$

 

Exemplo 7.1.1.13:
Sejam $ X_1, X_2,\dots $ variáveis aleatórias independentes tais que $ \mathbb{P}(X_n=1)=1/n, \mathbb{P}(X_n=0)=1-1/n $. Mostre que $ X_n\stackrel{\mathbb{P}}{\rightarrow}0 $ mas $ \mathbb{P}(X_n\rightarrow 0)=0. $

Para todo $ \epsilon\textgreater 0, $

$$\mathbb{P}(|X_n|\geq \epsilon)\leq \mathbb{P}(X_n=1)=\frac{1}{n}\stackrel{n\rightarrow\infty}{\longrightarrow} 0$$

Seja $ A_n=[X_n\neq 0] $, então $ A_1,A_2,\dots $ são independentes pois $ A_i $ depende de $ X_i $. Então,

$$\mathbb{P}(A_n)=\mathbb{P}([X_n\neq 0])=\mathbb{P}(X_n=1)=\frac{1}{n}.$$

Agora,

$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \frac{1}{n}=\infty$$

por Borel-Cantelli temos que $ \mathbb{P}(A_n,\quad i.o.)=1 $. Então, um número infinito de $ X_i $ são diferentes de zero. Então,

 X_n(\omega)\nrightarrow 0)=1$$

o que implica que

X_n(\omega)\rightarrow 0)=0$$

 

Exemplo 7.1.1.14:
Sejam $ X_1,X_2, \dots $ variáveis aleatórias independentes e identicamente distribuídas com distribuição exponencial de parâmetro 1. Mostre que

$$\displaystyle \mathbb{P}\left(\frac{X_n}{\ln(n)}\textgreater 1 \text{infinitas}\quad \text{vezes}\right)=1$$

mas

$$\displaystyle \mathbb{P}\left(\frac{X_n}{\ln(n)}\textgreater 2 \text{infinitas}\quad \text{vezes}\right)=0$$

Primeiramente vamos mostrar que

$$\displaystyle \mathbb{P}\left(\frac{X_n}{\ln(n)}\textgreater 1 \text{infinitas}\quad \text{vezes}\right)=1$$

Seja $ A_n=\left[\frac{X_n}{\ln{(n)}}\textgreater 1\right] $ o que implica que $ A_1, A_2, \dots $ são independentes pois $ A_i $ depende apenas de $ X_i $ que são variáveis aleatórias independentes. Agora,

$$\mathbb{P}(A_n)=\mathbb{P}\left(\left[\frac{X_n}{\ln(n)\textgreater 1}\right]\right)=\mathbb{P}(X_n\textgreater \ln(n))=e^{-\ln(n)}=\frac{1}{n}$$

então pelo lema de Borel-Cantelli temos que

$$\displaystyle \sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \frac{1}{n}=\infty$$

o que implica que $ \mathbb{P}(A_n,\quad i.o.)=1 $.

Agora vamos mostrar que

$$\displaystyle \mathbb{P}\left(\frac{X_n}{\ln(n)}\textgreater 2 \text{infinitas}\quad \text{vezes}\right)=0$$

Analogamente seja $ B_n=\left[\frac{X_n}{\ln{n}}\textgreater 2\right] $, novamente temos que $ B_i $ são independentes. Agora

$$\mathbb{P}(B_n)=\mathbb{P}\left(\frac{X_n}{\ln(n)}\textgreater 2\right)=\mathbb{P}(X_n\textgreater 2\ln(n))=e^{-2\ln(n)}=\frac{1}{n^2}$$

Então

$$\sum_{n=1}^\infty\mathbb{P}(B_n)=\sum_{n=1}^\infty \frac{1}{n^2}\textless \infty$$

pelo teorema de Borel-Cantelli temos que $ \mathbb{P}(B_n,\quad i.o)=0 $. E o resultado segue.

 

Exemplo 7.1.1.15:
Sejam $ X_1,X_2, \dots $ variáveis aleatórias tais que

$$\mathbb{P}(X_n=0)=1-\frac{1}{n^2},\mathbb{P}(X_n=n^2)=\frac{1}{n^2}$$

para $ n=1,2,\dots $. Demonstre que $ X_n $ converge quase certamente (ache o limite X), mas $ \mathbb{E}(X^m_n)\nrightarrow \mathbb{E}(X^m) $ quando $ n\rightarrow \infty $, para todo $ m=1,2,\dots $.

Vamos mostrar que $ X_n\rightarrow 0 $ q.c.
Seja $ A_n=[X_n\neq 0] $ o que implica que $ \mathbb{P}(A_n)=\mathbb{P}(X_n\neq 0)=1-\mathbb{P}(X_n=0)=\frac{1}{n^2} $ então

$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \frac{1}{n^2}\textless \infty$$

o que implica que $ \mathbb{P}(A_n,\quad i.o.)=0 $ o que implica que

$$\mathbb{P}(X_n\neq 0\quad\text{um número finito de vezes})=1$$

o que implica que $ \mathbb{P}(X_n\rightarrow 0)=1 $ o que implica que $ X_n\stackrel{q.c.}{\rightarrow}0 $

Agora vamos mostrar que

$$\mathbb{E}(X_n^m)\nrightarrow \mathbb{E}(X^m)$$

Temos que

$$\mathbb{P}(X_n^m=0)=\mathbb{P}(X_n=0)=1-\frac{1}{n^2}$$

Além disso,

$$\mathbb{P}(X_n^m=n^{2m})=\mathbb{P}(X_n=n^2)=\frac{1}{n^2}$$

Então,

$$\mathbb{E}(X_n^m)=n^{2m}\frac{1}{n^2}=n^{2(m-1)}$$

e ainda

$$\mathbb{E}(X^m)=\mathbb{E}(0)=0$$

Agora, $ \lim_{n\rightarrow \infty}\mathbb{E}(X_n^m)=\lim_{n\rightarrow \infty}n^{2(m-1)}=\left\{\begin{array}{l}1,\quad m=1\\ \infty, m=2,3,\dots \end{array}\right. $
Então, para $ m=1,2,\dots, $ temos que $ \mathbb{E}(X^m_n)\nrightarrow 0=\mathbb{E}(X^m) $.
 

 

Exemplo 7.1.1.16:
Sejam $ X_1,X_2, \dots $ variáveis aleatórias
(a) Demonstre: se $ \sum_{n=1}^\infty \mathbb{P}(|X_n|\textgreater n)\textless \infty $, então

$$\limsup_{n\rightarrow \infty} \frac{|X_n|}{n}\leq 1$$

quase certamente.

Note que

$$\sum_{n=1}^\infty \mathbb{P}(|X_n|\textgreater n)=\sum_{n=1}^\infty \mathbb{P}\left(\frac{|X_n|}{n}\textgreater 1\right)\textless \infty$$

Seja $ A_n=\left[\frac{|X_n|}{n}\textgreater 1\right] $ então pelo lema de Borel-Cantelli temos

$$\mathbb{P}(A_n,\quad i.o)=0$$

o que implica que

$$\mathbb{P}\left(\frac{|X_n|}{n}\textgreater 1,\quad \text{finita vezes}\right)=1$$

o que implica que

\frac{|X_n(\omega)|}{n}\textgreater 1,\quad \text{finita vezes}\right)=1$$

o que implica que

$$\frac{|X_n(\omega)|}{n}\textgreater 1$$

finitas vezes, implica que

$$\frac{|X_n(\omega)|}{n}\leq 1$$

para n suficientemente grande, o que implica que

$$\liminf_{n\rightarrow \infty}\frac{|X_n(\omega)|}{n}\leq 1$$

Então, defina \frac{|X_n(\omega)|}{n}\textgreater 1,\quad \text{finita vezes}\} $ e \limsup_{n\rightarrow \infty}\frac{|X_n(\omega)|}{n}\leq 1\} $. Então, $ A\subset B $ e portanto

$$\mathbb{P}(B)\geq \mathbb{P}(A)=1.$$

(b) Se as $ X_n $ são identicamente distribuídas e integráveis, demonstre que

$$\limsup_{n\rightarrow \infty }\frac{|X_n|}{n}\leq 1$$

quase certamente.

Note que,

$$\sum_{n=1}^\infty \mathbb{P}(|X_n|\textgreater n)=\sum_{n=1}^\infty \mathbb{P}(|X_1|\textgreater n)$$

$$=\sum_{n=0}^\infty \mathbb{P}(|X_1|\textgreater n)-\mathbb{P}(|X_1|\textgreater 0)=\sum_{n=0}^\infty \mathbb{P}(|X_1|\textgreater n)-1$$

Agora, como $ X_1 $ é integrável, temos pelo critério da integrabilidade que

$$\sum_{n=0}^\infty \mathbb{P}(|X_1|\geq n)=\sum_{n=0}^\infty \mathbb{P}(|X_1|\textgreater n)\textless \infty$$

então

$$\sum_{n=1}^\infty \mathbb{P}(|X_n|\textgreater n)\textless \infty$$

o que implica que $ \mathbb{P}(B)=1 $.
 

 

Exemplo 7.1.1.17:
Sejam $ X_1,X_2,\dots $ variáveis aleatórias independentes e identicamente distribuídas tais que $ X_1\sim U[0,1] $. Prove que $ n^{-X_n}\rightarrow 0 $ em probabilidade, mas $ n^{-X_n} $ não converge quase certamente para 0.

(a)

$$\mathbb{P}(n^{-X_n}\geq \epsilon)=\mathbb{P}(-X_n\ln(x)\geq \ln(\epsilon))=\mathbb{P}(X_1\ln(n)\geq \ln(\epsilon))$$

$$=\mathbb{P}\left(X_n\leq -\frac{\ln(\epsilon)}{\ln(n)}\right)=\left\{\begin{array}{l}-\frac{\ln(\epsilon)}{\ln(n)},\quad 0\textless \epsilon\textless 1\\ 0,\quad \epsilon \geq 1\end{array}\right.$$

então, qualquer $ \epsilon \textgreater 0 $,

$$\mathbb{P}(n^{-X_n}\geq \epsilon)\leq \frac{\ln(\epsilon)}{\ln(n)}\stackrel{\longrightarrow}{n\rightarrow \infty} 0.$$

(b)Sejam os eventos: $ A_n=[n^{-X_n}\neq 0] $ então $ A_1,A_2,\dots $ eventos independentes e

$$\mathbb{P}(A_n)=\mathbb{P}(n^{-X_n}\neq 0)=\mathbb{P}(n^{-X_1}\neq 0)$$

$$=\left\{1,\quad n=1\\ \mathbb{P}(-X_1\neq 0)=\mathbb{P}(X_1\neq 0)=1,\quad n\textgreater 1\right.$$

Então $ \mathbb{P}(A_n)=1 $, para qualquer n. Então,

$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty 1=\infty$$

Agora, como $ A_1,A_2, \dots $ são independentes o que implica pelo Lema de Borel-Cantelli

$$\mathbb{P}(A_n,\quad i.o)=1$$

o que implica que

n^{-X_n(\omega)}\nrightarrow 0)=1$$

n^{-X_n(\omega)}\rightarrow 0\right)=0\Rightarrow n^{-X_n}\nrightarrow 0$$

 

 

Exemplo 7.1.1.18:
Prove que para cada sequência $ (X_n)_{n\geq 1} $ de variáveis aleatórias em $ (\Omega,\mathbb{A},\mathbb{P}) $, existe uma sequência $ (b_n)_{n\geq 1} $ de números reais positivos tal que $ \frac{X_n}{b_n}\rightarrow 0 $ quase certamente.

a) Provaremos incialmente que para cada n existe $ b_n $ tal que

$$\mathbb{P}(|X_n|\textgreater \frac{b_n}{n})\textless \frac{1}{n^2}$$

Para isso, vamos fixar um determinado n, e seja $ (Y_m^n)_{m\geq 1} $ uma sequência de número reais onde

$$Y_m^n=\mathbb{P}\left(|X_n|\textgreater \frac{m}{n}\right)$$

Temos que

$$\lim_{m\rightarrow \infty} Y_m^n=\lim_{m\rightarrow \infty}\left[\mathbb{P}\left(\frac{m^-}{n}\right)-1+\mathbb{P}\left(\frac{m}{n}\right)\right] = 0-1+1=0$$

Então dado $ \epsilon\textgreater 0 $ existe $ m_0(\epsilon)\in \mathbb{N} $ tal que $ m\geq m_0 $ o que implica que

$$\bigg|\mathbb{P}\left(|X_n|\textgreater \frac{m}{m_0}\right)\bigg|\textless \frac{1}{\epsilon}.$$

Tome em $ \epsilon=\frac{1}{n^2} $ e tomemos $ b_n=m_0\left(\frac{1}{n^2}\right) $ então

$$\mathbb{P}\left(|X_n|\textgreater \frac{b_n}{n}\right)\textless \frac{1}{n^2}$$

Repetindo o procedimento acima descrito obtemos todos os $ b_n\in \mathbb{N}^\star \subset \mathbb{R}^+_\star $.

b) Agora temos fazendo $ \epsilon \textgreater 0 $ e

$$A_n=\left[\bigg|\frac{X_n}{b_n}\bigg|\textgreater \epsilon\right]$$

o que implica que existe $ n_0(\epsilon) $, tal que $ n\textgreater n_0 $ o que implica que
$ \frac{1}{n}\textless \epsilon $ e $ n\textgreater n_0 $.

$$\omega\in \left[\bigg|\frac{X_n}{b_n}\bigg|\textgreater \frac{1}{n}\right]$$

o que implica que

$$\mathbb{P}(A_n)\leq \mathbb{P}\left(\bigg|\frac{X_n}{b_n}\bigg|\textgreater \frac{1}{n}\right)$$

Então,

$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \mathbb{P}(A_n)+ \sum_{n\textgreater n_0} \mathbb{P}(A_n)$$

$$\leq n_0+\sum_{n\textgreater n_0}\mathbb{P}\left(\bigg|\frac{X_n}{b_n}\bigg|\textgreater \frac{1}{n}\right)\leq n_0+ \sum_{n\textgreater n_0}\frac{1}{n^2}\textless \infty$$

Então, pelo Lema de Borel-Cantelli.

$$\mathbb{P}(A_n,\quad i.o.)=0$$

o que implica que para qualquer $ \epsilon\textgreater 0 $ temos

\bigg|\frac{X_n(\omega)}{b_n}\bigg|\textgreater \epsilon,i.o.\right)=0$$

o que implica que

\bigg|\frac{X_n(\omega)}{b_n}\bigg|\leq \epsilon, \quad n \text{suficientemente grande}\right)=1$$

o que implica que

\bigg|\frac{X_n(\omega)}{b_n}\bigg|\rightarrow 0\right)=1$$

então

$$\frac{X_n}{b_n}\rightarrow 0.$$

 

Na próxima seção, vamos estudar a Lei Forte dos Grandes Números.

 

 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]