Skip to main content


Após estudarmos a Lei Fraca do Grandes Números, vamos estudar agora a Lei Forte dos Grandes Números. A principal diferença da Lei Fraca é que ao invés da convergência em probabilidade, temos a convergência quase certa como dita na seção anterior. Os detalhes destes dois tipos de convergência, foi amplamente discutido na seção convergências em probabilidade e quase certa. A seguir, apresentamos os principais resultados para Lei Forte dos Grandes Números.


Teorema 7.1.2.1: Sejam $ \{X_i\}_{i\geq 1} $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas. Se $ \mathbb{E}[|X_1|]=\infty $, então com probabilidade 1, a sequência

$ \displaystyle \frac{|S_n|}{n} = \frac{|X_1 + \cdots + X_n|}{n}, $ 

não é limitada.

Demonstração:

Sabemos que $ \mathbb{E}[|X_1|]=\infty $, então como consequência temos que $ \displaystyle \mathbb{E}\left[\frac{|X_1|}{k}\right]=\frac{\mathbb{E}[|X_1|]}{k}=\infty $.

Então mostremos primeiramente que $ \displaystyle\sum_{n=1}^{\infty}\mathbb{P}(|X|\geq n)\leq \mathbb{E}[|X|]\leq 1+\displaystyle\sum_{n=1}^{\infty}\mathbb{P}(|X|\geq n) $, para qualquer variável aleatória X.

De fato, se $ x\geq 0 $, seja $ [x] $ o maior número inteiro menor ou igual a $ x $. Então a variável aleatória $ [|X|] $ assume valor k quando $ k\leq |X|\textless k+1 $ e portanto 

\[0\leq [|X|]\leq |X|\leq [|X|]+1,\]

Assim pela linearidade e pela monotonicidade da esperança, temos que:

\[0\leq \mathbb{E}\{[|X|]\}\leq \mathbb{E}[|X|]\leq \mathbb{E}\{[|X|]\}+1,\]

Como [|X|] é uma variável aleatória que assume apenas valores inteiros temos que 

\[\mathbb{E}\{[|X|]\}=1-F_X[0]+1-F_X[1]+1-F_X[2]\cdots=\displaystyle \sum_{n=0}^{\infty}1-F[n]=\sum_{n=0}^{\infty}\mathbb{P}[X\textgreater n].\]

Desta forma temos que $ \mathbb{E}\{[|X|]\}=\displaystyle\sum_{n=0}^{\infty}\mathbb{P}[[|X|]\geq n]=\sum_{n=0}^{\infty}\mathbb{P}[|X|\geq n] $. Logo

\[\sum_{n=0}^{\infty}\mathbb{P}[|X|\textgreater n]\leq \mathbb{E}|X|\leq 1+\sum_{n=0}^{\infty}\mathbb{P}[|X|\textgreater n].\]

Assim $ \displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_1|}{k}\textgreater n\right]=\infty $ para qualquer $ k\in \mathds{N} $. Como as variáveis $ X_n $ são identicamente distribuídas temos que:

\[\displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_1|}{k}\textgreater n\right]=\displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_n|}{k}\textgreater n\right]=\displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_n|}{n}\textgreater k\right].\]

Como os $ X_n $ são independentes, os eventos $ A_n=\left[\frac{|X_n|}{n}\geq k\right] $ são independentes, desta forma usando o lema de Borel Cantelli 

\[\mathbb{P}\left(\limsup \displaystyle\frac{|X_n|}{n}\geq k\right)=1.\]

Seja $ B_k=\left[\limsup \displaystyle \frac{|X_n|}{n}\geq k\right] $, temos então

\[\mathbb{P}\left(\displaystyle \bigcap_{k=1}^{\infty}B_k\right)=1,\]

pois a intersecção de um número enumerável de eventos de probabilidade 1 também tem probabilidade 1, como demonstrado na Propriedade 12. Mas o evento $ \displaystyle \bigcap_{k=1}^{\infty}B_k $ é o evento "a $ \displaystyle\frac{|X_n|}{n}\geq k $ é ilimitada". Assim basta provarmos que se $ \displaystyle\frac{|X_n|}{n} $ é ilimitada, então $ \displaystyle \frac{|S_n|}{n} $ também é ilimitada. Agora, com $ S_0=0 $, temos

\[\displaystyle\frac{|X_n|}{n}=\frac{|S_n-S_{n-1}|}{n}\leq \frac{|S_n|}{n}+\frac{|S_{n-1}|}{n},\]

para $ n \in \mathds{N} $. Portanto, se $ \frac{X_n}{n}  $ é ilimitada, então $ \frac{|S_n|}{n} $ é ilimitada ou $ \frac{|S_{n-1}|}{n} $. Mas se $ n\geq 2 $, temos que

\[\frac{|S_{n-1}|}{n}=\frac{|S_{n-1}|}{n-1} \frac{n-1}{n}\]

e $ \frac{1}{2}\leq \frac{n-1}{n}\textless 1 $, de modo que $ \frac{|S_{n-1}|}{n} $ é ilimitada se, e somente se,$ \frac{|S_n|}{n} $ também é, pois $ \frac{|S_{n-1}|}{n-1} $ e $ \frac{S_n}{n} $ formam a mesma sequência.

$ \Box $


Teorema 7.1.2.2: Seja $ X_i $ uma sequência de variáveis aleatórias independentes tais que $ \mathbb{E}[X_n]=0 $ e a $ \text{Var}[X_n]\leq \infty $. Então para todo $ \lambda\textgreater 0 $,

$ \mathbb{P}\left[\displaystyle\max_{1\leq k \leq n}|\sum_{i=1}^{k}X_i|\geq \lambda\right]\leq \displaystyle \sum_{k=1}^{n}\frac{\text{Var}[X_k]}{\lambda^2}. $

Demonstração:

Para facilitar a notação seja $ S_n=\displaystyle\sum_{i=1}^{n}X_i $. Observemos que:

\[S_n^2\geq S_n^2 1\!\!1_{[S_n^2\geq \lambda]}\geq \lambda^2 1\!\!1_{[S_n^2\geq \lambda^2]}\quad\Rightarrow\quad \mathbb{E}[S_n^2]\geq \lambda^2\mathbb{E}[1\!\!1_{[S_n^2\geq \lambda^2]}]=\lambda^2\mathbb{P}[S_n^2\geq \lambda^2],\]

Mas isto implica que :

\[\mathbb{P}(|S_n|\geq \lambda)\leq \displaystyle \frac{1}{\lambda^2}\mathbb{E}[S_n^2]=\frac{\text{Var}[S_n]}{\lambda^2}.\]

Nossa meta é encontrar uma cota superior para $ \mathbb{P}\left[\displaystyle \max_{1\leq k\leq n}S_k^2\geq \lambda^2\right] $, para isto consideramos $ A=\left\{\displaystyle\max_{1\leq k\leq n}S_k^2\geq \lambda^2\right\} $.

Vamos decompor A da seguinte forma:

$$A_1=[S_1^2\geq \lambda^2]$$

$$A_2=[S_1^2\textless \lambda^2,S_2^2\geq \lambda^2]$$

$$A_k=[S_1^2\textless \lambda^2,S_2^2\textless \lambda^2,\cdots,S_{k-1}\textless \lambda^2,S_k^2\geq \lambda^2]$$

Note que os $ A_k  $ são disjuntos 2 a 2 e $ A=\displaystyle\bigcup_{k=1}^{n}A_k $:

Logo $ 1\!\!1_A=\displaystyle \sum_{k=1}^{n}1\!\!1_{A_k} $, e

$$S_n^2\geq S_n^2 1\!\!1_A=\displaystyle \sum_{k=1}^{n}S_n^2 1\!\!1_{A_k}\quad\Rightarrow \quad\mathbb{E}[S_n^2]\geq \displaystyle \sum_{k=1}^{n}\mathbb{E}[S_n^2 1\!\!1_{A_k}].$$

Na sequência, queremos substituir $ S_{n}^2 $ por $ S^2_k $ no somatório, pois $ S^2_k \geq \lambda^2 $ em $ A_k $ e não vale necessariamente $ S^2_n \geq \lambda^2 $. Assim, escrevemos

$$S_n^2=(S_n-S_k+ S_k)^2=(S_n-S_k)^2+S_k^2+2(S_n-S_k)S_k\geq S_k^2+2(S_n-S_k)S_k.$$

Portanto obtemos que

$$\mathbb{E}[S_n^2 1\!\!1_{A_k}]\geq \mathbb{E}[S_k^2 1\!\!1_{A_k}]+2\mathbb{E}[(S_n-S_k)S_k 1\!\!1_{A_k}].$$

Como $ S_n-S_k=\displaystyle\sum_{i=k+1}^{n}X_{i} $ e $ S_k 1\!\!1_{A_k} $ depende só de $ X_1,\cdots X_k, $ as duas são funções disjuntas de variáveis independentes, e portanto podemos fatorar sua esperança da seguinte forma:

\[\mathbb{E}[(S_n-S_k)S_k 1\!\!1_{A_k}]=\mathbb{E}[S_n-S_k]\mathbb{E}[S_k 1\!\!1_{A_k}].\]

Como $ \mathbb{E}[S_n-S_k]=0 $, temos que:

$$\mathbb{E}[S_n^2 1\!\!1_{A_k}]\geq \mathbb{E}[S_k^2 1\!\!1_{A_k}]\leq \mathbb{E}[\lambda^2 1\!\!1_{A_k}]=\lambda^2\mathbb{P}(A_k).$$

Como

$$\mathbb{E}[S_n^2]\geq \displaystyle \sum_{k=1}^{n}\mathbb{E}[S_n^2 1\!\!1_{A_k}].$$

Concluímos que

$$\mathbb{E}[S_n^2]\geq \displaystyle \sum_{k=1}^{n}\lambda^2\mathbb{P}[A_k]=\lambda^2\mathbb{P}[A]$$

Assim

$$\mathbb{P}(A)\leq \displaystyle \frac{\mathbb{E}[S_n^2]}{\lambda^2}=\frac{\text{Var}[S_n]}{\lambda^2}.$$

$ \Box $


Teorema 7.1.2.3: (Primeira Lei Forte de Kolmogorov)

Seja $ \{X_i\}_{i\geq 1} $ uma sequência de variáveis aleatórias independentes e integráveis, e suponha que:

$ \displaystyle \sum_{i=1}^{\infty}\frac{\text{Var}[X_i]}{i^2}\textless \infty,\quad (7.1.2.1) $ (condição de Kolmogorov)

então

$ \displaystyle\sum^n_{i=1}\frac{X_i -\mathbb{E}[X_i]}{n}\rightarrow 0, ~~ \text{quase certamente}. $

Demonstração:

Vamos redefinir a nossa sequência de variáveis aleatórias de forma que esperança seja zero. Para isto, seja $ Y_i=X_i-\mathbb{E}[X_i] $, assim $ \mathbb{E}[Y_i]=0 $ e $ \text{Var}[Y_i]=\text{Var}[X_i] $, por P1 da variância.

Desta forma queremos mostrar que

$ \displaystyle\sum_{i=1}^{\infty}\frac{Y_i}{n}\rightarrow 0, ~~ \text{quase certamente}. $

Vale salientar que é equivalente mostrarmos que 

$ \displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k}\rightarrow 0,~~ \text{quase certamente}, $

quando $ n\rightarrow \infity, $ em que $ S_k=\displaystyle\sum^k_{i=1}Y_i. $

Agora, para cada m fixo, temos que

$ \mathbb{P}\left(\displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k}\geq \frac{1}{m}\right)\leq \mathbb{P}\left(\displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k}\geq \frac{2^n}{m}\right)\leq \mathbb{P}\left(\displaystyle \max_{1\textless k \textless 2^{n+1}}\frac{|S_k|}{k}\geq \frac{2^n}{m}\right) $

$ \leq \displaystyle\frac{m^2}{4^n}\displaystyle\sum^{2^{n+1}}_{k=1}\text{Var}(Y_k), $

Notemos que a última desigualdade é válida pelo Teorema 7.1.2.2. Desta forma temos

$$\displaystyle \sum_{n=1}^{\infty}\mathbb{P}\left(\max_{2^n\textless k\leq 2^{n+1}}\frac{S_k}{k}\geq \frac{1}{m}\right)\leq m^2 \displaystyle\sum_{n=1}^{\infty}\left(\frac{1}{4^n}\sum_{k=1}^{2^{n+1}}\text{Var} (Y_k)\right)=m^2\displaystyle\sum_{k=1}^{\infty}\displaystyle~\sum_{n:2^{n+1}\geq k}\left(\frac{\text{Var}(Y_k)}{4^n}\right)$$

$$=m^2\displaystyle\sum_{k=1}^{\infty}\left(\text{Var}(Y_k)\displaystyle\sum_{n:2^{n+1}\geq k}^{\infty}\frac{1}{4^n}\right)$$

Observe que

$ \displaystyle\sum_{n:2^{n+1}\geq k}\frac{1}{4^n}\textless \frac{16}{3k^2}, $

Portanto

$ \displaystyle \sum_{n=1}^{\infty} \mathbb{P}\left(\max_{2^{n}\textless k \textless 2^{n+1}}\displaystyle\frac{S_k}{k}\right)\leq \frac{(4m)^2}{3}\sum_{k=1}^{\infty}\frac{\text{Var}(Y_k)}{k^2}\textless \infty. $

Assim usando o lema de Borel Cantelli temos que 

$ \displaystyle\mathbb{P}\left(\limsup_{n\rightarrow \infty}A_n\right)=0, $

no qual $ A_n=\left[\displaystyle \max_{2^n\textless k \leq 2^{n+1}}\frac{S_k}{k}\geq\frac{1}{m}\right]. $

Logo, $ \mathbb{P}(\displaystyle\liminf_{n\rightarrow \infty}A_n)=1 $, pois se $ \mathbb{P}\left(\limsup A_n\right)=0 $ temos que para cada m fixo a probabilidade de que $ \displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{S_k}{k} $ assuma um valor maior que $ \frac{1}{m} $ é 0.

Assim a probabilidade de que $ \displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k} $ assuma um valor maior que zero um número finito de vezes é 1. Logo,

$ \displaystyle\bigcap_{m=1}^{\infity}\displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k}\textless \frac{1}{m} $

deve ocorrer para todo n a partir de um índice, ou seja, temos que 

$ \forall m, 0\leq\displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k} \textless \frac{1}{m} $ para todo n a partir de um índice.

Portanto concluímos que $ \displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k}\rightarrow 0 $ quase certamente.

$ \Box $


Uma observação importante é que a condição de Kolmogorov (7.1.2.1) é suficiente, mas não é necessária para lei forte dos grandes números. Podemos construir exemplos tais que $ \displaystyle \sum_{i=1}^{\infty}\frac{\text{Var}[X_i]}{i^2}= \infty $ e que satisfaçam a lei dos grandes números.


Exemplo 7.1.2.1: Valor esperado infinito implica em variância infinita.

De fato, seja $ X $ uma variável aleatória tal que $ \mathbb{E}[X]=\infty. $

Por definição, temos que $ \text{Var}(X)=\mathbb{E}[X^2]-\mathbb{E}^2[X]. $

Mas, $ \mathbb{E}[X]=\infty $ e $ \mathbb{E}[X^2]\geq\mathbb{E}^2[X]. $

Portanto, $ \text{Var}(X)=\infty $

Em particular, variáveis aleatórias com valor esperado infinito não satisfazem a condição de Kolmogorov e consequentemente não há garantias que cumpra a lei dos grandes números. 


Proposição 7.1.2.2: Seja X uma variável aleatória e seja F sua função de distribuição acumulada. Então,

$ \displaystyle\sum_{n=1}^{\infty}\left{\frac{1}{n^2}\int_{-n}^{n}x^2 dF(x)\right}\textless \infty. $

Demonstração:

Vamos relembrar o seguinte fato, o qual vamos utilizar para a demonstração desta proposição.

$ \displaystyle \sum_{n=j}^{n^2}\textless \frac{2}{j} $

Como 

$ \displaystyle\int_{-n}^{n}x^2dF(x)=\sum_{j=-n+1}^{n}\int_{j-1}^{j}x^2dF(x) $

Assim temos que:

$$\displaystyle\sum_{n=1}^{\infty}\left{\frac{1}{n^2}\int_{-n}^{n}x^2 dF(x)\right}=\sum_{n=1}^{\infty}\sum_{j=-n+1}^{n}\left{\frac{1}{n^2}\int_{j-1}^{j}x^2dF(x)\right}=\sum^{\infty}_{j=1}\sum_{n=j}^{\infty}\left{\frac{1}{n^2}\int_{j-1}^{j}x^2 dF(x)\right}+$$

$$\sum_{j=-\infty}^{0}\sum_{n=|j|+1}^{\infty}\left{\frac{1}{n^2}\int_{j-1}^{j}x^2dF(x)\right}\leq 2\sum_{j=1}^{\infty}\int_{j-1}^{j}\frac{x^2}{j}dF(x)+2\sum_{j=-\infty}^{0}\int_{j-1}^{j}\frac{x^2}{|j|+1}dF(x).$$

Como $ \frac{x^2}{j}\leq x $ em $ (j-1,j] $, $ j\textless 1 $, e $ \frac{x^2}{|j|+1}\leq |x| $ em $ (j-1,j] $, para j\leq 0, temos

$ \displaystyle\sum_{n=1}^{\infty}\left{\frac{1}{n^2}\int_{-n}^{n}x^2dF(x)\right}\leq 2 \sum_{j=-\infty}^{\infty}|x|dF(x)=\mathbb{E}[|X|]\textless \infty $

$ \Box $


Teorema 7.1.2.4: (A Lei Forte de Kolmogorov)

Seja $ X_i $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas e com $ \mathbb{E}[X_i]=\mu \textless \infty $. Então

$ \displaystyle \sum_{i=1}^{n}\frac{X_i}{n}\rightarrow \mu, \mbox{quase certamente}. $

Demonstração:

Vale observar neste momento que basta mostrarmos para $ \mu=0 $, pois no caso geral em que $ \mu\neq 0 $ fazermos uma mudança de variável, usando $ G_n=X_n-\mu. $ Neste caso as variáveis aleatórias $ G_n $ serão independentes e indenticamentes distribuidas com $ \mathbb{E}[G_n]=0 $.

Seja $ Y_n $ definida da seguinte forma.

$ \displaystyle Y_n = \left\{ \begin{array}{l} X_n, \quad \hbox{se} \ X_n \ \in (n,-n]; \\ 0, \quad~~\hbox{caso contrário}.\end{array} \right. $

E seja $ Z_n=X_n-Y_n\quad\Rightarrow\quad X_n=Y_n+Z_n $

\[\frac{X_1+\cdots+X_n}{n}=\frac{Y_1+\cdots+Y_n}{n}+\frac{Z_1+\cdots+Z_n}{n}\]

Vamos dividir a demonstração deste teorema em três partes.

Primeiro mostramos que $ \displaystyle\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0 $ quase certamente.

Observamos que $ Z_n\neq 0\Leftrightarrow Y_n\neq X_n\rightarrow X_n \notin (-n,n] $.

Assim,

\[\mathbb{P}(Z_n\neq 0)=\mathbb{P}(X_n\notin (-n,n])\textless \mathbb{P}(|X_n|\textgreater n).\]

Mas os eventos $ A_n=[Z_n\neq 0] $ satisfazem

\[\displaystyle\sum_{n=1}^{\infty}\mathbb{P}(A_n)\leq \sum_{n=1}^{\infty}\mathbb{P}(|X_n|\geq n)\]

Notemos que se os $ X_i $ são identicamentes distribuídos, então temos que:

\[\sum_{n=1}^{\infty}\mathbb{P}(|X_n|\geq n)=\sum_{n=1}^{\infty}\mathbb{P}(|X_1|\geq n)\textless \infty,\]

no qual a última passagem é consequência da intregabilidade de $ X_1 $.

Assim pelo lema de Borel-Cantelli decorre que $ \mathbb{P}(\displaystyle\limsup_{n\rightarrow \infty}A_n)=0 $, o que implica que:

\[\mathbb{P}(\displaystyle\limsup_{n\rightarrow \infty}Z_n\neq 0)=0\]

Ou seja,

\[\mathbb{P}(\displaystyle\liminf_{n\rightarrow \infty}A_n)=1\quad\Rightarrow\quad \mathbb{P}(Z_m=0)=1\]

com $ m\textgreater n $ para algum n suficientemente grande, isto é, $ Z_n\rightarrow 0 $ e ainda

\[\displaystyle\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0\quad\Rightarrow\quad \mathbb{P}\left(\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0\right)=1\]

Logo $ \displaystyle\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0 $ quase certamente.

Mostramos agora que $ \displaystyle \frac{Y_1+\cdots+Y_n}{n}-\frac{\mathbb{E}[Y_1]+\cdots+\mathbb{E}[Y_n]}{n}\rightarrow 0 $ quase certamente.

Como por hipótese $ X_i $ são identicamente distribuídos, então temos que $ F_{X_1}=\cdots=F_{X_n} $.

Notemos que 

$ \displaystyle Y_n = \left\{ \begin{array}{l} X_n, \quad \hbox{se} \ X_n \ \in (n,-n]; \\ 0, \quad~~ \hbox{caso contrário}.\end{array} \right, $ isto é, $ Y_n=X_n 1\!\!1_{\{-n\textless X_n\leq n\}} $

\[\text{Var}[Y_n]\leq \mathbb{E}[Y_n^2]=\mathbb{E}[X_n^2] 1\!\!1_{\{-n\textless X_n\leq n\}}=\int x^2 1\!\!1_{\{-n\textless X_n\leq n\}}dF(x)=\int_{-n}^{n}x^2dF(x)\]

o que implica que:

\[\displaystyle \sum_{n=1}^{\infty}\frac{\text{Var}[Y_n]}{n^2}\leq \sum_{n=1}^{\infty}\frac{1}{n^2}\int_{-n}^{n}x^2 dF(x)\textless \infty,\]

Assim pela Teorema 7.1.2.3 o resultado segue. 

Agora, precisamos mostrar que $ \dfrac{\mathbb{E}[Y_1]+\cdots+\mathbb{E}[Y_n]}{n}\rightarrow 0 $

Desta forma, basta mostrarmos que $ \mathbb{E}[Y_n]\rightarrow 0 $.

De fato,

$ \mathbb{E}[Y_n]=\mathbb{E}[X_n 1\!\!1_{\{-n\textless X_n\leq n\}}]=\mathbb{E}[X_1 1\!\!1_{\{-n\textless X_1 \leq n\}}]\rightarrow \mathbb{E}[X_1]=0 $

Logo o teorema segue, pois

$ A=\displaystyle\left[\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0\right] $ e $ B=\displaystyle\left[\frac{Y_1+\cdots+Y_n}{n}-\frac{\mathbb{E}[Y_1]+\cdots+\mathbb{E}[Y_n]}{n}\rightarrow 0\right] $.

Portanto $ \displaystyle \frac{X_1+\cdots+X_n}{n}\rightarrow 0 $ quase certamente e no caso mais geral:

$ \displaystyle\frac{X_1+\cdots+X_n}{n}\rightarrow \mu,\quad\text{quase certamente} $

$ \Box $


Teorema 7.1.2.5: (Cantelli) Seja $ (X_i)_{i\in\mathbb{N}} $ uma sequência de variáveis aleatórias com quarto momento finito, e seja

$$E[|X_n-E[X_n]|^4]\leq C$$

com $ C\in \mathbb{R} $. Então quando $ n\rightarrow \infty  $

$$\frac{S_n-E[S_n]}{n}\stackrel{q.c}{\rightarrow} 0 $$

Demonstração:

Sem perda de generalidade podemos assumir que $ \mathbb{E}[X_n]=0 $, pois caso não seja, redefinirmos $ X_n=X_n-\nathbb{E}[X_n] $. Assim para mostramos que $ \dfrac{S_n}{n}\rightarrow 0 $ quase certamente basta mostramos que

$$\displaystyle \sum^\infty_{n=1} \mathbb{P}\left(\left|\dfrac{S_n}{n}\right|\geq \epsilon\right)\textless \infty,~~~\forall \epsilon \textgreater 0$$

Utilizando a desigualdade de Chebyshev, basta mostrarmos que

$$\displaystyle \sum^\infty_{n=1} \mathbb{E}\left(\left|\dfrac{S_n}{n}\right|^4\right)\textless \infty.$$

Note que $ S_n=(X_1+\cdots X_n)^4  $, logo

$$\mahtbb{E}[S_n^4]=\displaystyle  \sum_{i=1}^{n}\mathbb{E}[X_i^4]+\sum_{i,j=1}^{n}\mathbb{E}[X_i^2]E[X_j^2]\leq nC +6  \sum_{\overset{i,j=1}{i\textless j}}\sqrt{\mathbb{E}[X_i^4]\mathbb{E}[X_j^4]}\leq nC +\frac{6n(n-1)}{n}C\textless 3n^2 C$$

Logo

$$\mathbb{E}\left[\left(\frac{S_n}{n}\right)^4\right]\textless 3\frac{C}{n^2}$$

Assim

$$\sum^\infty_{n=1} \mathbb{E}\left[\left(\frac{S_n}{n}\right)^4\right]\textless 3C \sum^\infty_{n=1} \frac{1}{n^2}\textless \infty$$

E portanto, segue o resultado.

$ \Box $


Teorema 7.1.2.6: (Kolmogorov) Seja $ (X_i)_{i\in \mathbb{N}} $ uma sequência de variáveis aleatórias independentes com segundo momento finito, e seja $ (b_n)_{n\in\mathbb{N}} $ uma sequência de números positivos, tal que $ b_n\uparrow \infty  $ e

$$\displaystyle \sum^\infty_{n=1} \frac{Var[S_n]}{b^2_n}\textless \infty$$

Então

$$\displaystyle \frac{S_n-E[S_n]}{n}\stackrel{q.c}{\rightarrow} 0$$

Demonstração: 

Vamos omitir a demonstração deste resultado, porém ela pode ser encontrada no livro do Shiryaev.

$ \Box $


Para finalizarmos esta seção, vamos apresentar alguns exemplo para fixarmos os conceitos apresentados.


Exemplo 7.1.2.2: Seja $ {A_i} $ uma sequência de eventos aleatórios tais que $ \displaystyle \sum_{i=1}^{\infty}\mathbb{P}[A_n]\textless \infty $. Mostremos que $ 1\!\!1_{A_i}\rightarrow 0 $ quase certamente.

Como no exemplo anterior necessitamos considerar apenas o caso de $ 0\textless \varepsilon \leq 1 $.

Sendo assim seja $ B_n=\{\omega| 1\!\!1_{A_n}\geq \varepsilon\}=A_n, $ sabemos que

$$\displaystyle \sum_{i=1}^{\infty}\mathbb{P}[b_n]=\displaystyle \sum_{i=1}^{\infty}\mathbb{P}[A_n]\textless \infty.$$

Pelo lema de Borel-Cantelli temos que $ \mathbb{P}[\limsup_{n\rightarrow \infty} B_n]=0 $ e portanto

$ \mathbb{P}[(\limsup_{n\rightarrow \infty} B_n)^c]=1 $.

Observemos que $ [\limsup_{n\rightarrow \infty} B_n]^c=\liminf_{n\rightarrow \infty} B_n^c $, então

Existe $ \ n_0(\varepsilon,\omega)\in \mathds{N} $ tal que $ 1\!\!1_{A_n}(\omega)\textless \varepsilon; $ para qualquer $ n\geq n_0 $.

Portanto, $ 1\!\!1_{A_i}\rightarrow 0 $ quase certamente.


Exemplo 7.1.2.3: Seja $ \{X_i\}_{i\geq 1} $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas, com distribuição exponencial de parâmetro $ 1 $. Mostremos que:

$ \mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}\textgreater 1\right)=1. $

Para mostrarmos isso basta mostrarmos que $ \displaystyle \sum_{i=1}^{\infty}A_i=\infty $. Assim primeiramente vamos definir o evento $ A_i=\{X_i\textgreater \log i\} $ para $ i\geq 1 $. Como cada $ A_i $ são eventos independentes. Portanto

$ \mathbb{P}(A_i)=\mathbb{P}(X_i\textgreater \log i)=e^{-\log{i}}=\displaystyle \frac{1}{i}. $

Desta forma concluímos que:

$ \displaystyle \sum_{i=1}^{\infty}\mathbb{P}(A_i)=\sum_{i=1}^{\infty}\frac{1}{i}=\infty $

consequentemente pelo lema de Borel-Cantelli concluímos que $ \mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}\textgreater 1\right)=1 $ como queríamos demonstrar.


Exemplo 7.1.2.4: Podemos generalizar o exemplo 7.1.2.3 proposto acima, da seguinte forma seja $ X_i $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas, com distribuição exponencial de parâmetro $ \lambda $. Mostremos que:

$ \mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}\textgreater \frac{1}{\lambda}\right)=1. $

A demonstração segue da mesma forma, basta definirmos o conjunto $ A_i=\{X_i\textgreater \log i\} $ para $ i\geq 1 $. Assim 

$ \mathbb{P}(A_i)=\mathbb{P}(X_i\textgreater \frac{\log i}{\lambda})=e^{-\lambda\frac{\log{i}}{\lambda}}=\displaystyle \frac{1}{i}. $

E portanto concluímos que

$ \displaystyle \sum_{i=1}^{\infty}\mathbb{P}(A_i)=\sum_{i=1}^{\infty}\frac{1}{i}=\infty $

usando novamente o lema de Borel-Cantelli concluímos que $ \mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}\textgreater \frac{1}{\lambda}\right)=1. $


Exemplo 7.1.2.5: Seja $ \{X_i\}_{i\geq 1} $ uma sequência de variáveis aleatória independentes com distribuição Poisson com parâmetro $ \lambda $. Qual é o limite em probabilidade da sequência $ Y_n $, em que $ Y_n=\dfrac{X_1^2+\cdots+X_n^2}{n} $?

Para resolvermos esse exemplo basta utilizarmos o a lei forte de Kolmogorov, que vamos obter um resultado ainda mais forte. Pela lei forte de Kolmogorov temos que $ Y_n\rightarrow \mathbb{E}[X_1^2] $. Como $ X_1 $ segue uma Poisson temos o seguinte:

$ \lambda=\text{Var}[X_1]=\mathbb{E}[X_1^2]-\mathbb{E}^2[X_1]=\mathbb{E}[X_1^2]-\lambda^2 \quad\Rightarrow\quad \mathbb{E}[X_1^2]=\lambda(1+\lambda) $

Assim pela lei forte de Kolmogorov, temos que $ Y_n\rightarrow \lambda(1+\lambda) $ quase certamente, ou seja, $ Y_n $ converge em probabilidade para $ \lambda(1-\lambda) $.


Exemplo 7.1.2.6: (Método Monte Carlo)

Talvez uma das mais importantes aplicações da lei dos grandes números seja no Método Monte Carlo, que é um método computacional para calcular integrais. Assim, seja $ f $  uma função contínua com imagem no intervalo [0,1] e $ X_1,c_1,X_2,c_2 \cdots $ uma sequência de variáveis aleatórias independentes uniformes no [0,1]. Tomamos

$$Y_i=\left\{ \begin{array}{l} 1~~~ f(X_i)\textgreater c_i \\ 0~~~ f(X_i)\leq c_i .\end{array} \right.$$

Então 

$$\mathbb{E}[Y_1]=\mathbb{P}(f(X_1)\textgreater c_1)=\displaystyle \int_{0}^{1}f(x)dx$$

Portanto, pela lei forte dos grandes números temos que:

$$\displaystyle \frac{1}{n}\sum_{i=1}^{n}Y_i\rightarrow \int_{0}^{1}f(x)dx , \quad \text{P-quase certamente}$$


Exemplo 7.1.2.7: Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas com $ \mathbb{E}[X_1]=\mu $ e $ \text{Var}[X_1]=\sigma^2, $ com $ 0,\lextless \sigma^2\textless \infty. $ Mostre que

$$\dfrac{\sum^n_{j=1}X_j}{\displaystyle\sqrt{n\sum^n_{j=1}X^2_j}}\xrightarrow{q.c.}\dfrac{\mu}{\sqrt{\mu^2+\sigma^2}}$$

De fato, da 1ª lei de Kolmogorov temos que

$$\sum^n_{j=1}X_j\xrightarrow{q.c.}\mu\quad\text{e}\quad \sum^n_{j=1}\frac{X_j}{n}\xrightarrow{q.c.}\mu$$

Também temos que

$$\sum^n_{j=1}\frac{X^2_j}{n}\xrightarrow{q.c.}\sigma^2+\mu^2$$

Uma observação importante é que se $ X_n\xrightarrow{q.c.}X $ então $ g(X_n)\xrightarrow{q.c.}g(X) $ para g contínua.

Logo, $ X_n\xrightarrow{q.c.}X,~Y_n\xrightarrow{q.c.}Y $ isto implica que $ \dfrac{X_n}{Y_n}\xrightarrow{q.c.}\dfrac{X}{Y} $

Portanto, vale a tese.