7.2.2 - Lei Forte dos Grandes Números

Você está aqui

Após estudarmos a Lei Fraca do Grandes Números, vamos estudar agora a Lei Forte dos Grandes Números. A principal diferença da Lei Fraca é que ao invés da convergência em probabilidade, temos a convergência quase certa como dita na seção anterior. Os detalhes destes dois tipos de convergência, foi amplamente discutido na seção convergências em probabilidade e quase certa. A seguir, apresentamos os principais resultados para Lei Forte dos Grandes Números.

Teorema 7.1.2.1: 

Sejam $ \{X_i\}_{i\geq 1} $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas. Se $ \mathbb{E}[|X_1|]=\infty $, então com probabilidade 1, a sequência

$ \displaystyle \frac{|S_n|}{n} = \frac{|X_1 + \cdots + X_n|}{n}, $ 

não é limitada.

Demonstração:

Sabemos que $ \mathbb{E}[|X_1|]=\infty $, então como consequência temos que $ \displaystyle \mathbb{E}\left[\frac{|X_1|}{k}\right]=\frac{\mathbb{E}[|X_1|]}{k}=\infty $.

Então mostremos primeiramente que $ \displaystyle\sum_{n=1}^{\infty}\mathbb{P}(|X|\geq n)\leq \mathbb{E}[|X|]\leq 1+\displaystyle\sum_{n=1}^{\infty}\mathbb{P}(|X|\geq n) $, para qualquer variável aleatória X.

De fato, se $ x\geq 0 $, seja $ [x] $ o maior número inteiro menor ou igual a $ x $. Então a variável aleatória $ [|X|] $ assume valor k quando $ k\leq |X|\textless k+1 $ e portanto 


\[0\leq [|X|]\leq |X|\leq [|X|]+1,\]

Assim pela linearidade e pela monotonicidade da esperança, temos que:


\[0\leq \mathbb{E}\{[|X|]\}\leq \mathbb{E}[|X|]\leq \mathbb{E}\{[|X|]\}+1,\]

Como [|X|] é uma variável aleatória que assume apenas valores inteiros temos que 


\[\mathbb{E}\{[|X|]\}=1-F_X[0]+1-F_X[1]+1-F_X[2]\cdots=\displaystyle \sum_{n=0}^{\infty}1-F[n]=\sum_{n=0}^{\infty}\mathbb{P}[X\textgreater n].\]

Desta forma temos que $ \mathbb{E}\{[|X|]\}=\displaystyle\sum_{n=0}^{\infty}\mathbb{P}[[|X|]\geq n]=\sum_{n=0}^{\infty}\mathbb{P}[|X|\geq n] $. Logo


\[\sum_{n=0}^{\infty}\mathbb{P}[|X|\textgreater n]\leq \mathbb{E}|X|\leq 1+\sum_{n=0}^{\infty}\mathbb{P}[|X|\textgreater n].\]

Assim $ \displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_1|}{k}\textgreater n\right]=\infty $ para qualquer $ k\in \mathds{N} $. Como as variáveis $ X_n $ são identicamente distribuídas temos que:


\[\displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_1|}{k}\textgreater n\right]=\displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_n|}{k}\textgreater n\right]=\displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_n|}{n}\textgreater k\right].\]

Como os $ X_n $ são independentes, os eventos $ A_n=\left[\frac{|X_n|}{n}\geq k\right] $ são independentes, desta forma usando o lema de Borel Cantelli 


\[\mathbb{P}\left(\limsup \displaystyle\frac{|X_n|}{n}\geq k\right)=1.\]

Seja $ B_k=\left[\limsup \displaystyle \frac{|X_n|}{n}\geq k\right] $, temos então


\[\mathbb{P}\left(\displaystyle \bigcap_{k=1}^{\infty}B_k\right)=1,\]

pois a intersecção de um número enumerável de eventos de probabilidade 1 também tem probabilidade 1, como demonstrado na Propriedade 12. Mas o evento $ \displaystyle \bigcap_{k=1}^{\infty}B_k $ é o evento "a $ \displaystyle\frac{|X_n|}{n}\geq k $ é ilimitada". Assim basta provarmos que se $ \displaystyle\frac{|X_n|}{n} $ é ilimitada, então $ \displaystyle \frac{|S_n|}{n} $ também é ilimitada. Agora, com $ S_0=0 $, temos


\[\displaystyle\frac{|X_n|}{n}=\frac{|S_n-S_{n-1}|}{n}\leq \frac{|S_n|}{n}+\frac{|S_{n-1}|}{n},\]

para $ n \in \mathds{N} $. Portanto, se $ \frac{X_n}{n}  $ é ilimitada, então $ \frac{|S_n|}{n} $ é ilimitada ou $ \frac{|S_{n-1}|}{n} $. Mas se $ n\geq 2 $, temos que


\[\frac{|S_{n-1}|}{n}=\frac{|S_{n-1}|}{n-1} \frac{n-1}{n}\]

e $ \frac{1}{2}\leq \frac{n-1}{n}\textless 1 $, de modo que $ \frac{|S_{n-1}|}{n} $ é ilimitada se, e somente se,$ \frac{|S_n|}{n} $ também é, pois $ \frac{|S_{n-1}|}{n-1} $ e $ \frac{S_n}{n} $ formam a mesma sequência.

$ \Box $

Teorema 7.1.2.2: 

Seja $ X_i $ uma sequência de variáveis aleatórias independentes tais que $ \mathbb{E}[X_n]=0 $ e a $ \text{Var}[X_n]\leq \infty $. Então para todo $ \lambda\textgreater 0 $,

$ \mathbb{P}\left[\displaystyle\max_{1\leq k \leq n}|\sum_{i=1}^{k}X_i|\geq \lambda\right]\leq \displaystyle \sum_{k=1}^{n}\frac{\text{Var}[X_k]}{\lambda^2}. $

Demonstração:

Para facilitar a notação seja $ S_n=\displaystyle\sum_{i=1}^{n}X_i $. Observemos que:


\[S_n^2\geq S_n^2 1\!\!1_{[S_n^2\geq \lambda]}\geq \lambda^2 1\!\!1_{[S_n^2\geq \lambda^2]}\quad\Rightarrow\quad \mathbb{E}[S_n^2]\geq \lambda^2\mathbb{E}[1\!\!1_{[S_n^2\geq \lambda^2]}]=\lambda^2\mathbb{P}[S_n^2\geq \lambda^2],\]

Mas isto implica que :


\[\mathbb{P}(|S_n|\geq \lambda)\leq \displaystyle \frac{1}{\lambda^2}\mathbb{E}[S_n^2]=\frac{\text{Var}[S_n]}{\lambda^2}.\]

Nossa meta é encontrar uma cota superior para $ \mathbb{P}\left[\displaystyle \max_{1\leq k\leq n}S_k^2\geq \lambda^2\right] $, para isto consideramos $ A=\left\{\displaystyle\max_{1\leq k\leq n}S_k^2\geq \lambda^2\right\} $.

Vamos decompor A da seguinte forma:


$$A_1=[S_1^2\geq \lambda^2]$$


$$A_2=[S_1^2\textless \lambda^2,S_2^2\geq \lambda^2]$$


$$A_k=[S_1^2\textless \lambda^2,S_2^2\textless \lambda^2,\cdots,S_{k-1}\textless \lambda^2,S_k^2\geq \lambda^2]$$

Note que os $ A_k  $ são disjuntos 2 a 2 e $ A=\displaystyle\bigcup_{k=1}^{n}A_k $:

Logo $ 1\!\!1_A=\displaystyle \sum_{k=1}^{n}1\!\!1_{A_k} $, e


$$S_n^2\geq S_n^2 1\!\!1_A=\displaystyle \sum_{k=1}^{n}S_n^2 1\!\!1_{A_k}\quad\Rightarrow \quad\mathbb{E}[S_n^2]\geq \displaystyle \sum_{k=1}^{n}\mathbb{E}[S_n^2 1\!\!1_{A_k}].$$

Na sequência, queremos substituir $ S_{n}^2 $ por $ S^2_k $ no somatório, pois $ S^2_k \geq \lambda^2 $ em $ A_k $ e não vale necessariamente $ S^2_n \geq \lambda^2 $. Assim, escrevemos


$$S_n^2=(S_n-S_k+ S_k)^2=(S_n-S_k)^2+S_k^2+2(S_n-S_k)S_k\geq S_k^2+2(S_n-S_k)S_k.$$

Portanto obtemos que


$$\mathbb{E}[S_n^2 1\!\!1_{A_k}]\geq \mathbb{E}[S_k^2 1\!\!1_{A_k}]+2\mathbb{E}[(S_n-S_k)S_k 1\!\!1_{A_k}].$$

Como $ S_n-S_k=\displaystyle\sum_{i=k+1}^{n}X_{i} $ e $ S_k 1\!\!1_{A_k} $ depende só de $ X_1,\cdots X_k, $ as duas são funções disjuntas de variáveis independentes, e portanto podemos fatorar sua esperança da seguinte forma:


\[\mathbb{E}[(S_n-S_k)S_k 1\!\!1_{A_k}]=\mathbb{E}[S_n-S_k]\mathbb{E}[S_k 1\!\!1_{A_k}].\]

Como $ \mathbb{E}[S_n-S_k]=0 $, temos que:


$$\mathbb{E}[S_n^2 1\!\!1_{A_k}]\geq \mathbb{E}[S_k^2 1\!\!1_{A_k}]\leq \mathbb{E}[\lambda^2 1\!\!1_{A_k}]=\lambda^2\mathbb{P}(A_k).$$

Como


$$\mathbb{E}[S_n^2]\geq \displaystyle \sum_{k=1}^{n}\mathbb{E}[S_n^2 1\!\!1_{A_k}].$$

Concluímos que


$$\mathbb{E}[S_n^2]\geq \displaystyle \sum_{k=1}^{n}\lambda^2\mathbb{P}[A_k]=\lambda^2\mathbb{P}[A]$$

Assim


$$\mathbb{P}(A)\leq \displaystyle \frac{\mathbb{E}[S_n^2]}{\lambda^2}=\frac{\text{Var}[S_n]}{\lambda^2}.$$

$ \Box $

Teorema 7.1.2.3: (Primeira Lei Forte de Kolmogorov)

Seja $ \{X_i\}_{i\geq 1} $ uma sequência de variáveis aleatórias independentes e integráveis, e suponha que:

$ \displaystyle \sum_{i=1}^{\infty}\frac{\text{Var}[X_i]}{i^2}\textless \infty,\quad (7.1.2.1) $ (condição de Kolmogorov)

então

$ \displaystyle\sum^n_{i=1}\frac{X_i -\mathbb{E}[X_i]}{n}\rightarrow 0, ~~ \text{quase certamente}. $

Demonstração:

Vamos redefinir a nossa sequência de variáveis aleatórias de forma que esperança seja zero. Para isto, seja $ Y_i=X_i-\mathbb{E}[X_i] $, assim $ \mathbb{E}[Y_i]=0 $ e $ \text{Var}[Y_i]=\text{Var}[X_i] $, por P1 da variância.

Desta forma queremos mostrar que

$ \displaystyle\sum_{i=1}^{\infty}\frac{Y_i}{n}\rightarrow 0, ~~ \text{quase certamente}. $

Vale salientar que é equivalente mostrarmos que 

$ \displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k}\rightarrow 0,~~ \text{quase certamente}, $

quando $ n\rightarrow \infity, $ em que $ S_k=\displaystyle\sum^k_{i=1}Y_i. $

Agora, para cada m fixo, temos que

$ \mathbb{P}\left(\displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k}\geq \frac{1}{m}\right)\leq \mathbb{P}\left(\displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k}\geq \frac{2^n}{m}\right)\leq \mathbb{P}\left(\displaystyle \max_{1\textless k \textless 2^{n+1}}\frac{|S_k|}{k}\geq \frac{2^n}{m}\right) $

$ \leq \displaystyle\frac{m^2}{4^n}\displaystyle\sum^{2^{n+1}}_{k=1}\text{Var}(Y_k), $

Notemos que a última desigualdade é válida pelo Teorema 7.1.2.2. Desta forma temos


2^{n+1}\geq k}\left(\frac{\text{Var}(Y_k)}{4^n}\right)$$


2^{n+1}\geq k}^{\infty}\frac{1}{4^n}\right)$$

Observe que

2^{n+1}\geq k}\frac{1}{4^n}\textless \frac{16}{3k^2}, $

Portanto

$ \displaystyle \sum_{n=1}^{\infty} \mathbb{P}\left(\max_{2^{n}\textless k \textless 2^{n+1}}\displaystyle\frac{S_k}{k}\right)\leq \frac{(4m)^2}{3}\sum_{k=1}^{\infty}\frac{\text{Var}(Y_k)}{k^2}\textless \infty. $

Assim usando o lema de Borel Cantelli temos que 

$ \displaystyle\mathbb{P}\left(\limsup_{n\rightarrow \infty}A_n\right)=0, $

no qual $ A_n=\left[\displaystyle \max_{2^n\textless k \leq 2^{n+1}}\frac{S_k}{k}\geq\frac{1}{m}\right]. $

Logo, $ \mathbb{P}(\displaystyle\liminf_{n\rightarrow \infty}A_n)=1 $, pois se $ \mathbb{P}\left(\limsup A_n\right)=0 $ temos que para cada m fixo a probabilidade de que $ \displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{S_k}{k} $ assuma um valor maior que $ \frac{1}{m} $ é 0.

Assim a probabilidade de que $ \displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k} $ assuma um valor maior que zero um número finito de vezes é 1. Logo,

$ \displaystyle\bigcap_{m=1}^{\infity}\displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k}\textless \frac{1}{m} $

deve ocorrer para todo n a partir de um índice, ou seja, temos que 

$ \forall m, 0\leq\displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k} \textless \frac{1}{m} $ para todo n a partir de um índice.

Portanto concluímos que $ \displaystyle \max_{2^n\textless k\textless 2^{n+1}}\frac{|S_k|}{k}\rightarrow 0 $ quase certamente.

$ \Box $

Uma observação importante é que a condição de Kolmogorov (7.1.2.1) é suficiente, mas não é necessária para lei forte dos grandes números. Podemos construir exemplos tais que $ \displaystyle \sum_{i=1}^{\infty}\frac{\text{Var}[X_i]}{i^2}= \infty $ e que satisfaçam a lei dos grandes números.

Exemplo 7.1.2.1:

Valor esperado infinito implica em variância infinita.

De fato, seja $ X $ uma variável aleatória tal que $ \mathbb{E}[X]=\infty. $

Por definição, temos que $ \text{Var}(X)=\mathbb{E}[X^2]-\mathbb{E}^2[X]. $

Mas, $ \mathbb{E}[X]=\infty $ e $ \mathbb{E}[X^2]\geq\mathbb{E}^2[X]. $

Portanto, $ \text{Var}(X)=\infty $

Em particular, variáveis aleatórias com valor esperado infinito não satisfazem a condição de Kolmogorov e consequentemente não há garantias que cumpra a lei dos grandes números. 

Proposição 7.1.2.2:

Seja X uma variável aleatória e seja F sua função de distribuição acumulada. Então,

$ \displaystyle\sum_{n=1}^{\infty}\left{\frac{1}{n^2}\int_{-n}^{n}x^2 dF(x)\right}\textless \infty. $

Demonstração:

Vamos relembrar o seguinte fato, o qual vamos utilizar para a demonstração desta proposição.

$ \displaystyle \sum_{n=j}^{n^2}\textless \frac{2}{j} $

Como 

$ \displaystyle\int_{-n}^{n}x^2dF(x)=\sum_{j=-n+1}^{n}\int_{j-1}^{j}x^2dF(x) $

Assim temos que:


$$\displaystyle\sum_{n=1}^{\infty}\left{\frac{1}{n^2}\int_{-n}^{n}x^2 dF(x)\right}=\sum_{n=1}^{\infty}\sum_{j=-n+1}^{n}\left{\frac{1}{n^2}\int_{j-1}^{j}x^2dF(x)\right}=\sum^{\infty}_{j=1}\sum_{n=j}^{\infty}\left{\frac{1}{n^2}\int_{j-1}^{j}x^2 dF(x)\right}+$$


$$\sum_{j=-\infty}^{0}\sum_{n=|j|+1}^{\infty}\left{\frac{1}{n^2}\int_{j-1}^{j}x^2dF(x)\right}\leq 2\sum_{j=1}^{\infty}\int_{j-1}^{j}\frac{x^2}{j}dF(x)+2\sum_{j=-\infty}^{0}\int_{j-1}^{j}\frac{x^2}{|j|+1}dF(x).$$

Como $ \frac{x^2}{j}\leq x $ em $ (j-1,j] $, $ j\textless 1 $, e $ \frac{x^2}{|j|+1}\leq |x| $ em $ (j-1,j] $, para j\leq 0, temos

$ \displaystyle\sum_{n=1}^{\infty}\left{\frac{1}{n^2}\int_{-n}^{n}x^2dF(x)\right}\leq 2 \sum_{j=-\infty}^{\infty}|x|dF(x)=\mathbb{E}[|X|]\textless \infty $

$ \Box $

Teorema 7.1.2.4: (A Lei Forte de Kolmogorov)

Seja $ X_i $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas e com $ \mathbb{E}[X_i]=\mu \textless \infty $. Então

$ \displaystyle \sum_{i=1}^{n}\frac{X_i}{n}\rightarrow \mu, \mbox{quase certamente}. $

Demonstração:

Vale observar neste momento que basta mostrarmos para $ \mu=0 $, pois no caso geral em que $ \mu\neq 0 $ fazermos uma mudança de variável, usando $ G_n=X_n-\mu. $ Neste caso as variáveis aleatórias $ G_n $ serão independentes e indenticamentes distribuidas com $ \mathbb{E}[G_n]=0 $.

Seja $ Y_n $ definida da seguinte forma.

$ \displaystyle Y_n = \left\{ \begin{array}{l} X_n, \quad \hbox{se} \ X_n \ \in (n,-n]; \\ 0, \quad~~\hbox{caso contrário}.\end{array} \right. $

E seja $ Z_n=X_n-Y_n\quad\Rightarrow\quad X_n=Y_n+Z_n $


\[\frac{X_1+\cdots+X_n}{n}=\frac{Y_1+\cdots+Y_n}{n}+\frac{Z_1+\cdots+Z_n}{n}\]

Vamos dividir a demonstração deste teorema em três partes.

Primeiro mostramos que $ \displaystyle\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0 $ quase certamente.

Observamos que $ Z_n\neq 0\Leftrightarrow Y_n\neq X_n\rightarrow X_n \notin (-n,n] $.

Assim,


\[\mathbb{P}(Z_n\neq 0)=\mathbb{P}(X_n\notin (-n,n])\textless \mathbb{P}(|X_n|\textgreater n).\]

Mas os eventos $ A_n=[Z_n\neq 0] $ satisfazem


\[\displaystyle\sum_{n=1}^{\infty}\mathbb{P}(A_n)\leq \sum_{n=1}^{\infty}\mathbb{P}(|X_n|\geq n)\]

Notemos que se os $ X_i $ são identicamentes distribuídos, então temos que:


\[\sum_{n=1}^{\infty}\mathbb{P}(|X_n|\geq n)=\sum_{n=1}^{\infty}\mathbb{P}(|X_1|\geq n)\textless \infty,\]

no qual a última passagem é consequência da intregabilidade de $ X_1 $.

Assim pelo lema de Borel-Cantelli decorre que $ \mathbb{P}(\displaystyle\limsup_{n\rightarrow \infty}A_n)=0 $, o que implica que:


\[\mathbb{P}(\displaystyle\limsup_{n\rightarrow \infty}Z_n\neq 0)=0\]

Ou seja,


\[\mathbb{P}(\displaystyle\liminf_{n\rightarrow \infty}A_n)=1\quad\Rightarrow\quad \mathbb{P}(Z_m=0)=1\]

com $ m\textgreater n $ para algum n suficientemente grande, isto é, $ Z_n\rightarrow 0 $ e ainda


\[\displaystyle\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0\quad\Rightarrow\quad \mathbb{P}\left(\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0\right)=1\]

Logo $ \displaystyle\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0 $ quase certamente.

Mostramos agora que $ \displaystyle \frac{Y_1+\cdots+Y_n}{n}-\frac{\mathbb{E}[Y_1]+\cdots+\mathbb{E}[Y_n]}{n}\rightarrow 0 $ quase certamente.

Como por hipótese $ X_i $ são identicamente distribuídos, então temos que $ F_{X_1}=\cdots=F_{X_n} $.

Notemos que 

$ \displaystyle Y_n = \left\{ \begin{array}{l} X_n, \quad \hbox{se} \ X_n \ \in (n,-n]; \\ 0, \quad~~ \hbox{caso contrário}.\end{array} \right, $ isto é, $ Y_n=X_n 1\!\!1_{\{-n\textless X_n\leq n\}} $


\[\text{Var}[Y_n]\leq \mathbb{E}[Y_n^2]=\mathbb{E}[X_n^2] 1\!\!1_{\{-n\textless X_n\leq n\}}=\int x^2 1\!\!1_{\{-n\textless X_n\leq n\}}dF(x)=\int_{-n}^{n}x^2dF(x)\]

o que implica que:


\[\displaystyle \sum_{n=1}^{\infty}\frac{\text{Var}[Y_n]}{n^2}\leq \sum_{n=1}^{\infty}\frac{1}{n^2}\int_{-n}^{n}x^2 dF(x)\textless \infty,\]

Assim pela Teorema 7.1.2.3 o resultado segue. 

Agora, precisamos mostrar que $ \dfrac{\mathbb{E}[Y_1]+\cdots+\mathbb{E}[Y_n]}{n}\rightarrow 0 $

Desta forma, basta mostrarmos que $ \mathbb{E}[Y_n]\rightarrow 0 $.

De fato,

$ \mathbb{E}[Y_n]=\mathbb{E}[X_n 1\!\!1_{\{-n\textless X_n\leq n\}}]=\mathbb{E}[X_1 1\!\!1_{\{-n\textless X_1 \leq n\}}]\rightarrow \mathbb{E}[X_1]=0 $

Logo o teorema segue, pois

$ A=\displaystyle\left[\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0\right] $ e $ B=\displaystyle\left[\frac{Y_1+\cdots+Y_n}{n}-\frac{\mathbb{E}[Y_1]+\cdots+\mathbb{E}[Y_n]}{n}\rightarrow 0\right] $.

Portanto $ \displaystyle \frac{X_1+\cdots+X_n}{n}\rightarrow 0 $ quase certamente e no caso mais geral:

$ \displaystyle\frac{X_1+\cdots+X_n}{n}\rightarrow \mu,\quad\text{quase certamente} $

$ \Box $

Teorema 7.1.2.5: (Cantelli)

Seja $ (X_i)_{i\in\mathbb{N}} $ uma sequência de variáveis aleatórias com quarto momento finito, e seja


$$E[|X_n-E[X_n]|^4]\leq C$$

com $ C\in \mathbb{R} $. Então quando $ n\rightarrow \infty  $


$$\frac{S_n-E[S_n]}{n}\stackrel{q.c}{\rightarrow} 0 $$

Demonstração:

Sem perda de generalidade podemos assumir que $ \mathbb{E}[X_n]=0 $, pois caso não seja, redefinirmos $ X_n=X_n-\nathbb{E}[X_n] $. Assim para mostramos que $ \dfrac{S_n}{n}\rightarrow 0 $ quase certamente basta mostramos que


$$\displaystyle \sum^\infty_{n=1} \mathbb{P}\left(\left|\dfrac{S_n}{n}\right|\geq \epsilon\right)\textless \infty,~~~\forall \epsilon \textgreater 0$$

Utilizando a desigualdade de Chebyshev, basta mostrarmos que


$$\displaystyle \sum^\infty_{n=1} \mathbb{E}\left(\left|\dfrac{S_n}{n}\right|^4\right)\textless \infty.$$

Note que $ S_n=(X_1+\cdots X_n)^4  $, logo


$$\mahtbb{E}[S_n^4]=\displaystyle \sum_{i=1}^{n}\mathbb{E}[X_i^4]+\sum_{i,j=1}^{n}\mathbb{E}[X_i^2]E[X_j^2]\leq nC +6 \sum_{\overset{i,j=1}{i\textless j}}\sqrt{\mathbb{E}[X_i^4]\mathbb{E}[X_j^4]}\leq nC +\frac{6n(n-1)}{n}C\textless 3n^2 C$$

Logo


$$\mathbb{E}\left[\left(\frac{S_n}{n}\right)^4\right]\textless 3\frac{C}{n^2}$$

Assim


$$\sum^\infty_{n=1} \mathbb{E}\left[\left(\frac{S_n}{n}\right)^4\right]\textless 3C \sum^\infty_{n=1} \frac{1}{n^2}\textless \infty$$

E portanto, segue o resultado.

$ \Box $

Teorema 7.1.2.6: (Kolmogorov)

Seja $ (X_i)_{i\in \mathbb{N}} $ uma sequência de variáveis aleatórias independentes com segundo momento finito, e seja $ (b_n)_{n\in\mathbb{N}} $ uma sequência de números positivos, tal que $ b_n\uparrow \infty  $ e


$$\displaystyle \sum^\infty_{n=1} \frac{Var[S_n]}{b^2_n}\textless \infty$$

Então


$$\displaystyle \frac{S_n-E[S_n]}{n}\stackrel{q.c}{\rightarrow} 0$$

Demonstração: 

Vamos omitir a demonstração deste resultado, porém ela pode ser encontrada no livro do Shiryaev.

$ \Box $

Para finalizarmos esta seção, vamos apresentar alguns exemplo para fixarmos os conceitos apresentados.

Exemplo 7.1.2.2: 

Seja $ {A_i} $ uma sequência de eventos aleatórios tais que $ \displaystyle \sum_{i=1}^{\infty}\mathbb{P}[A_n]\textless \infty $. Mostremos que $ 1\!\!1_{A_i}\rightarrow 0 $ quase certamente.

Como no exemplo anterior necessitamos considerar apenas o caso de $ 0\textless \varepsilon \leq 1 $.

Sendo assim seja $ B_n=\{\omega| 1\!\!1_{A_n}\geq \varepsilon\}=A_n, $ sabemos que


$$\displaystyle \sum_{i=1}^{\infty}\mathbb{P}[b_n]=\displaystyle \sum_{i=1}^{\infty}\mathbb{P}[A_n]\textless \infty.$$

Pelo lema de Borel-Cantelli temos que $ \mathbb{P}[\limsup_{n\rightarrow \infty} B_n]=0 $ e portanto

$ \mathbb{P}[(\limsup_{n\rightarrow \infty} B_n)^c]=1 $.

Observemos que $ [\limsup_{n\rightarrow \infty} B_n]^c=\liminf_{n\rightarrow \infty} B_n^c $, então

Existe $ \ n_0(\varepsilon,\omega)\in \mathds{N} $ tal que $ 1\!\!1_{A_n}(\omega)\textless \varepsilon; $ para qualquer $ n\geq n_0 $.

Portanto, $ 1\!\!1_{A_i}\rightarrow 0 $ quase certamente.

Exemplo 7.1.2.3: 

Seja $ \{X_i\}_{i\geq 1} $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas, com distribuição exponencial de parâmetro $ 1 $. Mostremos que:

$ \mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}\textgreater 1\right)=1. $

Para mostrarmos isso basta mostrarmos que $ \displaystyle \sum_{i=1}^{\infty}A_i=\infty $. Assim primeiramente vamos definir o evento $ A_i=\{X_i\textgreater \log i\} $ para $ i\geq 1 $. Como cada $ A_i $ são eventos independentes. Portanto

$ \mathbb{P}(A_i)=\mathbb{P}(X_i\textgreater \log i)=e^{-\log{i}}=\displaystyle \frac{1}{i}. $

Desta forma concluímos que:

$ \displaystyle \sum_{i=1}^{\infty}\mathbb{P}(A_i)=\sum_{i=1}^{\infty}\frac{1}{i}=\infty $

consequentemente pelo lema de Borel-Cantelli concluímos que $ \mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}\textgreater 1\right)=1 $ como queríamos demonstrar.

Exemplo 7.1.2.4: 

Podemos generalizar o exemplo 7.1.2.3 proposto acima, da seguinte forma seja $ X_i $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas, com distribuição exponencial de parâmetro $ \lambda $. Mostremos que:

$ \mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}\textgreater \frac{1}{\lambda}\right)=1. $

A demonstração segue da mesma forma, basta definirmos o conjunto $ A_i=\{X_i\textgreater \log i\} $ para $ i\geq 1 $. Assim 

$ \mathbb{P}(A_i)=\mathbb{P}(X_i\textgreater \frac{\log i}{\lambda})=e^{-\lambda\frac{\log{i}}{\lambda}}=\displaystyle \frac{1}{i}. $

E portanto concluímos que

$ \displaystyle \sum_{i=1}^{\infty}\mathbb{P}(A_i)=\sum_{i=1}^{\infty}\frac{1}{i}=\infty $

usando novamente o lema de Borel-Cantelli concluímos que $ \mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}\textgreater \frac{1}{\lambda}\right)=1. $

Exemplo 7.1.2.5: 

Seja $ \{X_i\}_{i\geq 1} $ uma sequência de variáveis aleatória independentes com distribuição Poisson com parâmetro $ \lambda $. Qual é o limite em probabilidade da sequência $ Y_n $, em que $ Y_n=\dfrac{X_1^2+\cdots+X_n^2}{n} $?

Para resolvermos esse exemplo basta utilizarmos o a lei forte de Kolmogorov, que vamos obter um resultado ainda mais forte. Pela lei forte de Kolmogorov temos que $ Y_n\rightarrow \mathbb{E}[X_1^2] $. Como $ X_1 $ segue uma Poisson temos o seguinte:

$ \lambda=\text{Var}[X_1]=\mathbb{E}[X_1^2]-\mathbb{E}^2[X_1]=\mathbb{E}[X_1^2]-\lambda^2 \quad\Rightarrow\quad \mathbb{E}[X_1^2]=\lambda(1+\lambda) $

Assim pela lei forte de Kolmogorov, temos que $ Y_n\rightarrow \lambda(1+\lambda) $ quase certamente, ou seja, $ Y_n $ converge em probabilidade para $ \lambda(1-\lambda) $.

Exemplo 7.1.2.6: (Método Monte Carlo)

Talvez uma das mais importantes aplicações da lei dos grandes números seja no Método Monte Carlo, que é um método computacional para calcular integrais. Assim, seja $ f $  uma função contínua com imagem no intervalo [0,1] e $ X_1,c_1,X_2,c_2 \cdots $ uma sequência de variáveis aleatórias independentes uniformes no [0,1]. Tomamos


$$Y_i=\left\{ \begin{array}{l} 1,~~~\quad \text{se}~ f(X_i)\textgreater c_i \\ 0,~~~ \quad \text{se}~f(X_i)\leq c_i .\end{array} \right.$$

Então 


$$\mathbb{E}[Y_1]=\mathbb{P}(f(X_1)\textgreater c_1)=\displaystyle \int_{0}^{1}f(x)dx$$

Portanto, pela lei forte dos grandes números temos que:


$$\displaystyle \frac{1}{n}\sum_{i=1}^{n}Y_i\rightarrow \int_{0}^{1}f(x)dx , \quad \text{P-quase certamente}$$

Exemplo 7.1.2.7:

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas com $ \mathbb{E}[X_1]=\mu $ e $ \text{Var}[X_1]=\sigma^2, $ com $ 0,\lextless \sigma^2\textless \infty. $ Mostre que


$$\dfrac{\displaystyle\sum^n_{j=1}X_j}{\displaystyle\sqrt{n\sum^n_{j=1}X^2_j}}\xrightarrow{q.c.}\dfrac{\mu}{\sqrt{\mu^2+\sigma^2}}$$

De fato, da 1ª lei de Kolmogorov temos que


$$\sum^n_{j=1}X_j\xrightarrow{q.c.}\mu\quad\text{e}\quad \sum^n_{j=1}\frac{X_j}{n}\xrightarrow{q.c.}\mu$$

Também temos que


$$\sum^n_{j=1}\frac{X^2_j}{n}\xrightarrow{q.c.}\sigma^2+\mu^2$$

Uma observação importante é que se $ X_n\xrightarrow{q.c.}X $ então $ g(X_n)\xrightarrow{q.c.}g(X) $ para g contínua.

Logo, $ X_n\xrightarrow{q.c.}X,~Y_n\xrightarrow{q.c.}Y $ isto implica que $ \dfrac{X_n}{Y_n}\xrightarrow{q.c.}\dfrac{X}{Y} $

Portanto, vale a tese.

 

 

Exemplo 7.1.2.8:
Sejam $ X_1, X_2, \dots $ independentes e identicamente distribuídas, com $ X_1\sim U[0,1] $. Ache o limite quase certo da média geométrica

$$\left(\prod_{k=1}^n X_k\right)^{1/n}$$

Seja $ Y_n=\left(\prod_{k=1}^n X_k\right)^{\frac{1}{n}} $ o que implica que

$$\ln(Y_n)=\frac{\sum_{k=1}^n\ln(X_k)}{n}$$

Chamaremos de $ Z_i=\ln(X_i) $, $ i=1,2,\dots $. Então, $ Z_1,Z_2,\dots $ é uma equivalência de variáveis aleatórias independentes e identicamente distribuídas, pois $ Z_i $ depende apenas de $ X_i $ que são independentes e identicamente distribuídas. Além disso, temos que

$$\mathbb{P}(Z_1\leq z)=\mathbb{P}(\ln(X_i)\leq z)=\mathbb{P}(X_1\leq e^z)=\left\{\begin{array}{l}e^{z},\quad z\textless 0,\\ 0,\quad\text{Caso}\quad\text{Contrário}.\end{array}\right.$$

Então,

$$\mathbb{E}(Z_1)=\int_{-\infty}^0 z^2e^{z}dz$$

fazendo uma mudança de variável temos que $ t=-z $. Então, temos

$$\int_{-\infty}^0 z^2e^{z}dz=-\int_0^\infty t^2e^{-t}dt=-1$$

Então, aplicando a lei forte de Kolmogorov para $ Z_1,Z_2,\dots $ temos que

$$\frac{Z_1+Z_2+\dots+Z_n}{n}\stackrel{q.c.}{\longrightarrow}\mathbb{E}(Z_1)=-1$$

Então,

$$\ln(Y_n)\stackrel{q.c.}{\longrightarrow}-1$$

o que implica que

\ln(Y_n(\omega))\rightarrow -1)=1.$$

Agora, como $ f(u)=e^{u} $ é uma função contínua, então se

$$\ln(Y_n(\omega))\rightarrow -1$$

o que implica que

$$e^{\ln(Y_n(\omega))}\rightarrow e^{-1}$$

o que implica que

$$Y_n(\omega)\rightarrow e^{-1}$$

Assim, se

 Y_n(\omega)\rightarrow e^{-1}]$$

então

\ln(Y_n(\omega))\rightarrow -1)=1$$

o que implica que $ Y_n\stackrel{q.c.}{\longrightarrow}e^{-1} $.

Exemplo 7.1.2.9:
Demonstre: se $ X_1,X_2,\dots $ são independentes e identicamente distribuídas, com $ \mathbb{E}(X_1)=1=Var(X_1) $, então

$$\displaystyle \frac{\displaystyle \sum_{i=1}^n X_i}{\displaystyle \sqrt{n\sum_{i=1}^n X_i^2}}\rightarrow \frac{1}{\sqrt{2}},\text{quase}\quad\text{certamente}.$$

Como $ X_1,X_2,\dots $ é uma sequência de variáveis aleatórias integráveis, aplicando a lei forte de Kolmogorov, temos que

$$\frac{\sum_{i=1}^n X_i}{n}\stackrel{q.c.}{\rightarrow} \mathbb{E}(X_1)=1$$

isto, se e somente se,

 \frac{\sum_{i=1}^n X_i(\omega)}{n}\rightarrow 1\right)=1$$

Agora, seja $ Y_i=X_i^2 $, $ i=1,2,\dots $, então $ Y_1,Y_2,\dots $ e sequência de variáveis aleatórias independentes pois $ Y_i $ depende apenas de $ X_i $. Além disso, são integráveis pois $ \mathbb{E}(Y_1)=\mathbb{E}(X_1^2)=Var(X_1)+\left(\mathbb{E}(X_1)\right)^2=1+1=2 $. Então, aplicando a lei forte de Kolmogorov e esta sequência,

$$\frac{\sum_{i=1}^n Y_i}{n}=\frac{\sum_{i=1}^n X_i^2}{n}\rightarrow 2$$

mas isso, se, e somente se,

 \frac{\sum_{i=1}^nX_1^2}{n}\rightarrow 2\right)=1$$

Agora, definindo  \frac{\sum_{i=1}^nX_1}{n}\rightarrow 1\right\} $ e  \frac{\sum_{i=1}^nX_1^2}{n}\rightarrow 2\right\} $.
Então, como

$$\mathbb{P}(A)=\mathbb{P}(B)=1$$

então

$$\mathbb{P}(A\cap B)=1$$

o que implica que

 \frac{\sum_{i=1}^nX_1(\omega)}{n}\rightarrow 1, \frac{\sum_{i=1}^nX_1^2(\omega)}{n}\rightarrow 2\right)=1$$

Agora se $ \omega $ é tal que

$$\frac{\sum_{i=1}^nX_1}{n}\rightarrow 1\quad\quad e \quad\quad \frac{\sum_{i=1}^nX_1^2}{n}\rightarrow 2$$

Assim, como $ f(t)=\sqrt{t} $ é uma função contínua então, temos que

$$\frac{\sum_{i=1}^nX_1}{n}\rightarrow 1\quad\quad e \quad\quad \sqrt{\frac{\sum_{i=1}^nX_1^2}{n}}\rightarrow \sqrt{2}$$

Agora, observe que se $ \lim_{n\rightarrow \infty}a_n\neq 0 $  e $ \lim_{n\rightarrow \infty}b_n\neq 0 $  então $ \lim_{n\rightarrow \infty}\frac{a_n}{b_n}\neq \frac{a}{b} $ e portanto,

$$\frac{\frac{\sum_{i=1}^nX_1}{n}}{\sqrt{\frac{\sum_{i=1}^nX_1^2}{n}}}\rightarrow \frac{1}{\sqrt{2}}$$

Então, definindo =\left\{\frac{\frac{\sum_{i=1}^nX_1}{n}}{\sqrt{\frac{\sum_{i=1}^nX_1^2}{n}}}\rightarrow \frac{1}{\sqrt{2}}\right\} $
desta forma, temos que $ \omega\in (A\cap B)\Rightarrow \omega \in C $. Assim,

$$\mathbb{P}(C)\geq \mathbb{P}(A\cap B)=1$$

o que implica que

$$\frac{\frac{\sum_{i=1}^nX_1}{n}}{\sqrt{\frac{\sum_{i=1}^nX_1^2}{n}}}\stackrel{q.c}{\longrightarrow}\frac{\sqrt{2}}{2}$$


 

 

Exemplo 7.1.2.10:
Seja $ 0\textless \theta \textless 1/2 $. Prove que se $ X_1,X_2, \dots $ são independentes tais que $ \mathbb{P}(X_n=n^\theta)=\frac{1}{2}=\mathbb{P}(X_n=-n^\theta) $, então

$$\frac{X_1+\dots+X_n}{n}\rightarrow 0$$

quase certamente.

Temos que $ \mathbb{E}(X_n)=0 $ pois é uma variável aleatória limitada e simétrica e

$$Var(X_n)=\mathbb{E}(X_n^2)=2\frac{1}{2}n^{2\theta}=n^{2\theta}$$

e portanto,

$$\displaystyle \sum_{n=0}^\infty \frac{Var(X_n)}{n^2}=\sum_{n=0}^\infty n^{2(\theta-1)}\textless \infty,$$

pois $ 0\textless \theta\textless \frac{1}{2} $. Agora, utilizando a primeira Lei Forte de Kolmogorov, que diz que se $ X_1,X_2,\dots $ é uma sequência de variáveis aleatórias independentes e

$$\sum_{n=1}^\infty \frac{Var(X_n)}{n^2}\textless \infty$$

então

$$\frac{X_1+\dots+X_n}{n}\stackrel{q.c.}{\longrightarrow} \frac{\mathbb{E}(X_1+\dots+X_n)}{n}=0$$


 

Exemplo 7.1.2.11:
Sejam $ X_1,X_2,\dots $ variáveis aleatórias independentes com densidade comum

$$f(x)=\left\{\begin{array}{l}e^{-(x+1/2)},\quad x\geq 1/2\\ 0,\quad x\textless 1/2.\end{array}\right.$$

Demonstre que $ S_n\rightarrow \infty $ quase certamente, no qual $ S_n=X_1+\dots+X_n. $

Temos que

$$\mathbb{E}(X_1)=\int_{-1/2}^\infty xe^{-x+1/2}dx$$

fazendo uma mudança de variáveis, temos que $ y=x+\frac{1}{2} $, $ dy=dx $ e $ x=y-\frac{1}{2} $ e temos que

$$\int_0^\infty y(e^{-y})dy-\frac{1}{2}\int_0^\infty e^{-y}dy=1-\frac{1}{2}=\frac{1}{2}$$

Então, como $ X_1,X_2,\dots $ variáveis aleatórias e integráveis pela lei forte de Kolmogorov

$$\frac{X_1+X_2+\dots+X_n}{n}\stackrel{q.c.}{\rightarrow} \frac{1}{2}$$

se, e somente se,

 \frac{X_1(\omega)+X_2(\omega)+\dots+X_n(\omega)}{n}\rightarrow \frac{1}{2}\right)=1$$

Agora, seja o evento

\frac{X_1(\omega)+X_2(\omega)+\dots+X_n(\omega)}{n}\rightarrow \frac{1}{2}\right\}$$

Então, se $ \omega \in A $ então

$$\frac{X_1(\omega)+X_2(\omega)+\dots+X_n(\omega)}{n}\rightarrow \frac{1}{2}$$

o que implica que

$$X_1(\omega)+X_2(\omega)+\dots+X_n(\omega)\rightarrow \infty.$$

Assim, definindo

 X_1(\omega)+X_2(\omega)+\dots+X_n(\omega)\rightarrow \infty\right\}$$

Temos $ \omega \in B $, ou seja, $ A\subset B $ o que implica

$$\mathbb{P}(B)\geq \mathbb{P}(A)=1$$

o que implica que $ S_n\rightarrow \infty. $ E o resultado segue.


 

 

Exemplo 7.1.2.12:
Sejam $ X_1,X_2,\dots $ independentes e identicamente distribuídas com média $ \mu_1 $ e variância $ \sigma^2_1 $ e sejam $ Y_1,Y_2,\dots $ independentes e identicamente distribuídas com média $ \mu_2 $ e variáveis aleatórias $ Z_1,Z_2,\dots $ da seguinte maneira: joga-se uma moeda honesta e define-se $ Z_1=X_1 $ se dá cara e $ Z_1=Y_1 $ se dá coroa. Depois joga-se de novo, definindo-se $ Z_2=X_2 $ se dá cara e $ Z_2=Y_2 $ se dá coroa. Depois joga-se de novo, definindo-se $ Z_2=X_2 $ se dá cara e $ Z_2=Y_2 $ se dá coroa, etc. (ad infinitum). Suponha que todas as $ X's $  e $ Y's $ são independentes e que os lançamentos da moeda não dependem das $ X's $ e $ Y's $. Explique se a sequência $ Z_1,Z_2,\dots $ obedece a Lei Forte dos Grandes Números. Se obedece, qual o limite de

$$\bar{Z}_n=\frac{Z_1+\dots+Z_n}{n}$$

Seja $ M_i $ variáveis aleatórias que representa o resultado da moeda no i-ésimo ensaio. Então definimos $ M_i(\omega)=1 $ se $ \omega= $cara e $ M_i(\omega)=0 $ o que implica $ \omega= $coroa. Como a moeda é honesta temos que

$$\mathbb{P}(M_i=1)=\mathbb{P}(M_i=0)=\frac{1}{2}.$$

Além disto, $ X_1,X_2,\dots, Y_1,Y_2,\dots, M_1,M_2,\dots $ são variáveis aleatórias independentes pois $ Z_i $ só depende de $ X_i,Y_i $ e $ M_i $ o que implica que $ Z_1,Z_2,\dots $ são variáveis independentes. Agora

$$\mathbb{P}(Z_i\leq z)=\mathbb{P}(Z_i\leq z,[M_i=1]\cup[M_i=0])$$

$$=\mathbb{P}(Z_i\leq z,[M_i=1])+\mathbb{P}(Z_i\leq z,[M_i=0])=\mathbb{P}(M_i=1)\mathbb{P}(Z_i\leq z|M_i=1)+\mathbb{P}(M_i=0)\mathbb{P}(Z_i\leq z|M_i=0)$$

$$=\frac{1}{2}\mathbb{P}(X_i\leq z)+\frac{1}{2}\mathbb{P}(Y_i\leq z)=\frac{1}{2}\left[F_{X_1}(z)+F_{Y_1}(z)\right]$$

Então $ Z_1,Z_2,\dots $ são variáveis aleatória identicamente distribuídas e

$$\mathbb{E}(Z_1)=\int_{-\infty}^\infty z dF_Z(z)=\frac{1}{2}\int_{-\infty}^\infty z dF_{X_1}(z)+\frac{1}{2}\int_{-\infty}^\infty zdF_{Y_1}(z)=\frac{1}{2}\left(\mu_1+\mu_2\right)$$

e $ Z_1,Z_2,\dots $ são variáveis integráveis. Assim, pela lei forte de Kolmogorov é aplicável e resulta em

$$\frac{Z_1+Z_2+\dots+Z_n}{n}\stackrel{q.c.}{\rightarrow} \frac{1}{2}\left(\mu_1+\mu_2\right)$$

e o resultado segue.


 

Exemplo 7.1.2.13:
Sejam $ X_1,X_2,\dots $ variáveis aleatórias independentes tais que $ X_k\sim b(n_k,p) $, no qual $ 0\textless p\textless 1 $.

(a) Qual a distribuição de $ S_n=\sum_{k=1}^n X_k? $

Vejamos, primeiro $ S_2=X_1+X_2 $ então para $ 0\leq n\leq n_1+n_2 $.

$$\mathbb{P}(S_2=n)=\sum_{k=1}^n\mathbb{P}(X_1=k,X_2=n-k)=\sum_{k=1}^n\mathbb{P}(X_1=k)\mathbb{P}(X_2=n-k)$$

$$=\sum_{k=1}^n\binom{n_1}{k}p^k(1-p)^{n_1-k}\binom{n_2}{n-k}p^{n-k}(1-p)^{n_2-n-k}$$

$$=p^n(1-p)^{(n_1+n_2)-k}\sum_{k=1}^n\binom{n_1}{k}\binom{n_2}{n-k}=\binom{n_1+n_2}{n}p^n(1-p)^{(n_1+n_2)-k}$$

Vamos precisar de alguns fatos importantes. Se $ X_1\sim b(n_1,p) $ e independente de $ X_2\sim b(n_2,p) $, então $ X_1+X_2\sim b(n_1+n_2,p) $. Então, se $ S_3=(X_1+X_2)+X_3 $ no qual $ (X_1+X_2) $ é independente de $ X_3 $, então temos que $ (X_1+X_2)+X_3\sim b(n_1+n_2+n_3,p) $. Por indução, temos que

$$S_n\sim b\left(\sum_{k=^1}^n n_k,p\right).$$

(b) Se $ n_k\leq \sqrt{k} $, mostre que a sequência satisfaz a Lei Forte.

Agora $ Var(X_k)=n_kp(1-p) $ então supondo $ n_k\leq \sqrt{k} $

$$\sum_{k=1}^\infty \frac{Var(X_k)}{k^2}=\sum_{k=1}^\infty \frac{n_k(1-p)p}{k^2}\leq \sum_{k=1}^\infty \frac{\sqrt{k}p(1-p)}{k^2}$$

$$=p(1-p)\sum_{k=1}^\infty \frac{1}{k^{3/2}}\textless \infty$$

Então, aplicando a primeira lei forte de Kolmogorov, temos que

$$\frac{S_n-\mathbb{E}(S_n)}{n}\stackrel{q.c}{\rightarrow}0$$

e o resultado segue


 

 

Exemplo 7.1.2.14:
Uma massa radioativa emite partículas segundo um processo de Poisson com parâmetro $ \lambda \textgreater 0 $. Sejam $ T_1,T_2,\dots $ os tempos transcorridos entre emissões sucessivas. Ache o

$$\lim_{n\rightarrow \infty}\frac{T_1^2+\dots+T_n^2}{n}$$

É limite quase certo ou em probabilidade ?

Sabemos que em um processo de Poisson $ T_1,T_2,\dots $ é sequência variáveis aleatórias independentes e identicamente distribuídas, com $ T_1\sim Exp(\lambda) $. Então, pela propriedade da hereditariedade da independência, $ T_1^2,T_2^2,\dots $ é uma sequência de variáveis aleatórias independentes e também identicamente distribuídas e

$$\mathbb{E}(T_1^2)=\int_0^\infty t^2\lambda e^{-\lambda t}dt= Var(T_1)+\left[\mathbb{E}(T_1)\right]^2=\frac{1}{\lambda^2}+\frac{1}{\lambda^2}=\frac{1}{\lambda^2}$$

Então, $ T_1^2,T_2^2,\dots $ é uma sequência variáveis aleatória independentes identicamente distribuídas e integráveis. Aplicando a Lei forte de Kolmogorov

$$\frac{T_1^2+T_2^2+\dots+T_n^2}{n}\rightarrow \mathbb{E}(T_1^2)=\frac{2}{\lambda^2}$$

E o resultado segue.


 

 

Exemplo 7.1.2.15:
Sejam $ X_1,X_2,\dots $ independentes com distribuição comum $ N(0,1) $. Qual o limite quase certo de

$$\frac{X_1^2+\dots+X^2_n}{(X_1-1)^2+\dots+(X_n-1)^2}?$$

Primeiramente temos pela Lei Forte de Kolmogorov que $ X_1^2,X_2^2,\dots $ é uma sequência de variáveis aleatórias independentes (propriedade hereditária) e identicamente distribuídas e integráveis ($ \mathbb{E}(X_i^2)=Var(X_i)=1,\quad i=1,2,\dots $)

$$\frac{X_1^2+\dots X_n^2}{n}\stackrel{q.c.}{\rightarrow} 1$$

o que implica que

\frac{X_1^2(\omega)+\dots+X_n^2(\omega)}{n}\rightarrow 1\right\}=1$$

Seja,

 \frac{X_1^2+\dots+X_n^2}{n}\rightarrow 1\right\}$$

então $ \mathbb{P}(A)=1 $. Então, defina a sequência

$$(X_1-1)^2,\dots (X_n-1)^2$$

de variáveis aleatórias independentes e identicamente distribuídas e integráveis, pois

$$\mathbb{E}(X_1-1)^2=\mathbb{E}(X_1^2-2X_1+1)=\mathbb{E}(X_1^2)+1=1+1=2$$

Assim sendo, defina

 \frac{(X_1-1)^2(\omega)+\dots+(X_n-1)^2(\omega)}{n}\rightarrow 2\right\}$$

temos pela lei forte de Kolmogorov, temos

$$\frac{(X_1-1)^2+\dots+(X_n-1)^2}{n}\rightarrow 2$$

o que implica que $ \mathbb{P}(B)=1 $. Agora se $ \omega \in (A\cap B) $. Então, $ \omega \in A $ o que implica que

$$\frac{X_1^2(\omega)+\dots+X_n^2(\omega)}{n}\rightarrow 1$$

e $ \omega \in B $ temos

$$\frac{(X_1-1)^2(\omega)+\dots+(X_n-1)^2(\omega)}{n}\rightarrow 2$$

Desta forma, $ \omega \in A\cap B $

$$\frac{X_1^2(\omega)+\dots+X_n^2(\omega)}{(X_1-1)^2(\omega)+\dots+(X_n-1)^2(\omega)}\rightarrow \frac{1}{2}$$

Sendo,

\frac{X_1^2(\omega)+\dots+X_n^2(\omega)}{(X_1-1)^2(\omega)+\dots+(X_n-1)^2(\omega)}\textgreater \frac{1}{2}\right\}.$$

Temos $ (A\cap B)\subset C $ e então

$$\mathbb{P}(C)\geq \mathbb{P}(A\cap B)=1$$

pois $ \mathbb{P}(A)=1 $ e $ \mathbb{P}(B)=1 $ então $ \mathbb{P}(C)=1 $ o que implica que

$$\frac{X_1^2+\dots+X_n^2}{(X_1-1)^2+\dots+(X_n-1)^2}\rightarrow\frac{1}{2}$$

portanto o resultado segue.


 

Exemplo 7.1.2.16:
Sejam $ X_1,X_2,\dots $ variáveis aleatórias independentes tais que $ X_n\sim U[0,n], \quad n=1,2,\dots $. Chame o n-ésimo ensaio de sucesso se $ X_{2n}\textgreater X_{2n-1} $, fracasso se $ X_{2n}\leq X_{2n-1} $, para $ n=1,2,\dots $. Determine a probabilidade de haver sucesso no n-ésimo ensaio e ache o limite(se existir) de $ S_n/n $, no qual $ S_n= $número de sucessos nos primeiros n ensaios. Esse limite e o limite em probabilidade e/ou quase certo?

Defina

$$Y_n=\left\{\begin{array}{l}1,\quad X_{2n}\leq X_{2n-1}\\ 0,\quad X_{2n}\textgreater X_{2n-1}\end{array}\right.$$

e $ B_n=[X_{2n},X_{2n-1}] $
Teremos que

$$p_n=\mathbb{P}(Y_n=1)=\mathbb{P}(X_{2n}\leq X_{2n-1})=\int_{B_n}f_{X_{2n},X_{2n-1}}(x_{2n},x_{2n-1})dx_{2n}dx_{2n-1}.$$

Agora, como $ X_{2n} $ é independente de $ X_{2n-1} $, o que implica que

$$f_{X_{2n},X_{2n-1}}(x_{2n},x_{2n-1})=f_{X_{2n}}(x_{2n})f_{X_{2n-1}}(x_{2n-1})=\left\{\frac{1}{2n(2n-1)},(X_{2n},X_{2n-1})\in[0,2n]\times[0,2n-1]\\ 0,\quad\text{Caso}\quad\text{Contrário}\right.$$

então

$$p_n=\frac{1}{2n(2n-1)}Vol(B\cap A)=\frac{(2n-1)^2}{4n(2n-1)}=\frac{2n-1}{4n}=\frac{1}{2}-\frac{1}{4n}$$

Assim, a sequência $ Y_1,Y_2,\dots $ é variável aleatória independente, com

$$\left\{\mathbb{P}(Y_n=1)=\frac{1}{2}-\frac{1}{4n}\\ \mathbb{P}(Y_n=0)=\frac{1}{2}+\frac{1}{4n}\right.$$

Então

$$\mathbb{E}(Y_n)=p_n=\frac{1}{2}-\frac{1}{4n}$$

e

$$Var(Y_n)=p_n(1-p_n)=\frac{1}{4}-\frac{1}{16n^2}.$$

Assim,

$$\sum_{n=1}^\infty \frac{Var(Y_n)}{n^2}=\sum_{n=1}^\infty \frac{1}{4n^2}-\sum_{n=1}^\infty \frac{16}{n^4}\textless \infty$$

Usando a primeira lei forte de Kolmogorov, temos

$$\frac{S_n}{n}=\frac{Y_1+\dots+Y_n}{n}\rightarrow \frac{\mathbb{E}(S_n)}{n}$$

com

$$\frac{\mathbb{E}(S_n)}{n}=\frac{\frac{1}{2}-n-\sum_{k=1}^n \frac{1}{4k}}{n}=\frac{1}{2}-\frac{1}{4n}\sum_{k=1}^n\frac{1}{4k}$$

Desta forma, definindo

 \frac{S_n}{n}\rightarrow \frac{1}{2}-\frac{1}{4n}\sum_{k=1}^n\frac{1}{k}\}$$

temos que $ \mathbb{P}(A)=1 $. Agora

$$\lim_{n\rightarrow \infty}\left(\frac{1}{2}-\frac{1}{4n}\sum_{k=1}^n\frac{1}{k}\right)=a$$

então seja  \frac{S_n}{n}\rightarrow a\right\} $, então $ \omega\in A $ o que implica que $ \omega \in B $ o que implica $ A\subset B $ o que implica que $ \mathbb{P}(B)\geq \mathbb{P}(A)=1 $ o que implica que

$$\frac{S_n}{n}\stackrel{q.c.}{\longrightarrow} a.$$


 

Exemplo 7.1.2.17:
A lei forte para variáveis aleatórias independentes, identicamente distribuídas e integráveis pode ser estendida ao acaso de esperanças infinitas, se admitirmos limites infinitos. Em particular, se $ X_1,X_2,\dots $ são independentes e identicamente distribuídas tais que $ \mathbb{E}(X_n)=\infty $, então

$$S_n/n\rightarrow \infty$$

quase certamente. Prove esse resultado em 3 etapas:
(a) Para $ m $ inteiro positivo fixo, seja $ Y_n $ o truncamento de $ X_n $ em $ m $

$$Y_n=\left\{\begin{array}{l}X_n,\quad se\quad X_n\leq m\\ 0\quad se\quad X_n\textgreater m.\end{array}\right.$$

Então $ \frac{Y_1+\dots+Y_n}{n}\rightarrow \mathbb{E}(Y_1) $ quase certamente, no qual

$$\mathbb{E}(Y_1)=\int_{-\infty}^m x dF_{X_1}(x)$$

Observe que temos que

$$F_{Y_n}(y)=\mathbb{P}(Y_n\leq y)=\left\{\begin{array}{l}F_{X_n}(y),\quad se\quad y\leq m\\ 1,\quad y\geq m.\end{array}\right.$$

Mas

$$\mathbb{E}(X_1)=\int_{0}^\infty (1-F_{X_1}(x))dx-\int_{-\infty}^0 F_{X_1}(x)dx$$

Agora como $ \mathbb{E}(X_1)=\infty $ isto implica que

$$\int_{-\infty}^0 F_{X_1}(x)dx\textless \infty.$$

Assim

$$\mathbb{E}(Y_1)=\int_{0}^\infty (1-F_{Y_1}(y))dy-\int_{-\infty}^0 F_{Y_1}(y)dy=\int_0^m(1-F_{X_1}(y))dy-\int_{-\infty}^0 F_{X_1}(y)dy$$

como

$$\int_{-\infty}^0 F_{X_1}(y)dy\textless \infty$$

então

$$0\leq \int_0^m(1-F_{X_1}(y))dy\leq \int_0^m dy=m\textless \infty $$

Portanto, $ \mathbb{E}(Y_1)\textless \infty $. Então, utilizando a Lei forte de Kolmogorov

$$\frac{Y_1+\dots+Y_n}{n}\rightarrow \mathbb{E}(Y_1)$$

mas isso se, e somente se,

 \frac{Y_1+\dots+Y_n}{n}\rightarrow \mathbb{E}(Y_1)\right\}=1$$

com

=\int_{-\infty}^m F_{X_1}(y)dy$$

(b)

$$\liminf_{n\rightarrow \infty}\frac{S_n}{n}\geq \int_{-\infty}^m xdF_{X_1}$$

quase certamente


\frac{X_1(\omega)+\dots+X_n(\omega)}{n}\geq \frac{Y_1(\omega)+\dots+Y_n(\omega)}{n}\right\}=\Omega$$

e

$$A=\left\{\omega \frac{Y_1(\omega)+\dots+Y_n(\omega)}{n}\rightarrow \mathbb{E}(Y_1)\right\}$$

Se $ \omega \in A\cap B $, $ \omega \in B_m $ o que implica que

$$\frac{X_1(\omega)+\dots+X_n(\omega)}{n}\geq \frac{Y_1(\omega)+\dots+Y_n(\omega)}{n}$$

se $ \omega \in A $ isto implica que

$$\lim_{n\rightarrow \infty}\frac{Y_1(\omega)+\dots+Y_n(\omega)}{n}=\mathbb{E}(Y_1)$$

Logo se $ \omega\in A\cap B $, isto implica que

$$\liminf_{n\rightarrow \infty}\frac{X_1(\omega)+\dots+X_n(\omega)}{n}\geq \mathbb{E}(Y_1)$$

Definindo  \liminf_{n\rightarrow \infty}\frac{S_n(\omega)}{n}\geq \mathbb{E}(Y_1)\right\} $, temos então que $ C_m\supset A\cap B $. O que implica que

$$\mathbb{P}(C_m)\textgreater \mathbb{P}(A\cap B)=1$$

pois $ \mathbb{P}(A)=\mathbb{P}(B)=1 $. Assim,

$$\liminf_{n\rightarrow \infty}\frac{S_n}{n}\geq \mathbb{E}(Y_1)=\int_{-\infty}^m xdF_{X_1}(x).$$

(c) $ \frac{S_n}{n}\rightarrow \infty $ quase certamente.

Agora, se dado qualquer $ M\textgreater 0 $, temos que existe $ n_0 $ tal que $ n\textgreater n_0 $ o que implica que

$$\frac{S_n}{n}\textgreater M$$

Então, $ \frac{S_n}{n}\rightarrow \infty $. Como $ \mathbb{E}(Y_1(m))\rightarrow \mathbb{E}(X_1)=\infty $, então dado $ M\textgreater 0 $ existe $ m_0 $ tal que $ m\textgreater m_0 $ o que implica que

$$\mathbb{E}(Y_1(m))\textgreater M$$

Então se $ \omega \in C_m $, para $ m\textgreater m_0 $, isto implica que

$$\liminf_{n\rightarrow \infty}\frac{S_n(\omega)}{n}\geq \mathbb{E}(Y_1(m))\textgreater M\Rightarrow \frac{S_n(\omega)}{n}\rightarrow \infty.$$

Sendo  \frac{S_n(\omega)}{n}\rightarrow \infty\right\} $
se $ \omega \in C_m\Rightarrow \omega \in D $
o que implica que

$$\mathbb{P}(D)\geq \mathbb{P}(C_m)=1$$

o que implica

$$\frac{S_n}{n}\stackrel{q.c.}{\longrightarrow} \infty$$


 

 

Exemplo 7.1.2.18:
Sejam $ X_1,X_2,\dots $ variáveis aleatórias independentes, identicamente distribuídas e integráveis. Determine

$$\lim_{n\rightarrow \infty}\mathbb{E}(X_1|X_1+X_2+\dots+X_n)$$

Qual o tipo de convergência?

Como $ X_1,X_2,\dots $ variáveis aleatórias independentes, identicamente distribuídas e integráveis

$$\mathbb{E}\left(X_1|X_1+\dots+X_n\right)=\mathbb{E}\left(X_2|X_1+\dots+X_n\right)=\dots=\mathbb{E}\left(X_n|X_1+\dots+X_n\right)$$

o que implica que

$$\mathbb{E}\left(X_1+\dots+X_n|X_1+\dots+X_n\right)=n\mathbb{E}\left(X_1|X_1+\dots+X_n\right)$$

o que implica que

$$\mathbb{E}\left(X_1+\dots+X_n|X_1+\dots+X_n\right)=n\mathbb{E}\left(X_1|X_1+\dots+X_n\right)$$

o que nos leva a

$$X_1+\dots+X_n=n\mathbb{E}\left(X_1|X_1+\dots+X_n\right)\Rightarrow \mathbb{E}\left(X_1|X_1+\dots+X_n\right)=\frac{X_1+\dots+X_n}{n}$$

Agora, pela lei forte de Kolmogorov, temos

$$\mathbb{E}\left(X_1|X_1+\dots+X_n\right)=\frac{X_1+\dots+X_n}{n}\stackrel{q.c}{\longrightarrow} \mathbb{E}(X_1)$$

 

Exemplo 7.1.2.19:
Seja $ (X_n)_{n\geq 1} $ uma sequência de variáveis aleatórias, cada qual tomando valores $ 0 $ ou 1. Suponha $ \mathbb{P}(X_1=1)=1/2 $ e $ \mathbb{P}(X_{n}=X_{n-1}|X_1=x_1,\dots,X_{n-1}=x_{n-1})=1-\alpha_{n-1} $ para todo $ (x_1,\dots,x_n),n=1,2,\dots $. Faça-se $ Y_n=\frac{1}{n}\sum_{i=1}^n X_i $. Discuta se $ Y_n\rightarrow \frac{1}{2} $ em probabilidade ou quase certamente quando
(a)$ \alpha_n=1/2, \forall n $

Agora

$$\mathbb{P}(X_1=x_1,X_2=x_2,\dots,X_n=x_n)=\mathbb{P}(X_1=x_1,X_2=x_2,\dots,X_{n-1}=x_{n-1})\mathbb{P}(X_n=x_n|X_1=x_1,X_2=x_2,\dots,X_{n-1}=x_{n-1})$$

Como

$$\mathbb{P}(X_n=X_{n-1}|X_1=x_1,X_2=x_2,\dots,X_{n-1}=x_{n-1})=\frac{1}{2}=\mathbb{P}(X_n\neq X_{n-1}|X_1=x_1,X_2=x_2,\dots,X_{n-1}=x_{n-1})$$

Temos por indução

$$\mathbb{P}(|X_1=x_1,X_2=x_2,\dots,X_{n}=x_{n})=\left(\frac{1}{2}\right)^{n}=\mathbb{P}(X_1=X_{1})\dots\mathbb{P}(X_{n}=x_{n})$$

para todo $ x_1,x_2,\dots, x_n $, então para todo n $ \{X_1,X_2,\dots,X_n\} $ são variáveis aleatórias independentes o que implica que a sequência de variáveis aleatórias independentes e identicamente distribuída e integráveis $ \left(\mathbb{E}(X_1)=\frac{1}{2}\right) $. Assim, pela lei forte de Kolmogorov temos que

$$Y_n=\frac{1}{n}(X_1+\dots+X_n)\stackrel{q.c}{\longrightarrow}\frac{1}{2}.$$

(b)$ \sum \alpha_n $ converge

Se $ \sum \alpha_n $ converge, isto implica que para todo $ \epsilon \textgreater 0 $ existe $ n_0 $ tal que $ n\textgreater n_0 $ o que implica que

$$\sum_{k=n}^\infty \alpha_n\textless \epsilon$$

Seja =[X_{n+1}\neq X_n] $ e

$$\mathbb{P}(A_n)=\mathbb{P}(X_{n+1}\neq X_n)=1-\mathbb{P}(X_{n+1}=X_n)$$

Agora

$$\mathbb{P}(X_{n+1}=X_n)=\sum_{(x_1,\dots,x_n)}\mathbb{P}(X_{n+1}=x_n|X_1=x_1,\dots,X_n=x_n)\mathbb{P}(X_1=x_1,\dots,X_n=x_n)$$

$$=(1-\alpha_n)\sum_{(x_1,\dots,x_n)}\mathbb{P}(X_1=x_1,\dots,X_n=x_n)=1-\alpha_n$$

Assim, $ \mathbb{P}(\alpha_n) $, o que implica que

$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \alpha \textless \infty $$

o que implica pelo lema de Borel-Cantelli

$$\mathbb{P}(A_n,\quad i.o)=0$$

então

$$\mathbb{P}(X_{n+1}=x_n,\quad i.o)=0$$

o que implica que

$$\mathbb{P}(X_{n+1}=x_n,\quad n \text{suficientemente}\quad \text{grande}\quad (n\textgreater n_0))=1$$

o que implica que

 X_n(\omega)\rightarrow X_{n_0}(\omega))=1$$

o que implica que

X_n(\omega)\rightarrow 1 \quad ou\quad X_n(\omega)\rightarrow 0)=1.$$

Seja X_n(\omega)\rightarrow 1 \quad ou\quad X_n(\omega)\rightarrow 0\} $, então se $ \omega \in A $, o que implica que

$$\frac{S_n(\omega)}{n}=\frac{X_1(\omega)+\dots+X_n(\omega)}{n}$$

converge para 0 ou 1, então definindo

 \frac{S_n(\omega)}{n}\rightarrow 0 \quad ou \quad \frac{S_n}{n}\rightarrow 1\right\}$$

e

$$C=\left\{\omega \frac{S_n(\omega)}{n}\rightarrow \frac{1}{2}\right\}$$

Temos que $ \omega\in A $ implica que $ \omega \in B $ o que implica que

$$\mathbb{P}(B)\geq \mathbb{P}(A)=1\Rightarrow \mathbb{P}(B)=1$$

e $ \omega \in C $ o que implica que $ \omega \notin B \Rightarrow (B\cap C)=\emptyset $ o que implica que

$$\mathbb{P}(C)\leq 1-\mathbb{P}(B)=1-1=0$$

o que implica que

$$\mathbb{P}(C)=\mathbb{P}\left(\frac{S_n}{n}\rightarrow \frac{1}{2}\right)=0$$

o que implica que

$$\frac{S_n}{n}\stackrel{q.c.}{\longrightarrow}\frac{1}{2}.$$

Agora, provaremos também que

$$\frac{S_n}{n}\stackrel{\mathbb{P}}{\nrightarrow}\frac{1}{2}$$

como um contra-exemplo seja $ 0=\alpha_1=\dots=\alpha_n=\dots $ então $ \sum_{i=1}^\infty \alpha_i=0\textless \infty $ e então

$$\frac{S_n}{n}=\left\{\begin{array}{l}0 , \quad se\quad X_1=0\\ 1,\quad se\quad X_1=1\end{array}\right.$$

o que implica que

$$\mathbb{P}\left(\frac{S_n}{n}=0\right)=\mathbb{P}(X_1=0)=\frac{1}{2}$$

e

$$\mathbb{P}\left(\frac{S_n}{n}=1\right)=\mathbb{P}(X_1=1)=\frac{1}{2}$$

Agora, seja $ 0\textless \epsilon \textless \frac{1}{2} $, então

$$\mathbb{P}\left(\bigg|\frac{S_n}{n}-\frac{1}{2}\bigg|\geq \epsilon\right)=1$$

pois se $ \frac{S_n}{n}=0 $ o que implica que

$$\bigg|\frac{S_n}{n}-\frac{1}{2}\bigg|=\frac{1}{2}$$

ou $ \frac{S_n}{n}=1 $ o que implica que

$$\bigg|\frac{S_n}{n}-\frac{1}{2}\bigg|=\frac{1}{2}$$

Assim,

$$\lim_{n\rightarrow \infty }\mathbb{P}\left(\bigg|\frac{S_n}{n}-\frac{1}{2}\bigg|\geq \epsilon\right)=1\neq 0$$

o que implica que

$$\frac{1}{2}\nrightarrow \frac{1}{2}$$

 

Exemplo 7.1.2.20:
Sejam $ X_1,X_2,\dots $ independentes tais que $ \mathbb{E}(X_n)=0, \forall n $. Demonstre que se

$$\sum_{n=1}^\infty Var(X_n)\textless \infty$$

então $ \mathbb{E}(\sup_{n\textgreater 1}|S_n|)\textless \infty $, no qual $ S_n=X_1+\dots+X_n. $

Pelo critério da integrabilidade temos que

$$\mathbb{E}\left(\sup_{n\geq 1}|S_n|\right)\textless \infty$$

se, e somente se

$$\sum_{k=0}^\infty \mathbb{P}\left(\sup_{n\geq 1}|S_n|\textgreater k\right)\textless \infty$$

Agora pela desigualdade de Kolmogorov, temos que

$$\mathbb{P}\left(\max_{1\leq k\leq n_0}|S_k|\textgreater k\right)\leq \frac{1}{k^2}\sum_{i=1}^{n_0}Var(X_i),k\textgreater 0$$

Agora, se $ \sup_{n\geq 1}|S_n|\textgreater k $ pela definição de supremo, temos que existe $ n_0 $ tal que $ |S_{n_0}|\textgreater k $ o que implica que

$$\max_{1\leq k\leq n_0}|S_n|\geq k.$$

Assim, $ \omega \in A=[\sup_{n\geq 1}|S_n|\textgreater k] $ o que implica que $ \omega \in [\max_{1\leq n\leq n_0}|S_n|\geq k] $ então

$$\mathbb{P}(\sup_{n\geq 1}|S_n|\textgreater k)\leq \mathbb{P}(\max_{1\textless n\textless n_1}|S_n|\leq k)$$

Pela desigualdade de Kolmogorov

$$\mathbb{P}(\max_{1\textless n\textless n_1}|S_n|\leq k)\leq \frac{1}{k^2}\sum_{i=1}^{n_0} Var(X_i)\leq \frac{1}{k^2}\sum_{i=1}^\infty Var(X_i)$$

Assim, $ k\textgreater 0 $ o que implica que

$$\mathbb{P}(\sup_{n\geq 1}|S_n|\textgreater k)=\mathbb{P}(\sup_{n\geq 1}|S_n|\textgreater 0)+\sum_{k=1}^\infty \mathbb{P}(\sup_{n\geq 1}|S_n|\textgreater k)$$

$$\leq 1+\sum_{k=1}^\infty \frac{1}{k^2}\sum_{i=1}^\infty Var(X_i)$$

Como

$$\sum_{i=1}^\infty Var(X_i)\textless \infty$$

então

$$\sum_{k=0}^\infty \mathbb{P}\left(\sup_{n\geq 1}|S_n|\textless k\right)\leq 1+\sum_{i=1}^\infty Var(X_i)\sum_{i=1}^\infty \frac{1}{k^2}$$

o que implica que

$$\sum_{k=0}^\infty \mathbb{P}(\sup_{n\geq 1}|S_n|)\textless \infty$$


 

Dúvidas sobre esse conteúdo? Comente:

Probabilidades

Sobre o Portal Action

O Portal Action é mantido por Estatcamp - Consultoria Estatística e Qualidade e por DIGUP - Desenvolvimento de Sistemas e Consultoria Estatística, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  28 de Setembro,2066 - B, São Carlos - SP | CEP 13560-270
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]