7.2.2 - Lei Forte dos Grandes Números

Você está aqui

Após estudarmos a Lei Fraca do Grandes Números, vamos estudar agora a Lei Forte dos Grandes Números. A principal diferença da Lei Fraca é que ao invés da convergência em probabilidade, temos a convergência quase certa como dita na seção anterior. Os detalhes destes dois tipos de convergência, foi amplamente discutido na seção convergências em probabilidade e quase certa. A seguir, apresentamos os principais resultados para Lei Forte dos Grandes Números.

Teorema 7.1.2.1: 

Sejam $\{X_i\}_{i\geq 1}$ uma sequência de variáveis aleatórias independentes e identicamente distribuídas. Se $\mathbb{E}[|X_1|]=\infty$, então com probabilidade 1, a sequência

$\displaystyle \frac{|S_n|}{n} = \frac{|X_1 + \cdots + X_n|}{n},$ 

não é limitada.

Demonstração:

Sabemos que $\mathbb{E}[|X_1|]=\infty$, então como consequência temos que $\displaystyle \mathbb{E}\left[\frac{|X_1|}{k}\right]=\frac{\mathbb{E}[|X_1|]}{k}=\infty$.

Então mostremos primeiramente que $\displaystyle\sum_{n=1}^{\infty}\mathbb{P}(|X|\geq n)\leq \mathbb{E}[|X|]\leq 1+\displaystyle\sum_{n=1}^{\infty}\mathbb{P}(|X|\geq n)$, para qualquer variável aleatória X.

De fato, se $x\geq 0$, seja $[x]$ o maior número inteiro menor ou igual a $x$. Então a variável aleatória $[|X|]$ assume valor k quando $k\leq |X|< k+1$ e portanto 

\[0\leq [|X|]\leq |X|\leq [|X|]+1,\]

Assim pela linearidade e pela monotonicidade da esperança, temos que:

\[0\leq \mathbb{E}\{[|X|]\}\leq \mathbb{E}[|X|]\leq \mathbb{E}\{[|X|]\}+1,\]

Como [|X|] é uma variável aleatória que assume apenas valores inteiros temos que 

\[\mathbb{E}\{[|X|]\}=1-F_X[0]+1-F_X[1]+1-F_X[2]\cdots=\displaystyle \sum_{n=0}^{\infty}1-F[n]=\sum_{n=0}^{\infty}\mathbb{P}[X> n].\]

Desta forma temos que $\mathbb{E}\{[|X|]\}=\displaystyle\sum_{n=0}^{\infty}\mathbb{P}[[|X|]\geq n]=\sum_{n=0}^{\infty}\mathbb{P}[|X|\geq n]$. Logo

\[\sum_{n=0}^{\infty}\mathbb{P}[|X|> n]\leq \mathbb{E}|X|\leq 1+\sum_{n=0}^{\infty}\mathbb{P}[|X|> n].\]

Assim $\displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_1|}{k}> n\right]=\infty$ para qualquer $k\in \mathbb{N}$. Como as variáveis $X_n$ são identicamente distribuídas temos que:

\[\displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_1|}{k}> n\right]=\displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_n|}{k}> n\right]=\displaystyle\sum_{n=0}^{\infty}\mathbb{P}\left[\frac{|X_n|}{n}> k\right].\]

Como os $X_n$ são independentes, os eventos $A_n=\left[\frac{|X_n|}{n}\geq k\right]$ são independentes, desta forma usando o lema de Borel Cantelli 

\[\mathbb{P}\left(\limsup \displaystyle\frac{|X_n|}{n}\geq k\right)=1.\]

Seja $B_k=\left[\limsup \displaystyle \frac{|X_n|}{n}\geq k\right]$, temos então

\[\mathbb{P}\left(\displaystyle \bigcap_{k=1}^{\infty}B_k\right)=1,\]

pois a intersecção de um número enumerável de eventos de probabilidade 1 também tem probabilidade 1, como demonstrado na Propriedade 12. Mas o evento $\displaystyle \bigcap_{k=1}^{\infty}B_k$ é o evento "a $\displaystyle\frac{|X_n|}{n}\geq k$ é ilimitada". Assim basta provarmos que se $\displaystyle\frac{|X_n|}{n}$ é ilimitada, então $\displaystyle \frac{|S_n|}{n}$ também é ilimitada. Agora, com $S_0=0$, temos

\[\displaystyle\frac{|X_n|}{n}=\frac{|S_n-S_{n-1}|}{n}\leq \frac{|S_n|}{n}+\frac{|S_{n-1}|}{n},\]

para $n \in \mathbb{N}$. Portanto, se $\frac{X_n}{n} $ é ilimitada, então $\frac{|S_n|}{n}$ é ilimitada ou $\frac{|S_{n-1}|}{n}$. Mas se $n\geq 2$, temos que

\[\frac{|S_{n-1}|}{n}=\frac{|S_{n-1}|}{n-1} \frac{n-1}{n}\]

e $\frac{1}{2}\leq \frac{n-1}{n}< 1$, de modo que $\frac{|S_{n-1}|}{n}$ é ilimitada se, e somente se,$\frac{|S_n|}{n}$ também é, pois $\frac{|S_{n-1}|}{n-1}$ e $\frac{S_n}{n}$ formam a mesma sequência.

$\Box$

Teorema 7.1.2.2: 

Seja $X_i$ uma sequência de variáveis aleatórias independentes tais que $\mathbb{E}[X_n]=0$ e a $\text{Var}[X_n]\leq \infty$. Então para todo $\lambda> 0$,

$\mathbb{P}\left[\displaystyle\max_{1\leq k \leq n}|\sum_{i=1}^{k}X_i|\geq \lambda\right]\leq \displaystyle \sum_{k=1}^{n}\frac{\text{Var}[X_k]}{\lambda^2}.$

Demonstração:

Para facilitar a notação seja $S_n=\displaystyle\sum_{i=1}^{n}X_i$. Observemos que:

\[S_n^2\geq S_n^2 1\!\!1_{[S_n^2\geq \lambda]}\geq \lambda^2 1\!\!1_{[S_n^2\geq \lambda^2]}\quad\Rightarrow\quad \mathbb{E}[S_n^2]\geq \lambda^2\mathbb{E}[1\!\!1_{[S_n^2\geq \lambda^2]}]=\lambda^2\mathbb{P}[S_n^2\geq \lambda^2],\]

Mas isto implica que :

\[\mathbb{P}(|S_n|\geq \lambda)\leq \displaystyle \frac{1}{\lambda^2}\mathbb{E}[S_n^2]=\frac{\text{Var}[S_n]}{\lambda^2}.\]

Nossa meta é encontrar uma cota superior para $\mathbb{P}\left[\displaystyle \max_{1\leq k\leq n}S_k^2\geq \lambda^2\right]$, para isto consideramos $A=\left\{\displaystyle\max_{1\leq k\leq n}S_k^2\geq \lambda^2\right\}$.

Vamos decompor A da seguinte forma:

$$A_1=[S_1^2\geq \lambda^2]$$

$$A_2=[S_1^2< \lambda^2,S_2^2\geq \lambda^2]$$

$$A_k=[S_1^2< \lambda^2,S_2^2< \lambda^2,\cdots,S_{k-1}< \lambda^2,S_k^2\geq \lambda^2]$$

Note que os $A_k $ são disjuntos 2 a 2 e $A=\displaystyle\bigcup_{k=1}^{n}A_k$:

Logo $1\!\!1_A=\displaystyle \sum_{k=1}^{n}1\!\!1_{A_k}$, e

$$S_n^2\geq S_n^2 1\!\!1_A=\displaystyle \sum_{k=1}^{n}S_n^2 1\!\!1_{A_k}\quad\Rightarrow \quad\mathbb{E}[S_n^2]\geq \displaystyle \sum_{k=1}^{n}\mathbb{E}[S_n^2 1\!\!1_{A_k}].$$

Na sequência, queremos substituir $S_{n}^2$ por $S^2_k$ no somatório, pois $S^2_k \geq \lambda^2$ em $A_k$ e não vale necessariamente $S^2_n \geq \lambda^2$. Assim, escrevemos

$$S_n^2=(S_n-S_k+ S_k)^2=(S_n-S_k)^2+S_k^2+2(S_n-S_k)S_k\geq S_k^2+2(S_n-S_k)S_k.$$

Portanto obtemos que

$$\mathbb{E}[S_n^2 1\!\!1_{A_k}]\geq \mathbb{E}[S_k^2 1\!\!1_{A_k}]+2\mathbb{E}[(S_n-S_k)S_k 1\!\!1_{A_k}].$$

Como $S_n-S_k=\displaystyle\sum_{i=k+1}^{n}X_{i}$ e $S_k 1\!\!1_{A_k}$ depende só de $X_1,\cdots X_k,$ as duas são funções disjuntas de variáveis independentes, e portanto podemos fatorar sua esperança da seguinte forma:

\[\mathbb{E}[(S_n-S_k)S_k 1\!\!1_{A_k}]=\mathbb{E}[S_n-S_k]\mathbb{E}[S_k 1\!\!1_{A_k}].\]

Como $\mathbb{E}[S_n-S_k]=0$, temos que:

$$\mathbb{E}[S_n^2 1\!\!1_{A_k}]\geq \mathbb{E}[S_k^2 1\!\!1_{A_k}]\leq \mathbb{E}[\lambda^2 1\!\!1_{A_k}]=\lambda^2\mathbb{P}(A_k).$$

Como

$$\mathbb{E}[S_n^2]\geq \displaystyle \sum_{k=1}^{n}\mathbb{E}[S_n^2 1\!\!1_{A_k}].$$

Concluímos que

$$\mathbb{E}[S_n^2]\geq \displaystyle \sum_{k=1}^{n}\lambda^2\mathbb{P}[A_k]=\lambda^2\mathbb{P}[A]$$

Assim

$$\mathbb{P}(A)\leq \displaystyle \frac{\mathbb{E}[S_n^2]}{\lambda^2}=\frac{\text{Var}[S_n]}{\lambda^2}.$$

$\Box$

Teorema 7.1.2.3: (Primeira Lei Forte de Kolmogorov)

Seja $\{X_i\}_{i\geq 1}$ uma sequência de variáveis aleatórias independentes e integráveis, e suponha que:

$\displaystyle \sum_{i=1}^{\infty}\frac{\text{Var}[X_i]}{i^2}< \infty,\quad (7.1.2.1)$ (condição de Kolmogorov)

então

$\displaystyle\sum^n_{i=1}\frac{X_i -\mathbb{E}[X_i]}{n}\rightarrow 0, ~~ \text{quase certamente}.$

Demonstração:

Vamos redefinir a nossa sequência de variáveis aleatórias de forma que esperança seja zero. Para isto, seja $Y_i=X_i-\mathbb{E}[X_i]$, assim $\mathbb{E}[Y_i]=0$ e $\text{Var}[Y_i]=\text{Var}[X_i]$, por P1 da variância.

Desta forma queremos mostrar que

$\displaystyle\sum_{i=1}^{\infty}\frac{Y_i}{n}\rightarrow 0, ~~ \text{quase certamente}.$

Vale salientar que é equivalente mostrarmos que 

$\displaystyle \max_{2^n< k< 2^{n+1}}\frac{|S_k|}{k}\rightarrow 0,~~ \text{quase certamente},$

quando $n\rightarrow \infty,$ em que $S_k=\displaystyle\sum^k_{i=1}Y_i.$

Agora, para cada m fixo, temos que

$\mathbb{P}\left(\displaystyle \max_{2^n< k< 2^{n+1}}\frac{|S_k|}{k}\geq \frac{1}{m}\right)\leq \mathbb{P}\left(\displaystyle \max_{2^n< k< 2^{n+1}}\frac{|S_k|}{k}\geq \frac{2^n}{m}\right)\leq \mathbb{P}\left(\displaystyle \max_{1< k < 2^{n+1}}\frac{|S_k|}{k}\geq \frac{2^n}{m}\right)$

$\leq \displaystyle\frac{m^2}{4^n}\displaystyle\sum^{2^{n+1}}_{k=1}\text{Var}(Y_k),$

Notemos que a última desigualdade é válida pelo Teorema 7.1.2.2. Desta forma temos

$$\displaystyle \sum_{n=1}^{\infty}\mathbb{P}\left(\max_{2^n< k\leq 2^{n+1}}\frac{S_k}{k}\geq \frac{1}{m}\right)\leq m^2 \displaystyle\sum_{n=1}^{\infty}\left(\frac{1}{4^n}\sum_{k=1}^{2^{n+1}}\text{Var} (Y_k)\right)=m^2\displaystyle\sum_{k=1}^{\infty}\displaystyle~\sum_{n:2^{n+1}\geq k}\left(\frac{\text{Var}(Y_k)}{4^n}\right)$$

$$=m^2\displaystyle\sum_{k=1}^{\infty}\left(\text{Var}(Y_k)\displaystyle\sum_{n:2^{n+1}\geq k}^{\infty}\frac{1}{4^n}\right)$$

Observe que

$\displaystyle\sum_{n:2^{n+1}\geq k}\frac{1}{4^n}< \frac{16}{3k^2},$

Portanto

$\displaystyle \sum_{n=1}^{\infty} \mathbb{P}\left(\max_{2^{n}< k < 2^{n+1}}\displaystyle\frac{S_k}{k}\right)\leq \frac{(4m)^2}{3}\sum_{k=1}^{\infty}\frac{\text{Var}(Y_k)}{k^2}< \infty.$

Assim usando o lema de Borel Cantelli temos que 

$\displaystyle\mathbb{P}\left(\limsup_{n\rightarrow \infty}A_n\right)=0,$

no qual $A_n=\left[\displaystyle \max_{2^n< k \leq 2^{n+1}}\frac{S_k}{k}\geq\frac{1}{m}\right].$

Logo, $\mathbb{P}(\displaystyle\liminf_{n\rightarrow \infty}A_n)=1$, pois se $\mathbb{P}\left(\limsup A_n\right)=0$ temos que para cada m fixo a probabilidade de que $\displaystyle \max_{2^n< k< 2^{n+1}}\frac{S_k}{k}$ assuma um valor maior que $\frac{1}{m}$ é 0.

Assim a probabilidade de que $\displaystyle \max_{2^n< k< 2^{n+1}}\frac{|S_k|}{k}$ assuma um valor maior que zero um número finito de vezes é 1. Logo,

$\displaystyle\bigcap_{m=1}^{\infty}\displaystyle \max_{2^n< k< 2^{n+1}}\frac{|S_k|}{k}< \frac{1}{m}$

deve ocorrer para todo n a partir de um índice, ou seja, temos que 

$\forall m, 0\leq\displaystyle \max_{2^n< k< 2^{n+1}}\frac{|S_k|}{k} < \frac{1}{m}$ para todo n a partir de um índice.

Portanto concluímos que $\displaystyle \max_{2^n< k< 2^{n+1}}\frac{|S_k|}{k}\rightarrow 0$ quase certamente.

$\Box$

Uma observação importante é que a condição de Kolmogorov (7.1.2.1) é suficiente, mas não é necessária para lei forte dos grandes números. Podemos construir exemplos tais que $\displaystyle \sum_{i=1}^{\infty}\frac{\text{Var}[X_i]}{i^2}= \infty$ e que satisfaçam a lei dos grandes números.

Exemplo 7.1.2.1:

Valor esperado infinito implica em variância infinita.

De fato, seja $X$ uma variável aleatória tal que $\mathbb{E}[X]=\infty.$

Por definição, temos que $\text{Var}(X)=\mathbb{E}[X^2]-\mathbb{E}^2[X].$

Mas, $\mathbb{E}[X]=\infty$ e $\mathbb{E}[X^2]\geq\mathbb{E}^2[X].$

Portanto, $\text{Var}(X)=\infty$

Em particular, variáveis aleatórias com valor esperado infinito não satisfazem a condição de Kolmogorov e consequentemente não há garantias que cumpra a lei dos grandes números. 

Proposição 7.1.2.2:

Seja X uma variável aleatória e seja F sua função de distribuição acumulada. Então,

$\displaystyle\sum_{n=1}^{\infty}\left{\frac{1}{n^2}\int_{-n}^{n}x^2 dF(x)\right}< \infty.$

Demonstração:

Vamos relembrar o seguinte fato, o qual vamos utilizar para a demonstração desta proposição.

$\displaystyle \sum_{n=j}^{n^2}< \frac{2}{j}$

Como 

$\displaystyle\int_{-n}^{n}x^2dF(x)=\sum_{j=-n+1}^{n}\int_{j-1}^{j}x^2dF(x)$

Assim temos que:

$$\displaystyle\sum_{n=1}^{\infty}\left{\frac{1}{n^2}\int_{-n}^{n}x^2 dF(x)\right}=\sum_{n=1}^{\infty}\sum_{j=-n+1}^{n}\left{\frac{1}{n^2}\int_{j-1}^{j}x^2dF(x)\right}=\sum^{\infty}_{j=1}\sum_{n=j}^{\infty}\left{\frac{1}{n^2}\int_{j-1}^{j}x^2 dF(x)\right}+$$

$$\sum_{j=-\infty}^{0}\sum_{n=|j|+1}^{\infty}\left{\frac{1}{n^2}\int_{j-1}^{j}x^2dF(x)\right}\leq 2\sum_{j=1}^{\infty}\int_{j-1}^{j}\frac{x^2}{j}dF(x)+2\sum_{j=-\infty}^{0}\int_{j-1}^{j}\frac{x^2}{|j|+1}dF(x).$$

Como $\frac{x^2}{j}\leq x$ em $(j-1,j]$, $j< 1$, e $\frac{x^2}{|j|+1}\leq |x|$ em $(j-1,j]$, para j\leq 0, temos

$\displaystyle\sum_{n=1}^{\infty}\left{\frac{1}{n^2}\int_{-n}^{n}x^2dF(x)\right}\leq 2 \sum_{j=-\infty}^{\infty}|x|dF(x)=\mathbb{E}[|X|]< \infty$

$\Box$

Teorema 7.1.2.4: (A Lei Forte de Kolmogorov)

Seja $X_i$ uma sequência de variáveis aleatórias independentes e identicamente distribuídas e com $\mathbb{E}[X_i]=\mu < \infty$. Então

$\displaystyle \sum_{i=1}^{n}\frac{X_i}{n}\rightarrow \mu, \mbox{quase certamente}.$

Demonstração:

Vale observar neste momento que basta mostrarmos para $\mu=0$, pois no caso geral em que $\mu\neq 0$ fazermos uma mudança de variável, usando $G_n=X_n-\mu.$ Neste caso as variáveis aleatórias $G_n$ serão independentes e indenticamentes distribuidas com $\mathbb{E}[G_n]=0$.

Seja $Y_n$ definida da seguinte forma.

$\displaystyle Y_n = \left\{ \begin{array}{l} X_n, \quad \hbox{se} \ X_n \ \in (n,-n]; \\ 0, \quad~~\hbox{caso contrário}.\end{array} \right.$

E seja $Z_n=X_n-Y_n\quad\Rightarrow\quad X_n=Y_n+Z_n$

\[\frac{X_1+\cdots+X_n}{n}=\frac{Y_1+\cdots+Y_n}{n}+\frac{Z_1+\cdots+Z_n}{n}\]

Vamos dividir a demonstração deste teorema em três partes.

Primeiro mostramos que $\displaystyle\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0$ quase certamente.

Observamos que $Z_n\neq 0\Leftrightarrow Y_n\neq X_n\rightarrow X_n \notin (-n,n]$.

Assim,

\[\mathbb{P}(Z_n\neq 0)=\mathbb{P}(X_n\notin (-n,n])< \mathbb{P}(|X_n|> n).\]

Mas os eventos $A_n=[Z_n\neq 0]$ satisfazem

\[\displaystyle\sum_{n=1}^{\infty}\mathbb{P}(A_n)\leq \sum_{n=1}^{\infty}\mathbb{P}(|X_n|\geq n)\]

Notemos que se os $X_i$ são identicamentes distribuídos, então temos que:

\[\sum_{n=1}^{\infty}\mathbb{P}(|X_n|\geq n)=\sum_{n=1}^{\infty}\mathbb{P}(|X_1|\geq n)< \infty,\]

no qual a última passagem é consequência da intregabilidade de $X_1$.

Assim pelo lema de Borel-Cantelli decorre que $\mathbb{P}(\displaystyle\limsup_{n\rightarrow \infty}A_n)=0$, o que implica que:

\[\mathbb{P}(\displaystyle\limsup_{n\rightarrow \infty}Z_n\neq 0)=0\]

Ou seja,

\[\mathbb{P}(\displaystyle\liminf_{n\rightarrow \infty}A_n)=1\quad\Rightarrow\quad \mathbb{P}(Z_m=0)=1\]

com $m> n$ para algum n suficientemente grande, isto é, $Z_n\rightarrow 0$ e ainda

\[\displaystyle\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0\quad\Rightarrow\quad \mathbb{P}\left(\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0\right)=1\]

Logo $\displaystyle\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0$ quase certamente.

Mostramos agora que $\displaystyle \frac{Y_1+\cdots+Y_n}{n}-\frac{\mathbb{E}[Y_1]+\cdots+\mathbb{E}[Y_n]}{n}\rightarrow 0$ quase certamente.

Como por hipótese $X_i$ são identicamente distribuídos, então temos que $F_{X_1}=\cdots=F_{X_n}$.

Notemos que 

$\displaystyle Y_n = \left\{ \begin{array}{l} X_n, \quad \hbox{se} \ X_n \ \in (n,-n]; \\ 0, \quad~~ \hbox{caso contrário}.\end{array} \right,$ isto é, $Y_n=X_n 1\!\!1_{\{-n< X_n\leq n\}}$

\[\text{Var}[Y_n]\leq \mathbb{E}[Y_n^2]=\mathbb{E}[X_n^2] 1\!\!1_{\{-n< X_n\leq n\}}=\int x^2 1\!\!1_{\{-n< X_n\leq n\}}dF(x)=\int_{-n}^{n}x^2dF(x)\]

o que implica que:

\[\displaystyle \sum_{n=1}^{\infty}\frac{\text{Var}[Y_n]}{n^2}\leq \sum_{n=1}^{\infty}\frac{1}{n^2}\int_{-n}^{n}x^2 dF(x)< \infty,\]

Assim pela Teorema 7.1.2.3 o resultado segue. 

Agora, precisamos mostrar que $\dfrac{\mathbb{E}[Y_1]+\cdots+\mathbb{E}[Y_n]}{n}\rightarrow 0$

Desta forma, basta mostrarmos que $\mathbb{E}[Y_n]\rightarrow 0$.

De fato,

$\mathbb{E}[Y_n]=\mathbb{E}[X_n 1\!\!1_{\{-n< X_n\leq n\}}]=\mathbb{E}[X_1 1\!\!1_{\{-n< X_1 \leq n\}}]\rightarrow \mathbb{E}[X_1]=0$

Logo o teorema segue, pois

$A=\displaystyle\left[\frac{Z_1+\cdots+Z_n}{n}\rightarrow 0\right]$ e $B=\displaystyle\left[\frac{Y_1+\cdots+Y_n}{n}-\frac{\mathbb{E}[Y_1]+\cdots+\mathbb{E}[Y_n]}{n}\rightarrow 0\right]$.

Portanto $\displaystyle \frac{X_1+\cdots+X_n}{n}\rightarrow 0$ quase certamente e no caso mais geral:

$\displaystyle\frac{X_1+\cdots+X_n}{n}\rightarrow \mu,\quad\text{quase certamente}$

$\Box$

Teorema 7.1.2.5: (Cantelli)

Seja $(X_i)_{i\in\mathbb{N}}$ uma sequência de variáveis aleatórias com quarto momento finito, e seja

$$E[|X_n-E[X_n]|^4]\leq C$$

com $C\in \mathbb{R}$. Então quando $n\rightarrow \infty $

$$\frac{S_n-E[S_n]}{n}\stackrel{q.c}{\rightarrow} 0 $$

Demonstração:

Sem perda de generalidade podemos assumir que $\mathbb{E}[X_n]=0$, pois caso não seja, redefinirmos $X_n=X_n-\nathbb{E}[X_n]$. Assim para mostramos que $\dfrac{S_n}{n}\rightarrow 0$ quase certamente basta mostramos que

$$\displaystyle \sum^\infty_{n=1} \mathbb{P}\left(\left|\dfrac{S_n}{n}\right|\geq \epsilon\right)< \infty,~~~\forall \epsilon > 0$$

Utilizando a desigualdade de Chebyshev, basta mostrarmos que

$$\displaystyle \sum^\infty_{n=1} \mathbb{E}\left(\left|\dfrac{S_n}{n}\right|^4\right)< \infty.$$

Note que $S_n=(X_1+\cdots X_n)^4 $, logo

$$\mahtbb{E}[S_n^4]=\displaystyle \sum_{i=1}^{n}\mathbb{E}[X_i^4]+\sum_{i,j=1}^{n}\mathbb{E}[X_i^2]E[X_j^2]\leq nC +6 \sum_{\overset{i,j=1}{i< j}}\sqrt{\mathbb{E}[X_i^4]\mathbb{E}[X_j^4]}\leq nC +\frac{6n(n-1)}{n}C< 3n^2 C$$

Logo

$$\mathbb{E}\left[\left(\frac{S_n}{n}\right)^4\right]< 3\frac{C}{n^2}$$

Assim

$$\sum^\infty_{n=1} \mathbb{E}\left[\left(\frac{S_n}{n}\right)^4\right]< 3C \sum^\infty_{n=1} \frac{1}{n^2}< \infty$$

E portanto, segue o resultado.

$\Box$

Teorema 7.1.2.6: (Kolmogorov)

Seja $(X_i)_{i\in \mathbb{N}}$ uma sequência de variáveis aleatórias independentes com segundo momento finito, e seja $(b_n)_{n\in\mathbb{N}}$ uma sequência de números positivos, tal que $b_n\uparrow \infty $ e

$$\displaystyle \sum^\infty_{n=1} \frac{Var[S_n]}{b^2_n}< \infty$$

Então

$$\displaystyle \frac{S_n-E[S_n]}{n}\stackrel{q.c}{\rightarrow} 0$$

Demonstração: 

Vamos omitir a demonstração deste resultado, porém ela pode ser encontrada no livro do Shiryaev.

$\Box$

Para finalizarmos esta seção, vamos apresentar alguns exemplo para fixarmos os conceitos apresentados.

Exemplo 7.1.2.2: 

Seja ${A_i}$ uma sequência de eventos aleatórios tais que $\displaystyle \sum_{i=1}^{\infty}\mathbb{P}[A_n]< \infty$. Mostremos que $1\!\!1_{A_i}\rightarrow 0$ quase certamente.

Como no exemplo anterior necessitamos considerar apenas o caso de $0< \varepsilon \leq 1$.

Sendo assim seja $B_n=\{\omega| 1\!\!1_{A_n}\geq \varepsilon\}=A_n,$ sabemos que

$$\displaystyle \sum_{i=1}^{\infty}\mathbb{P}[b_n]=\displaystyle \sum_{i=1}^{\infty}\mathbb{P}[A_n]< \infty.$$

Pelo lema de Borel-Cantelli temos que $\mathbb{P}[\limsup_{n\rightarrow \infty} B_n]=0$ e portanto

$\mathbb{P}[(\limsup_{n\rightarrow \infty} B_n)^c]=1$.

Observemos que $[\limsup_{n\rightarrow \infty} B_n]^c=\liminf_{n\rightarrow \infty} B_n^c$, então

Existe $\ n_0(\varepsilon,\omega)\in \mathbb{N}$ tal que $1\!\!1_{A_n}(\omega)< \varepsilon;$ para qualquer $n\geq n_0$.

Portanto, $1\!\!1_{A_i}\rightarrow 0$ quase certamente.

Exemplo 7.1.2.3: 

Seja $\{X_i\}_{i\geq 1}$ uma sequência de variáveis aleatórias independentes e identicamente distribuídas, com distribuição exponencial de parâmetro $1$. Mostremos que:

$\mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}> 1\right)=1.$

Para mostrarmos isso basta mostrarmos que $\displaystyle \sum_{i=1}^{\infty}A_i=\infty$. Assim primeiramente vamos definir o evento $A_i=\{X_i> \log i\}$ para $i\geq 1$. Como cada $A_i$ são eventos independentes. Portanto

$\mathbb{P}(A_i)=\mathbb{P}(X_i> \log i)=e^{-\log{i}}=\displaystyle \frac{1}{i}.$

Desta forma concluímos que:

$\displaystyle \sum_{i=1}^{\infty}\mathbb{P}(A_i)=\sum_{i=1}^{\infty}\frac{1}{i}=\infty$

consequentemente pelo lema de Borel-Cantelli concluímos que $\mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}> 1\right)=1$ como queríamos demonstrar.

Exemplo 7.1.2.4: 

Podemos generalizar o exemplo 7.1.2.3 proposto acima, da seguinte forma seja $X_i$ uma sequência de variáveis aleatórias independentes e identicamente distribuídas, com distribuição exponencial de parâmetro $\lambda$. Mostremos que:

$\mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}> \frac{1}{\lambda}\right)=1.$

A demonstração segue da mesma forma, basta definirmos o conjunto $A_i=\{X_i> \log i\}$ para $i\geq 1$. Assim 

$\mathbb{P}(A_i)=\mathbb{P}(X_i> \frac{\log i}{\lambda})=e^{-\lambda\frac{\log{i}}{\lambda}}=\displaystyle \frac{1}{i}.$

E portanto concluímos que

$\displaystyle \sum_{i=1}^{\infty}\mathbb{P}(A_i)=\sum_{i=1}^{\infty}\frac{1}{i}=\infty$

usando novamente o lema de Borel-Cantelli concluímos que $\mathbb{P}\left(\displaystyle\limsup_{n \rightarrow \infty}\frac{X_n}{\log n}> \frac{1}{\lambda}\right)=1.$

Exemplo 7.1.2.5: 

Seja $\{X_i\}_{i\geq 1}$ uma sequência de variáveis aleatória independentes com distribuição Poisson com parâmetro $\lambda$. Qual é o limite em probabilidade da sequência $Y_n$, em que $Y_n=\dfrac{X_1^2+\cdots+X_n^2}{n}$?

Para resolvermos esse exemplo basta utilizarmos o a lei forte de Kolmogorov, que vamos obter um resultado ainda mais forte. Pela lei forte de Kolmogorov temos que $Y_n\rightarrow \mathbb{E}[X_1^2]$. Como $X_1$ segue uma Poisson temos o seguinte:

$\lambda=\text{Var}[X_1]=\mathbb{E}[X_1^2]-\mathbb{E}^2[X_1]=\mathbb{E}[X_1^2]-\lambda^2 \quad\Rightarrow\quad \mathbb{E}[X_1^2]=\lambda(1+\lambda)$

Assim pela lei forte de Kolmogorov, temos que $Y_n\rightarrow \lambda(1+\lambda)$ quase certamente, ou seja, $Y_n$ converge em probabilidade para $\lambda(1-\lambda)$.

Exemplo 7.1.2.6: (Método Monte Carlo)

Talvez uma das mais importantes aplicações da lei dos grandes números seja no Método Monte Carlo, que é um método computacional para calcular integrais. Assim, seja $f$  uma função contínua com imagem no intervalo [0,1] e $X_1,c_1,X_2,c_2 \cdots$ uma sequência de variáveis aleatórias independentes uniformes no [0,1]. Tomamos

$$Y_i=\left\{ \begin{array}{l} 1,~~~\quad \text{se}~ f(X_i)> c_i \\ 0,~~~ \quad \text{se}~f(X_i)\leq c_i .\end{array} \right.$$

Então 

$$\mathbb{E}[Y_1]=\mathbb{P}(f(X_1)> c_1)=\displaystyle \int_{0}^{1}f(x)dx$$

Portanto, pela lei forte dos grandes números temos que:

$$\displaystyle \frac{1}{n}\sum_{i=1}^{n}Y_i\rightarrow \int_{0}^{1}f(x)dx , \quad \text{P-quase certamente}$$

Exemplo 7.1.2.7:

Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias independentes e identicamente distribuídas com $\mathbb{E}[X_1]=\mu$ e $\text{Var}[X_1]=\sigma^2,$ com $0,\lextless \sigma^2< \infty.$ Mostre que

$$\dfrac{\displaystyle\sum^n_{j=1}X_j}{\displaystyle\sqrt{n\sum^n_{j=1}X^2_j}}\xrightarrow{q.c.}\dfrac{\mu}{\sqrt{\mu^2+\sigma^2}}$$

De fato, da 1ª lei de Kolmogorov temos que

$$\sum^n_{j=1}X_j\xrightarrow{q.c.}\mu\quad\text{e}\quad \sum^n_{j=1}\frac{X_j}{n}\xrightarrow{q.c.}\mu$$

Também temos que

$$\sum^n_{j=1}\frac{X^2_j}{n}\xrightarrow{q.c.}\sigma^2+\mu^2$$

Uma observação importante é que se $X_n\xrightarrow{q.c.}X$ então $g(X_n)\xrightarrow{q.c.}g(X)$ para g contínua.

Logo, $X_n\xrightarrow{q.c.}X,~Y_n\xrightarrow{q.c.}Y$ isto implica que $\dfrac{X_n}{Y_n}\xrightarrow{q.c.}\dfrac{X}{Y}$

Portanto, vale a tese.

 

 

Exemplo 7.1.2.8:
Sejam $X_1, X_2, \dots$ independentes e identicamente distribuídas, com $X_1\sim U[0,1]$. Ache o limite quase certo da média geométrica
$$\left(\prod_{k=1}^n X_k\right)^{1/n}$$

Seja $Y_n=\left(\prod_{k=1}^n X_k\right)^{\frac{1}{n}}$ o que implica que
$$\ln(Y_n)=\frac{\sum_{k=1}^n\ln(X_k)}{n}$$
Chamaremos de $Z_i=\ln(X_i)$, $i=1,2,\dots$. Então, $Z_1,Z_2,\dots$ é uma equivalência de variáveis aleatórias independentes e identicamente distribuídas, pois $Z_i$ depende apenas de $X_i$ que são independentes e identicamente distribuídas. Além disso, temos que
$$\mathbb{P}(Z_1\leq z)=\mathbb{P}(\ln(X_i)\leq z)=\mathbb{P}(X_1\leq e^z)=\left\{\begin{array}{l}e^{z},\quad z< 0,\\ 0,\quad\text{Caso}\quad\text{Contrário}.\end{array}\right.$$
Então,
$$\mathbb{E}(Z_1)=\int_{-\infty}^0 z^2e^{z}dz$$
fazendo uma mudança de variável temos que $t=-z$. Então, temos
$$\int_{-\infty}^0 z^2e^{z}dz=-\int_0^\infty t^2e^{-t}dt=-1$$
Então, aplicando a lei forte de Kolmogorov para $Z_1,Z_2,\dots$ temos que
$$\frac{Z_1+Z_2+\dots+Z_n}{n}\stackrel{q.c.}{\longrightarrow}\mathbb{E}(Z_1)=-1$$
Então,
$$\ln(Y_n)\stackrel{q.c.}{\longrightarrow}-1$$
o que implica que
$$\mathbb{P}(\omega:\ln(Y_n(\omega))\rightarrow -1)=1.$$
Agora, como $f(u)=e^{u}$ é uma função contínua, então se
$$\ln(Y_n(\omega))\rightarrow -1$$
o que implica que
$$e^{\ln(Y_n(\omega))}\rightarrow e^{-1}$$
o que implica que
$$Y_n(\omega)\rightarrow e^{-1}$$
Assim, se
$$\omega\in [\omega:\ln(Y_n(\omega))\rightarrow -1]\Rightarrow \omega \in [\omega: Y_n(\omega)\rightarrow e^{-1}]$$
então
$$\mathbb{P}(\omega: Y_n(\omega)\rightarrow e^{-1})\geq \mathbb{P}(\omega:\ln(Y_n(\omega))\rightarrow -1)=1$$
o que implica que $Y_n\stackrel{q.c.}{\longrightarrow}e^{-1}$.



Exemplo 7.1.2.9:
Demonstre: se $X_1,X_2,\dots$ são independentes e identicamente distribuídas, com $\mathbb{E}(X_1)=1=Var(X_1)$, então
$$\displaystyle \frac{\displaystyle \sum_{i=1}^n X_i}{\displaystyle \sqrt{n\sum_{i=1}^n X_i^2}}\rightarrow \frac{1}{\sqrt{2}},\text{quase}\quad\text{certamente}.$$

Como $X_1,X_2,\dots$ é uma sequência de variáveis aleatórias integráveis, aplicando a lei forte de Kolmogorov, temos que
$$\frac{\sum_{i=1}^n X_i}{n}\stackrel{q.c.}{\rightarrow} \mathbb{E}(X_1)=1$$
isto, se e somente se,
$$\mathbb{P}\left(\omega: \frac{\sum_{i=1}^n X_i(\omega)}{n}\rightarrow 1\right)=1$$
Agora, seja $Y_i=X_i^2$, $i=1,2,\dots$, então $Y_1,Y_2,\dots$ e sequência de variáveis aleatórias independentes pois $Y_i$ depende apenas de $X_i$. Além disso, são integráveis pois $\mathbb{E}(Y_1)=\mathbb{E}(X_1^2)=Var(X_1)+\left(\mathbb{E}(X_1)\right)^2=1+1=2$. Então, aplicando a lei forte de Kolmogorov e esta sequência,
$$\frac{\sum_{i=1}^n Y_i}{n}=\frac{\sum_{i=1}^n X_i^2}{n}\rightarrow 2$$
mas isso, se, e somente se,
$$\mathbb{P}\left(\omega: \frac{\sum_{i=1}^nX_1^2}{n}\rightarrow 2\right)=1$$
Agora, definindo $A:=\left\{\omega: \frac{\sum_{i=1}^nX_1}{n}\rightarrow 1\right\}$ e $B:=\left\{\omega: \frac{\sum_{i=1}^nX_1^2}{n}\rightarrow 2\right\}$.
Então, como
$$\mathbb{P}(A)=\mathbb{P}(B)=1$$
então
$$\mathbb{P}(A\cap B)=1$$
o que implica que
$$\mathbb{P}\left(\omega: \frac{\sum_{i=1}^nX_1(\omega)}{n}\rightarrow 1, \frac{\sum_{i=1}^nX_1^2(\omega)}{n}\rightarrow 2\right)=1$$
Agora se $\omega$ é tal que
$$\frac{\sum_{i=1}^nX_1}{n}\rightarrow 1\quad\quad e \quad\quad \frac{\sum_{i=1}^nX_1^2}{n}\rightarrow 2$$
Assim, como $f(t)=\sqrt{t}$ é uma função contínua então, temos que
$$\frac{\sum_{i=1}^nX_1}{n}\rightarrow 1\quad\quad e \quad\quad \sqrt{\frac{\sum_{i=1}^nX_1^2}{n}}\rightarrow \sqrt{2}$$
Agora, observe que se $\lim_{n\rightarrow \infty}a_n\neq 0$  e $\lim_{n\rightarrow \infty}b_n\neq 0$  então $\lim_{n\rightarrow \infty}\frac{a_n}{b_n}\neq \frac{a}{b}$ e portanto,
$$\frac{\frac{\sum_{i=1}^nX_1}{n}}{\sqrt{\frac{\sum_{i=1}^nX_1^2}{n}}}\rightarrow \frac{1}{\sqrt{2}}$$
Então, definindo $C:=\left\{\frac{\frac{\sum_{i=1}^nX_1}{n}}{\sqrt{\frac{\sum_{i=1}^nX_1^2}{n}}}\rightarrow \frac{1}{\sqrt{2}}\right\}$
desta forma, temos que $\omega\in (A\cap B)\Rightarrow \omega \in C$. Assim,
$$\mathbb{P}(C)\geq \mathbb{P}(A\cap B)=1$$
o que implica que
$$\frac{\frac{\sum_{i=1}^nX_1}{n}}{\sqrt{\frac{\sum_{i=1}^nX_1^2}{n}}}\stackrel{q.c}{\longrightarrow}\frac{\sqrt{2}}{2}$$
 

 

Exemplo 7.1.2.10:
Seja $0< \theta < 1/2$. Prove que se $X_1,X_2, \dots$ são independentes tais que $\mathbb{P}(X_n=n^\theta)=\frac{1}{2}=\mathbb{P}(X_n=-n^\theta)$, então
$$\frac{X_1+\dots+X_n}{n}\rightarrow 0$$
quase certamente.

Temos que $\mathbb{E}(X_n)=0$ pois é uma variável aleatória limitada e simétrica e
$$Var(X_n)=\mathbb{E}(X_n^2)=2\frac{1}{2}n^{2\theta}=n^{2\theta}$$
e portanto,
$$\displaystyle \sum_{n=0}^\infty \frac{Var(X_n)}{n^2}=\sum_{n=0}^\infty n^{2(\theta-1)}< \infty,$$
pois $0< \theta< \frac{1}{2}$. Agora, utilizando a primeira Lei Forte de Kolmogorov, que diz que se $X_1,X_2,\dots$ é uma sequência de variáveis aleatórias independentes e
$$\sum_{n=1}^\infty \frac{Var(X_n)}{n^2}< \infty$$
então
$$\frac{X_1+\dots+X_n}{n}\stackrel{q.c.}{\longrightarrow} \frac{\mathbb{E}(X_1+\dots+X_n)}{n}=0$$
 


Exemplo 7.1.2.11:
Sejam $X_1,X_2,\dots$ variáveis aleatórias independentes com densidade comum
$$f(x)=\left\{\begin{array}{l}e^{-(x+1/2)},\quad x\geq 1/2\\ 0,\quad x< 1/2.\end{array}\right.$$
Demonstre que $S_n\rightarrow \infty$ quase certamente, no qual $S_n=X_1+\dots+X_n.$

Temos que
$$\mathbb{E}(X_1)=\int_{-1/2}^\infty xe^{-x+1/2}dx$$
fazendo uma mudança de variáveis, temos que $y=x+\frac{1}{2}$, $dy=dx$ e $x=y-\frac{1}{2}$ e temos que
$$\int_0^\infty y(e^{-y})dy-\frac{1}{2}\int_0^\infty e^{-y}dy=1-\frac{1}{2}=\frac{1}{2}$$
Então, como $X_1,X_2,\dots$ variáveis aleatórias e integráveis pela lei forte de Kolmogorov
$$\frac{X_1+X_2+\dots+X_n}{n}\stackrel{q.c.}{\rightarrow} \frac{1}{2}$$
se, e somente se,
$$\mathbb{P}\left(\omega: \frac{X_1(\omega)+X_2(\omega)+\dots+X_n(\omega)}{n}\rightarrow \frac{1}{2}\right)=1$$
Agora, seja o evento
$$A=\left\{\omega:\frac{X_1(\omega)+X_2(\omega)+\dots+X_n(\omega)}{n}\rightarrow \frac{1}{2}\right\}$$
Então, se $\omega \in A$ então
$$\frac{X_1(\omega)+X_2(\omega)+\dots+X_n(\omega)}{n}\rightarrow \frac{1}{2}$$
o que implica que
$$X_1(\omega)+X_2(\omega)+\dots+X_n(\omega)\rightarrow \infty.$$
Assim, definindo
$$B:=\left\{\omega: X_1(\omega)+X_2(\omega)+\dots+X_n(\omega)\rightarrow \infty\right\}$$
Temos $\omega \in B$, ou seja, $A\subset B$ o que implica
$$\mathbb{P}(B)\geq \mathbb{P}(A)=1$$
o que implica que $S_n\rightarrow \infty.$ E o resultado segue.
 

 

Exemplo 7.1.2.12:
Sejam $X_1,X_2,\dots$ independentes e identicamente distribuídas com média $\mu_1$ e variância $\sigma^2_1$ e sejam $Y_1,Y_2,\dots$ independentes e identicamente distribuídas com média $\mu_2$ e variáveis aleatórias $Z_1,Z_2,\dots$ da seguinte maneira: joga-se uma moeda honesta e define-se $Z_1=X_1$ se dá cara e $Z_1=Y_1$ se dá coroa. Depois joga-se de novo, definindo-se $Z_2=X_2$ se dá cara e $Z_2=Y_2$ se dá coroa. Depois joga-se de novo, definindo-se $Z_2=X_2$ se dá cara e $Z_2=Y_2$ se dá coroa, etc. (ad infinitum). Suponha que todas as $X's$  e $Y's$ são independentes e que os lançamentos da moeda não dependem das $X's$ e $Y's$. Explique se a sequência $Z_1,Z_2,\dots$ obedece a Lei Forte dos Grandes Números. Se obedece, qual o limite de
$$\bar{Z}_n=\frac{Z_1+\dots+Z_n}{n}$$

Seja $M_i$ variáveis aleatórias que representa o resultado da moeda no i-ésimo ensaio. Então definimos $M_i(\omega)=1$ se $\omega=$cara e $M_i(\omega)=0$ o que implica $\omega=$coroa. Como a moeda é honesta temos que
$$\mathbb{P}(M_i=1)=\mathbb{P}(M_i=0)=\frac{1}{2}.$$
Além disto, $X_1,X_2,\dots, Y_1,Y_2,\dots, M_1,M_2,\dots$ são variáveis aleatórias independentes pois $Z_i$ só depende de $X_i,Y_i$ e $M_i$ o que implica que $Z_1,Z_2,\dots$ são variáveis independentes. Agora
$$\mathbb{P}(Z_i\leq z)=\mathbb{P}(Z_i\leq z,[M_i=1]\cup[M_i=0])$$
$$=\mathbb{P}(Z_i\leq z,[M_i=1])+\mathbb{P}(Z_i\leq z,[M_i=0])=\mathbb{P}(M_i=1)\mathbb{P}(Z_i\leq z|M_i=1)+\mathbb{P}(M_i=0)\mathbb{P}(Z_i\leq z|M_i=0)$$
$$=\frac{1}{2}\mathbb{P}(X_i\leq z)+\frac{1}{2}\mathbb{P}(Y_i\leq z)=\frac{1}{2}\left[F_{X_1}(z)+F_{Y_1}(z)\right]$$
Então $Z_1,Z_2,\dots$ são variáveis aleatória identicamente distribuídas e
$$\mathbb{E}(Z_1)=\int_{-\infty}^\infty z dF_Z(z)=\frac{1}{2}\int_{-\infty}^\infty z dF_{X_1}(z)+\frac{1}{2}\int_{-\infty}^\infty zdF_{Y_1}(z)=\frac{1}{2}\left(\mu_1+\mu_2\right)$$
e $Z_1,Z_2,\dots$ são variáveis integráveis. Assim, pela lei forte de Kolmogorov é aplicável e resulta em
$$\frac{Z_1+Z_2+\dots+Z_n}{n}\stackrel{q.c.}{\rightarrow} \frac{1}{2}\left(\mu_1+\mu_2\right)$$
e o resultado segue.
 


Exemplo 7.1.2.13:
Sejam $X_1,X_2,\dots$ variáveis aleatórias independentes tais que $X_k\sim b(n_k,p)$, no qual $0< p< 1$.

(a) Qual a distribuição de $S_n=\sum_{k=1}^n X_k?$

Vejamos, primeiro $S_2=X_1+X_2$ então para $0\leq n\leq n_1+n_2$.
$$\mathbb{P}(S_2=n)=\sum_{k=1}^n\mathbb{P}(X_1=k,X_2=n-k)=\sum_{k=1}^n\mathbb{P}(X_1=k)\mathbb{P}(X_2=n-k)$$
$$=\sum_{k=1}^n\binom{n_1}{k}p^k(1-p)^{n_1-k}\binom{n_2}{n-k}p^{n-k}(1-p)^{n_2-n-k}$$
$$=p^n(1-p)^{(n_1+n_2)-k}\sum_{k=1}^n\binom{n_1}{k}\binom{n_2}{n-k}=\binom{n_1+n_2}{n}p^n(1-p)^{(n_1+n_2)-k}$$
Vamos precisar de alguns fatos importantes. Se $X_1\sim b(n_1,p)$ e independente de $X_2\sim b(n_2,p)$, então $X_1+X_2\sim b(n_1+n_2,p)$. Então, se $S_3=(X_1+X_2)+X_3$ no qual $(X_1+X_2)$ é independente de $X_3$, então temos que $(X_1+X_2)+X_3\sim b(n_1+n_2+n_3,p)$. Por indução, temos que
$$S_n\sim b\left(\sum_{k=^1}^n n_k,p\right).$$


(b) Se $n_k\leq \sqrt{k}$, mostre que a sequência satisfaz a Lei Forte.

Agora $Var(X_k)=n_kp(1-p)$ então supondo $n_k\leq \sqrt{k}$
$$\sum_{k=1}^\infty \frac{Var(X_k)}{k^2}=\sum_{k=1}^\infty \frac{n_k(1-p)p}{k^2}\leq \sum_{k=1}^\infty \frac{\sqrt{k}p(1-p)}{k^2}$$
$$=p(1-p)\sum_{k=1}^\infty \frac{1}{k^{3/2}}< \infty$$
Então, aplicando a primeira lei forte de Kolmogorov, temos que
$$\frac{S_n-\mathbb{E}(S_n)}{n}\stackrel{q.c}{\rightarrow}0$$
e o resultado segue
 

 

Exemplo 7.1.2.14:
Uma massa radioativa emite partículas segundo um processo de Poisson com parâmetro $\lambda > 0$. Sejam $T_1,T_2,\dots$ os tempos transcorridos entre emissões sucessivas. Ache o
$$\lim_{n\rightarrow \infty}\frac{T_1^2+\dots+T_n^2}{n}$$
É limite quase certo ou em probabilidade ?

Sabemos que em um processo de Poisson $T_1,T_2,\dots$ é sequência variáveis aleatórias independentes e identicamente distribuídas, com $T_1\sim Exp(\lambda)$. Então, pela propriedade da hereditariedade da independência, $T_1^2,T_2^2,\dots$ é uma sequência de variáveis aleatórias independentes e também identicamente distribuídas e
$$\mathbb{E}(T_1^2)=\int_0^\infty t^2\lambda e^{-\lambda t}dt= Var(T_1)+\left[\mathbb{E}(T_1)\right]^2=\frac{1}{\lambda^2}+\frac{1}{\lambda^2}=\frac{1}{\lambda^2}$$
Então, $T_1^2,T_2^2,\dots$ é uma sequência variáveis aleatória independentes identicamente distribuídas e integráveis. Aplicando a Lei forte de Kolmogorov
$$\frac{T_1^2+T_2^2+\dots+T_n^2}{n}\rightarrow \mathbb{E}(T_1^2)=\frac{2}{\lambda^2}$$
E o resultado segue.
 

 

Exemplo 7.1.2.15:
Sejam $X_1,X_2,\dots$ independentes com distribuição comum $N(0,1)$. Qual o limite quase certo de
$$\frac{X_1^2+\dots+X^2_n}{(X_1-1)^2+\dots+(X_n-1)^2}?$$

Primeiramente temos pela Lei Forte de Kolmogorov que $X_1^2,X_2^2,\dots$ é uma sequência de variáveis aleatórias independentes (propriedade hereditária) e identicamente distribuídas e integráveis ($\mathbb{E}(X_i^2)=Var(X_i)=1,\quad i=1,2,\dots$)
$$\frac{X_1^2+\dots X_n^2}{n}\stackrel{q.c.}{\rightarrow} 1$$
o que implica que
$$\mathbb{P}\left\{\omega:\frac{X_1^2(\omega)+\dots+X_n^2(\omega)}{n}\rightarrow 1\right\}=1$$
Seja,
$$A=\left\{\omega: \frac{X_1^2+\dots+X_n^2}{n}\rightarrow 1\right\}$$
então $\mathbb{P}(A)=1$. Então, defina a sequência
$$(X_1-1)^2,\dots (X_n-1)^2$$
de variáveis aleatórias independentes e identicamente distribuídas e integráveis, pois
$$\mathbb{E}(X_1-1)^2=\mathbb{E}(X_1^2-2X_1+1)=\mathbb{E}(X_1^2)+1=1+1=2$$
Assim sendo, defina
$$B=\left\{\omega: \frac{(X_1-1)^2(\omega)+\dots+(X_n-1)^2(\omega)}{n}\rightarrow 2\right\}$$
temos pela lei forte de Kolmogorov, temos
$$\frac{(X_1-1)^2+\dots+(X_n-1)^2}{n}\rightarrow 2$$
o que implica que $\mathbb{P}(B)=1$. Agora se $\omega \in (A\cap B)$. Então, $\omega \in A$ o que implica que
$$\frac{X_1^2(\omega)+\dots+X_n^2(\omega)}{n}\rightarrow 1$$
e $\omega \in B$ temos
$$\frac{(X_1-1)^2(\omega)+\dots+(X_n-1)^2(\omega)}{n}\rightarrow 2$$
Desta forma, $\omega \in A\cap B$
$$\frac{X_1^2(\omega)+\dots+X_n^2(\omega)}{(X_1-1)^2(\omega)+\dots+(X_n-1)^2(\omega)}\rightarrow \frac{1}{2}$$
Sendo,
$$C=\left\{\omega:\frac{X_1^2(\omega)+\dots+X_n^2(\omega)}{(X_1-1)^2(\omega)+\dots+(X_n-1)^2(\omega)}> \frac{1}{2}\right\}.$$
Temos $(A\cap B)\subset C$ e então
$$\mathbb{P}(C)\geq \mathbb{P}(A\cap B)=1$$
pois $\mathbb{P}(A)=1$ e $\mathbb{P}(B)=1$ então $\mathbb{P}(C)=1$ o que implica que
$$\frac{X_1^2+\dots+X_n^2}{(X_1-1)^2+\dots+(X_n-1)^2}\rightarrow\frac{1}{2}$$
portanto o resultado segue.
 


Exemplo 7.1.2.16:
Sejam $X_1,X_2,\dots$ variáveis aleatórias independentes tais que $X_n\sim U[0,n], \quad n=1,2,\dots$. Chame o n-ésimo ensaio de sucesso se $X_{2n}> X_{2n-1}$, fracasso se $X_{2n}\leq X_{2n-1}$, para $n=1,2,\dots$. Determine a probabilidade de haver sucesso no n-ésimo ensaio e ache o limite(se existir) de $S_n/n$, no qual $S_n=$número de sucessos nos primeiros n ensaios. Esse limite e o limite em probabilidade e/ou quase certo?

Defina
$$Y_n=\left\{\begin{array}{l}1,\quad X_{2n}\leq X_{2n-1}\\ 0,\quad X_{2n}> X_{2n-1}\end{array}\right.$$
e $B_n=[X_{2n},X_{2n-1}]$
Teremos que
$$p_n=\mathbb{P}(Y_n=1)=\mathbb{P}(X_{2n}\leq X_{2n-1})=\int_{B_n}f_{X_{2n},X_{2n-1}}(x_{2n},x_{2n-1})dx_{2n}dx_{2n-1}.$$
Agora, como $X_{2n}$ é independente de $X_{2n-1}$, o que implica que
$$f_{X_{2n},X_{2n-1}}(x_{2n},x_{2n-1})=f_{X_{2n}}(x_{2n})f_{X_{2n-1}}(x_{2n-1})=\left\{\frac{1}{2n(2n-1)},(X_{2n},X_{2n-1})\in[0,2n]\times[0,2n-1]\\ 0,\quad\text{Caso}\quad\text{Contrário}\right.$$
então
$$p_n=\frac{1}{2n(2n-1)}Vol(B\cap A)=\frac{(2n-1)^2}{4n(2n-1)}=\frac{2n-1}{4n}=\frac{1}{2}-\frac{1}{4n}$$
Assim, a sequência $Y_1,Y_2,\dots$ é variável aleatória independente, com
$$\left\{\mathbb{P}(Y_n=1)=\frac{1}{2}-\frac{1}{4n}\\ \mathbb{P}(Y_n=0)=\frac{1}{2}+\frac{1}{4n}\right.$$
Então
$$\mathbb{E}(Y_n)=p_n=\frac{1}{2}-\frac{1}{4n}$$
e
$$Var(Y_n)=p_n(1-p_n)=\frac{1}{4}-\frac{1}{16n^2}.$$
Assim,
$$\sum_{n=1}^\infty \frac{Var(Y_n)}{n^2}=\sum_{n=1}^\infty \frac{1}{4n^2}-\sum_{n=1}^\infty \frac{16}{n^4}< \infty$$
Usando a primeira lei forte de Kolmogorov, temos
$$\frac{S_n}{n}=\frac{Y_1+\dots+Y_n}{n}\rightarrow \frac{\mathbb{E}(S_n)}{n}$$
com
$$\frac{\mathbb{E}(S_n)}{n}=\frac{\frac{1}{2}-n-\sum_{k=1}^n \frac{1}{4k}}{n}=\frac{1}{2}-\frac{1}{4n}\sum_{k=1}^n\frac{1}{4k}$$
Desta forma, definindo
$$A=\{\omega: \frac{S_n}{n}\rightarrow \frac{1}{2}-\frac{1}{4n}\sum_{k=1}^n\frac{1}{k}\}$$
temos que $\mathbb{P}(A)=1$. Agora
$$\lim_{n\rightarrow \infty}\left(\frac{1}{2}-\frac{1}{4n}\sum_{k=1}^n\frac{1}{k}\right)=a$$
então seja $B=\left\{\omega: \frac{S_n}{n}\rightarrow a\right\}$, então $\omega\in A$ o que implica que $\omega \in B$ o que implica $A\subset B$ o que implica que $\mathbb{P}(B)\geq \mathbb{P}(A)=1$ o que implica que
$$\frac{S_n}{n}\stackrel{q.c.}{\longrightarrow} a.$$
 

Exemplo 7.1.2.17:
A lei forte para variáveis aleatórias independentes, identicamente distribuídas e integráveis pode ser estendida ao acaso de esperanças infinitas, se admitirmos limites infinitos. Em particular, se $X_1,X_2,\dots$ são independentes e identicamente distribuídas tais que $\mathbb{E}(X_n)=\infty$, então
$$S_n/n\rightarrow \infty$$
quase certamente. Prove esse resultado em 3 etapas:
(a) Para $m$ inteiro positivo fixo, seja $Y_n$ o truncamento de $X_n$ em $m$
$$Y_n=\left\{\begin{array}{l}X_n,\quad se\quad X_n\leq m\\ 0\quad se\quad X_n> m.\end{array}\right.$$
Então $\frac{Y_1+\dots+Y_n}{n}\rightarrow \mathbb{E}(Y_1)$ quase certamente, no qual
$$\mathbb{E}(Y_1)=\int_{-\infty}^m x dF_{X_1}(x)$$
Observe que temos que
$$F_{Y_n}(y)=\mathbb{P}(Y_n\leq y)=\left\{\begin{array}{l}F_{X_n}(y),\quad se\quad y\leq m\\ 1,\quad y\geq m.\end{array}\right.$$
Mas
$$\mathbb{E}(X_1)=\int_{0}^\infty (1-F_{X_1}(x))dx-\int_{-\infty}^0 F_{X_1}(x)dx$$
Agora como $\mathbb{E}(X_1)=\infty$ isto implica que
$$\int_{-\infty}^0 F_{X_1}(x)dx< \infty.$$
Assim
$$\mathbb{E}(Y_1)=\int_{0}^\infty (1-F_{Y_1}(y))dy-\int_{-\infty}^0 F_{Y_1}(y)dy=\int_0^m(1-F_{X_1}(y))dy-\int_{-\infty}^0 F_{X_1}(y)dy$$
como
$$\int_{-\infty}^0 F_{X_1}(y)dy< \infty$$
então
$$0\leq \int_0^m(1-F_{X_1}(y))dy\leq \int_0^m dy=m< \infty $$
Portanto, $\mathbb{E}(Y_1)< \infty$. Então, utilizando a Lei forte de Kolmogorov
$$\frac{Y_1+\dots+Y_n}{n}\rightarrow \mathbb{E}(Y_1)$$
mas isso se, e somente se,
$$\mathbb{P}\left\{\omega: \frac{Y_1+\dots+Y_n}{n}\rightarrow \mathbb{E}(Y_1)\right\}=1$$
com
$$\mathbb{E}(Y_1):=\int_{-\infty}^m F_{X_1}(y)dy$$


(b)
$$\liminf_{n\rightarrow \infty}\frac{S_n}{n}\geq \int_{-\infty}^m xdF_{X_1}$$
quase certamente

$$B=\left\{\omega:\frac{X_1(\omega)+\dots+X_n(\omega)}{n}\geq \frac{Y_1(\omega)+\dots+Y_n(\omega)}{n}\right\}=\Omega$$
e
$$A=\left\{\omega \frac{Y_1(\omega)+\dots+Y_n(\omega)}{n}\rightarrow \mathbb{E}(Y_1)\right\}$$
Se $\omega \in A\cap B$, $\omega \in B_m$ o que implica que $$\frac{X_1(\omega)+\dots+X_n(\omega)}{n}\geq \frac{Y_1(\omega)+\dots+Y_n(\omega)}{n}$$
se $\omega \in A$ isto implica que
$$\lim_{n\rightarrow \infty}\frac{Y_1(\omega)+\dots+Y_n(\omega)}{n}=\mathbb{E}(Y_1)$$
Logo se $\omega\in A\cap B$, isto implica que
$$\liminf_{n\rightarrow \infty}\frac{X_1(\omega)+\dots+X_n(\omega)}{n}\geq \mathbb{E}(Y_1)$$
Definindo $C_m=\left\{\omega : \liminf_{n\rightarrow \infty}\frac{S_n(\omega)}{n}\geq \mathbb{E}(Y_1)\right\}$, temos então que $C_m\supset A\cap B$. O que implica que
$$\mathbb{P}(C_m)> \mathbb{P}(A\cap B)=1$$
pois $\mathbb{P}(A)=\mathbb{P}(B)=1$. Assim,
$$\liminf_{n\rightarrow \infty}\frac{S_n}{n}\geq \mathbb{E}(Y_1)=\int_{-\infty}^m xdF_{X_1}(x).$$


(c) $\frac{S_n}{n}\rightarrow \infty$ quase certamente.

Agora, se dado qualquer $M> 0$, temos que existe $n_0$ tal que $n> n_0$ o que implica que
$$\frac{S_n}{n}> M$$
Então, $\frac{S_n}{n}\rightarrow \infty$. Como $\mathbb{E}(Y_1(m))\rightarrow \mathbb{E}(X_1)=\infty$, então dado $M> 0$ existe $m_0$ tal que $m> m_0$ o que implica que
$$\mathbb{E}(Y_1(m))> M$$
Então se $\omega \in C_m$, para $m> m_0$, isto implica que
$$\liminf_{n\rightarrow \infty}\frac{S_n(\omega)}{n}\geq \mathbb{E}(Y_1(m))> M\Rightarrow \frac{S_n(\omega)}{n}\rightarrow \infty.$$
Sendo $D=\left\{\omega: \frac{S_n(\omega)}{n}\rightarrow \infty\right\}$
se $\omega \in C_m\Rightarrow \omega \in D$
o que implica que
$$\mathbb{P}(D)\geq \mathbb{P}(C_m)=1$$
o que implica
$$\frac{S_n}{n}\stackrel{q.c.}{\longrightarrow} \infty$$
 

 

Exemplo 7.1.2.18:
Sejam $X_1,X_2,\dots$ variáveis aleatórias independentes, identicamente distribuídas e integráveis. Determine
$$\lim_{n\rightarrow \infty}\mathbb{E}(X_1|X_1+X_2+\dots+X_n)$$
Qual o tipo de convergência?

Como $X_1,X_2,\dots$ variáveis aleatórias independentes, identicamente distribuídas e integráveis
$$\mathbb{E}\left(X_1|X_1+\dots+X_n\right)=\mathbb{E}\left(X_2|X_1+\dots+X_n\right)=\dots=\mathbb{E}\left(X_n|X_1+\dots+X_n\right)$$
o que implica que
$$\mathbb{E}\left(X_1+\dots+X_n|X_1+\dots+X_n\right)=n\mathbb{E}\left(X_1|X_1+\dots+X_n\right)$$
o que implica que
$$\mathbb{E}\left(X_1+\dots+X_n|X_1+\dots+X_n\right)=n\mathbb{E}\left(X_1|X_1+\dots+X_n\right)$$
o que nos leva a
$$X_1+\dots+X_n=n\mathbb{E}\left(X_1|X_1+\dots+X_n\right)\Rightarrow \mathbb{E}\left(X_1|X_1+\dots+X_n\right)=\frac{X_1+\dots+X_n}{n}$$
Agora, pela lei forte de Kolmogorov, temos
$$\mathbb{E}\left(X_1|X_1+\dots+X_n\right)=\frac{X_1+\dots+X_n}{n}\stackrel{q.c}{\longrightarrow} \mathbb{E}(X_1)$$

 

Exemplo 7.1.2.19:
Seja $(X_n)_{n\geq 1}$ uma sequência de variáveis aleatórias, cada qual tomando valores $0$ ou 1. Suponha $\mathbb{P}(X_1=1)=1/2$ e $\mathbb{P}(X_{n}=X_{n-1}|X_1=x_1,\dots,X_{n-1}=x_{n-1})=1-\alpha_{n-1}$ para todo $(x_1,\dots,x_n),n=1,2,\dots$. Faça-se $Y_n=\frac{1}{n}\sum_{i=1}^n X_i$. Discuta se $Y_n\rightarrow \frac{1}{2}$ em probabilidade ou quase certamente quando
(a)$\alpha_n=1/2, \forall n$

Agora
$$\mathbb{P}(X_1=x_1,X_2=x_2,\dots,X_n=x_n)=\mathbb{P}(X_1=x_1,X_2=x_2,\dots,X_{n-1}=x_{n-1})\mathbb{P}(X_n=x_n|X_1=x_1,X_2=x_2,\dots,X_{n-1}=x_{n-1})$$
Como
$$\mathbb{P}(X_n=X_{n-1}|X_1=x_1,X_2=x_2,\dots,X_{n-1}=x_{n-1})=\frac{1}{2}=\mathbb{P}(X_n\neq X_{n-1}|X_1=x_1,X_2=x_2,\dots,X_{n-1}=x_{n-1})$$
Temos por indução
$$\mathbb{P}(|X_1=x_1,X_2=x_2,\dots,X_{n}=x_{n})=\left(\frac{1}{2}\right)^{n}=\mathbb{P}(X_1=X_{1})\dots\mathbb{P}(X_{n}=x_{n})$$
para todo $x_1,x_2,\dots, x_n$, então para todo n $\{X_1,X_2,\dots,X_n\}$ são variáveis aleatórias independentes o que implica que a sequência de variáveis aleatórias independentes e identicamente distribuída e integráveis $\left(\mathbb{E}(X_1)=\frac{1}{2}\right)$. Assim, pela lei forte de Kolmogorov temos que
$$Y_n=\frac{1}{n}(X_1+\dots+X_n)\stackrel{q.c}{\longrightarrow}\frac{1}{2}.$$

(b)$\sum \alpha_n$ converge

Se $\sum \alpha_n$ converge, isto implica que para todo $\epsilon > 0$ existe $n_0$ tal que $n> n_0$ o que implica que
$$\sum_{k=n}^\infty \alpha_n< \epsilon$$
Seja $A_n:=[X_{n+1}\neq X_n]$ e
$$\mathbb{P}(A_n)=\mathbb{P}(X_{n+1}\neq X_n)=1-\mathbb{P}(X_{n+1}=X_n)$$
Agora
$$\mathbb{P}(X_{n+1}=X_n)=\sum_{(x_1,\dots,x_n)}\mathbb{P}(X_{n+1}=x_n|X_1=x_1,\dots,X_n=x_n)\mathbb{P}(X_1=x_1,\dots,X_n=x_n)$$
$$=(1-\alpha_n)\sum_{(x_1,\dots,x_n)}\mathbb{P}(X_1=x_1,\dots,X_n=x_n)=1-\alpha_n$$
Assim, $\mathbb{P}(\alpha_n)$, o que implica que
$$\sum_{n=1}^\infty \mathbb{P}(A_n)=\sum_{n=1}^\infty \alpha < \infty $$
o que implica pelo lema de Borel-Cantelli
$$\mathbb{P}(A_n,\quad i.o)=0$$
então
$$\mathbb{P}(X_{n+1}=x_n,\quad i.o)=0$$
o que implica que
$$\mathbb{P}(X_{n+1}=x_n,\quad n \text{suficientemente}\quad \text{grande}\quad (n> n_0))=1$$
o que implica que
$$\mathbb{P}(\omega: X_n(\omega)\rightarrow X_{n_0}(\omega))=1$$
o que implica que
$$\mathbb{P}(\omega:X_n(\omega)\rightarrow 1 \quad ou\quad X_n(\omega)\rightarrow 0)=1.$$
Seja $A=\{\omega:X_n(\omega)\rightarrow 1 \quad ou\quad X_n(\omega)\rightarrow 0\}$, então se $\omega \in A$, o que implica que
$$\frac{S_n(\omega)}{n}=\frac{X_1(\omega)+\dots+X_n(\omega)}{n}$$
converge para 0 ou 1, então definindo
$$B=\left\{\omega: \frac{S_n(\omega)}{n}\rightarrow 0 \quad ou \quad \frac{S_n}{n}\rightarrow 1\right\}$$
e
$$C=\left\{\omega \frac{S_n(\omega)}{n}\rightarrow \frac{1}{2}\right\}$$
Temos que $\omega\in A$ implica que $\omega \in B$ o que implica que
$$\mathbb{P}(B)\geq \mathbb{P}(A)=1\Rightarrow \mathbb{P}(B)=1$$
e $\omega \in C$ o que implica que $\omega \notin B \Rightarrow (B\cap C)=\emptyset$ o que implica que
$$\mathbb{P}(C)\leq 1-\mathbb{P}(B)=1-1=0$$
o que implica que
$$\mathbb{P}(C)=\mathbb{P}\left(\frac{S_n}{n}\rightarrow \frac{1}{2}\right)=0$$
o que implica que
$$\frac{S_n}{n}\stackrel{q.c.}{\longrightarrow}\frac{1}{2}.$$
Agora, provaremos também que
$$\frac{S_n}{n}\stackrel{\mathbb{P}}{\nrightarrow}\frac{1}{2}$$
como um contra-exemplo seja $0=\alpha_1=\dots=\alpha_n=\dots$ então $\sum_{i=1}^\infty \alpha_i=0< \infty$ e então
$$\frac{S_n}{n}=\left\{\begin{array}{l}0 , \quad se\quad X_1=0\\ 1,\quad se\quad X_1=1\end{array}\right.$$
o que implica que
$$\mathbb{P}\left(\frac{S_n}{n}=0\right)=\mathbb{P}(X_1=0)=\frac{1}{2}$$
e
$$\mathbb{P}\left(\frac{S_n}{n}=1\right)=\mathbb{P}(X_1=1)=\frac{1}{2}$$
Agora, seja $0< \epsilon < \frac{1}{2}$, então
$$\mathbb{P}\left(\bigg|\frac{S_n}{n}-\frac{1}{2}\bigg|\geq \epsilon\right)=1$$
pois se $\frac{S_n}{n}=0$ o que implica que
$$\bigg|\frac{S_n}{n}-\frac{1}{2}\bigg|=\frac{1}{2}$$
ou $\frac{S_n}{n}=1$ o que implica que
$$\bigg|\frac{S_n}{n}-\frac{1}{2}\bigg|=\frac{1}{2}$$
Assim, $$\lim_{n\rightarrow \infty }\mathbb{P}\left(\bigg|\frac{S_n}{n}-\frac{1}{2}\bigg|\geq \epsilon\right)=1\neq 0$$
o que implica que
$$\frac{1}{2}\nrightarrow \frac{1}{2}$$

 

Exemplo 7.1.2.20:
Sejam $X_1,X_2,\dots$ independentes tais que $\mathbb{E}(X_n)=0, \forall n$. Demonstre que se
$$\sum_{n=1}^\infty Var(X_n)< \infty$$
então $\mathbb{E}(\sup_{n> 1}|S_n|)< \infty$, no qual $S_n=X_1+\dots+X_n.$

Pelo critério da integrabilidade temos que
$$\mathbb{E}\left(\sup_{n\geq 1}|S_n|\right)< \infty$$
se, e somente se
$$\sum_{k=0}^\infty \mathbb{P}\left(\sup_{n\geq 1}|S_n|> k\right)< \infty$$
Agora pela desigualdade de Kolmogorov, temos que
$$\mathbb{P}\left(\max_{1\leq k\leq n_0}|S_k|> k\right)\leq \frac{1}{k^2}\sum_{i=1}^{n_0}Var(X_i),k> 0$$
Agora, se $\sup_{n\geq 1}|S_n|> k$ pela definição de supremo, temos que existe $n_0$ tal que $|S_{n_0}|> k$ o que implica que
$$\max_{1\leq k\leq n_0}|S_n|\geq k.$$
Assim, $\omega \in A=[\sup_{n\geq 1}|S_n|> k]$ o que implica que $\omega \in [\max_{1\leq n\leq n_0}|S_n|\geq k]$ então
$$\mathbb{P}(\sup_{n\geq 1}|S_n|> k)\leq \mathbb{P}(\max_{1< n< n_1}|S_n|\leq k)$$
Pela desigualdade de Kolmogorov
$$\mathbb{P}(\max_{1< n< n_1}|S_n|\leq k)\leq \frac{1}{k^2}\sum_{i=1}^{n_0} Var(X_i)\leq \frac{1}{k^2}\sum_{i=1}^\infty Var(X_i)$$
Assim, $k> 0$ o que implica que
$$\mathbb{P}(\sup_{n\geq 1}|S_n|> k)=\mathbb{P}(\sup_{n\geq 1}|S_n|> 0)+\sum_{k=1}^\infty \mathbb{P}(\sup_{n\geq 1}|S_n|> k)$$
$$\leq 1+\sum_{k=1}^\infty \frac{1}{k^2}\sum_{i=1}^\infty Var(X_i)$$
Como
$$\sum_{i=1}^\infty Var(X_i)< \infty$$
então
$$\sum_{k=0}^\infty \mathbb{P}\left(\sup_{n\geq 1}|S_n|< k\right)\leq 1+\sum_{i=1}^\infty Var(X_i)\sum_{i=1}^\infty \frac{1}{k^2}$$
o que implica que
$$\sum_{k=0}^\infty \mathbb{P}(\sup_{n\geq 1}|S_n|)< \infty$$
 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]