7.1.1 - Convergências em probabilidade e quase certa

Você está aqui

Nesta seção, vamos estudar as convergências em probabilidades e quase certa, porém, inicialmente vamos apresentar um resultado importante, que é o lema de Borel-Cantelli.

Definição 7.1.1.1: 

Seja $ \{A_n\}_{n\geq 1} $ uma sequência de eventos aleatórios então o limite superior da sequência é definido como


\[\displaystyle \limsup_{n\rightarrow\infty} A_n=\bigcap_{n=1}^{\infty}\bigcup_{k=n}^{\infty}A_k.\]

Além disso, o limite inferior é definido como:


\[\displaystyle \liminf_{n\rightarrow\infty} A_n=\bigcup_{n=1}^{\infty}\bigcap_{k=n}^{\infty}A_k.\]

Como consequência da definição, temos que $ \omega\in\limsup_{n\rightarrow\infty} A_n $ se, e só se, para todo $ n $ existe algum $ k \geq n $ tal que $ \omega\in A_k $. Assim, dizemos que $ \omega\in\limsup_{n\rightarrow\infty} A_n $ este pertence a um número infinito de $ A_n $. Por isso, também denotamos o limite superior de $ A_n $ como $ A_n $ i.v. (infinita vezes). Da mesma forma, temos que $ \omega\in\liminf_{n\rightarrow\infty} A_n $ se, e só se, existe $ n $ tal que $ \omega \in A_k $ para todo $ k \geq n $. Então, podemos dizer que $ \omega\in\liminf_{n\rightarrow\infty} A_n $ se,  só se, $ \omega $ pertence a todos os $ A_n $ exceto um número finito destes. A seguir, apresentamos o lema de Borel-Cantelli.

 

Lema 7.1.1.1: (Lema de Borel-Cantelli)

Seja $ \{A_n\}_{n\geq 1} $ uma sequência de eventos aleatórios. Temos que:

i) Se $ \displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n) \ \textless \ \infty $, então $ \mathbb{P}[A_n,i.v.]=\mathbb{P}\left(\displaystyle \limsup_{n\rightarrow \infty} A_n\right)=0 $.

ii) Se $ \displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n)=\infty $ e os eventos $ \{A_n\}_{n\geq 1} $ são independentes, então $ \mathbb{P}[A_n,i.v.]=\mathbb{P}\left(\displaystyle \limsup_{n\rightarrow\infty} A_n\right)=1. $

Demonstração:

i) Se $ \displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n) \ \textless \ \infty $, então $ \displaystyle \sum_{k=n}^{\infty}\mathbb{P}(A_k)\rightarrow 0 $ , quando $ n\rightarrow \infty $. E como


\[\displaystyle\limsup_{n\rightarrow\infty} A_n \subset \bigcup_{k=n}^{\infty}A_k,\]

então temos que:


$$\mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]\leq \mathbb{P}\left[\displaystyle \bigcup_{k=n}^{\infty}A_k\right]\leq \sum_{k=n}^{\infty}\mathbb{P}(A_k)\xrightarrow{n\rightarrow\infty} 0.$$

Portanto como $ 0\leq \mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]\leq 0 $, concluímos que $ \mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]=0 $.

ii) Para demonstrarmos este item basta observar que $ \mathbb{P}\left[\displaystyle\bigcup_{k=n}^{\infty}A_k\right]=1 $, para qualquer n, pois interseção de eventos com probabilidade 1 também tem probabilidade 1(ver propriedade 12), ou seja, se demonstrarmos que $ \mathbb{P}\left[\displaystyle\bigcup_{k=n}^{\infty}A_k\right]=1 $ então $ \mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]=1 $ e o resultado é demonstrado.

Assim, seja $ B_n=\displaystyle \bigcup_{k=n}^{\infty}A_k $, note que $ B_n \supset \displaystyle \bigcup_{k=n}^{n+m}A_k  $, para qualquer $ m \in \mathds{N} $, e portanto $ B_n^c \subset \left(\displaystyle \bigcup_{k=n}^{n+m}A_k\right)^c=\displaystyle \bigcap_{k=n}^{n+m}A_k^{c} $ (essa igualdade é válida pelas leis de De Morgan).

Logo, para todo m temos


$$1-\mathbb{P}(B_n)=\mathbb{P}(B_n^c)\leq \mathbb{P}\left(\displaystyle \bigcap_{k=n}^{n+m}A_k^{c}\right).$$

Como cada $ A_i $ são independentes então obtemos que


$$\mathbb{P}\left(\displaystyle \bigcap_{k=n}^{n+m}A_k^{c}\right)=\prod_{k=n}^{n+m}\mathbb{P}(A_k^c)=\prod_{k=n}^{n+m}(1-\mathbb{P}(A_k)).$$

Notemos que $ 1-p\leq e^{-p} $ para $ 0\leq p \leq 1 $, temos então que:


\[1-\mathbb{P}(B_n)\leq \prod_{k=n}^{n+m}e^{-\mathbb{P}(A_k)}=\exp\left\{-\displaystyle \sum_{k=n}^{n+m}\mathbb{P}(A_k)\right\}\xrightarrow{m\rightarrow\infty} 0,\]

pois por hipótese temos que $ \displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n)=\infty $. Portanto $ \mathbb{P}(B_n)=1 $, para todo $ n\geq 1 $.

$ \Box $

Exemplo 7.1.1.1:

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias independentes tal que, $ X_n\sim \text{Bernoulli}(p_n) $, $ 0 \ \textless \ p_n \ \textless \ 1 $, $ n\geq 1. $

Pelo lema de Borel-Cantelli, temos que

Se $ \displaystyle\sum^\infty_{n=1}p_n \ \textless \ \infty $ então $ \mathbb{P}([X_n=1],i.v.)=0 $

Se $ \displaystyle\sum^\infty_{n=1}p_n=\infty $ então $ \mathbb{P}([X_n=1],i.v.)=1 $

Exemplo 7.1.1.2:

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias independentes com $ X_n\sim \text{Exp}(1). $ Defina $ Y_n=\frac{X_n}{\log(n)} $ para $ n\geq1. $ Discuta a convergência em probabilidade e quase certa.

Note que


$$\mathbb{P}\left(X_n \ \textgreater \ x\right)=e^{-x},\quad x \ \textgreater \ 0,~n\geq 1$$

e portanto,


$$\mathbb{P}\left(X_n \ \textgreater \ \alpha \log n\right)=e^{-\alpha\log n}=\dfrac{1}{n^\alpha},\quad ~n\geq 1$$

Então, pelo lema de Borel-Cantelli,

  • para $ \alpha \ \textgreater \ 1 $ temos que $ \displaystyle\sum^\infty_{n=1}\dfrac{1}{n^\alpha} \ \textless \ \infty $ então $ \mathbb{P}(X_n \ \textgreater \ \alpha\log n,i.v.)=0 $
  • para $ 0 \ \textless \ \alpha \ \textless \ 1 $ temos que $ \displaystyle\sum^\infty_{n=1}\dfrac{1}{n^\alpha}=\infty $ então $ \mathbb{P}(X_n \ \textgreater \ \alpha\log n,i.v.)=1 $

Agora, vamos apresentar as definições de convergências em probabilidades e quase certa.

Definição 7.1.1.2: (Convergência em probabilidade)

Sejam  $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias e $ X $ uma variável aleatória definidas no mesmo espaço de probabilidade. Dizemos que $ X_n $ converge em probabilidade para $ X $ e denotamos $ X_n\xrightarrow{\mathbb{P}}X $ se


\[\lim_{n\rightarrow\infty}\mathbb{P}\left(|X_n-X|\geq \varepsilon\right)=0,\quad \forall \ \varepsilon \ \textgreater \ 0.\]

A principal ideia da convergência em probabilidade é que, quando n é arbitrariamente grande, a probabilidade da diferença $ |X_n-X| $ ser maior do que qualquer número positivo $ \varepsilon $ tende a zero.

Definição 7.1.1.3: (Convergência quase certa)

Sejam $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias e $ X $ uma variável aleatória definidas no mesmo espaço de probabilidade. Dizemos que $ X_n $ converge quase certamente para $ X $, isto é, $ X_n\xrightarrow{q.c.}X $ se


$$\mathbb{P}\left(\lim_{n\rightarrow\infty}X_n = X\right)=1$$

ou, equivalentemente,


 \lim_{n\rightarrow\infty}X_n(\omega)=X(\omega)\}\right) = 1\]

Este resultado nos diz que, o conjunto dos $ \omega $ em que $ X_n\nrightarrow X $ tem probabilidade zero. A convergência quase certa é uma convergência pontual em um conjunto de medida 1, ou seja, $ X_n(\omega)\rightarrow X(\omega) $ para quase todo $ \omega, $ exceto aqueles dentro de um conjunto de medida nula, ao contrário da convergência em probabilidade, que não diz respeito à convergência pontual.

Teorema 7.1.1.1: (Critério de convergência quase certa)

Sejam $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias e $ X $ uma variável aleatória. Então $ X_n $ converge quase certamente para $ X $ se, e somente se, para todo $ j\geq1 $


\[\mathbb{P}\left(|X_n-X|\geq \frac{1}{j} \ \text{i.v.} \right)=0\]

Demonstração:

Um sequência de funções converge se para todo $ j\geq 1, $ existe $ n\geq 1 $ tal que $ k\geq n $ implica


$$|X_k(\omega)-X(\omega)| \ \textless \ \frac{1}{j}$$

equivalentemente


$$[X_n\rightarrow X]=\bigcap^\infty_{j=1}\bigcup^\infty_{n=1}\bigcap^\infty_{k=n}\left[|X_k-X| \ \textless \ \frac{1}{j}\right]$$

Logo,


$$[X_n\nrightarrow X]=\bigcup^\infty_{j=1}\bigcap^\infty_{n=1}\bigcup^\infty_{k=n}\left[|X_k-X|\geq \frac{1}{j}\right]=\bigcup^\infty_{j=1}\left[|X_n-X|\geq \frac{1}{j},~i.v.\right]$$

Se $ X_n\xrightarrow{q.c.}X, $ então $ \mathbb{P}[X_n\nrightarrow X]=0 $ o que implica que


$$\mathbb{P}\left(|X_n-X|\geq \frac{1}{j},~i,v,\right)=0,\quad \text{para todo}~j\geq 1$$

Por outro lado, se $ \mathbb{P}\left(|X_n-X|\geq \frac{1}{j},~i.v.\right)=0,\quad \text{para todo}~j\geq 1 $ então


$$\mathbb{P}[X_n\nrightarrow X]\leq\sum^\infty_{j=1}\mathbb{P}\left(|X_n-X|\geq \frac{1}{j},~i.v.\right)=0$$

$ \Box $

A seguir, apresentamos dois exemplos relacionados com as convergências quase certa e em probabilidade. Na sequência, apresentamos um resultado que comprova que convergência quase certa implica em convergência em probabilidade.

Exemplo 7.1.1.3:

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias com função de probabilidades dadas por


\[\mathbb{P}[X_n=0]=1-\frac{1}{n^2}\quad \text{e}\quad\mathbb{P}[X_n=1]=\frac{1}{n^2},\quad n\geq 1\]

Vamos mostrar que $ X_n\xrightarrow{\mathbb{P}}0 $ e $ X_n\xrightarrow{q.c.}0 $.

De fato, para qualquer $ \varepsilon \ \textgreater \ 0 $, temos que


\[0\leq \mathbb{P}\left(|X_n|\geq \varepsilon\right)=\mathbb{P}\left(X_n=1\right)=\frac{1}{n^2}\xrightarrow{n\rightarrow\infty}0\]

e, portanto, temos que $ \lim_{n\rightarrow\infty}\mathbb{P}\left(\left|X_n-0\right|\geq\varepsilon\right) = 0 $. Consequentemente, $ X_n\xrightarrow{\mathbb{P}} 0 $.

Agora, para todo $ j\geq 1 $ definimos o evento


\[A_n=\left[|X_n-0|\geq \frac{1}{j}\right]=[X_n=1],\quad n\geq 1\]

Como $ \displaystyle\sum^\infty_{n=1}\mathbb{P}(A_n)=\sum^\infty_{n=1}\frac{1}{n^2} \ \textless \ \infty, $ pois é uma série convergente. Então $ \mathbb{P}(A_n,~i.v.)=0 $ pelo Lema de Borel-Cantelli item (i).

Portanto, pelo critério da convergência quase certa (Teorema 7.1.1.1), temos que $ X_n\xrightarrow{q.c.}0 $

Exemplo 7.1.1.4:

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias independentes com função de probabilidades dadas por


\[\mathbb{P}[X_n=0]=1-\frac{1}{n}\quad \text{e}\quad\mathbb{P}[X_n=1]=\frac{1}{n},\quad n\geq 1.\]

Vamos mostrar que $ X_n\xrightarrow{\mathbb{P}}0 $ e $ X_n\overset{q.c.}{\nrightarrow}0 $.

De fato, para qualquer $ \varepsilon \ \textgreater \ 0 $, temos que


\[0\leq \mathbb{P}\left(|X_n|\geq \varepsilon\right)=\mathbb{P}\left(X_n=1\right)=\frac{1}{n}\xrightarrow{n\rightarrow\infty}0\]

de onde concluímos que $ \lim_{n\rightarrow\infty}\mathbb{P}\left(|X_n-0|\geq \varepsilon\right) = 0 $. Consequentemente, $ X_n\xrightarrow{\mathbb{P}} 0 $.

Agora, definimos o evento


$$A_n=\left[|X_n|\geq\frac{1}{2}\right]=[X_n=1],\quad n\geq 1$$

Como $ \displaystyle\sum^\infty_{n=1}\mathbb{P}(A_n)=\sum^\infty_{n=1}\frac{1}{n}=\infty, $ pois é uma série divergente e os $ A_n $'s são independentes, então $ \mathbb{P}[A_n,~i.v.]=1\neq 0, $ pelo Lema de Borel-Cantelli item (ii).

Portanto, pelo critério da convergência quase certa (Teorema 7.1.1.1), temos que $ X_n\overset{q.c.}{\nrightarrow }0 $

Teorema 7.1.1.2:

Sejam $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias e $ X $ uma variável aleatória. Se para todo $ \varepsilon \ \textgreater \ 0 $ temos $ \displaystyle\sum^\infty_{n=1}\mathbb{P}\left(|X_n-X|\geq \varepsilon\rigth) \ \textless \ \infty, $ então $ X_n\xrightarrow{q.c.}X $.

Demonstração:

Como por hipótese $ \displaystyle\sum^\infty_{n=1}\mathbb{P}\left(|X_n-X|\geq \varepsilon\right) \ \textless \ \infty, $ então pelo Lema de Borel-Cantelli item (i) segue que


\[\mathbb{P}\left(|X_n-X|\geq \varepsilon;~i.v.\right)=0\]

Portanto, pelo Teorema 7.1.1.1 temos que $ X_n\xrightarrow{q.c.}X  $

 $ \Box $

Teorema 7.1.1.3:

Sejam $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias e $ X $ uma variável aleatória. Se $ X_n\xrightarrow{q.c.}X , $ então $ X_n\xrightarrow{\mathbb{P}}X $.

Demonstração:

Como por hipótese $ X_n\xrightarrow{q.c.}X $, então pelo Teorema 7.1.1.1, temos que para todo $ \varepsilon \ \textgreater \ 0 $


$$\mathbb{P}\left(|X_n-X|\geq \varepsilon;~i.v.\right)=0$$

Mas observe que


$$\{|X_n-X|\geq \varepsilon;~i.v.\}=\bigcap^\infty_{n=1}\bigcup^\infty_{k=n}\{|X_n-X|\geq\varepsilon\},$$

Então,


$$\lim_{n\rightarrow\infty}\mathbb{P}\left\{\bigcup^\infty_{k=n}\left[|X_k-X|\geq \varepsilon;~i.v.\right]\right\}=0$$

Logo,


$$0\leq \mathbb{P}(|X_n-X|\geq\varepsilon)\leq \mathbb{P}\left(\bigcup^\infty_{k=n}[|X_k-X|\geq\varepsilon]\right)\xrightarrow{n\rightarrow\infty}0$$

Portanto,


\[\lim_{n\rightarrow\infty}\mathbb{P}\left(|X_n-X|\geq \varepsilon\right) = 0 \Rightarrow X_n\xrightarrow{\mathbb{P}}X.\]

$ \Box $

Através do Exemplo 7.1.1.4 mostramos que nem sempre a convergência em probabilidade implica em convergência quase certa.

Teorema 7.1.1.4:

Sejam $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias e $ X $ uma variável aleatória. Se $ X_n\xrightarrow{\mathbb{P}}X $, então existe uma subsequência de inteiros crescente $ \{n_k\}_{k\geq 1} $ tal que $ X_{n_k}\xrightarrow{q.c.}X. $

Demonstração:

Primeiramente observamos que $ X_n\xrightarrow{\mathbb{P}}X $ se, e somente se, $ X_n-X\xrightarrow{\mathbb{P}}0 $. Assim, podemos supor, sem perda de generalidade, que $ X=0. $ Então por hipótese para todo $ k \ \textgreater \ 0 $, temos que


$$\mathbb{P}\left\{|X_n| \ \textgreater \ \frac{1}{2^k}\right\} \rightarrow 0 \ \text{quando} \ n\rightarrow \infty.$$

Logo, para cada $ k \ \textgreater \ 0 $, existe uma subsequência $ \{n_k\}_{k\geq 1} $ tal que


$$\sum_{k=0}^{\infty}\mathbb{P}\left\{|X_{n_k}| \ \textgreater \ \frac{1}{2^k}\right\}\leq \sum^\infty_{k=0}\frac{1}{2^k} \ \textless \ \infty.$$

Escolhida a subsequência $ \{n_k\}, $ obtemos que $ \mathbb{P}\left\{\left[|X_{n_k}|\textgreater\frac{1}{2^k}\right],~i.v.\right\}=0. $

Portanto, pelo Teorema 7.1.1.2, temos que


$$X_{n_k}\xrightarrow{q.c.}0$$

$ \Box $

Este resultado nos diz que convergência em probabilidade implica em convergência quase certa ao longo de uma subsequência.

Teorema 7.1.1.5: 

Sejam $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias, $ X $ uma variável aleatória e $ g $ uma função contínua a valores reais. Então se $ X_n\xrightarrow{q.c.} X $ temos que $ g(X_n)\xrightarrow{q.c.} g(X) $.

Demonstração:

Notemos que se $ X_n\xrightarrow{q.c.} X $ então existe um conjunto $ A_0\in\mathcal{F} $, tal que $ \mathbb{P}(A_0)=1 $ e $ \forall \ \omega \in A_0 $ temos que 


\[X_n(\omega)\rightarrow X(\omega).\]

Como $ g $ é uma função contínua é claro que


$$g(X_n(\omega))\rightarrow g(X(\omega))$$

para qualquer $ \omega \in A_0 $ e, portanto, $ g(X_n)\xrightarrow{q.c.} g(X) $.

$ \Box $

Teorema 7.1.1.6: 

Sejam $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias, $ X $ uma variável aleatória e $ g $ uma função contínua a valores reais. Se $ X_n $ converge em probabilidade para $ X $ então $ g(X_n) $ converge em probabilidade para $ g(X) $.

Demonstração:

Inicialmente, suponha que $ g $ é uniformemente contínua. Então, dado $ \varepsilon \ \textgreater \ 0 $, existe um $ \delta \ \textgreater \ 0 $ tal que $ |g(X_n) - g(x)| \ \textless \ \varepsilon $ sempre que $ |X_n-X| \ \textless \ \delta $. Neste caso, temos que

\[\left[|X_n-X| \ \textless \ \delta\right] \subset \left[|g(X_n)-g(X)| \ \textless \ \epsilon\right] \Rightarrow \left[|g(X_n)-g(X)|\geq \varepsilon\right]\subset \left[|X_n-X|\geq \delta\right].\]

Portanto, temos que

\[0\leq \mathbb{P}\left(|g(X_n)-g(X)|\geq \varepsilon\right)\leq \mathbb{P}\left(|X_n-X|\right)\rightarrow0\]

de onde segue que $ g(X_n) $ converge em probabilidade para $ g(X) $.

Por hipótese, temos que $ X_n $ converge em probabilidade para $ X $ e, como $ g $ é uma função contínua, segue que $ g $ é uniformemente contínua em compactos, ou seja, em intervalos fechados e limitados da forma $ [-m,m] $.

Assim, dado $ \varepsilon \ \textgreater \ 0 $, existe $ n $ suficientemente grande tal que


$$\mathbb{P}\left[-\frac{m}{2}\leq X_n-X\leq \frac{m}{2}\right] \ \textgreater \ 1-\varepsilon.$$

Pela continuidade uniforme em $ [-m,m] $ da função $ g $, existe $ \delta \ \textgreater \ 0 $ tal que $ \delta\leq \frac{m}{2} $ e se $ |x|\leq m $, $ |y|\leq m $ e ainda $ |x-y| \ \textless \ \delta $ então $ |g(x)-g(y)| \ \textless \ \varepsilon $.

Pela propriedade P13, como $ \mathbb{P}(|X_n-X| \ \textless \ \delta)\rightarrow 1 $, temos que $ \mathbb{P}\left[|X|\leq \frac{m}{2};|X_n-X| \ \textless \ \delta\right]\rightarrow \mathbb{P}\left[|X|\leq \frac{m}{2}\right] \ \textgreater \ 1-\varepsilon $.

Assim, notamos que:


\[\left[|X|\leq \frac{m}{2};|X_n-X| \ \textless \ \delta\right]\subset[|X|\leq m;|X_n|\leq m;|X_n-X| \ \textless \ \delta]\subset[|g(X_n)-g(X)| \ \textless \ \varepsilon].\]

Portanto $ \mathbb{P}[|g(X_n)-g(X)| \ \textless \ \varepsilon]\textgreater 1-\varepsilon $ para um n suficientemente grande. Ou seja,


$$\mathbb{P}[|g(X_n)-g(X)| \ \textless \ \varepsilon]\rightarrow 1$$

logo converge em probabilidade.

$ \Box $

Teorema 7.1.1.7: (O limite em probabilidade é "único")

Sejam $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias e $ X $ e $ Y $ variáveis aleatórias. Se $ X_n\xrightarrow{\mathbb{P}}X $ e $ X_n\xrightarrow{\mathbb{P}}Y $, então $ \mathbb{P}[X=Y]=1 $

Demonstração:

Primeiramente, como $ X_n\xrightarrow{\mathbb{P}}X  $ e $ X_n\xrightarrow{\mathbb{P}}Y $tomamos uma sequência $ n_k $ tal que $ X_{n_k}\xrightarrow{q.c.}X $ e uma subsequência  $ n_{k_j} $ tal que $ X_{n_{k_j}}\xrightarrow{q.c.}Y $. Observamos que estas subsequências podem ser tomadas pelo Teorema 7.1.1.4.

Agora, tomamos os eventos $ A=[X_{n_k}\rightarrow X] $ e $ B=[X_{n_{k_j}}\rightarrow Y] $. Como $ \mathbb{P}(A)=\mathbb{P}(B)=1, $ segue que $ \mathbb{P}(A\cap B)=1 $.

Para $ \omega\in A\cap B, $ temos que


$$\begin{array}{l}X_{n_k}(\omega)\rightarrow X(\omega),\quad k\rightarrow\infty\\ X_{n_{k_j}}(\omega)\rightarrow Y(\omega),\quad~j\rightarrow\infty\end{array}\quad \Rightarrow\quad \mathbb{P}(X=Y)\geq \mathbb{P}(A\cap B)=1$$

o que implica $ X(\omega)=Y(\omega) $ q.c., isto é, $ \mathbb{P}\left[X=Y\right] = 1 $.

$ \Box $

Vamos aplicar a ideia de sequências numéricas de Cauchy para a convergência em probabilidade. Podemos utilizar uma definição análoga à sequência de Cauchy da seguinte forma.

Definição 7.1.1.4:

Dizemos que uma sequência $ (X_n)_{n\geq 1} $ converge em probabilidade de Cauchy se dado $ \varepsilon \ \textgreater \ 0 $, existe um número natural $ N_0 $ tal que para todo $ n, m \ \textgreater \ N_0 $  temos que


$$\displaystyle \mathbb{P}(|X_n-X_m| \ \textgreater \ \varepsilon)\rightarrow 0.$$

Teorema 7.1.1.8:

Seja $ (X_n)_{n\geq 1} $ um sequência de variáveis aleatórias. Então

(a) $ X_n\xrightarrow{q.c.} X $ se, e somente se,


$$ \mathbb{P}\left[\sup_{k\geq n}|X_k - X|\geq \varepsilon\right]\xrightarrow{n\rightarrow\infty} 0$$

para todo $ \varepsilon \ \textgreater \ 0 $

(b) $ X_n\xrightarrow{\mathbb{P}} X $ se, somente se,


$$\mathbb{P}\left(\sup_{k\geq 0}|X_{n+k}-X_n|\geq 0\right)\xrightarrow{n\rightarrow\infty}0$$

Demonstração:

(a) Seja  |X_n-X|\geq \varepsilon \} $ e seja $ A^{\varepsilon}=\limsup A_{n}^{\varepsilon}=\displaystyle \bigcap_{n=1}^{\infty}\bigcup_{k\geq n}A_{n}^{\varepsilon} $. Então


 X_n\nrightarrow X \}=\displaystyle \bigcup_{\varepsilon \geq 0} A^{\varepsilon}=\bigcup_{m=1}^{\infty} A^{1/m}$$

Mas


$$\mathbb{P}(A_{n}^{\varepsilon})=\lim_{n\rightarrow\infty} \mathbb{P}\left(\bigcup_{k\geq n}A_{n}^{\varepsilon}\right)$$

E portanto


 X_n\nrightarrow X \}]=\mathbb{P}\left(\displaystyle \bigcup_{\varepsilon \geq 0} A^{\varepsilon}\right)\quad\Leftrightarrow\quad \mathbb{P}\left(\bigcup_{m=1}^{\infty} A^{1/m}\right)=0$$


$$\Leftrightarrow\quad \mathbb{P}( A^{1/m})=0,~~ m\geq 1\quad \Leftrightarrow\quad \mathbb{P}(A^\varepsilon)=0,~~\varepsilon \textless 0$$


$$\Leftrightarrow\quad \mathbb{P}\left(\bigcup_{k\geq n} A_{n}^{\varepsilon}\right)\rightarrow 0, ~~ n\rightarrow \infty\quad \Leftrightarrow\quad \mathbb{P}\left(\displaystyle \sup_{k\geq n}|X_k-X|\geq \varepsilon \right)\xrightarrow{n\rightarrow \infty} 0.$$

(b) A demonstração é análoga ao item (a).

$ \Box $

Exemplo 7.1.1.5:

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias independentes e com mesma distribuição $ U(0,\theta),~\theta \ \textgreater \ 0 $. Defina $ Y_n=\max\{X_1,\dots,X_n\},n\geq1. $ Mostre que $ Y_n\xrightarrow{\mathbb{P}}\theta $ e verifique se $ \{Y_n\}_{n\geq 1} $ converge quase certamente.

De fato, para $ 0 \ \textless \ x \ \textless \ \theta $ e $ j\geq 1 $ temos que


$$0\leq \mathbb{P}\left[|Y_n-\theta|\geq \frac{1}{j}\right]\leq \mathbb{P}[Y_n\leq x]=\mathbb{P}[X_1\leq x;\dots;X_n\leq x]\overset{i.i.d.}{=}\prod^n_{j=1}\mathbb{P}[X_j\leq x]=\left(\frac{x}{\theta}\right)^n\xrightarrow{n\rightarrow\infty}0$$

Portanto, $ Y_n\xrightarrow{\mathbb{P}}\theta. $

Agora, para todo $ j\geq 1 $ temos que


$$\sum^\infty_{n=1}\mathbb{P}\left[|Y-n-\theta|\geq\frac{1}{j}\right]\leq \sum^\infty_{n=1}\mathbb{P}[Y_n\leq x]=\sum^\infty_{n=1}\left(\frac{x}{\theta}\right)^n=\frac{1}{1-\frac{x}{\theta}} \ \textless \ \infty$$

Logo, pelo Lema de Borel-Cantelli obtemos que


$$\mathbb{P}\left[|Y_n-\theta|\geq \frac{1}{j},i.v.\right]=0$$

Portanto, $ Y_n\xrightarrow{q.c.}\theta. $

Exemplo 7.1.1.6:

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias tal que, $ X_n\sim $ Bernoulli(1/2), $ n\geq 1 $ e $ X \sim $ Bernoulli(1/2) independente de $ X_n $ para todo $ n $. Neste caso, $ X_n\xrightarrow{\mathbb{P}}X $?

Note que


$$\mathbb{P}\{|X_n-X|\geq\frac{1}{2}\}=\mathbb{P}\{X_n=0;X=1\}+\mathbb{P}\{X_n=1;X=0\}=\frac{1}{4}+\frac{1}{4}=\frac{1}{2}\nrightarrow 0, \ \text{quando} \ n\rightarrow\infty$$

Portanto, $ X_n\overset{\mathbb{P}}{\nrightarrow}X $.

Exemplo 7.1.1.7:

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de v.a's independentes definidas em $ (\Omega, \mathcal{A}, \mathbb{P}) $, tal que $ X_n\sim U(0,a_n) $, com $ a_n \ \textgreater \ 0 $, $ n\geq 1 $. Então

(a) Supondo $ a_n=n $, prove que, com probabilidade 1, existe um número infinito de v.a's $ X_n $ que assumem valores menores que 1 e um número infinito $ X_n $ que assumem valores maiores do que 2.

(b) Com considerações análogas as do item (a) decida sobre a convergência quase certa, no caso em que $ a_n=n^2 $, $ n\geq 1 $.

(a) Temos que:


$$\mathbb{P}(X_n \ \textless \ 1)= \int_{0}^{1}\frac{1}{n}dx_n=\frac{1}{n}$$

Como $ \displaystyle \sum_{n=1}^{\infty}\frac{1}{n}=\infty $, então pelo Lema de Borel-Cantelli, concluímos que $ \mathbb{P}(X_n \ \textless \ 1;~ i.v.)=1 $.

Agora para


$$\mathbb{P}(X_n \ \textgreater \ 2)= \int_{2}^{n}\frac{1}{n}=\frac{n-2}{n}.$$

Como $ \displaystyle \sum_{n=1}^{\infty}\frac{n-2}{n}=\infty, $ então pelo Lema de Borel-Cantelli, concluímos que $ \mathbb{P}(X_n \ \textgreater \ 2;~ i.v.)=1 $.

Agora do fato de existirem infitos valores menores do que 1 e infinitos valores maiores que 2, concluímos que a sequência de v.a's $ \{X_n\}_{n\geq 1} $ não converge quase-certamente.

(b) Temos que,


$$\mathbb{P}(X_n \ \textless \ 1)= \int_{0}^{1}\frac{1}{n^2}dx_n=\frac{1}{n^2}$$

Como $ \displaystyle \sum_{n=1}^{\infty}\frac{1}{n^2} \ \textless \ \infty $, então pelo Lema de Borel-Cantelli, concluímos que $ \mathbb{P}(X_n \ \textless \ 1;~ i.v.)=0 $.


$$\mathbb{P}(X_n \ \textgreater \ 2)=\displaystyle \int_{2}^{n^2}\frac{1}{n^2}dx_n=1-\frac{2}{n^2}$$

Como $ \displaystyle \sum_{n=1}^{\infty}1-\frac{2}{n^2}=\infty, $ então pelo Lema de Borel-Cantelli, concluímos que $ \mathbb{P}(X_n \ \textgreater \ 2;~ i.v.)=1 $.

Note que pelo fato de $ \mathbb{P}(X_n \ \textgreater \ 2;~ i.v.)=1 $, podemos esperar que $ X_n\stackrel{q.c}{\rightarrow}\infty $. Para mostrar esse fato, observamos que


$$[X_n\nrightarrow \infty]=\displaystyle \bigcup_{j=1}^{\infty}\bigcap_{n=1}^{\infty}\bigcup_{k=n}^{\infty}[X_k \ \textless \ j]$$

Logo


$$\mathbb{P}(X_n\nrightarrow \infty)=\mathbb{P}(X_n \ \textless \ j,~i.v.)\quad\forall \ j\geq 1$$

Como $ X_n\sim \text{Unif}(0,n^2) $ então temos que


$$\mathbb{P}(X_n \ \textless \ j)=\displaystyle \int_{0}^{j}\frac{1}{n^2}=\frac{j}{n^2}$$

Assim


$$\displaystyle \sum_{n=1}^{\infty}\frac{j}{n^2} \ \textless \ \infty,~~\forall \ j\geq 1$$

E pelo Lema de Borel-Cantelli concluímos que


$$\mathbb{P}(X_n \ \textless \ j,~ i.v.)=0, ~~ \forall j\geq 1$$

o que implica que $ \mathbb{P}(X_n\nrightarrow \infty)=0 $ e portanto $ X_n\xrightarrow{q.c.}\infty $.

Exemplo 7.1.1.8:

Considere X uma v.a. e $ \{X_n\}_{n\geq 1} $ uma sequência de v.a's definidas sobre $ (\Omega,\mathcal{A},\mathbb{P}) $, tal que a distribuição conjunta de $ (X_n,X) $ seja dada por:


$$\mathbb{P}(X_n=0,X=0)=\displaystyle \frac{n}{3(n+1)}$$


$$\mathbb{P}(X_n=1,X=0)=\displaystyle \frac{1}{3(n+1)}$$


$$\mathbb{P}(X_n=0,X=1)=\displaystyle \frac{n}{3}$$


$$\mathbb{P}(X_n=1,X=1)=\displaystyle \frac{1}{3}$$

Verifique se $ X_n\xrightarrow{\mathbb{P}} X $

Observamos que


$$0\leq\mathbb{P}(|X_n-X|\geq \frac{1}{3})=\mathbb{P}(X_n=0;X=1)+\mathbb{P}(X_n=1;X=0)=$$


$$=\displaystyle \frac{1}{3(n+1)}+\frac{n}{3}\stackrel{\mathbb{P}}{\nrightarrow} \infty$$

Portanto


$$X_n\stackrel{\mathbb{P}}{\nrightarrow} X.$$

Para finalizar esta seção, vamos apresentar um diagrama dos principais resultados.

Figura 7.1.1.1: Diagrama de implicações entre os tipos de convergência.

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]