7.1.1 - Convergências em probabilidade e quase certa

Você está aqui

Nesta seção, vamos estudar as convergências em probabilidades e quase certa, porém, inicialmente vamos apresentar um resultado importante, que é o lema de Borel-Cantelli.

Definição 7.1.1.1: 

Seja $\{A_n\}_{n\geq 1}$ uma sequência de eventos aleatórios então o limite superior da sequência é definido como

\[\displaystyle \limsup_{n\rightarrow\infty} A_n=\bigcap_{n=1}^{\infty}\bigcup_{k=n}^{\infty}A_k.\]

Além disso, o limite inferior é definido como:

\[\displaystyle \liminf_{n\rightarrow\infty} A_n=\bigcup_{n=1}^{\infty}\bigcap_{k=n}^{\infty}A_k.\]

Como consequência da definição, temos que $\omega\in\limsup_{n\rightarrow\infty} A_n$ se, e só se, para todo $n$ existe algum $k \geq n$ tal que $\omega\in A_k$. Assim, dizemos que $\omega\in\limsup_{n\rightarrow\infty} A_n$ este pertence a um número infinito de $A_n$. Por isso, também denotamos o limite superior de $A_n$ como $A_n$ i.v. (infinita vezes). Da mesma forma, temos que $\omega\in\liminf_{n\rightarrow\infty} A_n$ se, e só se, existe $n$ tal que $\omega \in A_k$ para todo $k \geq n$. Então, podemos dizer que $\omega\in\liminf_{n\rightarrow\infty} A_n$ se,  só se, $\omega$ pertence a todos os $A_n$ exceto um número finito destes. A seguir, apresentamos o lema de Borel-Cantelli.

 

Lema 7.1.1.1: (Lema de Borel-Cantelli)

Seja $\{A_n\}_{n\geq 1}$ uma sequência de eventos aleatórios. Temos que:

i) Se $\displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n) \ < \ \infty$, então $\mathbb{P}[A_n,i.v.]=\mathbb{P}\left(\displaystyle \limsup_{n\rightarrow \infty} A_n\right)=0$.

ii) Se $\displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n)=\infty$ e os eventos $\{A_n\}_{n\geq 1}$ são independentes, então $\mathbb{P}[A_n,i.v.]=\mathbb{P}\left(\displaystyle \limsup_{n\rightarrow\infty} A_n\right)=1.$

Demonstração:

i) Se $\displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n) \ < \ \infty$, então $\displaystyle \sum_{k=n}^{\infty}\mathbb{P}(A_k)\rightarrow 0$ , quando $n\rightarrow \infty$. E como

\[\displaystyle\limsup_{n\rightarrow\infty} A_n \subset \bigcup_{k=n}^{\infty}A_k,\]

então temos que:

$$\mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]\leq \mathbb{P}\left[\displaystyle \bigcup_{k=n}^{\infty}A_k\right]\leq \sum_{k=n}^{\infty}\mathbb{P}(A_k)\xrightarrow{n\rightarrow\infty} 0.$$

Portanto como $0\leq \mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]\leq 0$, concluímos que $\mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]=0$.

ii) Para demonstrarmos este item basta observar que $\mathbb{P}\left[\displaystyle\bigcup_{k=n}^{\infty}A_k\right]=1$, para qualquer n, pois interseção de eventos com probabilidade 1 também tem probabilidade 1(ver propriedade 12), ou seja, se demonstrarmos que $\mathbb{P}\left[\displaystyle\bigcup_{k=n}^{\infty}A_k\right]=1$ então $\mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]=1$ e o resultado é demonstrado.

Assim, seja $B_n=\displaystyle \bigcup_{k=n}^{\infty}A_k$, note que $B_n \supset \displaystyle \bigcup_{k=n}^{n+m}A_k $, para qualquer $m \in \mathbb{N}$, e portanto $B_n^c \subset \left(\displaystyle \bigcup_{k=n}^{n+m}A_k\right)^c=\displaystyle \bigcap_{k=n}^{n+m}A_k^{c}$ (essa igualdade é válida pelas leis de De Morgan).

Logo, para todo m temos

$$1-\mathbb{P}(B_n)=\mathbb{P}(B_n^c)\leq \mathbb{P}\left(\displaystyle \bigcap_{k=n}^{n+m}A_k^{c}\right).$$

Como cada $A_i$ são independentes então obtemos que

$$\mathbb{P}\left(\displaystyle \bigcap_{k=n}^{n+m}A_k^{c}\right)=\prod_{k=n}^{n+m}\mathbb{P}(A_k^c)=\prod_{k=n}^{n+m}(1-\mathbb{P}(A_k)).$$

Notemos que $1-p\leq e^{-p}$ para $0\leq p \leq 1$, temos então que:

\[1-\mathbb{P}(B_n)\leq \prod_{k=n}^{n+m}e^{-\mathbb{P}(A_k)}=\exp\left\{-\displaystyle \sum_{k=n}^{n+m}\mathbb{P}(A_k)\right\}\xrightarrow{m\rightarrow\infty} 0,\]

pois por hipótese temos que $\displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n)=\infty$. Portanto $\mathbb{P}(B_n)=1$, para todo $n\geq 1$.

$\Box$

Exemplo 7.1.1.1:

Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias independentes tal que, $X_n\sim \text{Bernoulli}(p_n)$, $0 \ < \ p_n \ < \ 1$, $n\geq 1.$

Pelo lema de Borel-Cantelli, temos que

Se $\displaystyle\sum^\infty_{n=1}p_n \ < \ \infty$ então $\mathbb{P}([X_n=1],i.v.)=0$

Se $\displaystyle\sum^\infty_{n=1}p_n=\infty$ então $\mathbb{P}([X_n=1],i.v.)=1$

Exemplo 7.1.1.2:

Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias independentes com $X_n\sim \text{Exp}(1).$ Defina $Y_n=\frac{X_n}{\log(n)}$ para $n\geq1.$ Discuta a convergência em probabilidade e quase certa.

Note que

$$\mathbb{P}\left(X_n \ > \ x\right)=e^{-x},\quad x \ > \ 0,~n\geq 1$$

e portanto,

$$\mathbb{P}\left(X_n \ > \ \alpha \log n\right)=e^{-\alpha\log n}=\dfrac{1}{n^\alpha},\quad ~n\geq 1$$

Então, pelo lema de Borel-Cantelli,

  • para $\alpha \ > \ 1$ temos que $\displaystyle\sum^\infty_{n=1}\dfrac{1}{n^\alpha} \ < \ \infty$ então $\mathbb{P}(X_n \ > \ \alpha\log n,i.v.)=0$
  • para $0 \ < \ \alpha \ < \ 1$ temos que $\displaystyle\sum^\infty_{n=1}\dfrac{1}{n^\alpha}=\infty$ então $\mathbb{P}(X_n \ > \ \alpha\log n,i.v.)=1$

Agora, vamos apresentar as definições de convergências em probabilidades e quase certa.

Definição 7.1.1.2: (Convergência em probabilidade)

Sejam  $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória definidas no mesmo espaço de probabilidade. Dizemos que $X_n$ converge em probabilidade para $X$ e denotamos $X_n\xrightarrow{\mathbb{P}}X$ se

\[\lim_{n\rightarrow\infty}\mathbb{P}\left(|X_n-X|\geq \varepsilon\right)=0,\quad \forall \ \varepsilon \ > \ 0.\]

A principal ideia da convergência em probabilidade é que, quando n é arbitrariamente grande, a probabilidade da diferença $|X_n-X|$ ser maior do que qualquer número positivo $\varepsilon$ tende a zero.

Definição 7.1.1.3: (Convergência quase certa)

Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória definidas no mesmo espaço de probabilidade. Dizemos que $X_n$ converge quase certamente para $X$, isto é, $X_n\xrightarrow{q.c.}X$ se

$$\mathbb{P}\left(\lim_{n\rightarrow\infty}X_n = X\right)=1$$

ou, equivalentemente,

\[\mathbb{P}\left(\{\omega\in \Omega: \lim_{n\rightarrow\infty}X_n(\omega)=X(\omega)\}\right) = 1\]

Este resultado nos diz que, o conjunto dos $\omega$ em que $X_n\nrightarrow X$ tem probabilidade zero. A convergência quase certa é uma convergência pontual em um conjunto de medida 1, ou seja, $X_n(\omega)\rightarrow X(\omega)$ para quase todo $\omega,$ exceto aqueles dentro de um conjunto de medida nula, ao contrário da convergência em probabilidade, que não diz respeito à convergência pontual.

Teorema 7.1.1.1: (Critério de convergência quase certa)

Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória. Então $X_n$ converge quase certamente para $X$ se, e somente se, para todo $j\geq1$

\[\mathbb{P}\left(|X_n-X|\geq \frac{1}{j} \ \text{i.v.} \right)=0\]

Demonstração:

Um sequência de funções converge se para todo $j\geq 1,$ existe $n\geq 1$ tal que $k\geq n$ implica

$$|X_k(\omega)-X(\omega)| \ < \ \frac{1}{j}$$

equivalentemente

$$[X_n\rightarrow X]=\bigcap^\infty_{j=1}\bigcup^\infty_{n=1}\bigcap^\infty_{k=n}\left[|X_k-X| \ < \ \frac{1}{j}\right]$$

Logo,

$$[X_n\nrightarrow X]=\bigcup^\infty_{j=1}\bigcap^\infty_{n=1}\bigcup^\infty_{k=n}\left[|X_k-X|\geq \frac{1}{j}\right]=\bigcup^\infty_{j=1}\left[|X_n-X|\geq \frac{1}{j},~i.v.\right]$$

Se $X_n\xrightarrow{q.c.}X,$ então $\mathbb{P}[X_n\nrightarrow X]=0$ o que implica que

$$\mathbb{P}\left(|X_n-X|\geq \frac{1}{j},~i,v,\right)=0,\quad \text{para todo}~j\geq 1$$

Por outro lado, se $\mathbb{P}\left(|X_n-X|\geq \frac{1}{j},~i.v.\right)=0,\quad \text{para todo}~j\geq 1$ então

$$\mathbb{P}[X_n\nrightarrow X]\leq\sum^\infty_{j=1}\mathbb{P}\left(|X_n-X|\geq \frac{1}{j},~i.v.\right)=0$$

$\Box$

A seguir, apresentamos dois exemplos relacionados com as convergências quase certa e em probabilidade. Na sequência, apresentamos um resultado que comprova que convergência quase certa implica em convergência em probabilidade.

Exemplo 7.1.1.3:

Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias com função de probabilidades dadas por

\[\mathbb{P}[X_n=0]=1-\frac{1}{n^2}\quad \text{e}\quad\mathbb{P}[X_n=1]=\frac{1}{n^2},\quad n\geq 1\]

Vamos mostrar que $X_n\xrightarrow{\mathbb{P}}0$ e $X_n\xrightarrow{q.c.}0$.

De fato, para qualquer $\varepsilon \ > \ 0$, temos que

\[0\leq \mathbb{P}\left(|X_n|\geq \varepsilon\right)=\mathbb{P}\left(X_n=1\right)=\frac{1}{n^2}\xrightarrow{n\rightarrow\infty}0\]

e, portanto, temos que $\lim_{n\rightarrow\infty}\mathbb{P}\left(\left|X_n-0\right|\geq\varepsilon\right) = 0$. Consequentemente, $X_n\xrightarrow{\mathbb{P}} 0$.

Agora, para todo $j\geq 1$ definimos o evento

\[A_n=\left[|X_n-0|\geq \frac{1}{j}\right]=[X_n=1],\quad n\geq 1\]

Como $\displaystyle\sum^\infty_{n=1}\mathbb{P}(A_n)=\sum^\infty_{n=1}\frac{1}{n^2} \ < \ \infty,$ pois é uma série convergente. Então $\mathbb{P}(A_n,~i.v.)=0$ pelo Lema de Borel-Cantelli item (i).

Portanto, pelo critério da convergência quase certa (Teorema 7.1.1.1), temos que $X_n\xrightarrow{q.c.}0$

Exemplo 7.1.1.4:

Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias independentes com função de probabilidades dadas por

\[\mathbb{P}[X_n=0]=1-\frac{1}{n}\quad \text{e}\quad\mathbb{P}[X_n=1]=\frac{1}{n},\quad n\geq 1.\]

Vamos mostrar que $X_n\xrightarrow{\mathbb{P}}0$ e $X_n\overset{q.c.}{\nrightarrow}0$.

De fato, para qualquer $\varepsilon \ > \ 0$, temos que

\[0\leq \mathbb{P}\left(|X_n|\geq \varepsilon\right)=\mathbb{P}\left(X_n=1\right)=\frac{1}{n}\xrightarrow{n\rightarrow\infty}0\]

de onde concluímos que $\lim_{n\rightarrow\infty}\mathbb{P}\left(|X_n-0|\geq \varepsilon\right) = 0$. Consequentemente, $X_n\xrightarrow{\mathbb{P}} 0$.

Agora, definimos o evento

$$A_n=\left[|X_n|\geq\frac{1}{2}\right]=[X_n=1],\quad n\geq 1$$

Como $\displaystyle\sum^\infty_{n=1}\mathbb{P}(A_n)=\sum^\infty_{n=1}\frac{1}{n}=\infty,$ pois é uma série divergente e os $A_n$'s são independentes, então $\mathbb{P}[A_n,~i.v.]=1\neq 0,$ pelo Lema de Borel-Cantelli item (ii).

Portanto, pelo critério da convergência quase certa (Teorema 7.1.1.1), temos que $X_n\overset{q.c.}{\nrightarrow }0$

Teorema 7.1.1.2:

Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória. Se para todo $\varepsilon \ > \ 0$ temos $\displaystyle \sum^{\infty}_{n=1} \mathbb{P} \left(|X_n - X| \geq \varepsilon \right ) < \infty,$ então $X_n\xrightarrow{q.c.}X$.

Demonstração:

Como por hipótese $\displaystyle\sum^\infty_{n=1}\mathbb{P}\left(|X_n-X|\geq \varepsilon\right) \ < \ \infty,$ então pelo Lema de Borel-Cantelli item (i) segue que

\[\mathbb{P}\left(|X_n-X|\geq \varepsilon;~i.v.\right)=0\]

Portanto, pelo Teorema 7.1.1.1 temos que $X_n\xrightarrow{q.c.}X $

 $\Box$

Teorema 7.1.1.3:

Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória. Se $X_n\xrightarrow{q.c.}X ,$ então $X_n\xrightarrow{\mathbb{P}}X$.

Demonstração:

Como por hipótese $X_n\xrightarrow{q.c.}X$, então pelo Teorema 7.1.1.1, temos que para todo $\varepsilon \ > \ 0$

$$\mathbb{P}\left(|X_n-X|\geq \varepsilon;~i.v.\right)=0$$

Mas observe que

$$\{|X_n-X|\geq \varepsilon;~i.v.\}=\bigcap^\infty_{n=1}\bigcup^\infty_{k=n}\{|X_n-X|\geq\varepsilon\},$$

Então,

$$\lim_{n\rightarrow\infty}\mathbb{P}\left\{\bigcup^\infty_{k=n}\left[|X_k-X|\geq \varepsilon;~i.v.\right]\right\}=0$$

Logo,

$$0\leq \mathbb{P}(|X_n-X|\geq\varepsilon)\leq \mathbb{P}\left(\bigcup^\infty_{k=n}[|X_k-X|\geq\varepsilon]\right)\xrightarrow{n\rightarrow\infty}0$$

Portanto,

\[\lim_{n\rightarrow\infty}\mathbb{P}\left(|X_n-X|\geq \varepsilon\right) = 0 \Rightarrow X_n\xrightarrow{\mathbb{P}}X.\]

$\Box$

Através do Exemplo 7.1.1.4 mostramos que nem sempre a convergência em probabilidade implica em convergência quase certa.

Teorema 7.1.1.4:

Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória. Se $X_n\xrightarrow{\mathbb{P}}X$, então existe uma subsequência de inteiros crescente $\{n_k\}_{k\geq 1}$ tal que $X_{n_k}\xrightarrow{q.c.}X.$

Demonstração:

Primeiramente observamos que $X_n\xrightarrow{\mathbb{P}}X$ se, e somente se, $X_n-X\xrightarrow{\mathbb{P}}0$. Assim, podemos supor, sem perda de generalidade, que $X=0.$ Então por hipótese para todo $k \ > \ 0$, temos que

$$\mathbb{P}\left\{|X_n| \ > \ \frac{1}{2^k}\right\} \rightarrow 0 \ \text{quando} \ n\rightarrow \infty.$$

Logo, para cada $k \ > \ 0$, existe uma subsequência $\{n_k\}_{k\geq 1}$ tal que

$$\sum_{k=0}^{\infty}\mathbb{P}\left\{|X_{n_k}| \ > \ \frac{1}{2^k}\right\}\leq \sum^\infty_{k=0}\frac{1}{2^k} \ < \ \infty.$$

Escolhida a subsequência $\{n_k\},$ obtemos que $\mathbb{P}\left\{\left[|X_{n_k}|>\frac{1}{2^k}\right],~i.v.\right\}=0.$

Portanto, pelo Teorema 7.1.1.2, temos que

$$X_{n_k}\xrightarrow{q.c.}0$$

$\Box$

Este resultado nos diz que convergência em probabilidade implica em convergência quase certa ao longo de uma subsequência.

Teorema 7.1.1.5: 

Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias, $X$ uma variável aleatória e $g$ uma função contínua a valores reais. Então se $X_n\xrightarrow{q.c.} X$ temos que $g(X_n)\xrightarrow{q.c.} g(X)$.

Demonstração:

Notemos que se $X_n\xrightarrow{q.c.} X$ então existe um conjunto $A_0\in\mathcal{F}$, tal que $\mathbb{P}(A_0)=1$ e $\forall \ \omega \in A_0$ temos que 

\[X_n(\omega)\rightarrow X(\omega).\]

Como $g$ é uma função contínua é claro que

$$g(X_n(\omega))\rightarrow g(X(\omega))$$

para qualquer $\omega \in A_0$ e, portanto, $g(X_n)\xrightarrow{q.c.} g(X)$.

$\Box$

Teorema 7.1.1.6: 

Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias, $X$ uma variável aleatória e $g$ uma função contínua a valores reais. Se $X_n$ converge em probabilidade para $X$ então $g(X_n)$ converge em probabilidade para $g(X)$.

Demonstração:

Inicialmente, suponha que $g$ é uniformemente contínua. Então, dado $\varepsilon \ > \ 0$, existe um $\delta \ > \ 0$ tal que $|g(X_n) - g(x)| \ < \ \varepsilon$ sempre que $|X_n-X| \ < \ \delta$. Neste caso, temos que

\[\left[|X_n-X| \ < \ \delta\right] \subset \left[|g(X_n)-g(X)| \ < \ \epsilon\right] \Rightarrow \left[|g(X_n)-g(X)|\geq \varepsilon\right]\subset \left[|X_n-X|\geq \delta\right].\]

Portanto, temos que

\[0\leq \mathbb{P}\left(|g(X_n)-g(X)|\geq \varepsilon\right)\leq \mathbb{P}\left(|X_n-X|\right)\rightarrow0\]

de onde segue que $g(X_n)$ converge em probabilidade para $g(X)$.

Por hipótese, temos que $X_n$ converge em probabilidade para $X$ e, como $g$ é uma função contínua, segue que $g$ é uniformemente contínua em compactos, ou seja, em intervalos fechados e limitados da forma $[-m,m]$.

Assim, dado $\varepsilon \ > \ 0$, existe $n$ suficientemente grande tal que

$$\mathbb{P}\left[-\frac{m}{2}\leq X_n-X\leq \frac{m}{2}\right] \ > \ 1-\varepsilon.$$

Pela continuidade uniforme em $[-m,m]$ da função $g$, existe $\delta \ > \ 0$ tal que $\delta\leq \frac{m}{2}$ e se $|x|\leq m$, $|y|\leq m$ e ainda $|x-y| \ < \ \delta$ então $|g(x)-g(y)| \ < \ \varepsilon$.

Pela propriedade P13, como $\mathbb{P}(|X_n-X| \ < \ \delta)\rightarrow 1$, temos que $\mathbb{P}\left[|X|\leq \frac{m}{2};|X_n-X| \ < \ \delta\right]\rightarrow \mathbb{P}\left[|X|\leq \frac{m}{2}\right] \ > \ 1-\varepsilon$.

Assim, notamos que:

\[\left[|X|\leq \frac{m}{2};|X_n-X| \ < \ \delta\right]\subset[|X|\leq m;|X_n|\leq m;|X_n-X| \ < \ \delta]\subset[|g(X_n)-g(X)| \ < \ \varepsilon].\]

Portanto $\mathbb{P}[|g(X_n)-g(X)| \ < \ \varepsilon]> 1-\varepsilon$ para um n suficientemente grande. Ou seja,

$$\mathbb{P}[|g(X_n)-g(X)| \ < \ \varepsilon]\rightarrow 1$$

logo converge em probabilidade.

$\Box$

Teorema 7.1.1.7: (O limite em probabilidade é "único")

Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ e $Y$ variáveis aleatórias. Se $X_n\xrightarrow{\mathbb{P}}X$ e $X_n\xrightarrow{\mathbb{P}}Y$, então $\mathbb{P}[X=Y]=1$

Demonstração:

Primeiramente, como $X_n\xrightarrow{\mathbb{P}}X $ e $X_n\xrightarrow{\mathbb{P}}Y$, tomamos uma sequência $n_k$ tal que $X_{n_k}\xrightarrow{q.c.}X$ e uma subsequência  $n_{k_j}$ tal que $X_{n_{k_j}}\xrightarrow{q.c.}Y$. Observamos que estas subsequências podem ser tomadas pelo Teorema 7.1.1.4.

Agora, tomamos os eventos $A=[X_{n_k}\rightarrow X]$ e $B=[X_{n_{k_j}}\rightarrow Y]$. Como $\mathbb{P}(A)=\mathbb{P}(B)=1,$ segue que $\mathbb{P}(A\cap B)=1$.

Para $\omega\in A\cap B,$ temos que

$$\begin{array}{l}X_{n_k}(\omega)\rightarrow X(\omega),\quad k\rightarrow\infty\\ X_{n_{k_j}}(\omega)\rightarrow Y(\omega),\quad~j\rightarrow\infty\end{array}\quad \Rightarrow\quad \mathbb{P}(X=Y)\geq \mathbb{P}(A\cap B)=1$$

o que implica $X(\omega)=Y(\omega)$ q.c., isto é, $\mathbb{P}\left[X=Y\right] = 1$.

$\Box$

Vamos aplicar a ideia de sequências numéricas de Cauchy para a convergência em probabilidade. Podemos utilizar uma definição análoga à sequência de Cauchy da seguinte forma.

Definição 7.1.1.4:

Dizemos que uma sequência $(X_n)_{n\geq 1}$ converge em probabilidade de Cauchy se dado $\varepsilon \ > \ 0$, existe um número natural $N_0$ tal que para todo $n, m \ > \ N_0$  temos que

$$\displaystyle \mathbb{P}(|X_n-X_m| \ > \ \varepsilon)\rightarrow 0.$$

Teorema 7.1.1.8:

Seja $(X_n)_{n\geq 1}$ um sequência de variáveis aleatórias. Então

(a) $X_n\xrightarrow{q.c.} X$ se, e somente se,

$$ \mathbb{P}\left[\sup_{k\geq n}|X_k - X|\geq \varepsilon\right]\xrightarrow{n\rightarrow\infty} 0$$

para todo $\varepsilon \ > \ 0$

(b) $X_n\xrightarrow{\mathbb{P}} X$ se, somente se,

$$\mathbb{P}\left(\sup_{k\geq 0}|X_{n+k}-X_n|\geq 0\right)\xrightarrow{n\rightarrow\infty}0$$

Demonstração:

(a) Seja $A_n^{\varepsilon}=\{\omega \in \Omega: |X_n-X|\geq \varepsilon \}$ e seja $A^{\varepsilon}=\limsup A_{n}^{\varepsilon}=\displaystyle \bigcap_{n=1}^{\infty}\bigcup_{k\geq n}A_{n}^{\varepsilon}$. Então

$$\{\omega \in \Omega: X_n\nrightarrow X \}=\displaystyle \bigcup_{\varepsilon \geq 0} A^{\varepsilon}=\bigcup_{m=1}^{\infty} A^{1/m}$$

Mas

$$\mathbb{P}(A_{n}^{\varepsilon})=\lim_{n\rightarrow\infty} \mathbb{P}\left(\bigcup_{k\geq n}A_{n}^{\varepsilon}\right)$$

E portanto

$$0=\mathbb{P}[\{\omega \in \Omega: X_n\nrightarrow X \}]=\mathbb{P}\left(\displaystyle \bigcup_{\varepsilon \geq 0} A^{\varepsilon}\right)\quad\Leftrightarrow\quad \mathbb{P}\left(\bigcup_{m=1}^{\infty} A^{1/m}\right)=0$$

$$\Leftrightarrow\quad \mathbb{P}( A^{1/m})=0,~~ m\geq 1\quad \Leftrightarrow\quad \mathbb{P}(A^\varepsilon)=0,~~\varepsilon < 0$$

$$\Leftrightarrow\quad \mathbb{P}\left(\bigcup_{k\geq n} A_{n}^{\varepsilon}\right)\rightarrow 0, ~~ n\rightarrow \infty\quad \Leftrightarrow\quad \mathbb{P}\left(\displaystyle \sup_{k\geq n}|X_k-X|\geq \varepsilon \right)\xrightarrow{n\rightarrow \infty} 0.$$

(b) A demonstração é análoga ao item (a).

$\Box$

Exemplo 7.1.1.5:

Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias independentes e com mesma distribuição $U(0,\theta),~\theta \ > \ 0$. Defina $Y_n=\max\{X_1,\dots,X_n\},n\geq1.$ Mostre que $Y_n\xrightarrow{\mathbb{P}}\theta$ e verifique se $\{Y_n\}_{n\geq 1}$ converge quase certamente.

De fato, para $0 \ < \ x \ < \ \theta$ e $j\geq 1$ temos que

$$0\leq \mathbb{P}\left[|Y_n-\theta|\geq \frac{1}{j}\right]\leq \mathbb{P}[Y_n\leq x]=\mathbb{P}[X_1\leq x;\dots;X_n\leq x]\overset{i.i.d.}{=}\prod^n_{j=1}\mathbb{P}[X_j\leq x]=\left(\frac{x}{\theta}\right)^n\xrightarrow{n\rightarrow\infty}0$$

Portanto, $Y_n\xrightarrow{\mathbb{P}}\theta.$

Agora, para todo $j\geq 1$ temos que

$$\sum^\infty_{n=1}\mathbb{P}\left[|Y-n-\theta|\geq\frac{1}{j}\right]\leq \sum^\infty_{n=1}\mathbb{P}[Y_n\leq x]=\sum^\infty_{n=1}\left(\frac{x}{\theta}\right)^n=\frac{1}{1-\frac{x}{\theta}} \ < \ \infty$$

Logo, pelo Lema de Borel-Cantelli obtemos que

$$\mathbb{P}\left[|Y_n-\theta|\geq \frac{1}{j},i.v.\right]=0$$

Portanto, $Y_n\xrightarrow{q.c.}\theta.$

Exemplo 7.1.1.6:

Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias tal que, $X_n\sim$ Bernoulli(1/2), $n\geq 1$ e $X \sim$ Bernoulli(1/2) independente de $X_n$ para todo $n$. Neste caso, $X_n\xrightarrow{\mathbb{P}}X$?

Note que

$$\mathbb{P}\{|X_n-X|\geq\frac{1}{2}\}=\mathbb{P}\{X_n=0;X=1\}+\mathbb{P}\{X_n=1;X=0\}=\frac{1}{4}+\frac{1}{4}=\frac{1}{2}\nrightarrow 0, \ \text{quando} \ n\rightarrow\infty$$

Portanto, $X_n\overset{\mathbb{P}}{\nrightarrow}X$.

Exemplo 7.1.1.7:

Seja $\{X_n\}_{n\geq 1}$ uma sequência de v.a's independentes definidas em $(\Omega, \mathcal{A}, \mathbb{P})$, tal que $X_n\sim U(0,a_n)$, com $a_n \ > \ 0$, $n\geq 1$. Então

(a) Supondo $a_n=n$, prove que, com probabilidade 1, existe um número infinito de v.a's $X_n$ que assumem valores menores que 1 e um número infinito $X_n$ que assumem valores maiores do que 2.

(b) Com considerações análogas as do item (a) decida sobre a convergência quase certa, no caso em que $a_n=n^2$, $n\geq 1$.

(a) Temos que:

$$\mathbb{P}(X_n \ < \ 1)= \int_{0}^{1}\frac{1}{n}dx_n=\frac{1}{n}$$

Como $\displaystyle \sum_{n=1}^{\infty}\frac{1}{n}=\infty$, então pelo Lema de Borel-Cantelli, concluímos que $\mathbb{P}(X_n \ < \ 1;~ i.v.)=1$.

Agora para

$$\mathbb{P}(X_n \ > \ 2)= \int_{2}^{n}\frac{1}{n}=\frac{n-2}{n}.$$

Como $\displaystyle \sum_{n=1}^{\infty}\frac{n-2}{n}=\infty,$ então pelo Lema de Borel-Cantelli, concluímos que $\mathbb{P}(X_n \ > \ 2;~ i.v.)=1$.

Agora do fato de existirem infitos valores menores do que 1 e infinitos valores maiores que 2, concluímos que a sequência de v.a's $\{X_n\}_{n\geq 1}$ não converge quase-certamente.

(b) Temos que,

$$\mathbb{P}(X_n \ < \ 1)= \int_{0}^{1}\frac{1}{n^2}dx_n=\frac{1}{n^2}$$

Como $\displaystyle \sum_{n=1}^{\infty}\frac{1}{n^2} \ < \ \infty$, então pelo Lema de Borel-Cantelli, concluímos que $\mathbb{P}(X_n \ < \ 1;~ i.v.)=0$.

$$\mathbb{P}(X_n \ > \ 2)=\displaystyle \int_{2}^{n^2}\frac{1}{n^2}dx_n=1-\frac{2}{n^2}$$

Como $\displaystyle \sum_{n=1}^{\infty}1-\frac{2}{n^2}=\infty,$ então pelo Lema de Borel-Cantelli, concluímos que $\mathbb{P}(X_n \ > \ 2;~ i.v.)=1$.

Note que pelo fato de $\mathbb{P}(X_n \ > \ 2;~ i.v.)=1$, podemos esperar que $X_n\stackrel{q.c}{\rightarrow}\infty$. Para mostrar esse fato, observamos que

$$[X_n\nrightarrow \infty]=\displaystyle \bigcup_{j=1}^{\infty}\bigcap_{n=1}^{\infty}\bigcup_{k=n}^{\infty}[X_k \ < \ j]$$

Logo

$$\mathbb{P}(X_n\nrightarrow \infty)=\mathbb{P}(X_n \ < \ j,~i.v.)\quad\forall \ j\geq 1$$

Como $X_n\sim \text{Unif}(0,n^2)$ então temos que

$$\mathbb{P}(X_n \ < \ j)=\displaystyle \int_{0}^{j}\frac{1}{n^2}=\frac{j}{n^2}$$

Assim

$$\displaystyle \sum_{n=1}^{\infty}\frac{j}{n^2} \ < \ \infty,~~\forall \ j\geq 1$$

E pelo Lema de Borel-Cantelli concluímos que

$$\mathbb{P}(X_n \ < \ j,~ i.v.)=0, ~~ \forall j\geq 1$$

o que implica que $\mathbb{P}(X_n\nrightarrow \infty)=0$ e portanto $X_n\xrightarrow{q.c.}\infty$.

Exemplo 7.1.1.8:

Considere X uma v.a. e $\{X_n\}_{n\geq 1}$ uma sequência de v.a's definidas sobre $(\Omega,\mathcal{A},\mathbb{P})$, tal que a distribuição conjunta de $(X_n,X)$ seja dada por:

$$\mathbb{P}(X_n=0,X=0)=\displaystyle \frac{n}{3(n+1)}$$

$$\mathbb{P}(X_n=1,X=0)=\displaystyle \frac{1}{3(n+1)}$$

$$\mathbb{P}(X_n=0,X=1)=\displaystyle \frac{n}{3}$$

$$\mathbb{P}(X_n=1,X=1)=\displaystyle \frac{1}{3}$$

Verifique se $X_n\xrightarrow{\mathbb{P}} X$

Observamos que

$$0\leq\mathbb{P}(|X_n-X|\geq \frac{1}{3})=\mathbb{P}(X_n=0;X=1)+\mathbb{P}(X_n=1;X=0)=$$

$$=\displaystyle \frac{1}{3(n+1)}+\frac{n}{3}\stackrel{\mathbb{P}}{\nrightarrow} \infty$$

Portanto

$$X_n\stackrel{\mathbb{P}}{\nrightarrow} X.$$

Para finalizar esta seção, vamos apresentar um diagrama dos principais resultados.

Figura 7.1.1.1: Diagrama de implicações entre os tipos de convergência.

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]