- (16) 3376-2047
- [email protected]
- Portfólio de Serviços
- AT
Nesta seção, vamos estudar as convergências em probabilidades e quase certa, porém, inicialmente vamos apresentar um resultado importante, que é o lema de Borel-Cantelli.
Seja $\{A_n\}_{n\geq 1}$ uma sequência de eventos aleatórios então o limite superior da sequência é definido como
\[\displaystyle \limsup_{n\rightarrow\infty} A_n=\bigcap_{n=1}^{\infty}\bigcup_{k=n}^{\infty}A_k.\]
Além disso, o limite inferior é definido como:
\[\displaystyle \liminf_{n\rightarrow\infty} A_n=\bigcup_{n=1}^{\infty}\bigcap_{k=n}^{\infty}A_k.\]
Como consequência da definição, temos que $\omega\in\limsup_{n\rightarrow\infty} A_n$ se, e só se, para todo $n$ existe algum $k \geq n$ tal que $\omega\in A_k$. Assim, dizemos que $\omega\in\limsup_{n\rightarrow\infty} A_n$ este pertence a um número infinito de $A_n$. Por isso, também denotamos o limite superior de $A_n$ como $A_n$ i.v. (infinita vezes). Da mesma forma, temos que $\omega\in\liminf_{n\rightarrow\infty} A_n$ se, e só se, existe $n$ tal que $\omega \in A_k$ para todo $k \geq n$. Então, podemos dizer que $\omega\in\liminf_{n\rightarrow\infty} A_n$ se, só se, $\omega$ pertence a todos os $A_n$ exceto um número finito destes. A seguir, apresentamos o lema de Borel-Cantelli.
Seja $\{A_n\}_{n\geq 1}$ uma sequência de eventos aleatórios. Temos que:
i) Se $\displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n) \ < \ \infty$, então $\mathbb{P}[A_n,i.v.]=\mathbb{P}\left(\displaystyle \limsup_{n\rightarrow \infty} A_n\right)=0$.
ii) Se $\displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n)=\infty$ e os eventos $\{A_n\}_{n\geq 1}$ são independentes, então $\mathbb{P}[A_n,i.v.]=\mathbb{P}\left(\displaystyle \limsup_{n\rightarrow\infty} A_n\right)=1.$
Demonstração:
i) Se $\displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n) \ < \ \infty$, então $\displaystyle \sum_{k=n}^{\infty}\mathbb{P}(A_k)\rightarrow 0$ , quando $n\rightarrow \infty$. E como
\[\displaystyle\limsup_{n\rightarrow\infty} A_n \subset \bigcup_{k=n}^{\infty}A_k,\]
então temos que:
$$\mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]\leq \mathbb{P}\left[\displaystyle \bigcup_{k=n}^{\infty}A_k\right]\leq \sum_{k=n}^{\infty}\mathbb{P}(A_k)\xrightarrow{n\rightarrow\infty} 0.$$
Portanto como $0\leq \mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]\leq 0$, concluímos que $\mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]=0$.
ii) Para demonstrarmos este item basta observar que $\mathbb{P}\left[\displaystyle\bigcup_{k=n}^{\infty}A_k\right]=1$, para qualquer n, pois interseção de eventos com probabilidade 1 também tem probabilidade 1(ver propriedade 12), ou seja, se demonstrarmos que $\mathbb{P}\left[\displaystyle\bigcup_{k=n}^{\infty}A_k\right]=1$ então $\mathbb{P}[\displaystyle\limsup_{n\rightarrow\infty} A_n]=1$ e o resultado é demonstrado.
Assim, seja $B_n=\displaystyle \bigcup_{k=n}^{\infty}A_k$, note que $B_n \supset \displaystyle \bigcup_{k=n}^{n+m}A_k $, para qualquer $m \in \mathbb{N}$, e portanto $B_n^c \subset \left(\displaystyle \bigcup_{k=n}^{n+m}A_k\right)^c=\displaystyle \bigcap_{k=n}^{n+m}A_k^{c}$ (essa igualdade é válida pelas leis de De Morgan).
Logo, para todo m temos
$$1-\mathbb{P}(B_n)=\mathbb{P}(B_n^c)\leq \mathbb{P}\left(\displaystyle \bigcap_{k=n}^{n+m}A_k^{c}\right).$$
Como cada $A_i$ são independentes então obtemos que
$$\mathbb{P}\left(\displaystyle \bigcap_{k=n}^{n+m}A_k^{c}\right)=\prod_{k=n}^{n+m}\mathbb{P}(A_k^c)=\prod_{k=n}^{n+m}(1-\mathbb{P}(A_k)).$$
Notemos que $1-p\leq e^{-p}$ para $0\leq p \leq 1$, temos então que:
\[1-\mathbb{P}(B_n)\leq \prod_{k=n}^{n+m}e^{-\mathbb{P}(A_k)}=\exp\left\{-\displaystyle \sum_{k=n}^{n+m}\mathbb{P}(A_k)\right\}\xrightarrow{m\rightarrow\infty} 0,\]
pois por hipótese temos que $\displaystyle \sum_{n=1}^{\infty}\mathbb{P}(A_n)=\infty$. Portanto $\mathbb{P}(B_n)=1$, para todo $n\geq 1$.
$\Box$
Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias independentes tal que, $X_n\sim \text{Bernoulli}(p_n)$, $0 \ < \ p_n \ < \ 1$, $n\geq 1.$
Pelo lema de Borel-Cantelli, temos que
Se $\displaystyle\sum^\infty_{n=1}p_n \ < \ \infty$ então $\mathbb{P}([X_n=1],i.v.)=0$
Se $\displaystyle\sum^\infty_{n=1}p_n=\infty$ então $\mathbb{P}([X_n=1],i.v.)=1$
Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias independentes com $X_n\sim \text{Exp}(1).$ Defina $Y_n=\frac{X_n}{\log(n)}$ para $n\geq1.$ Discuta a convergência em probabilidade e quase certa.
Note que
$$\mathbb{P}\left(X_n \ > \ x\right)=e^{-x},\quad x \ > \ 0,~n\geq 1$$
e portanto,
$$\mathbb{P}\left(X_n \ > \ \alpha \log n\right)=e^{-\alpha\log n}=\dfrac{1}{n^\alpha},\quad ~n\geq 1$$
Então, pelo lema de Borel-Cantelli,
Agora, vamos apresentar as definições de convergências em probabilidades e quase certa.
Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória definidas no mesmo espaço de probabilidade. Dizemos que $X_n$ converge em probabilidade para $X$ e denotamos $X_n\xrightarrow{\mathbb{P}}X$ se
\[\lim_{n\rightarrow\infty}\mathbb{P}\left(|X_n-X|\geq \varepsilon\right)=0,\quad \forall \ \varepsilon \ > \ 0.\]
A principal ideia da convergência em probabilidade é que, quando n é arbitrariamente grande, a probabilidade da diferença $|X_n-X|$ ser maior do que qualquer número positivo $\varepsilon$ tende a zero.
Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória definidas no mesmo espaço de probabilidade. Dizemos que $X_n$ converge quase certamente para $X$, isto é, $X_n\xrightarrow{q.c.}X$ se
$$\mathbb{P}\left(\lim_{n\rightarrow\infty}X_n = X\right)=1$$
ou, equivalentemente,
\[\mathbb{P}\left(\{\omega\in \Omega: \lim_{n\rightarrow\infty}X_n(\omega)=X(\omega)\}\right) = 1\]
Este resultado nos diz que, o conjunto dos $\omega$ em que $X_n\nrightarrow X$ tem probabilidade zero. A convergência quase certa é uma convergência pontual em um conjunto de medida 1, ou seja, $X_n(\omega)\rightarrow X(\omega)$ para quase todo $\omega,$ exceto aqueles dentro de um conjunto de medida nula, ao contrário da convergência em probabilidade, que não diz respeito à convergência pontual.
Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória. Então $X_n$ converge quase certamente para $X$ se, e somente se, para todo $j\geq1$
\[\mathbb{P}\left(|X_n-X|\geq \frac{1}{j} \ \text{i.v.} \right)=0\]
Demonstração:
Um sequência de funções converge se para todo $j\geq 1,$ existe $n\geq 1$ tal que $k\geq n$ implica
$$|X_k(\omega)-X(\omega)| \ < \ \frac{1}{j}$$
equivalentemente
$$[X_n\rightarrow X]=\bigcap^\infty_{j=1}\bigcup^\infty_{n=1}\bigcap^\infty_{k=n}\left[|X_k-X| \ < \ \frac{1}{j}\right]$$
Logo,
$$[X_n\nrightarrow X]=\bigcup^\infty_{j=1}\bigcap^\infty_{n=1}\bigcup^\infty_{k=n}\left[|X_k-X|\geq \frac{1}{j}\right]=\bigcup^\infty_{j=1}\left[|X_n-X|\geq \frac{1}{j},~i.v.\right]$$
Se $X_n\xrightarrow{q.c.}X,$ então $\mathbb{P}[X_n\nrightarrow X]=0$ o que implica que
$$\mathbb{P}\left(|X_n-X|\geq \frac{1}{j},~i,v,\right)=0,\quad \text{para todo}~j\geq 1$$
Por outro lado, se $\mathbb{P}\left(|X_n-X|\geq \frac{1}{j},~i.v.\right)=0,\quad \text{para todo}~j\geq 1$ então
$$\mathbb{P}[X_n\nrightarrow X]\leq\sum^\infty_{j=1}\mathbb{P}\left(|X_n-X|\geq \frac{1}{j},~i.v.\right)=0$$
$\Box$
A seguir, apresentamos dois exemplos relacionados com as convergências quase certa e em probabilidade. Na sequência, apresentamos um resultado que comprova que convergência quase certa implica em convergência em probabilidade.
Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias com função de probabilidades dadas por
\[\mathbb{P}[X_n=0]=1-\frac{1}{n^2}\quad \text{e}\quad\mathbb{P}[X_n=1]=\frac{1}{n^2},\quad n\geq 1\]
Vamos mostrar que $X_n\xrightarrow{\mathbb{P}}0$ e $X_n\xrightarrow{q.c.}0$.
De fato, para qualquer $\varepsilon \ > \ 0$, temos que
\[0\leq \mathbb{P}\left(|X_n|\geq \varepsilon\right)=\mathbb{P}\left(X_n=1\right)=\frac{1}{n^2}\xrightarrow{n\rightarrow\infty}0\]
e, portanto, temos que $\lim_{n\rightarrow\infty}\mathbb{P}\left(\left|X_n-0\right|\geq\varepsilon\right) = 0$. Consequentemente, $X_n\xrightarrow{\mathbb{P}} 0$.
Agora, para todo $j\geq 1$ definimos o evento
\[A_n=\left[|X_n-0|\geq \frac{1}{j}\right]=[X_n=1],\quad n\geq 1\]
Como $\displaystyle\sum^\infty_{n=1}\mathbb{P}(A_n)=\sum^\infty_{n=1}\frac{1}{n^2} \ < \ \infty,$ pois é uma série convergente. Então $\mathbb{P}(A_n,~i.v.)=0$ pelo Lema de Borel-Cantelli item (i).
Portanto, pelo critério da convergência quase certa (Teorema 7.1.1.1), temos que $X_n\xrightarrow{q.c.}0$
Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias independentes com função de probabilidades dadas por
\[\mathbb{P}[X_n=0]=1-\frac{1}{n}\quad \text{e}\quad\mathbb{P}[X_n=1]=\frac{1}{n},\quad n\geq 1.\]
Vamos mostrar que $X_n\xrightarrow{\mathbb{P}}0$ e $X_n\overset{q.c.}{\nrightarrow}0$.
De fato, para qualquer $\varepsilon \ > \ 0$, temos que
\[0\leq \mathbb{P}\left(|X_n|\geq \varepsilon\right)=\mathbb{P}\left(X_n=1\right)=\frac{1}{n}\xrightarrow{n\rightarrow\infty}0\]
de onde concluímos que $\lim_{n\rightarrow\infty}\mathbb{P}\left(|X_n-0|\geq \varepsilon\right) = 0$. Consequentemente, $X_n\xrightarrow{\mathbb{P}} 0$.
Agora, definimos o evento
$$A_n=\left[|X_n|\geq\frac{1}{2}\right]=[X_n=1],\quad n\geq 1$$
Como $\displaystyle\sum^\infty_{n=1}\mathbb{P}(A_n)=\sum^\infty_{n=1}\frac{1}{n}=\infty,$ pois é uma série divergente e os $A_n$'s são independentes, então $\mathbb{P}[A_n,~i.v.]=1\neq 0,$ pelo Lema de Borel-Cantelli item (ii).
Portanto, pelo critério da convergência quase certa (Teorema 7.1.1.1), temos que $X_n\overset{q.c.}{\nrightarrow }0$
Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória. Se para todo $\varepsilon \ > \ 0$ temos $\displaystyle \sum^{\infty}_{n=1} \mathbb{P} \left(|X_n - X| \geq \varepsilon \right ) < \infty,$ então $X_n\xrightarrow{q.c.}X$.
Demonstração:
Como por hipótese $\displaystyle\sum^\infty_{n=1}\mathbb{P}\left(|X_n-X|\geq \varepsilon\right) \ < \ \infty,$ então pelo Lema de Borel-Cantelli item (i) segue que
\[\mathbb{P}\left(|X_n-X|\geq \varepsilon;~i.v.\right)=0\]
Portanto, pelo Teorema 7.1.1.1 temos que $X_n\xrightarrow{q.c.}X $
$\Box$
Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória. Se $X_n\xrightarrow{q.c.}X ,$ então $X_n\xrightarrow{\mathbb{P}}X$.
Demonstração:
Como por hipótese $X_n\xrightarrow{q.c.}X$, então pelo Teorema 7.1.1.1, temos que para todo $\varepsilon \ > \ 0$
$$\mathbb{P}\left(|X_n-X|\geq \varepsilon;~i.v.\right)=0$$
Mas observe que
$$\{|X_n-X|\geq \varepsilon;~i.v.\}=\bigcap^\infty_{n=1}\bigcup^\infty_{k=n}\{|X_n-X|\geq\varepsilon\},$$
Então,
$$\lim_{n\rightarrow\infty}\mathbb{P}\left\{\bigcup^\infty_{k=n}\left[|X_k-X|\geq \varepsilon;~i.v.\right]\right\}=0$$
Logo,
$$0\leq \mathbb{P}(|X_n-X|\geq\varepsilon)\leq \mathbb{P}\left(\bigcup^\infty_{k=n}[|X_k-X|\geq\varepsilon]\right)\xrightarrow{n\rightarrow\infty}0$$
Portanto,
\[\lim_{n\rightarrow\infty}\mathbb{P}\left(|X_n-X|\geq \varepsilon\right) = 0 \Rightarrow X_n\xrightarrow{\mathbb{P}}X.\]
$\Box$
Através do Exemplo 7.1.1.4 mostramos que nem sempre a convergência em probabilidade implica em convergência quase certa.
Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ uma variável aleatória. Se $X_n\xrightarrow{\mathbb{P}}X$, então existe uma subsequência de inteiros crescente $\{n_k\}_{k\geq 1}$ tal que $X_{n_k}\xrightarrow{q.c.}X.$
Demonstração:
Primeiramente observamos que $X_n\xrightarrow{\mathbb{P}}X$ se, e somente se, $X_n-X\xrightarrow{\mathbb{P}}0$. Assim, podemos supor, sem perda de generalidade, que $X=0.$ Então por hipótese para todo $k \ > \ 0$, temos que
$$\mathbb{P}\left\{|X_n| \ > \ \frac{1}{2^k}\right\} \rightarrow 0 \ \text{quando} \ n\rightarrow \infty.$$
Logo, para cada $k \ > \ 0$, existe uma subsequência $\{n_k\}_{k\geq 1}$ tal que
$$\sum_{k=0}^{\infty}\mathbb{P}\left\{|X_{n_k}| \ > \ \frac{1}{2^k}\right\}\leq \sum^\infty_{k=0}\frac{1}{2^k} \ < \ \infty.$$
Escolhida a subsequência $\{n_k\},$ obtemos que $\mathbb{P}\left\{\left[|X_{n_k}|>\frac{1}{2^k}\right],~i.v.\right\}=0.$
Portanto, pelo Teorema 7.1.1.2, temos que
$$X_{n_k}\xrightarrow{q.c.}0$$
$\Box$
Este resultado nos diz que convergência em probabilidade implica em convergência quase certa ao longo de uma subsequência.
Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias, $X$ uma variável aleatória e $g$ uma função contínua a valores reais. Então se $X_n\xrightarrow{q.c.} X$ temos que $g(X_n)\xrightarrow{q.c.} g(X)$.
Demonstração:
Notemos que se $X_n\xrightarrow{q.c.} X$ então existe um conjunto $A_0\in\mathcal{F}$, tal que $\mathbb{P}(A_0)=1$ e $\forall \ \omega \in A_0$ temos que
\[X_n(\omega)\rightarrow X(\omega).\]
Como $g$ é uma função contínua é claro que
$$g(X_n(\omega))\rightarrow g(X(\omega))$$
para qualquer $\omega \in A_0$ e, portanto, $g(X_n)\xrightarrow{q.c.} g(X)$.
$\Box$
Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias, $X$ uma variável aleatória e $g$ uma função contínua a valores reais. Se $X_n$ converge em probabilidade para $X$ então $g(X_n)$ converge em probabilidade para $g(X)$.
Demonstração:
Inicialmente, suponha que $g$ é uniformemente contínua. Então, dado $\varepsilon \ > \ 0$, existe um $\delta \ > \ 0$ tal que $|g(X_n) - g(x)| \ < \ \varepsilon$ sempre que $|X_n-X| \ < \ \delta$. Neste caso, temos que
\[\left[|X_n-X| \ < \ \delta\right] \subset \left[|g(X_n)-g(X)| \ < \ \epsilon\right] \Rightarrow \left[|g(X_n)-g(X)|\geq \varepsilon\right]\subset \left[|X_n-X|\geq \delta\right].\]
Portanto, temos que
\[0\leq \mathbb{P}\left(|g(X_n)-g(X)|\geq \varepsilon\right)\leq \mathbb{P}\left(|X_n-X|\right)\rightarrow0\]
de onde segue que $g(X_n)$ converge em probabilidade para $g(X)$.
Por hipótese, temos que $X_n$ converge em probabilidade para $X$ e, como $g$ é uma função contínua, segue que $g$ é uniformemente contínua em compactos, ou seja, em intervalos fechados e limitados da forma $[-m,m]$.
Assim, dado $\varepsilon \ > \ 0$, existe $n$ suficientemente grande tal que
$$\mathbb{P}\left[-\frac{m}{2}\leq X_n-X\leq \frac{m}{2}\right] \ > \ 1-\varepsilon.$$
Pela continuidade uniforme em $[-m,m]$ da função $g$, existe $\delta \ > \ 0$ tal que $\delta\leq \frac{m}{2}$ e se $|x|\leq m$, $|y|\leq m$ e ainda $|x-y| \ < \ \delta$ então $|g(x)-g(y)| \ < \ \varepsilon$.
Pela propriedade P13, como $\mathbb{P}(|X_n-X| \ < \ \delta)\rightarrow 1$, temos que $\mathbb{P}\left[|X|\leq \frac{m}{2};|X_n-X| \ < \ \delta\right]\rightarrow \mathbb{P}\left[|X|\leq \frac{m}{2}\right] \ > \ 1-\varepsilon$.
Assim, notamos que:
\[\left[|X|\leq \frac{m}{2};|X_n-X| \ < \ \delta\right]\subset[|X|\leq m;|X_n|\leq m;|X_n-X| \ < \ \delta]\subset[|g(X_n)-g(X)| \ < \ \varepsilon].\]
Portanto $\mathbb{P}[|g(X_n)-g(X)| \ < \ \varepsilon]> 1-\varepsilon$ para um n suficientemente grande. Ou seja,
$$\mathbb{P}[|g(X_n)-g(X)| \ < \ \varepsilon]\rightarrow 1$$
logo converge em probabilidade.
$\Box$
Sejam $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias e $X$ e $Y$ variáveis aleatórias. Se $X_n\xrightarrow{\mathbb{P}}X$ e $X_n\xrightarrow{\mathbb{P}}Y$, então $\mathbb{P}[X=Y]=1$
Demonstração:
Primeiramente, como $X_n\xrightarrow{\mathbb{P}}X $ e $X_n\xrightarrow{\mathbb{P}}Y$, tomamos uma sequência $n_k$ tal que $X_{n_k}\xrightarrow{q.c.}X$ e uma subsequência $n_{k_j}$ tal que $X_{n_{k_j}}\xrightarrow{q.c.}Y$. Observamos que estas subsequências podem ser tomadas pelo Teorema 7.1.1.4.
Agora, tomamos os eventos $A=[X_{n_k}\rightarrow X]$ e $B=[X_{n_{k_j}}\rightarrow Y]$. Como $\mathbb{P}(A)=\mathbb{P}(B)=1,$ segue que $\mathbb{P}(A\cap B)=1$.
Para $\omega\in A\cap B,$ temos que
$$\begin{array}{l}X_{n_k}(\omega)\rightarrow X(\omega),\quad k\rightarrow\infty\\ X_{n_{k_j}}(\omega)\rightarrow Y(\omega),\quad~j\rightarrow\infty\end{array}\quad \Rightarrow\quad \mathbb{P}(X=Y)\geq \mathbb{P}(A\cap B)=1$$
o que implica $X(\omega)=Y(\omega)$ q.c., isto é, $\mathbb{P}\left[X=Y\right] = 1$.
$\Box$
Vamos aplicar a ideia de sequências numéricas de Cauchy para a convergência em probabilidade. Podemos utilizar uma definição análoga à sequência de Cauchy da seguinte forma.
Dizemos que uma sequência $(X_n)_{n\geq 1}$ converge em probabilidade de Cauchy se dado $\varepsilon \ > \ 0$, existe um número natural $N_0$ tal que para todo $n, m \ > \ N_0$ temos que
$$\displaystyle \mathbb{P}(|X_n-X_m| \ > \ \varepsilon)\rightarrow 0.$$
Seja $(X_n)_{n\geq 1}$ um sequência de variáveis aleatórias. Então
(a) $X_n\xrightarrow{q.c.} X$ se, e somente se,
$$ \mathbb{P}\left[\sup_{k\geq n}|X_k - X|\geq \varepsilon\right]\xrightarrow{n\rightarrow\infty} 0$$
para todo $\varepsilon \ > \ 0$
(b) $X_n\xrightarrow{\mathbb{P}} X$ se, somente se,
$$\mathbb{P}\left(\sup_{k\geq 0}|X_{n+k}-X_n|\geq 0\right)\xrightarrow{n\rightarrow\infty}0$$
Demonstração:
(a) Seja $A_n^{\varepsilon}=\{\omega \in \Omega: |X_n-X|\geq \varepsilon \}$ e seja $A^{\varepsilon}=\limsup A_{n}^{\varepsilon}=\displaystyle \bigcap_{n=1}^{\infty}\bigcup_{k\geq n}A_{n}^{\varepsilon}$. Então
$$\{\omega \in \Omega: X_n\nrightarrow X \}=\displaystyle \bigcup_{\varepsilon \geq 0} A^{\varepsilon}=\bigcup_{m=1}^{\infty} A^{1/m}$$
Mas
$$\mathbb{P}(A_{n}^{\varepsilon})=\lim_{n\rightarrow\infty} \mathbb{P}\left(\bigcup_{k\geq n}A_{n}^{\varepsilon}\right)$$
E portanto
$$0=\mathbb{P}[\{\omega \in \Omega: X_n\nrightarrow X \}]=\mathbb{P}\left(\displaystyle \bigcup_{\varepsilon \geq 0} A^{\varepsilon}\right)\quad\Leftrightarrow\quad \mathbb{P}\left(\bigcup_{m=1}^{\infty} A^{1/m}\right)=0$$
$$\Leftrightarrow\quad \mathbb{P}( A^{1/m})=0,~~ m\geq 1\quad \Leftrightarrow\quad \mathbb{P}(A^\varepsilon)=0,~~\varepsilon < 0$$
$$\Leftrightarrow\quad \mathbb{P}\left(\bigcup_{k\geq n} A_{n}^{\varepsilon}\right)\rightarrow 0, ~~ n\rightarrow \infty\quad \Leftrightarrow\quad \mathbb{P}\left(\displaystyle \sup_{k\geq n}|X_k-X|\geq \varepsilon \right)\xrightarrow{n\rightarrow \infty} 0.$$
(b) A demonstração é análoga ao item (a).
$\Box$
Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias independentes e com mesma distribuição $U(0,\theta),~\theta \ > \ 0$. Defina $Y_n=\max\{X_1,\dots,X_n\},n\geq1.$ Mostre que $Y_n\xrightarrow{\mathbb{P}}\theta$ e verifique se $\{Y_n\}_{n\geq 1}$ converge quase certamente.
De fato, para $0 \ < \ x \ < \ \theta$ e $j\geq 1$ temos que
$$0\leq \mathbb{P}\left[|Y_n-\theta|\geq \frac{1}{j}\right]\leq \mathbb{P}[Y_n\leq x]=\mathbb{P}[X_1\leq x;\dots;X_n\leq x]\overset{i.i.d.}{=}\prod^n_{j=1}\mathbb{P}[X_j\leq x]=\left(\frac{x}{\theta}\right)^n\xrightarrow{n\rightarrow\infty}0$$
Portanto, $Y_n\xrightarrow{\mathbb{P}}\theta.$
Agora, para todo $j\geq 1$ temos que
$$\sum^\infty_{n=1}\mathbb{P}\left[|Y-n-\theta|\geq\frac{1}{j}\right]\leq \sum^\infty_{n=1}\mathbb{P}[Y_n\leq x]=\sum^\infty_{n=1}\left(\frac{x}{\theta}\right)^n=\frac{1}{1-\frac{x}{\theta}} \ < \ \infty$$
Logo, pelo Lema de Borel-Cantelli obtemos que
$$\mathbb{P}\left[|Y_n-\theta|\geq \frac{1}{j},i.v.\right]=0$$
Portanto, $Y_n\xrightarrow{q.c.}\theta.$
Seja $\{X_n\}_{n\geq 1}$ uma sequência de variáveis aleatórias tal que, $X_n\sim$ Bernoulli(1/2), $n\geq 1$ e $X \sim$ Bernoulli(1/2) independente de $X_n$ para todo $n$. Neste caso, $X_n\xrightarrow{\mathbb{P}}X$?
Note que
$$\mathbb{P}\{|X_n-X|\geq\frac{1}{2}\}=\mathbb{P}\{X_n=0;X=1\}+\mathbb{P}\{X_n=1;X=0\}=\frac{1}{4}+\frac{1}{4}=\frac{1}{2}\nrightarrow 0, \ \text{quando} \ n\rightarrow\infty$$
Portanto, $X_n\overset{\mathbb{P}}{\nrightarrow}X$.
Seja $\{X_n\}_{n\geq 1}$ uma sequência de v.a's independentes definidas em $(\Omega, \mathcal{A}, \mathbb{P})$, tal que $X_n\sim U(0,a_n)$, com $a_n \ > \ 0$, $n\geq 1$. Então
(a) Supondo $a_n=n$, prove que, com probabilidade 1, existe um número infinito de v.a's $X_n$ que assumem valores menores que 1 e um número infinito $X_n$ que assumem valores maiores do que 2.
(b) Com considerações análogas as do item (a) decida sobre a convergência quase certa, no caso em que $a_n=n^2$, $n\geq 1$.
(a) Temos que:
$$\mathbb{P}(X_n \ < \ 1)= \int_{0}^{1}\frac{1}{n}dx_n=\frac{1}{n}$$
Como $\displaystyle \sum_{n=1}^{\infty}\frac{1}{n}=\infty$, então pelo Lema de Borel-Cantelli, concluímos que $\mathbb{P}(X_n \ < \ 1;~ i.v.)=1$.
Agora para
$$\mathbb{P}(X_n \ > \ 2)= \int_{2}^{n}\frac{1}{n}=\frac{n-2}{n}.$$
Como $\displaystyle \sum_{n=1}^{\infty}\frac{n-2}{n}=\infty,$ então pelo Lema de Borel-Cantelli, concluímos que $\mathbb{P}(X_n \ > \ 2;~ i.v.)=1$.
Agora do fato de existirem infitos valores menores do que 1 e infinitos valores maiores que 2, concluímos que a sequência de v.a's $\{X_n\}_{n\geq 1}$ não converge quase-certamente.
(b) Temos que,
$$\mathbb{P}(X_n \ < \ 1)= \int_{0}^{1}\frac{1}{n^2}dx_n=\frac{1}{n^2}$$
Como $\displaystyle \sum_{n=1}^{\infty}\frac{1}{n^2} \ < \ \infty$, então pelo Lema de Borel-Cantelli, concluímos que $\mathbb{P}(X_n \ < \ 1;~ i.v.)=0$.
$$\mathbb{P}(X_n \ > \ 2)=\displaystyle \int_{2}^{n^2}\frac{1}{n^2}dx_n=1-\frac{2}{n^2}$$
Como $\displaystyle \sum_{n=1}^{\infty}1-\frac{2}{n^2}=\infty,$ então pelo Lema de Borel-Cantelli, concluímos que $\mathbb{P}(X_n \ > \ 2;~ i.v.)=1$.
Note que pelo fato de $\mathbb{P}(X_n \ > \ 2;~ i.v.)=1$, podemos esperar que $X_n\stackrel{q.c}{\rightarrow}\infty$. Para mostrar esse fato, observamos que
$$[X_n\nrightarrow \infty]=\displaystyle \bigcup_{j=1}^{\infty}\bigcap_{n=1}^{\infty}\bigcup_{k=n}^{\infty}[X_k \ < \ j]$$
Logo
$$\mathbb{P}(X_n\nrightarrow \infty)=\mathbb{P}(X_n \ < \ j,~i.v.)\quad\forall \ j\geq 1$$
Como $X_n\sim \text{Unif}(0,n^2)$ então temos que
$$\mathbb{P}(X_n \ < \ j)=\displaystyle \int_{0}^{j}\frac{1}{n^2}=\frac{j}{n^2}$$
Assim
$$\displaystyle \sum_{n=1}^{\infty}\frac{j}{n^2} \ < \ \infty,~~\forall \ j\geq 1$$
E pelo Lema de Borel-Cantelli concluímos que
$$\mathbb{P}(X_n \ < \ j,~ i.v.)=0, ~~ \forall j\geq 1$$
o que implica que $\mathbb{P}(X_n\nrightarrow \infty)=0$ e portanto $X_n\xrightarrow{q.c.}\infty$.
Considere X uma v.a. e $\{X_n\}_{n\geq 1}$ uma sequência de v.a's definidas sobre $(\Omega,\mathcal{A},\mathbb{P})$, tal que a distribuição conjunta de $(X_n,X)$ seja dada por:
$$\mathbb{P}(X_n=0,X=0)=\displaystyle \frac{n}{3(n+1)}$$
$$\mathbb{P}(X_n=1,X=0)=\displaystyle \frac{1}{3(n+1)}$$
$$\mathbb{P}(X_n=0,X=1)=\displaystyle \frac{n}{3}$$
$$\mathbb{P}(X_n=1,X=1)=\displaystyle \frac{1}{3}$$
Verifique se $X_n\xrightarrow{\mathbb{P}} X$
Observamos que
$$0\leq\mathbb{P}(|X_n-X|\geq \frac{1}{3})=\mathbb{P}(X_n=0;X=1)+\mathbb{P}(X_n=1;X=0)=$$
$$=\displaystyle \frac{1}{3(n+1)}+\frac{n}{3}\stackrel{\mathbb{P}}{\nrightarrow} \infty$$
Portanto
$$X_n\stackrel{\mathbb{P}}{\nrightarrow} X.$$
Para finalizar esta seção, vamos apresentar um diagrama dos principais resultados.
Figura 7.1.1.1: Diagrama de implicações entre os tipos de convergência.
O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.