3.5 - Esperança Condicional

Você está aqui

Neste módulo, vamos definir e apresentar as principais propriedades de esperança condicional, como uma extensão do conceito de  probabilidade condicional. Aqui, apresentamos o conceito de esperança condicional através de uma abordagem simples e repleta de exemplos. A definição de esperança condicional com respeito a uma $ \sigma $-álgebra pode ser encontrado na seção esperança condicional com respeito a uma sigma-álgebra.

Considere $ (\Omega, \mathcal{F}, \mathbb{P}) $ um espaço de probabilidade. A probabilidade condicional do evento $ A $ dado o evento  $ B $ é definida por

\[\displaystyle \mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}\]

assumindo que $ \mathbb{P}(B)\textgreater 0 $. Dados $ X $ e $ Y $ variáveis aleatórias discretas assumindo valores $ \mathcal{R}_X=\{x_1, x_2, \cdots , x_n\} $ e $ \mathcal{R}_Y=\{y_1, y_2, \cdots , y_m\} $, respectivamente. Uma definição natural para esperança condicional de $ X $ dado $ Y=y $ é dada por

\[\displaystyle \mathbb{E}[X|Y=y]=\sum_{x\in \mathcal{R}_X}x\mathbb{P}[X=x|Y=y], \quad y \in \mathcal{R}_Y.\]

Assim, obtemos que a esperança condicional da variável aleatória $ X $ dado a variável aleatória $ Y $, denotada por $ \mathbb{E}[X\mid Y] $, é uma função da variável aleatória $ Y $ e com isso, a esperança condicional também é uma variável aleatória. Portanto, temos que

\[ \mathbb{E} \left[\mathbb{E}[X\mid Y]\right]=\sum_{y \in \mathcal{R}_Y} \mathbb{E}[X\mid Y=y] \mathbb{P}[Y=y]=\sum_{y \in \mathcal{R}_Y}\sum_{x\in \mathcal{R}_X}x\mathbb{P}[X=x|Y=y]\mathbb{P}[Y=y]=\]
\[\sum_{y \in \mathcal{R}_Y}\sum_{x\in \mathcal{R}_X}x \frac{\mathbb{P}[X=x;Y=y]}{\mathbb{P}[Y=y]}\mathbb{P}[Y=y]=\sum_{x\in \mathcal{R}_X}x \sum_{y \in \mathcal{R}_Y}\mathbb{P}[X=x;Y=y]=\sum_{x\in \mathcal{R}_X}x\mathbb{P}[X=x]=\mathbb{E}[X].\]

Na sequência, tomamos $ X $ e $ Y $ variáveis aleatórias discretas assumindo valores nos conjuntos enumeráveis $ \mathcal{R}_X=\{x_1, x_2, \cdots\} $ e $ \mathcal{R}_Y=\{y_1, y_2, \cdots\} $, respectivamente. A esperança condicional de $ X $ dado $ Y $ é definida na forma

\[\mathbb{E}[X|Y=y]=\sum_{x\in \mathcal{R}_X}x\mathbb{P}[X=x|Y=y],\]

caso esta série esteja bem definida para todo $ y \in \mathbb{R}_Y $. Da mesma forma, se $ \mathbb{E}\mid X \mid \textless\infty $, obtemos que $ \mathbb{E}[\mathbb{E}(X\mid Y)]=\mathbb{E}(X) $

Considere $ I_x=1\!\!1_{\{X=x\}} $ a função indicadora do evento $ \{X=x\} $, que assume valor $ 1 $ se $ X=x $ ou zero caso contrário. Neste caso, a esperança conditional de $ I_x $ dado a variável aleatória $ Y $ é dada por 

\[\mathbb{E}[I_x\mid Y] = \sum_{i=0}^{1}i\mathbb{P}[I_x=i\mid Y=y]= \mathbb{P}[X=x\mid Y=y],\]

para todo $ x \in \mathcal{R}_X $ e $ y \in \mathcal{R}_Y $. Assim, obtemos que a probabilidade condicional é uma caso particular da esperança condicional e consequentemente, uma variável aleatória. Neste caso, obtemos que $ \mathbb{E}[\mathbb{P}[X=x\mid Y]]=\mathbb{E}[\mathbb{E}[I_x\mid Y]]=\mathbb{E}[I_x]=\mathbb{P}[X=x] $.

Agora, considere $ (X,Y) $ um vetor aleatório absolutamente contínuo com função densidade de probabilidade conjunta $ f_{X,Y} $.  A função densidade condicional de $ X $ dado $ Y $ é definida por

\[\displaystyle f_{X|Y}(x,y)=\frac{f_{X,Y}(x,y)}{f_{Y}(y)},\]

no qual $ f_Y $ é a função densidade de probabilidade da variável aleatória $ Y $. Por definição, temos que

\[\mathbb{P}[a\leq X \leq b\mid y-\epsilon \leq Y \leq y+\epsilon]=\frac{\mathbb{P}[a\leq X \leq b;y-\epsilon \leq Y \leq y+\epsilon]}{\mathbb{P}[y-\epsilon \leq Y \leq y+\epsilon]}=\frac{\int_{a}^{b}\int_{y-\epsilon}^{y+\epsilon} f_{X,Y}(x,t)dxdt}{\int_{y-\epsilon}^{y+\epsilon}f_Y(t) dt}=\]

 

\[\frac{\int_{y-\epsilon}^{y+\epsilon} \int_{a}^{b}f_{X,Y}(x,t)dxdt}{\int_{y-\epsilon}^{y+\epsilon}f_Y(t) dt} \sim \int_{a}^b \frac{f_{X,Y}(x,y)}{f_Y(y)}dx,\]

para $ \epsilon \textgreater 0 $ suficientemente pequeno.

Então, a probabilidade condicional neste caso é definida por

\[\displaystyle \mathbb{P}(a\leq X\leq b|Y=y)=\int_{a}^b f_{X|Y}(x,y)dx\]

e a esperança condicional da variável aleatória $ X $ dado a variável aleatória $ Y $ é definida por

\[\displaystyle \mathbb{E}[X|Y=y]=\int_{-\infty}^{\infty}xf_{X|Y}(x,y)dx.\]

Proposição 3.5.1:

Sejam $ X $ e $ Y $ variáveis aleatórias absolutamente contínuas então

\[\displaystyle \mathbb{E}[X]=\mathbb{E}[\mathbb{E}(X\mid Y)]=\int_{-\infty}^{\infty}\mathbb{E}[X|Y=y]f_{Y}(y)dy\]

Demonstração:

\[\displaystyle \mathbb{E}[X]=\int_{-\infty}^{\infty}\mathbb{E}[X|Y=y]f_{Y}(y)dy\]

\[=\displaystyle\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}xf_{X|Y}(x,y)f_Y(y)dxdy\]

\[=\displaystyle\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}x\frac{f_{X,Y}(x,y)}{f_{Y}(y)}f_Y(y)dydx\]

\[=\displaystyle\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}x f_{X,Y}(x,y)dydx\]

\[=\displaystyle\int_{-\infty}^{\infty}x\int_{-\infty}^{\infty} f_{X,Y}(x,y)dydx\]

\[=\displaystyle \int_{-\infty}^{\infty}xf_X(x)dx=\mathbb{E}[X]\]

Exemplo 3.5.1:

Um dado honesto é lançado até a ocorrência do númeor $ 6 $. Seja Y a variável aleatória que conta o número de vezes que lançamos o dado até a ocorrência do número $ 6 $ e $ X $ a variável aleatória que conta o número de uns que tivemos nestes lançamentos. Vamos calcular $ \mathbb{E}[X|Y=y] $. O evento $ Y=y $, significa que lançamos os dado $ y $ vezes nos quais, $ y-1 $ vezes não obtivemos o número $ 6 $ e então no $ y $-ésimo lançamento obtivemos o número $ 6 $. Assim, dado $ Y=y $, temos que X tem distribuição binomial $ B(n,p) $, com $ n=y-1 $ e $ p=\frac{1}{5} $, pois temos $ y-1 $ possibilidades de ter ocorrido o número $ 1 $. De fato, como sabemos que dentro destes $ n $ lançamentos o número $ 6 $ não pode ter ocorrido, temos apenas a possibilidade dos seguintes resultados $ (1,2,3,4,5) $, com probabilidade iguais para cada um deles. Logo, a probabilidade de corrência do evento de interesse (sair o número $ 1 $) é $ p=1/5 $. Então, temos que

\[\displaystyle \mathbb{E}[X|Y=y]=np=\frac{y-1}{5}\]

Como a esperança condicional é uma função da variável aleatória $ Y $, sabemos que $ \mathbb{E}[X|Y] $ é uma variável aleatória. No exemplo, temos que

\[\mathbb{E}[X|Y=y]=\displaystyle \frac{y-1}{5},\]

e assim,  a variável aleatória esperança condicional é dada por 

\[\mathbb{E}[X|Y]=\displaystyle \frac{Y-1}{5}.\]

Exemplo 3.5.2:

Utilizando o mesmo exemplo anterior vamos calcular $ \mathbb{E}[X^2|Y] $.
Note que novamente $ \mathbb{E}[X|Y=y] $ é uma binomial, e ainda sua a variança é dada por

\[\mathbb{E}[X^2|Y=y]-(\mathbb{E}[X|Y=y])^2=np(1-p)=\displaystyle \frac{4(y-1)}{25}\]

Sabemos do exemplo 3.5.1 que 

\[\displaystyle \mathbb{E}[X^2|Y=y]-\left(\frac{y-1}{5}\right)^2=\frac{4(y-1)}{25}\]

Portanto

\[\displaystyle \mathbb{E}[X^2|Y=y]=\frac{(y-1)^2}{25}+\frac{4(y-1)}{25}\]

Assim, temos que 

\[\displaystyle \mathbb{E}[X^2|Y]=\frac{(Y-1)^2}{25}+\frac{4(Y-1)}{25}=\frac{Y^2+2Y-3}{25}\]

Exemplo 3.5.3:

Sejam $ X,Y\stackrel{iid}{\sim}B(n,p) $. Calcule $ \mathbb{E}[X|X+Y=y] $.
Para isso, primeiramente vamos calcular a probabilidade condicional de $ X $ dado $ X+Y=m $. Para $ k\leq \min(n,m) $,

\[\mathbb{P}(X=k|X+Y=m)=\displaystyle \frac{\mathbb{P}(X=k,X+Y=m)}{\mathbb{P}(X+Y=m)}\]

\[=\displaystyle \frac{\mathbb{P}(X=k, Y=m-k)}{\mathbb{P}(X+Y=m)}\]

\[=\displaystyle \frac{\mathbb{P}(X=k)\mathbb{P}(Y=m-k)}{\mathbb{P}(X+Y=m)}\]

\[=\displaystyle \frac{\left(\begin{array}{c} n \\ k \end{array}\right)\left(\begin{array}{c} n \\ m-k \end{array}\right)}{\left(\begin{array}{c} 2n \\ m \end{array}\right)}\]

Usamos o fato de que $ X+Y $ é uma binomial $ 2n $ e $ p $. Portanto, a distribuição de X, dado $ X+Y=m $, tem distribuição hipergeométrica e obtemos

\[\displaystyle \mathbb{E}[X|X+Y=m]=\frac{m}{2}\]

Exemplo 3.5.4:

Suponha X e Y com densidade conjunta dada por

\[f(x,y)=\displaystyle\frac{e^{-x/y}e^{-y}}{y},~~0\textless x\textless \infty,~~0\textless y\textless \infty\]

Calcule $ \mathbb{E}[X|Y=y] $.
Para isso vamos primeiramente calcular a densidade condicional

\[f_{X|Y}(x|y)=\displaystyle \frac{f(x,y)}{f_Y(y)}=\frac{f(x,y)}{\int_{0}^{\infty}f_{X,Y}(x,y)}dx\]

\[=\displaystyle \frac{e^{-x/y}e^{-y}}{y\int_{0}^{\infty}e^{-x/y}e^{-y}/y}\]

\[=\displaystyle \frac{e^{-x/y}}{y}\]

Portanto a distribuição condicional de $ X $ dado $ Y=y $, tem distribuição exponencial com média y.
Então

\[\displaystyle \mathbb{E}[X|Y=y]=\int_{0}^{\infty}\frac{x}{y}e^{-x/y}dx=y\Rightarrow \mathbb{E}[X|Y]=Y\]

 

Exemplo 3.5.5:

Sejam X e Z variáveis aleatórias em $ (\Omega, \mathbb{A}, \mathbb{P}) $
(a)Mostre que para A e B borelianos,

$$\mathbb{P}(Z\in B, X\in A| X=x)=\left\{\begin{array}{l} \displaystyle\mathbb{P}(Z\in B|X=x),\quad\quad\text{se}\quad x\in A\\0,\quad \quad \quad\quad\text{se}\quad\quad x\notin A.\end{array}\right.$$

Porém, pelo exemplo 2.6.7 concluímos que $ X|X=x $ é distribuição em massa ponto em x, ié,

$$\mathbb{P}(X=x|X=x)=1$$

Assim,

$$\mathbb{P}(X\in A|X=x)=\left\{\begin{array}{l}1,\quad\quad se\quad\quad x \in A\\ 0,\quad\quad se\quad\quad x \notin A \end{array}\right.$$

Então, se $ x\in A $ o que implica que

$$\mathbb{P}(X\in A| X=x)=1$$

o que implica que

$$\mathbb{P}(Z\in B,X\in A|X=x)=\mathbb{P}(Z\in B|X=x)=\mathbb{P}(Z\in B|X=x)$$

Agora se $ x\notin A $, então $ \mathbb{P}(X\in | X=x)=0 $ então

$$\mathbb{P}(Z\in B,X\in A| X=x)\leq \mathbb{P}(X\in A| X=x)=0$$

o que implica que

$$\mathbb{P}(Z\in B, X\in A|X=x)=0\Rightarrow \mathbb{P}(Z\in B, X\in A| X=x)=0$$

(b) Mostre que se $ \mathbb{P}(Z\in B|X=x)\geq \frac{1}{2} $, para todo $ x\in A $, então $ \mathbb{P}(Z\in B|X\in A)\geq \frac{1}{2} $
temos que:

$$\mathbb{P}(Z\in B, x\in A)=\int \mathbb{P}(Z\in B, X\in B|X=x)dF_X(x)=\int \mathbb{P}(Z\in B|X=x)\mathds{1}_A(x)dF_X(x)$$

$$\geq \frac{1}{2}\int \mathds{1}_A(x)dF_X(x)=\frac{1}{2}\mathbb{P}(X\in A)$$

Agora se assumirmos

$$\mathbb{P}(X\in A)\textgreater 0,$$

então

$$\mathbb{P}(Z\in B|X\in A)=\frac{\mathbb{P}(Z\in B,X\in A)}{\mathbb{P}(X\in A)}\geq \frac{\frac{1}{2}\mathbb{P}(X\in A)}{\mathbb{P}(X\in A)}\geq \frac{1}{2}$$

(c) Sejam X e Y independentes tais que $ \mathbb{P}(Y\geq 0)\geq \frac{1}{2} $. Demonstre que $ \mathbb{P}(X+Y\geq a| X\geq a)\geq \frac{1}{2} $.

Assumimos que $ \mathbb{P}(X\geq a)\textgreater 0 $, então:

$$\mathbb{P}(X+Y\geq a | X\geq a)=\frac{\mathbb{P}(X+Y\geq a, X\geq a)}{\mathbb{P}(X\geq a)}\geq \frac{\mathbb{P}(Y\geq 0, X\geq 0)}{\mathbb{P}(X\geq a)}$$

$$=\frac{\mathbb{P}(Y\geq 0)\mathbb{P}(X\geq a)}{\mathbb{P}(X\geq a)}=\mathbb{P}(Y\geq 0)\geq \frac{1}{2}$$

Agora, se $ \mathbb{P}(X\geq a)=0 $, podemos definir arbitrariamente e assumimos que

$$\mathbb{P}(X+Y\geq a| X\geq a)=\frac{1}{2}$$

da igualdade acima de do fato de $ \mathbb{P}(Y\geq 0)\geq \frac{1}{2} $, e portanto o resultado segue.
 

Exemplo 3.5.6:
Prove: se X é constante quase certamente, i.e., $ \mathbb{P}(X=c)=1 $, então $ \mathbb{P}(X=c| Y=y)=1 $. Deduza a propriedade se $ X=c $, para alguma constante c, então

$$\mathbb{E}(X|Y)=c$$

.

Tomemos, $ I=(a,b) $ no qual $ a,b\in \mathbb{Q} $ e $ a\textless y\textless b $, então

$$\mathbb{P}(X=c, Y\in I)=\mathbb{P}(Y\in I)$$

pois $ \mathbb{P}(X=C)=1 $. Assim, temos que

$$\mathbb{P}(X=C|Y=y)=\lim_{\begin{small}\begin{array}{l}a\rightarrow y\\ b\rightarrow y\end{array}\end{small}}\frac{\mathbb{P}(X=C,Y\in I)}{\mathbb{P}(Y\in I)}=\lim_{\begin{small}\begin{array}{l}a\rightarrow y\\ b\rightarrow y\end{array}\end{small}} \frac{\mathbb{P}(Y\in I)}{\mathbb{P}(Y\in I)}=1$$

Então,

$$\mathbb{E}(X|Y=y)=C\mathbb{P}(X=C|Y=y)=C$$

se $ \mathbb{P}(X=C)=1 $.
 

Exemplo 3.5.7:
Sejam X e Y variáveis aleatórias tais que $ \mathbb{E}(X^2)\textless \infty $ e $ \mathbb{E}(Y^2)\textless \infty $. Demostre que $ Cov(X,Y)=Cov(X, \mathbb{E}(Y|X)) $.

Inicialmente, temos por Cauchy-Schwarz que XY é integrável, pois

$$\mathbb{E}(|XY|)\leq \sqrt{\mathbb{E}(X^2)\mathbb{E}(Y^2)}\textless \infty$$

Naturalmente como X e Y são integráveis então usamos a propriedade básica

$$\left\{\begin{array}{l}\mathbb{E}(Y)=\mathbb{E}(\mathbb{E}(Y|X))\\ \mathbb{E}(XY)=\mathbb{E}(\mathbb{E}(XY|X))=\mathbb{E}(X\mathbb{E} (Y|X))\end{array}\right.$$

$$Cov(X,Y)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=\mathbb{E}(X\mathbb{E}(Y|X))-\mathbb{E}(X)(\mathbb{E}(Y|X))=Cov(X,\mathbb{E}(Y|X))$$

 

Exemplo 3.5.8:
Suponho que X e Y possuam densidade conjunta

$$f(x,y)=\left\{\begin{array}{l} \displaystyle\frac{1}{\pi},\quad\quad\text{se}\quad x^2+y^2\leq 1\\0,\quad \quad \text{Caso}\quad \text{Contrário} x\geq t.\end{array}\right.$$

(a) Ache a distribuição condicional de Y dada X. Calcule $ \mathbb{E}(Y|X) $.

Usando o exemplo 2.7.5, no qual $ A=\{(x,y)\in \mathbb{R}^2,x^2+y^2\leq 1\} $
temos que $ Y|X=x $ tem distribuição uniforme em $ A_X $, no qual (x,y)\in A\}=[-\sqrt{1-x^2},\sqrt{1-x^2}] $
Assim,

$$f_{Y|X=x}(y)=\left\{\begin{array}{l} \displaystyle\frac{1}{2\sqrt{1-x^2}},\quad\quad y\in[-\sqrt{1-x^2},\sqrt{1-x^2}] \\0,\quad \quad \text{Caso}\quad \text{Contrário} x\geq t.\end{array}\right.$$

(b) X e Y são independentes? Por que ?

Não, pois

$$f_Y(y)=\int_{-\infty}^\infty f_{X,Y}(x,y)dx=\left\{\begin{array}{l} \displaystyle\frac{1}{\pi}\int_{-\sqrt{1-y^2}}^{\sqrt{1-y^2}}=\frac{2\sqrt{1-y^2}}{\pi},\quad\quad -1\leq y\leq 1 \\0,\quad \quad \text{Caso}\quad \text{Contrário} x\geq t.\end{array}\right.$$

e analogamente

$$f_X(x)=\left\{\begin{array}{l} \displaystyle\frac{2\sqrt{1-x^2}}{\pi},\quad\quad -1\leq x\leq 1 \\0,\quad \quad \text{Caso}\quad \text{Contrário} x\geq t.\end{array}\right.$$

e então para $ (x,y)\in A $ temos que

$$f_X(x)f_Y(y)=\frac{4}{\pi^2}[(1-x^2)(1-y^2)]^{1/2}\neq \frac{1}{\pi}=f_{X,Y}(x,y)$$

Assim, f_{X,Y}(x,y)\neq f_X(x)f_Y(y)\}\subset A $, e A tem medida de Lebesgue positiva $ (Area(A)=\pi) $, então $ X $ e $ Y $ não são independentes.

(c) Prove que X e Y são não-correlacionadas

Pelos Exemplo 3.5.8: 

$$COV(X,Y)=COV(X,\mathbb{E}(Y|X))=\mathbb{E}(X\mathbb{E}(Y|X))-\mathbb{E}(X)\mathbb{E}(\mathbb{E}(Y|X))=\mathbb{E}(X.0)-\mathbb{E}(X)0=0$$

então X e Y não são correlacionado.
 

 

Exemplo 3.5.9:
Seja X uma variável aleatória Cauchy-padrão.
(a) Conforme a Definição 4.3, qual é $ \mathbb{E}(X||X|=y) $?

Como X é simetria em torno de zero, utilizando o exemplo 2.6.12, temos que

$$\mathbb{P}(X=y||X|=y)=\mathbb{P}(X=-y||X|=y)=\frac{1}{2}$$

Então,

$$\mathbb{E}(X||X|=y)=y\frac{1}{2}+(-y)\frac{1}{2}=0$$

(b) Deduza que $ \mathbb{E}(\mathbb{E}(X||X|))=0 $.
Do item (a) 

$$\mathbb{E}(X||X|=y)=0$$

então $ \mathbb{E}(\mathbb{E}(X||X|))=\mathbb{E}(X||X|)=0 $

(c) A propriedade básica $ \mathbb{E}(\mathbb{E}(X|Y))=\mathbb{E}(X) $ não vale nesse caso. Existe uma contradição nisso?

Não, ocorre que a propriedade básica foi provada usando a hipótese que X seja integrável, o que não acontece neste caso;
 

Exemplo 3.5.10:
Se $ X\geq 0 $, ocorre que $ \mathbb{E}(X)=\mathbb{E}(\mathbb{E}(X|Y)) $ sem a hipótese de integrabilidade de X. Prove esse resultado quando X e Y são discretas.

Se X é uma variável aleatória e $ X\geq 0 $ então $ X|Y=y $ é uma variável aleatória discreta e não-negativa assim

$$\mathbb{E}(X|Y=y)=\sum_{n=0}^\infty \mathbb{P}(X\textgreater n|Y=y)$$

Agora Y é variável aleatória discreta toma os valores em $ y_m $, $ m=\pm 1, \pm 2, \dots $, então

$$\mathbb{P}(X\in B|  Y=y_n)=\frac{\mathbb{P}(X\in B, Y=y_m)}{\mathbb{P}(Y=y_m)}$$

para $ \mathbb{P}(Y=y_m)\textgreater 0 $, então

$$\mathbb{E}(X|Y=y_m)=\sum_{n=0}^\infty \mathbb{P}(X\textgreater n| Y=y_n)=\sum_{n=0}^\infty \frac{\mathbb{P}(X\textgreater n, Y=y_m)}{\mathbb{P}(Y=y_m)}$$

E então

$$\mathbb{E}(\mathbb{E}(X|Y))=\sum_{m\in \mathbb{Z}}\mathbb{P}(Y=y_m)\sum_{n=0}^\infty \frac{\mathbb{P}(X\textgreater n, Y=y_m)}{\mathbb{P}(Y=y_m)} = \sum_{m\in \mathbb{Z}}\sum_{n=0}\mathbb{P}(X\textgreater n, Y=y_m)$$

Agora, como $ \mathbb{P}(X\textgreater n, Y=y_m)\geq 0 $, para todo $ n\geq 0 $ e $ m\in \mathbb{Z}^\star $, podemos inverter as somatórias e

$$\mathbb{E}(\mathbb{E}(X|Y))=\sum_{n=0}\sum_{m\in \mathbb{Z}^\star}\mathbb{P}(X\textgreater n,Y=y_m)=\sum_{n=0}\mathbb{P}([X\textgreater n]\bigcup_{m\in \mathbb{Z}^\star}[y=y_m])$$

$$\sum_{n=0}^\infty \mathbb{P}([X\textgreater n]\cap \Omega)=\sum_{n=0}^\infty \mathbb{P}(X\textgreater n)=\mathbb{E}(X)$$

 

Exemplo 3.5.11:
O número de acidentes que ocorrem em certa fábrica em uma semana é uma variável aleatória com média $ \mu $ e variância $ \sigma^2 $. Os números de indivíduos feridos nos diferentes acidentes são independentes e identicamente distribuídos com média $ \xi $ e variância $ \tau^2 $, e são independentes do número de acidentes. Determine a média e a variância do número de indivíduos feridos em uma semana.

Seja $ N $=número de acidentes em uma semana: Variável  aleatória discreta e não-negativa com

$$\left\{\begin{array}{l}\mathbb{E}(N)=\mu\\ Var(N)=\sigma^2\end{array}\right.$$

$ F_1 $=número de ferido no i-ésimo acidentes da semana: Variável aleatória discreta e não-negativa com

$$\left\{\begin{array}{l}\mathbb{E}(F_i)=\xi\\ Var(F_i)=\tau^2\end{array}\right.$$

e $ X=F_1+F_2+\dots+F_N $ número de feridos em uma semana. Temos que $ X $ também é variável aleatória discreta e não-negativa e então pelo exemplo 3.5.10 vale a propriedade básica, então:

$$\mathbb{E}(X)=\mathbb{E}(\mathbb{E}(X|N=n)).$$

Agora

$$\mathbb{E}(X|N=n)=\mathbb{E}(F_1+\dots+F_N)=N\mathbb{E}(F_1)=N$$

então $ \mathbb{E}(X)=\mathbb{E}(N\xi)=\xi\mathbb{E}(N)=\xi\mu $
Temos também que $ X^2 $ é v.a.  discreta e não-negativa e então:

$$\mathbb{E}(X^2)=\mathbb{E}(\mathbb{E}(X^2|N=n))$$

Agora

$$\mathbb{E}(X^2|N=n)=\mathbb{E}((F_1+\dots+F_N)^2)=Var(F_1+\dots+F_N)+\left(\mathbb{E}(F_1+\dots+F_n)\right)^2$$

$$=NVar(F_1)+(N\mathbb{E}(F_1))^2=N\tau^2+N^2\xi^2$$

Assim,

$$\mathbb{E}(X^2)=\mathbb{E}(N\tau^2+N^2\xi^2)=\tau^2\mathbb{E}(N)+\xi^2\mathbb{E}(N^2)=\tau^2\mu+\xi^2(\sigma^2+\mu^2)$$

E então

$$Var(X)=\mathbb{E}(X^2)-(\mathbb{E}(X))^2=\tau^2\mu+\xi^2(\sigma^2+\mu^2)-(\xi\mu)^2=\tau^2\mu+\xi^2\sigma^2$$

 

Exemplo 3.5.12:
Calcule $ \mathbb{E}(X_{(2)}|X_{(1)},X_{(3)}) $, no qual $ X_{(1)},X_{(2)} $ e $ X_{(3)} $ são as estatísticas de ordem de uma amostra aleatória da $ U[0,1] $.

Pelo exemplo 3.5.5(b), temos que $ X_{(2)}|(X_{(1)},X_{(3)})=(x_{(1)},x_{(3)})\sim U[x_{(1)}],x_{(3)} $, então

$$\mathbb{E}(X_{(2)}|X_{(1)},X_{(3)})=\frac{X_{(1)}+X_{(3)}}{2}$$

 

Exemplo 3.5.13:
 Seja X uma variável aleatória com distribuição exponencial de parâmetro 1. Seja $ t\textgreater 0 $ fixo. Ache $ \mathbb{E}(X|\max(X,t)) $ e $ \mathbb{E}(X|\min(X,t)) $.

Sejam $ Z=\max(X,t) $ e $ W=\min(X,t) $. Vamos obter inicialmente a distribuição de $ X|Z=z $
\textbf{a1)} $ 0\leq t\leq z $ então $ \max(X,t)=z\textgreater t\Rightarrow X=z $. Assim o nosso candidato a distribuição condicional será

$$\mathbb{P}(X=z)=1$$

o que implica que

$$\mathbb{E}(X|z)=z$$

a2) $ z=t $ então usando o princípio da preservadas das chances relativas, o candidato a distribuição condicional será

$$f_{X|Z=t}(x)=\left\{\begin{array}{l}\displaystyle \frac{f_X(x)}{\int_0^tf_X(x)dx}=\frac{\lambda e^{-\lambda x}}{1-e^{-\lambda t}},\quad 0\leq x\leq t\\ 0, \text{Caso}\quad\text{Contrário}.\end{array}\right.$$

Formalmente deveríamos verificar

$$\mathbb{P}(X\in B| Y=y)=\lim_{\Delta y\rightarrow 0}\mathbb{P}(X\in B| Y\in I)$$

 ou

$$F_{X,Y}(x,y)=\int_{-\infty}^y F_X(x|Y=t)dF_Y(t),(x,y)\in \mathbb{R}^2$$

para validar as escolhas das distribuições condicionais, mas supondo que estas sejam o mesmos corretas temos que

$$\mathbb{E}(X|Z=z)=\left\{z,\quad\quad z\textgreater t\\ \frac{\int_0^tx e^{-\lambda x}dx}{1-e^{-\lambda t}},z=t\right.$$

Agora fazendo uma substituição $ x=u $ e $ \lambda e^{-\lambda x}dx=dv $ e

$$\frac{\int_0^tx e^{-\lambda x}dx}{1-e^{-\lambda t}}=\frac{-xe^{-\lambda x}\big|_0^t+\int_0^t e^{-\lambda x}dx}{1-e^{-\lambda t}}$$

$$=\frac{\frac{1}{\lambda}(1-e^{-\lambda t})-te^{-\lambda t}}{(1-e^{-\lambda t})}=\frac{1}{\lambda} -\frac{te^{-\lambda t}}{(1-e^{-\lambda t})},z=t$$

Então,

$$\mathbb{E}(X|Z=z)=\left\{z,\quad\quad z\textgreater t\\ \frac{1}{\lambda} -\frac{te^{-\lambda t}}{(1-e^{-\lambda t})},z=t\right.$$

Analogamente, concluímos que a distribuição $ X|W=w $ será

b1) $ 0\leq w\textless t $ o que implica que $ \min(X,t)=w\textless t $ o que implica que $ X-w $. Então,

$$\mathbb{P}(X=w)=1$$

\textbf{b2)} $ W=t $, pelo princípio da preservação da chances relativas temos

$$f_{X|W=t}(x)\left\{\frac{f_X(x)}{\displaystyle \int_{0}^\infty f_X(x)dx}=\frac{\lambda e^{-\lambda x}}{e^{-\lambda t }}=\lambda e^{-\lambda(x-t)},\quad\quad x\geq t \\ 0,\quad\quad\text{Caso}\quad\text{Contrário}.\right.$$

Então,

$$\mathbb{E}(X|W)=\left\{w,\quad\quad 0\textless w\textless t\\ \int_t^\infty x\lambda e^{-\lambda(x-t)}dx,\quad w=t\right.$$

fazendo uma mudança de variável temos que $ v=x-t $ e $ dv=dx $, temos que

$$\int_t^\infty x\lambda e^{-\lambda(x-t)}dx=\int_0^\infty (v+t)\lambda e^{-\lambda v}dv=t+\int_0^\infty v\lambda e^{-\lambda v}dv=t+\frac{1}{\lambda}$$

Então

$$\mathbb{E}(X|W)=\left\{w,\quad\quad 0\textless w\textless t\\ t+\frac{1}{\lambda},\quad w=t\right.$$

 

Exemplo 3.5.14:
Mostre que se X e Y são variáveis aleatórias, então

$$F_{X,Y}(x,y)\leq \sqrt{F_X(x)F_Y(y)}$$

Tomemos as seguintes variáveis aleatórias: $ \mathds{1}_{[X\leq x]} $ e $ \mathds{1}_{[Y\leq x]} $
então, aplicando a desigualdade de Cauchy-Schwarz, então

$$\mathbb{E}(|\mathds{1}_{[X\leq x]}\mathds{1}_{[Y\leq x]}|)\leq \sqrt{\mathbb{E}(\mathds{1}^2_{[X\leq x]})\mathbb{E}(\mathds{1}^2_{[Y\leq y]})}$$

Agora, como

$$\left\{\begin{array}{l}|\mathds{1}_{[X\leq x]}\mathds{1}_{[Y\leq y]}|=\mathds{1}_{[X\leq x],[Y\leq y]}\\ \mathds{1}^2_{[X\leq x]}=\mathds{1}^2_{[X\leq x]}\\ \mathds{1}^2_{[Y\leq y]}=\mathds{1}_{[Y\leq y]}\end{array}\right.$$

Então,

$$\mathbb{E}(\mathds{1}_{[X\leq x,Y\leq y]})\leq \sqrt{\mathbb{E}(\mathds{1}_{[X\leq x]})\mathbb{E}(\mathds{1}_{[Y\leq y]})}$$

Temos que $ \mathbb{E}(\mathds{1}_A)=\mathbb{P}(A) $. Assim,

$$\mathbb{P}(X\leq x, Y\leq y)\leq \sqrt{\mathbb{P}(X\leq x)\mathbb{P}(Y\leq y)}\Rightarrow F_{X,Y}(x,y)\leq \sqrt{F_X(x)F_Y(y)}.$$

 

Exemplo 3.5.15:
Seja $ (X,Y) $ um vetor aleatória bidimensional. Suponha que $ (i) $ X tem distribuição exponencial com parâmetro $ \frac{1}{2} $ e $ (ii) $ para cada $ x\textgreater 0, $ a distribuição condicional de Y dado que $ X=x $ é $ U[0,x^2] $. Em outras palavras, $ X\sim Exp\left(\frac{1}{2}\right) $ e $ Y|X=x\sim U[0,x^2] $.

(a) Qual a distribuição de $ Z=Y|X^2=t $?
O nossa candidato será $ Z\sim U[0,t] $, verificaremos isto usando  

$$\mathbb{P}(X\in B| Y=y)=\lim_{\Delta y\rightarrow 0}\mathbb{P}(X\in B| Y\in I)$$

.

Seja $ I=(a,b) $ no qual $ 0\textless a\textless t\textless b $, assim

$$\mathbb{P}(X^2\in I)=\mathbb{P}(a\textless X^2\textless b)=\mathbb{P}(\sqrt{a}\textless X\textless\sqrt{b})=\mathbb{P}(X\in I^{1/2})$$

no qual, $ I^{1/2}=(a^{1/2},b^{1/2}) $ e $ t^{1/2}\in I^{1/2} $. Além disso,

$$\displaystyle \lim_{a\rightarrow t, b\rightarrow t}\frac{\mathbb{P}(Y\in B, X^2\in I)}{\mathbb{P}(X^2\in I)}=\lim_{a\rightarrow t, b\rightarrow t}\frac{\mathbb{P}(Y\in B, X\in I^{1/2})}{\mathbb{P}(X\in I^{1/2})}$$

$$=\lim_{\sqrt{a}\rightarrow t, \sqrt{b}\rightarrow t}\frac{\mathbb{P}(Y\in B, X^2\in I)}{\mathbb{P}(X^2\in I)}=\mathbb{P}(Y\in B| X=\sqrt{t})$$

por hipótese temos que $ Y|X=x\sim U[0,x^2]. $

$$\mathbb{P}(Y\in B| X=\sqrt{t})=\frac{Comp(B\cap [0,t])}{t}$$

Então $ Y|X^2=t\sim U[0,t] $.

(b) Calcule $ \mathbb{E}(X) $, $ \mathbb{E}(Y) $ e $ Cov(X,Y) $.
Inicialmente $ \mathbb{E}(X)=\mathbb{E}(\exp(\frac{1}{2}))=2 $ e como $ Y $ é v.a. não-negativa, através da propriedade fundamental $ Y $Exemplo 3.5.11, temos

$$\mathbb{E}(Y)=\mathbb{E}(\mathbb{E}(Y|X=x))$$

Agora $ \mathbb{E}(Y|X=x)=\frac{x^2}{2} $, então

$$\mathbb{E}(Y)=\mathbb{E}\left(\frac{X^2}{2}\right)=\frac{1}{2} \mathbb{E}(X^2)=4$$

A última igualdade decorre do fato que $ X\sim \exp(1/2) $ e então $ \mathbb{E}(X^2)=\frac{2}{(1/2)^2}=8 $. Analogamente $ XY $ é v.a. não negativa, então

$$\mathbb{E}(XY)=\mathbb{E}(\mathbb{E}(XY|X))$$

Pelo princípio de substituição temos

$$\mathbb{E}(X\mathbb{E}(Y|X))=\mathbb{E}(XX^2/2)=\frac{1}{2}\mathbb{E}(X^3)=24$$

no qual a última igualdade decorre de $ X\sim \exp(1/2) $ e $ \mathbb{E}(X^3)=\frac{6}{(1/2)^3}=48 $. Então,

$$Cov(X,Y)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=24-2(4)=16$$

 

 

Exemplo 3.5.16
Sejam X e Y variáveis aleatórias tais que $ Y $ tem esperança finita.
(a) Mostre que a variância condicional de Y dada X, como definida no exemplo 2.7.2, é a variância da distribuição condicional.

$$Var(Y|X=x)=\mathbb{E}[(Y|X=x)^2]-[\mathbb{E}(Y|X=x)]^2=\mathbb{E}(Y^2|X=x)-\mathbb{E}^2(Y|X=x)$$

(b) Demonstre que $ Var(Y)=\mathbb{E}(Var(Y|X))+Var(\mathbb{E}(Y|X)) $, i.e., a variância de Y é a soma da esperança da variância condicional e a variância da esperança condicional.
Supomos que $ Var(Y)\textless \infty $ se, e somente se, $ \mathbb{E}(Y^2)\textless \infty $.

$$\mathbb{E}(Var(X|Y))=\mathbb{E}(\mathbb{E}(Y^2|X))-\mathbb{E}(\mathbb{E}^2(Y|X))=\mathbb{E}(Y^2)-\mathbb{E}(\mathbb{E}^2(Y|X))$$

no qual a ultima igualdade temos que $ \mathbb{E}(Y^2)\textless \infty $ e $ Y^2 $ é integrável. Além disso, temos que

$$Var(\mathbb{E}(Y|X))=\mathbb{E}(\mathbb{E}^2(Y|X))-\left(\mathbb{E}(\mathbb{E}(Y|X))\right)^2=\mathbb{E}(\mathbb{E}^2(Y|X))-(\mathbb{E}(Y))^2$$

Então

$$\mathbb{E}(Var(X|Y))+Var(\mathbb{E}(Y|X))=\mathbb{E}(Y^2)-\mathbb{E}^2(Y)=Var(Y)$$

 

Exemplo 3.5.17:
Sejam X e Y variáveis aleatórias com segundos momentos finitos, e seja Z uma outra variável aleatória. Demonstre a seguinte fórmula:

$$Cov(X,Y)=\mathbb{E}(Cov(X,Y)|Z)+Cov(\mathbb{E}(X|Z), \mathbb{E}(Y|Z)),$$

no qual $ Cov((X,Y)|Z)=\mathbb{E}(XY|Z)-\mathbb{E}(X|Z)\mathbb{E}(Y|Z) $.

Como $ \mathbb{E}(Y^2)\textless \infty $ e $ \mathbb{E}(X^2)\textless \infty $, então $ Y^2,X^2,Y,X $ são integráveis e portanto por Cauchy-Schwarz $ XY $ é integrável

$$\mathbb{E}(Cov(X,Y)|Z)=\mathbb{E}(\mathbb{E}(XY|Z))-\mathbb{E}(\mathbb{E}(X|Z)\mathbb{E}(Y|X))=\mathbb{E}(XY)- \mathbb{E}(\mathbb{E}(X|Z))\mathbb{E}(Y|Z)$$

e

$$Cov(\mathbb{E}(X|Z),\mathbb{E}(Y|Z))=\mathbb{E}(\mathbb{E}(X|Z)\mathbb{E}(Y|Z))-(\mathbb{E}(\mathbb{E}(X|Z))\mathbb{E}(\mathbb{E}(Y|Z)))$$

$$\mathbb{E}(\mathbb{E}(X|Z)\mathbb{E}(Y|Z))-\mathbb{E}(X)\mathbb{E}(Y)$$

Então

$$\mathbb{E}(Cov(X,Y)|Z)+Cov(\mathbb{E}(X|Z),\mathbb{E}(Y|Z))=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=Cov(X,Y)$$

 

Exemplo 3.5.18:
Suponha que em um temporal, o número X de gotas de chuva que caem no IMPA durante um segundo tenha distribuição de Poisson com parâmetro $ \lambda\textgreater 0 $, no qual $ \lambda $ representa a intensidade de chuva. Suponha que o parâmetro $ \lambda $ seja uma variável aleatória que tenha distribuição gama com parâmetros $ \alpha\textgreater 0 $ e $ \beta=1 $, i.e. que sua densidade seja dada por

$$f(\lambda)=\left\{\begin{array}{l} \displaystyle\frac{1}{\Gamma(\alpha)}\lambda^{\alpha-1}e^{-\lambda},\quad\quad\text{se}\quad \lambda\leq 0\\ 0,\quad \quad \lambda\textless 0.\end{array}\right.$$

(a) Mostre que

$$\mathbb{P}(X=k)=\frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\left(\frac{1}{2}\right)^{k+\alpha}, k=0,1,2,\dots$$

Temos que: $ X|\lambda=s\sim Poisson(s) $, então

$$\mathbb{P}(X=k)=\int_{-\infty}^\infty \mathbb{P}(X=k|\lambda=s)dF_{\lambda}(s)=\int_0^\infty \left(\frac{s^k}{k!}e^{-s}\right)\frac{1}{\Gamma(\alpha)}s^{\alpha-1}e^{-s}ds$$

$$=\frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\int_0^\infty \frac{s^{k+\alpha-1}e^{-2s}}{\Gamma(k+\alpha)} e^{-2s}ds = \frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\frac{1}{2^{k+\alpha-1}}\int_0^\infty \frac{2s^{(k+\alpha)-1}e^{-2\lambda}}{\Gamma(k+\alpha)}ds$$

fazendo uma mudança de variável $ t=2s $ e $ dt=2ds $ então

$$\frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\left(\frac{1}{2}\right)^{k+\alpha-1}\frac{1}{2}\int_0^\infty \frac{t^{k+\alpha-1}}{\Gamma(k+\alpha)}e^{-t}dt=\frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\left(\frac{1}{2}\right)^{k+\alpha-1}\frac{1}{2}$$

para $ k=1,2,\dots. $
(b) Usando métodos probabilísticos, demonstre que

$$\sum_{k=1}^\infty \binom{k+n-1}{n}\frac{1}{2^k}=2^n,\quad\quad para\quad n=1,2,\dots.$$

Temos que,

$$\mathbb{E}(X)=\mathbb{E}(\mathbb{E}(X|s=\lambda)),$$

Agora $ X|s=\lambda\sim Poisson(\lambda) $ então $ \mathbb{E}(X|s=\lambda)=\lambda $. Então,

$$\mathbb{E}(X)=\mathbb{E}(\mathbb{E}(X|s=\lambda))=\int_0^\infty \frac{\lambda \lambda^{\alpha-1}e^{-\lambda}}{\Gamma(\lambda)}d\lambda$$

$$=\frac{\Gamma(\alpha+1)}{\Gamma(\alpha)}\int_0^\infty \frac{\lambda^\alpha}{\Gamma(\alpha+1)}e^{-\lambda}d\lambda=\frac{\Gamma(\alpha+1)}{\Gamma(\alpha)}=\alpha$$

Agora, calculando a esperança de X e pela definição e pelo item (a) temos que

$$\mathbb{E}(X)=\displaystyle \sum_{k=0}^\infty k\mathbb{P}(X=k)=\sum_{k=0}^\infty k\frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\left(\frac{1}{2}\right)^{k+\alpha}$$

$$=\sum_{k=1}^\infty \frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k)}\left(\frac{1}{2}\right)^{k+\alpha}=\sum_{k=1}^\infty \frac{(k+\alpha-1)!}{(\alpha-1)!(k-1)!}\frac{1}{2^{k+\alpha}}$$

$$=\alpha\frac{1}{2^{\alpha}}\sum_{k=1}^\infty \binom{k+\alpha-1}{\alpha}\frac{1}{2^k}$$

Agora, utilizando as igualdades acima, temos que

$$\alpha\frac{1}{2^{\alpha}}\sum_{k=1}^\infty \binom{k+\alpha-1}{\alpha}\frac{1}{2^k}=\alpha$$

o que implica que

$$\sum_{k=1}^\infty \binom{k+\alpha-1}{\alpha}\frac{1}{2^k}=2^{\alpha}$$

Agora, fazendo $ n=\alpha=1,2,3,\dots $ temos que

$$\sum_{k=1}^\infty \binom{k+n-1}{n}\frac{1}{2^k}=2^{n},\quad\quad n=1,2,3,\dots$$

 

Exemplo 3.5.18:
Calcule $ \mathbb{E}(X_k|X=t) $ no exercício 23;

Temos que $ X_k $ é uma variável aleatória com distribuição

$$\mathbb{P}(X_k\leq x|X=t)=\left\{\begin{array}{l}\frac{(n-1)F(x)}{nF(t)},\quad\quad se\quad x\textless t\\ 1,\quad\quad se\quad x\geq t\end{array}\right.$$

temos que

$$\mathbb{E}(X)=-\int_{-\infty}^0 F_X(x)dx+\int_0^\infty(1-F_X(x))dx$$

Então,

$$\mathbb{E}(X_k|X=t)=-\int_{-\infty}^0 F_{X_k|X=t}(x)dx+\int_0^\infty(1-F_{X_k|X=t}(x))dx$$

Agora, se $ t\leq 0 $, então

$$\mathbb{E}(X_k|X=t)=-\left[\int_{-\infty}^t \frac{(n-1)F(x)}{nF(t)}dx+\int_t^0 dx\right]=t-\frac{(n-1)}{nF(t)}\int_{-\infty}^t F(x)dx$$

e se $ t\textgreater 0 $, temos

$$\mathbb{E}(X_k|X=t)=-\int_{-\infty}^0 \frac{(n-1)}{n}\frac{F(x)}{F(t)}dx+\int_0^t\left(1-\frac{n-1}{n}\frac{F(x)}{F(t)}\right)dx$$

$$=-\frac{(n-1)}{nF(t)}\int_{-\infty}^0 F(x)dx+t-\frac{(n-1)}{nF(t)}dx=t-\frac{(n-1)}{nF(t)}\int_{-\infty}^tF(x)dx$$

Então pelas equações acima temos que

$$\mathbb{E}(X_k|X=t)=t-\frac{(n-1)}{nF(t)}\int_{-\infty}^0F(x)dx, \quad\quad \forall t \in \mathbb{R}$$

 

Exemplo 3.5.19:
Determine $ \mathbb{E}(X|Y) $ e $ \mathbb{E}(Y|X) $ no exemplo 2.7.3. Calcule $ Cov(X,Y) $. $ X $ e $ Y $ são independentes?
$ f_{X,Y}(x,y)=\frac{1}{2x},\quad\quad (x,y)\in A, $ no qual 0\leq x\leq 1,-x\leq y\leq x\} $. Pelo princípio da preservação das chamas relativa, temos que

$$f_{X|Y=y}(x)=\frac{f_{X,Y}(x,y)}{f_Y(y)}=\frac{f_{X,Y}(x,y)}{\int_{|y|}^1 f_{X,Y}(x,y)dx}=\left\{\begin{array}{l}\frac{\frac{1}{2x}}{\int_{|y|^1\frac{1}{2x}dx}}=\frac{\frac{1}{2x}}{\frac{1}{2}\ln{x}|_{|y|}^1}= -\frac{x}{\ln{|y|}},|y|\leq x\leq 1\\ 0,\text{Caso}\quad\text{Contrário}\end{array}\right.$$

E agora $ X|Y=0\sim U[0,1] $ e portanto,

$$\mathbb{E}(X|Y=y)=\left\{\begin{array}{l}\int_{-\infty}^\infty xf_{X|Y=y}(x)dx=\int_{|y|}^1-\frac{x^2}{\ln{|y|}}=\frac{1}{\ln{|y|}}\left[-\frac{x^3}{3}\right]^1_y=\frac{(y^3-1)}{3\ln{|y|}} ,0\textless |y|\leq 1\\ \frac{1}{2},y=0\end{array}\right.$$

Temos também que: $ Y|X=x\sim U[-x,x]\Rightarrow \mathbb{E}(Y|X=x)=0, x\in [0,1] $. Agora temos também que $ Y $ é integrável pois $ |y|\leq 1 $ e $ XY $ é integrável pois $ |XY|=|X||Y|\leq 1 $. Então,

$$Cov(X,Y)=\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)=\mathbb{E}(\mathbb{E}(XY|X))-\mathbb{E}(X)\mathbb{E}(Y|X)=\mathbb{E}(X\mathbb{E}(Y|X=x)) -\mathbb{E}(X)\mathbb{E}(\mathbb{E}(Y|X))=\mathbb{E}(X 0)-\mathbb{E}(X)\mathbb{E}(0)=0$$

No entanto X e Y não são independentes pois para $ (x,y)\in B=(A^c\cap [0,1]\times(-1,1)) $.

$$f_X(x)f_Y(y)=1(-\ln{(|y|)})=-\ln{|y|}\neq 0=f_{X,Y}(x,y)$$

Como a medida de Lebesgue de $ B $ é não nula então $ X $ e $ Y $ não são independentes.
 

Exemplo 3.5.20:
Seleciona-se ao acaso um número entre 0 e 1. Se x é o número selecionado, lança-se n vezes uma moeda com probabilidade x de dar "cara". Seja Y a variável aleatória que representa o número de caras lançadas.

(a)Y é variável aleatória discreta ou contínua?
$ Y $ é variável discreta pois os resultados possíveis de Y são $ 0,1,2,3,\dots $
(b) Calcule a esperança e a variância de Y.
$ Y $ e $ Y^2 $ são v.a. não-negativas então para elas vale a propriedades básicas temos que $ X\sim U[0,1] $  o que implica que $ \mathbb{E}(X)=1/2 $ e $ \mathbb{E}(X^2)=1/3 $ e $ Y|X=x\sim b(n,x) $ o que implica $ \mathbb{E}(Y|X=x)=nx $ e $ \mathbb{E}(Y^2|X=x)=nx(1-x)+(nx)^2 $. E então

$$\mathbb{E}(Y)=\mathbb{E}(\mathbb{E}(Y|X=x))=\mathbb{E}(nX)=n\mathbb{E}(X)=\frac{n}{2}$$

e

$$\mathbb{E}(Y^2)=\mathbb{E}(\mathbb{E}(Y^2|X=x))=\mathbb{E}(nX-nX^2+n^2X^2)=n\mathbb{E}(X)+n(n-1)\mathbb{E}(X^2)=\frac{n}{2}+\frac{n(n-1)}{3}$$

e portanto,

$$Var(Y)=\mathbb{E}(Y^2)-\mathbb{E}^2(Y)=\frac{n}{2}+\frac{n(n-1)}{3}-\frac{n^2}{4}=\frac{6n+4n^2-4n-3n^2}{12}\Rightarrow Var(Y)=\frac{n(n+2)}{12}$$

 

Exemplo 3.5.21
(a) Demonstre que se $ X $ e $ Y $ são independentes, então

$$\mathbb{P}(X\textless Y)=\int_{-\infty}^\infty (1-F_{Y}(x))dF_X(x).$$

Inicialmente temos que $ \mathds{1}_{[X\textless Y]} $ é variável aleatória não-negativa temos então

$$\mathbb{P}(X\textless y)=\mathbb{E}(\mathds{1}_{[X\textless Y]})=\mathbb{E}(\mathbb{E}(\mathds{1}_{[X\textless Y]}|X=x))$$

$$\mathbb{E}(\mathbb{E}(\mathds{1}_{[Y|X=x\textgreater x]}))$$

Agora como X e Y são independentes temos que $ Y|X=x\sim Y $, temos

$$\mathbb{E}(\mathbb{E}(\mathds{1}_{[Y|X=x\textgreater x]}))=\mathbb{E}(\mathbb{E}(\mathds{1}_{[Y\textgreater x]}))= \mathbb{E}(\mathbb{P}(Y\textgreater x))$$

$$=\mathbb{E}(1-F_Y(x))=\int_{-\infty}^\infty (1-F_Y(x))dF_X(x)$$

(b)Sejam X e Y independentes, X exponencial de parâmetro $ \lambda $ e Y uniforme em $ [0,\lambda] $, no qual $ \lambda\textgreater 0 $. Calcule

$$\mathbb{P}(X\textless Y),\mathbb{P}(X\textgreater Y)$$

e

$$\mathbb{P}(X= Y)$$

Neste caso, temos que

$$\mathbb{P}(X\textless y)=\int_{-\infty}^\infty (1-F_Y(x))dF_X(x)=\int_0^\lambda (1-x/\lambda)\lambda e^{-\lambda x}dx+ \int_{\lambda}^\infty (1-1)\lambda e^{-\lambda x}dx$$

$$=\int_0^\lambda \lambda e^{-\lambda x}dx-\frac{1}{\lambda}\int_0^\lambda x\lambda e^{-\lambda x}dx=1-e^{-\lambda^2}-\frac{1}{\lambda}\int_0^\lambda x\lambda e^{-\lambda x}dx$$

Agora,

$$\int_0^\lambda x\lambda e^{-\lambda x}dx=-xe^{-\lambda x}\bigg|_0^{\lambda}+\int_0^\lambda e^{-\lambda x}dx=-\lambda e^{-\lambda^2}-\frac{e^{-\lambda x}}{\lambda}\bigg|_0^\lambda$$

$$=-\lambda e^{-\lambda^2}+\frac{1}{\lambda}-\frac{1}{\lambda}e^{-\lambda^2}$$

Então,

$$\mathbb{P}(X\textless y)=1-e^{-\lambda^2}+e^{-\lambda^2}-\frac{1}{\lambda^2}+\frac{1}{\lambda^2}e^{-\lambda^2} =1-\frac{1}{\lambda^2}(1-e^{-\lambda^2})$$

Agora

$$\mathbb{P}(Y\textless X)=\int_{-\infty}^\infty (1-F_X(y))dF_Y(y)=\int_0^\lambda e^{-\lambda y}\frac{1}{\lambda}dy=-\frac{e^{-\lambda y}}{\lambda^2}\bigg|_0^\lambda=\frac{1}{\lambda^2}(1-e^{-\lambda^2})$$

E como

$$\mathbb{P}(X\textgreater Y)+\mathbb{P}(X\textless Y)+\mathbb{P}(X=Y)=1,$$

pois $ \Omega=[X\textgreater Y]\cup[X\textless Y]\cup [X=Y] $ temos

$$\mathbb{P}(X=Y)=1-\mathbb{P}(X\textgreater Y)-\mathbb{P}(X\textless Y)=1-\frac{1}{\lambda^2}(1-e^{-\lambda^2})=1$$

 

Exemplo 3.5.22:
Fregueses entram em um supermercado conforme um processo de Poisson com parâmetro $ \lambda $. Há luz no supermercado enquanto não queima um fusível instalado no tempo $ t=0 $, e cuja vida útil T tem distribuição exponencial com parâmetro $ \xi $. Qual o número esperado de fregueses que entram no supermercado enquanto há luz?

Temos que $ (X_t)_{t\geq 0} $ é um processo de $ Poisson(\lambda) $ e T é variável aleatória $ Exp(\xi) $ então $ \mathbb{E}(T)=\frac{1}{\xi} $
Y é número de fregueses que entram no supermercado enquanto a luz. Assim $ Y=X_T $, no qual T é uma variável aleatória com distribuição $ Exp(\lambda) $. Agora $ (Y|T=t)= X_t\sim Poisson(\lambda t) $ o que implica que $ \mathbb{E}(Y|T=t)=\lambda t $. Mas Y é v.a. não negativa, então para ela vale a propriedade básica e então

$$\mathbb{E}(Y)=\mathbb{E}(\mathbb{E}(Y|T=t))=\mathbb{E}(\lambda T)=\lambda\mathbb{E}(T)=\frac{\lambda}{\xi}$$

 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]