3.5 - Esperança Condicional

Você está aqui

Neste módulo, vamos definir e apresentar as principais propriedades de esperança condicional, como uma extensão do conceito de  probabilidade condicional. Aqui, apresentamos o conceito de esperança condicional através de uma abordagem simples e repleta de exemplos. A definição de esperança condicional com respeito a uma $\sigma$-álgebra pode ser encontrado na seção esperança condicional com respeito a uma sigma-álgebra.

Considere $(\Omega, \mathcal{F}, \mathbb{P})$ um espaço de probabilidade. A probabilidade condicional do evento $A$ dado o evento  $B$ é definida por \[\displaystyle \mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}\]assumindo que $\mathbb{P}(B)> 0$. Dados $X$ e $Y$ variáveis aleatórias discretas assumindo valores $\mathcal{R}_X=\{x_1, x_2, \cdots , x_n\}$ e $\mathcal{R}_Y=\{y_1, y_2, \cdots , y_m\}$, respectivamente. Uma definição natural para esperança condicional de $X$ dado $Y=y$ é dada por \[\displaystyle \mathbb{E}[X|Y=y]=\sum_{x\in \mathcal{R}_X}x\mathbb{P}[X=x|Y=y], \quad y \in \mathcal{R}_Y.\] Assim, obtemos que a esperança condicional da variável aleatória $X$ dado a variável aleatória $Y$, denotada por $\mathbb{E}[X\mid Y]$, é uma função da variável aleatória $Y$ e com isso, a esperança condicional também é uma variável aleatória. Portanto, temos que \[ \mathbb{E} \left[\mathbb{E}[X\mid Y]\right]=\sum_{y \in \mathcal{R}_Y} \mathbb{E}[X\mid Y=y] \mathbb{P}[Y=y]=\sum_{y \in \mathcal{R}_Y}\sum_{x\in \mathcal{R}_X}x\mathbb{P}[X=x|Y=y]\mathbb{P}[Y=y]=\] \[\sum_{y \in \mathcal{R}_Y}\sum_{x\in \mathcal{R}_X}x \frac{\mathbb{P}[X=x;Y=y]}{\mathbb{P}[Y=y]}\mathbb{P}[Y=y]=\sum_{x\in \mathcal{R}_X}x \sum_{y \in \mathcal{R}_Y}\mathbb{P}[X=x;Y=y]=\sum_{x\in \mathcal{R}_X}x\mathbb{P}[X=x]=\mathbb{E}[X].\]

Na sequência, tomamos $X$ e $Y$ variáveis aleatórias discretas assumindo valores nos conjuntos enumeráveis $\mathcal{R}_X=\{x_1, x_2, \cdots\}$ e $\mathcal{R}_Y=\{y_1, y_2, \cdots\}$, respectivamente. A esperança condicional de $X$ dado $Y$ é definida na forma \[\mathbb{E}[X|Y=y]=\sum_{x\in \mathcal{R}_X}x\mathbb{P}[X=x|Y=y],\] caso esta série esteja bem definida para todo $y \in \mathbb{R}_Y$. Da mesma forma, se $\mathbb{E}\mid X \mid <\infty$, obtemos que $\mathbb{E}[\mathbb{E}(X\mid Y)]=\mathbb{E}(X)$. 

Considere $I_x=1\!\!1_{\{X=x\}}$ a função indicadora do evento $\{X=x\}$, que assume valor $1$ se $X=x$ ou zero caso contrário. Neste caso, a esperança conditional de $I_x$ dado a variável aleatória $Y$ é dada por \[\mathbb{E}[I_x\mid Y] = \sum_{i=0}^{1}i\mathbb{P}[I_x=i\mid Y=y]= \mathbb{P}[X=x\mid Y=y],\] para todo $x \in \mathcal{R}_X$ e $y \in \mathcal{R}_Y$. Assim, obtemos que a probabilidade condicional é uma caso particular da esperança condicional e consequentemente, uma variável aleatória. Neste caso, obtemos que $\mathbb{E}[\mathbb{P}[X=x\mid Y]]=\mathbb{E}[\mathbb{E}[I_x\mid Y]]=\mathbb{E}[I_x]=\mathbb{P}[X=x]$.

Agora, considere $(X,Y)$ um vetor aleatório absolutamente contínuo com função densidade de probabilidade conjunta $f_{X,Y}$.  A função densidade condicional de $X$ dado $Y$ é definida por\[\displaystyle f_{X|Y}(x,y)=\frac{f_{X,Y}(x,y)}{f_{Y}(y)},\] no qual $f_Y$ é a função densidade de probabilidade da variável aleatória $Y$. Por definição, temos que \[\mathbb{P}[a\leq X \leq b\mid y-\epsilon \leq Y \leq y+\epsilon]=\frac{\mathbb{P}[a\leq X \leq b;y-\epsilon \leq Y \leq y+\epsilon]}{\mathbb{P}[y-\epsilon \leq Y \leq y+\epsilon]}=\frac{\int_{a}^{b}\int_{y-\epsilon}^{y+\epsilon} f_{X,Y}(x,t)dxdt}{\int_{y-\epsilon}^{y+\epsilon}f_Y(t) dt}=\] \[\frac{\int_{y-\epsilon}^{y+\epsilon} \int_{a}^{b}f_{X,Y}(x,t)dxdt}{\int_{y-\epsilon}^{y+\epsilon}f_Y(t) dt} \sim \int_{a}^b \frac{f_{X,Y}(x,y)}{f_Y(y)}dx,\] para $\epsilon > 0$ suficientemente pequeno.

Então, a probabilidade condicional neste caso é definida por\[\displaystyle \mathbb{P}(a\leq X\leq b|Y=y)=\int_{a}^b f_{X|Y}(x,y)dx\] e a esperança condicional da variável aleatória $X$ dado a variável aleatória $Y$ é definida por \[\displaystyle \mathbb{E}[X|Y=y]=\int_{-\infty}^{\infty}xf_{X|Y}(x,y)dx.\]

Proposição 3.5.1:

Sejam $X$ e $Y$ variáveis aleatórias absolutamente contínuas então\[\displaystyle \mathbb{E}[X]=\mathbb{E}[\mathbb{E}(X\mid Y)]=\int_{-\infty}^{\infty}\mathbb{E}[X|Y=y]f_{Y}(y)dy\]
Demonstração:

\[\displaystyle \mathbb{E}[X]=\int_{-\infty}^{\infty}\mathbb{E}[X|Y=y]f_{Y}(y)dy\]
\[=\displaystyle\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}xf_{X|Y}(x,y)f_Y(y)dxdy\]
\[=\displaystyle\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}x\frac{f_{X,Y}(x,y)}{f_{Y}(y)}f_Y(y)dydx\]
\[=\displaystyle\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}x f_{X,Y}(x,y)dydx\]
\[=\displaystyle\int_{-\infty}^{\infty}x\int_{-\infty}^{\infty} f_{X,Y}(x,y)dydx\]
\[=\displaystyle \int_{-\infty}^{\infty}xf_X(x)dx=\mathbb{E}[X]\]

Exemplo 3.5.1:

Um dado honesto é lançado até a ocorrência do númeor $6$. Seja Y a variável aleatória que conta o número de vezes que lançamos o dado até a ocorrência do número $6$ e $X$ a variável aleatória que conta o número de uns que tivemos nestes lançamentos. Vamos calcular $\mathbb{E}[X|Y=y]$. O evento $Y=y$, significa que lançamos os dado $y$ vezes nos quais, $y-1$ vezes não obtivemos o número $6$ e então no $y$-ésimo lançamento obtivemos o número $6$. Assim, dado $Y=y$, temos que X tem distribuição binomial $B(n,p)$, com $n=y-1$ e $p=\frac{1}{5}$, pois temos $y-1$ possibilidades de ter ocorrido o número $1$. De fato, como sabemos que dentro destes $n$ lançamentos o número $6$ não pode ter ocorrido, temos apenas a possibilidade dos seguintes resultados $(1,2,3,4,5)$, com probabilidade iguais para cada um deles. Logo, a probabilidade de corrência do evento de interesse (sair o número $1$) é $p=1/5$. Então, temos que \[\displaystyle \mathbb{E}[X|Y=y]=np=\frac{y-1}{5}\]

Como a esperança condicional é uma função da variável aleatória $Y$, sabemos que $\mathbb{E}[X|Y]$ é uma variável aleatória. No exemplo, temos que \[\mathbb{E}[X|Y=y]=\displaystyle \frac{y-1}{5},\] e assim,  a variável aleatória esperança condicional é dada por \[\mathbb{E}[X|Y]=\displaystyle \frac{Y-1}{5}.\]

Exemplo 3.5.2:

Utilizando o mesmo exemplo anterior vamos calcular $\mathbb{E}[X^2|Y]$.
Note que novamente $\mathbb{E}[X|Y=y]$ é uma binomial, e ainda sua a variança é dada por\[\mathbb{E}[X^2|Y=y]-(\mathbb{E}[X|Y=y])^2=np(1-p)=\displaystyle \frac{4(y-1)}{25}\] Sabemos do exemplo 3.5.1 que \[\displaystyle \mathbb{E}[X^2|Y=y]-\left(\frac{y-1}{5}\right)^2=\frac{4(y-1)}{25}\]Portanto\[\displaystyle \mathbb{E}[X^2|Y=y]=\frac{(y-1)^2}{25}+\frac{4(y-1)}{25}\] Assim, temos que \[\displaystyle \mathbb{E}[X^2|Y]=\frac{(Y-1)^2}{25}+\frac{4(Y-1)}{25}=\frac{Y^2+2Y-3}{25}\]

Exemplo 3.5.3:

Sejam $X,Y\stackrel{iid}{\sim}B(n,p)$. Calcule $\mathbb{E}[X|X+Y=y]$.
Para isso, primeiramente vamos calcular a probabilidade condicional de $X$ dado $X+Y=m$. Para $k\leq \min(n,m)$,\[\mathbb{P}(X=k|X+Y=m)=\displaystyle \frac{\mathbb{P}(X=k,X+Y=m)}{\mathbb{P}(X+Y=m)}\]
\[=\displaystyle \frac{\mathbb{P}(X=k, Y=m-k)}{\mathbb{P}(X+Y=m)}\]
\[=\displaystyle \frac{\mathbb{P}(X=k)\mathbb{P}(Y=m-k)}{\mathbb{P}(X+Y=m)}\]
\[=\displaystyle \frac{\left(\begin{array}{c} n \\ k \end{array}\right)\left(\begin{array}{c} n \\ m-k \end{array}\right)}{\left(\begin{array}{c} 2n \\ m \end{array}\right)}\]Usamos o fato de que $X+Y$ é uma binomial $2n$ e $p$. Portanto, a distribuição de X, dado $X+Y=m$, tem distribuição hipergeométrica e obtemos\[\displaystyle \mathbb{E}[X|X+Y=m]=\frac{m}{2}\]

Exemplo 3.5.4:

Suponha X e Y com densidade conjunta dada por\[f(x,y)=\displaystyle\frac{e^{-x/y}e^{-y}}{y},~~0< x< \infty,~~0< y< \infty\]Calcule $\mathbb{E}[X|Y=y]$.
Para isso vamos primeiramente calcular a densidade condicional\[f_{X|Y}(x|y)=\displaystyle \frac{f(x,y)}{f_Y(y)}=\frac{f(x,y)}{\int_{0}^{\infty}f_{X,Y}(x,y)}dx\]
\[=\displaystyle \frac{e^{-x/y}e^{-y}}{y\int_{0}^{\infty}e^{-x/y}e^{-y}/y}\]
\[=\displaystyle \frac{e^{-x/y}}{y}\]Portanto a distribuição condicional de $X$ dado $Y=y$, tem distribuição exponencial com média y.
Então\[\displaystyle \mathbb{E}[X|Y=y]=\int_{0}^{\infty}\frac{x}{y}e^{-x/y}dx=y\Rightarrow \mathbb{E}[X|Y]=Y\]

 

Exemplo 3.5.5:

Sejam X e Z variáveis aleatórias em $(\Omega, \mathbb{A}, \mathbb{P})$
(a)Mostre que para A e B borelianos,
$$\mathbb{P}(Z\in B, X\in A| X=x)=\left\{\begin{array}{l} \displaystyle\mathbb{P}(Z\in B|X=x),\quad\quad\text{se}\quad x\in A\\0,\quad \quad \quad\quad\text{se}\quad\quad x\notin A.\end{array}\right.$$

Porém, pelo exemplo 2.6.7 concluímos que $X|X=x$ é distribuição em massa ponto em x, ié,
$$\mathbb{P}(X=x|X=x)=1$$
Assim,
$$\mathbb{P}(X\in A|X=x)=\left\{\begin{array}{l}1,\quad\quad se\quad\quad x \in A\\ 0,\quad\quad se\quad\quad x \notin A \end{array}\right.$$
Então, se $x\in A$ o que implica que
$$\mathbb{P}(X\in A| X=x)=1$$
o que implica que
$$\mathbb{P}(Z\in B,X\in A|X=x)=\mathbb{P}(Z\in B|X=x)=\mathbb{P}(Z\in B|X=x)$$
Agora se $x\notin A$, então $\mathbb{P}(X\in | X=x)=0$ então
$$\mathbb{P}(Z\in B,X\in A| X=x)\leq \mathbb{P}(X\in A| X=x)=0$$
o que implica que
$$\mathbb{P}(Z\in B, X\in A|X=x)=0\Rightarrow \mathbb{P}(Z\in B, X\in A| X=x)=0$$

(b) Mostre que se $\mathbb{P}(Z\in B|X=x)\geq \frac{1}{2}$, para todo $x\in A$, então $\mathbb{P}(Z\in B|X\in A)\geq \frac{1}{2}$
temos que:
$$\mathbb{P}(Z\in B, x\in A)=\int \mathbb{P}(Z\in B, X\in B|X=x)dF_X(x)=\int \mathbb{P}(Z\in B|X=x)\mathbb{I}_A(x)dF_X(x)$$
$$\geq \frac{1}{2}\int \mathbb{I}_A(x)dF_X(x)=\frac{1}{2}\mathbb{P}(X\in A)$$
Agora se assumirmos
$$\mathbb{P}(X\in A)> 0,$$
então
$$\mathbb{P}(Z\in B|X\in A)=\frac{\mathbb{P}(Z\in B,X\in A)}{\mathbb{P}(X\in A)}\geq \frac{\frac{1}{2}\mathbb{P}(X\in A)}{\mathbb{P}(X\in A)}\geq \frac{1}{2}$$

(c) Sejam X e Y independentes tais que $\mathbb{P}(Y\geq 0)\geq \frac{1}{2}$. Demonstre que $\mathbb{P}(X+Y\geq a| X\geq a)\geq \frac{1}{2}$.

Assumimos que $\mathbb{P}(X\geq a)> 0$, então:
$$\mathbb{P}(X+Y\geq a | X\geq a)=\frac{\mathbb{P}(X+Y\geq a, X\geq a)}{\mathbb{P}(X\geq a)}\geq \frac{\mathbb{P}(Y\geq 0, X\geq 0)}{\mathbb{P}(X\geq a)}$$
$$=\frac{\mathbb{P}(Y\geq 0)\mathbb{P}(X\geq a)}{\mathbb{P}(X\geq a)}=\mathbb{P}(Y\geq 0)\geq \frac{1}{2}$$
Agora, se $\mathbb{P}(X\geq a)=0$, podemos definir arbitrariamente e assumimos que
$$\mathbb{P}(X+Y\geq a| X\geq a)=\frac{1}{2}$$
da igualdade acima de do fato de $\mathbb{P}(Y\geq 0)\geq \frac{1}{2}$, e portanto o resultado segue.
 

Exemplo 3.5.6:
Prove: se X é constante quase certamente, i.e., $\mathbb{P}(X=c)=1$, então $\mathbb{P}(X=c| Y=y)=1$. Deduza a propriedade se $X=c$, para alguma constante c, então $$\mathbb{E}(X|Y)=c$$.

Tomemos, $I=(a,b)$ no qual $a,b\in \mathbb{Q}$ e $a< y< b$, então
$$\mathbb{P}(X=c, Y\in I)=\mathbb{P}(Y\in I)$$
pois $\mathbb{P}(X=C)=1$. Assim, temos que
$$\mathbb{P}(X=C|Y=y)=\lim_{a, b\rightarrow y}\frac{\mathbb{P}(X=C,Y\in I)}{\mathbb{P}(Y\in I)}=\lim_{a, b\rightarrow y} \frac{\mathbb{P}(Y\in I)}{\mathbb{P}(Y\in I)}=1$$
Então,
$$\mathbb{E}(X|Y=y)=C\mathbb{P}(X=C|Y=y)=C$$
se $\mathbb{P}(X=C)=1$.

Exemplo 3.5.7:
Sejam X e Y variáveis aleatórias tais que $\mathbb{E}(X^2)< \infty$ e $\mathbb{E}(Y^2)< \infty$. Demostre que $Cov(X,Y)=Cov(X, \mathbb{E}(Y|X))$.

Inicialmente, temos por Cauchy-Schwarz que XY é integrável, pois
$$\mathbb{E}(|XY|)\leq \sqrt{\mathbb{E}(X^2)\mathbb{E}(Y^2)}< \infty$$
Naturalmente como X e Y são integráveis então usamos a propriedade básica
$$\left\{\begin{array}{l}\mathbb{E}(Y)=\mathbb{E}(\mathbb{E}(Y|X))\\ \mathbb{E}(XY)=\mathbb{E}(\mathbb{E}(XY|X))=\mathbb{E}(X\mathbb{E} (Y|X))\end{array}\right.$$
$$Cov(X,Y)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=\mathbb{E}(X\mathbb{E}(Y|X))-\mathbb{E}(X)(\mathbb{E}(Y|X))=Cov(X,\mathbb{E}(Y|X))$$
 

Exemplo 3.5.8:
Suponho que X e Y possuam densidade conjunta
$$f(x,y)=\left\{\begin{array}{l} \displaystyle\frac{1}{\pi},\quad\quad\text{se}\quad x^2+y^2\leq 1\\0,\quad \quad \text{Caso}\quad \text{Contrário} x\geq t.\end{array}\right.$$
(a) Ache a distribuição condicional de Y dada X. Calcule $\mathbb{E}(Y|X)$.

Usando o exemplo 2.7.5, no qual $A=\{(x,y)\in \mathbb{R}^2,x^2+y^2\leq 1\}$
temos que $Y|X=x$ tem distribuição uniforme em $A_X$, no qual $A_X=\{y:(x,y)\in A\}=[-\sqrt{1-x^2},\sqrt{1-x^2}]$
Assim,
$$f_{Y|X=x}(y)=\left\{\begin{array}{l} \displaystyle\frac{1}{2\sqrt{1-x^2}},\quad\quad y\in[-\sqrt{1-x^2},\sqrt{1-x^2}] \\0,\quad \quad \text{Caso}\quad \text{Contrário} x\geq t.\end{array}\right.$$

(b) X e Y são independentes? Por que ?

Não, pois
$$f_Y(y)=\int_{-\infty}^\infty f_{X,Y}(x,y)dx=\left\{\begin{array}{l} \displaystyle\frac{1}{\pi}\int_{-\sqrt{1-y^2}}^{\sqrt{1-y^2}}=\frac{2\sqrt{1-y^2}}{\pi},\quad\quad -1\leq y\leq 1 \\0,\quad \quad \text{Caso}\quad \text{Contrário} x\geq t.\end{array}\right.$$
e analogamente
$$f_X(x)=\left\{\begin{array}{l} \displaystyle\frac{2\sqrt{1-x^2}}{\pi},\quad\quad -1\leq x\leq 1 \\0,\quad \quad \text{Caso}\quad \text{Contrário} x\geq t.\end{array}\right.$$
e então para $(x,y)\in A$ temos que
$$f_X(x)f_Y(y)=\frac{4}{\pi^2}[(1-x^2)(1-y^2)]^{1/2}\neq \frac{1}{\pi}=f_{X,Y}(x,y)$$
Assim, $\{(x,y):f_{X,Y}(x,y)\neq f_X(x)f_Y(y)\}\subset A$, e A tem medida de Lebesgue positiva $(Area(A)=\pi)$, então $X$ e $Y$ não são independentes.

(c) Prove que X e Y são não-correlacionadas

Pelos Exemplo 3.5.8: 
$$COV(X,Y)=COV(X,\mathbb{E}(Y|X))=\mathbb{E}(X\mathbb{E}(Y|X))-\mathbb{E}(X)\mathbb{E}(\mathbb{E}(Y|X))=\mathbb{E}(X.0)-\mathbb{E}(X)0=0$$
então X e Y não são correlacionado.
 

 

Exemplo 3.5.9:
Seja X uma variável aleatória Cauchy-padrão.
(a) Conforme a Definição 4.3, qual é $\mathbb{E}(X||X|=y)$?

Como X é simetria em torno de zero, utilizando o exemplo 2.6.12, temos que
$$\mathbb{P}(X=y||X|=y)=\mathbb{P}(X=-y||X|=y)=\frac{1}{2}$$
Então,
$$\mathbb{E}(X||X|=y)=y\frac{1}{2}+(-y)\frac{1}{2}=0$$

(b) Deduza que $\mathbb{E}(\mathbb{E}(X||X|))=0$.
Do item (a) 
$$\mathbb{E}(X||X|=y)=0$$
então $\mathbb{E}(\mathbb{E}(X||X|))=\mathbb{E}(X||X|)=0$

(c) A propriedade básica $\mathbb{E}(\mathbb{E}(X|Y))=\mathbb{E}(X)$ não vale nesse caso. Existe uma contradição nisso?

Não, ocorre que a propriedade básica foi provada usando a hipótese que X seja integrável, o que não acontece neste caso;
 

Exemplo 3.5.10:
Se $X\geq 0$, ocorre que $\mathbb{E}(X)=\mathbb{E}(\mathbb{E}(X|Y))$ sem a hipótese de integrabilidade de X. Prove esse resultado quando X e Y são discretas.

Se X é uma variável aleatória e $X\geq 0$ então $X|Y=y$ é uma variável aleatória discreta e não-negativa assim
$$\mathbb{E}(X|Y=y)=\sum_{n=0}^\infty \mathbb{P}(X> n|Y=y)$$
Agora Y é variável aleatória discreta toma os valores em $y_m$, $m=\pm 1, \pm 2, \dots$, então
$$\mathbb{P}(X\in B|  Y=y_n)=\frac{\mathbb{P}(X\in B, Y=y_m)}{\mathbb{P}(Y=y_m)}$$
para $\mathbb{P}(Y=y_m)> 0$, então
$$\mathbb{E}(X|Y=y_m)=\sum_{n=0}^\infty \mathbb{P}(X> n| Y=y_n)=\sum_{n=0}^\infty \frac{\mathbb{P}(X> n, Y=y_m)}{\mathbb{P}(Y=y_m)}$$
E então
$$\mathbb{E}(\mathbb{E}(X|Y))=\sum_{m\in \mathbb{Z}}\mathbb{P}(Y=y_m)\sum_{n=0}^\infty \frac{\mathbb{P}(X> n, Y=y_m)}{\mathbb{P}(Y=y_m)} = \sum_{m\in \mathbb{Z}}\sum_{n=0}\mathbb{P}(X> n, Y=y_m)$$
Agora, como $\mathbb{P}(X> n, Y=y_m)\geq 0$, para todo $n\geq 0$ e $m\in \mathbb{Z}^\star$, podemos inverter as somatórias e
$$\mathbb{E}(\mathbb{E}(X|Y))=\sum_{n=0}\sum_{m\in \mathbb{Z}^\star}\mathbb{P}(X> n,Y=y_m)=\sum_{n=0}\mathbb{P}([X> n]\bigcup_{m\in \mathbb{Z}^\star}[y=y_m])$$
$$\sum_{n=0}^\infty \mathbb{P}([X> n]\cap \Omega)=\sum_{n=0}^\infty \mathbb{P}(X> n)=\mathbb{E}(X)$$

 

Exemplo 3.5.11:
O número de acidentes que ocorrem em certa fábrica em uma semana é uma variável aleatória com média $\mu$ e variância $\sigma^2$. Os números de indivíduos feridos nos diferentes acidentes são independentes e identicamente distribuídos com média $\xi$ e variância $\tau^2$, e são independentes do número de acidentes. Determine a média e a variância do número de indivíduos feridos em uma semana.

Seja $N$=número de acidentes em uma semana: Variável  aleatória discreta e não-negativa com
$$\left\{\begin{array}{l}\mathbb{E}(N)=\mu\\ Var(N)=\sigma^2\end{array}\right.$$
$F_1$=número de ferido no i-ésimo acidentes da semana: Variável aleatória discreta e não-negativa com
$$\left\{\begin{array}{l}\mathbb{E}(F_i)=\xi\\ Var(F_i)=\tau^2\end{array}\right.$$
e $X=F_1+F_2+\dots+F_N$ número de feridos em uma semana. Temos que $X$ também é variável aleatória discreta e não-negativa e então pelo exemplo 3.5.10 vale a propriedade básica, então:
$$\mathbb{E}(X)=\mathbb{E}(\mathbb{E}(X|N=n)).$$
Agora
$$\mathbb{E}(X|N=n)=\mathbb{E}(F_1+\dots+F_N)=N\mathbb{E}(F_1)=N$$
então $\mathbb{E}(X)=\mathbb{E}(N\xi)=\xi\mathbb{E}(N)=\xi\mu$
Temos também que $X^2$ é v.a.  discreta e não-negativa e então:
$$\mathbb{E}(X^2)=\mathbb{E}(\mathbb{E}(X^2|N=n))$$
Agora
$$\mathbb{E}(X^2|N=n)=\mathbb{E}((F_1+\dots+F_N)^2)=Var(F_1+\dots+F_N)+\left(\mathbb{E}(F_1+\dots+F_n)\right)^2$$
$$=NVar(F_1)+(N\mathbb{E}(F_1))^2=N\tau^2+N^2\xi^2$$
Assim,
$$\mathbb{E}(X^2)=\mathbb{E}(N\tau^2+N^2\xi^2)=\tau^2\mathbb{E}(N)+\xi^2\mathbb{E}(N^2)=\tau^2\mu+\xi^2(\sigma^2+\mu^2)$$
E então
$$Var(X)=\mathbb{E}(X^2)-(\mathbb{E}(X))^2=\tau^2\mu+\xi^2(\sigma^2+\mu^2)-(\xi\mu)^2=\tau^2\mu+\xi^2\sigma^2$$

 

Exemplo 3.5.12:
Calcule $\mathbb{E}(X_{(2)}|X_{(1)},X_{(3)})$, no qual $X_{(1)},X_{(2)}$ e $X_{(3)}$ são as estatísticas de ordem de uma amostra aleatória da $U[0,1]$.

Pelo exemplo 3.5.5(b), temos que $X_{(2)}|(X_{(1)},X_{(3)})=(x_{(1)},x_{(3)})\sim U[x_{(1)}],x_{(3)}$, então
$$\mathbb{E}(X_{(2)}|X_{(1)},X_{(3)})=\frac{X_{(1)}+X_{(3)}}{2}$$

 

Exemplo 3.5.13:
 Seja X uma variável aleatória com distribuição exponencial de parâmetro 1. Seja $t> 0$ fixo. Ache $\mathbb{E}(X|\max(X,t))$ e $\mathbb{E}(X|\min(X,t))$.

Sejam $Z=\max(X,t)$ e $W=\min(X,t)$. Vamos obter inicialmente a distribuição de $X|Z=z$
\textbf{a1)} $0\leq t\leq z$ então $\max(X,t)=z> t\Rightarrow X=z$. Assim o nosso candidato a distribuição condicional será
$$\mathbb{P}(X=z)=1$$
o que implica que
$$\mathbb{E}(X|z)=z$$
a2) $z=t$ então usando o princípio da preservadas das chances relativas, o candidato a distribuição condicional será
$$f_{X|Z=t}(x)=\left\{\begin{array}{l}\displaystyle \frac{f_X(x)}{\int_0^tf_X(x)dx}=\frac{\lambda e^{-\lambda x}}{1-e^{-\lambda t}},\quad 0\leq x\leq t\\ 0, \text{Caso}\quad\text{Contrário}.\end{array}\right.$$
Formalmente deveríamos verificar $$\mathbb{P}(X\in B| Y=y)=\lim_{\Delta y\rightarrow 0}\mathbb{P}(X\in B| Y\in I)$$  ou $$F_{X,Y}(x,y)=\int_{-\infty}^y F_X(x|Y=t)dF_Y(t),(x,y)\in \mathbb{R}^2$$ para validar as escolhas das distribuições condicionais, mas supondo que estas sejam o mesmos corretas temos que
$$\mathbb{E}(X|Z=z)=\left\{z,\quad\quad z> t\\ \frac{\int_0^tx e^{-\lambda x}dx}{1-e^{-\lambda t}},z=t\right.$$
Agora fazendo uma substituição $x=u$ e $\lambda e^{-\lambda x}dx=dv$ e
$$\frac{\int_0^tx e^{-\lambda x}dx}{1-e^{-\lambda t}}=\frac{-xe^{-\lambda x}\big|_0^t+\int_0^t e^{-\lambda x}dx}{1-e^{-\lambda t}}$$
$$=\frac{\frac{1}{\lambda}(1-e^{-\lambda t})-te^{-\lambda t}}{(1-e^{-\lambda t})}=\frac{1}{\lambda} -\frac{te^{-\lambda t}}{(1-e^{-\lambda t})},z=t$$
Então,
$$\mathbb{E}(X|Z=z)=\left\{z,\quad\quad z> t\\ \frac{1}{\lambda} -\frac{te^{-\lambda t}}{(1-e^{-\lambda t})},z=t\right.$$
Analogamente, concluímos que a distribuição $X|W=w$ será

b1) $0\leq w< t$ o que implica que $\min(X,t)=w< t$ o que implica que $X-w$. Então,
$$\mathbb{P}(X=w)=1$$

\textbf{b2)} $W=t$, pelo princípio da preservação da chances relativas temos
$$f_{X|W=t}(x)\left\{\frac{f_X(x)}{\displaystyle \int_{0}^\infty f_X(x)dx}=\frac{\lambda e^{-\lambda x}}{e^{-\lambda t }}=\lambda e^{-\lambda(x-t)},\quad\quad x\geq t \\ 0,\quad\quad\text{Caso}\quad\text{Contrário}.\right.$$
Então,
$$\mathbb{E}(X|W)=\left\{w,\quad\quad 0< w< t\\ \int_t^\infty x\lambda e^{-\lambda(x-t)}dx,\quad w=t\right.$$
fazendo uma mudança de variável temos que $v=x-t$ e $dv=dx$, temos que
$$\int_t^\infty x\lambda e^{-\lambda(x-t)}dx=\int_0^\infty (v+t)\lambda e^{-\lambda v}dv=t+\int_0^\infty v\lambda e^{-\lambda v}dv=t+\frac{1}{\lambda}$$
Então
$$\mathbb{E}(X|W)=\left\{w,\quad\quad 0< w< t\\ t+\frac{1}{\lambda},\quad w=t\right.$$
 

Exemplo 3.5.14:
Mostre que se X e Y são variáveis aleatórias, então
$$F_{X,Y}(x,y)\leq \sqrt{F_X(x)F_Y(y)}$$

Tomemos as seguintes variáveis aleatórias: $\mathbb{I}_{[X\leq x]}$ e $\mathbb{I}_{[Y\leq x]}$
então, aplicando a desigualdade de Cauchy-Schwarz, então
$$\mathbb{E}(|\mathbb{I}_{[X\leq x]}\mathbb{I}_{[Y\leq x]}|)\leq \sqrt{\mathbb{E}(\mathbb{I}^2_{[X\leq x]})\mathbb{E}(\mathbb{I}^2_{[Y\leq y]})}$$
Agora, como
$$\left\{\begin{array}{l}|\mathbb{I}_{[X\leq x]}\mathbb{I}_{[Y\leq y]}|=\mathbb{I}_{[X\leq x],[Y\leq y]}\\ \mathbb{I}^2_{[X\leq x]}=\mathbb{I}^2_{[X\leq x]}\\ \mathbb{I}^2_{[Y\leq y]}=\mathbb{I}_{[Y\leq y]}\end{array}\right.$$
Então,
$$\mathbb{E}(\mathbb{I}_{[X\leq x,Y\leq y]})\leq \sqrt{\mathbb{E}(\mathbb{I}_{[X\leq x]})\mathbb{E}(\mathbb{I}_{[Y\leq y]})}$$
Temos que $\mathbb{E}(\mathbb{I}_A)=\mathbb{P}(A)$. Assim,
$$\mathbb{P}(X\leq x, Y\leq y)\leq \sqrt{\mathbb{P}(X\leq x)\mathbb{P}(Y\leq y)}\Rightarrow F_{X,Y}(x,y)\leq \sqrt{F_X(x)F_Y(y)}.$$
 

Exemplo 3.5.15:
Seja $(X,Y)$ um vetor aleatória bidimensional. Suponha que $(i)$ X tem distribuição exponencial com parâmetro $\frac{1}{2}$ e $(ii)$ para cada $x> 0,$ a distribuição condicional de Y dado que $X=x$ é $U[0,x^2]$. Em outras palavras, $X\sim Exp\left(\frac{1}{2}\right)$ e $Y|X=x\sim U[0,x^2]$.

(a) Qual a distribuição de $Z=Y|X^2=t$?
O nossa candidato será $Z\sim U[0,t]$, verificaremos isto usando  $$\mathbb{P}(X\in B| Y=y)=\lim_{\Delta y\rightarrow 0}\mathbb{P}(X\in B| Y\in I)$$.

Seja $I=(a,b)$ no qual $0< a< t< b$, assim
$$\mathbb{P}(X^2\in I)=\mathbb{P}(a< X^2< b)=\mathbb{P}(\sqrt{a}< X<\sqrt{b})=\mathbb{P}(X\in I^{1/2})$$
no qual, $I^{1/2}=(a^{1/2},b^{1/2})$ e $t^{1/2}\in I^{1/2}$. Além disso,
$$\displaystyle \lim_{a\rightarrow t, b\rightarrow t}\frac{\mathbb{P}(Y\in B, X^2\in I)}{\mathbb{P}(X^2\in I)}=\lim_{a\rightarrow t, b\rightarrow t}\frac{\mathbb{P}(Y\in B, X\in I^{1/2})}{\mathbb{P}(X\in I^{1/2})}$$
$$=\lim_{\sqrt{a}\rightarrow t, \sqrt{b}\rightarrow t}\frac{\mathbb{P}(Y\in B, X^2\in I)}{\mathbb{P}(X^2\in I)}=\mathbb{P}(Y\in B| X=\sqrt{t})$$
por hipótese temos que $Y|X=x\sim U[0,x^2].$
$$\mathbb{P}(Y\in B| X=\sqrt{t})=\frac{Comp(B\cap [0,t])}{t}$$
Então $Y|X^2=t\sim U[0,t]$.

(b) Calcule $\mathbb{E}(X)$, $\mathbb{E}(Y)$ e $Cov(X,Y)$.
Inicialmente $\mathbb{E}(X)=\mathbb{E}(\exp(\frac{1}{2}))=2$ e como $Y$ é v.a. não-negativa, através da propriedade fundamental $Y$ Exemplo 3.5.11, temos
$$\mathbb{E}(Y)=\mathbb{E}(\mathbb{E}(Y|X=x))$$
Agora $\mathbb{E}(Y|X=x)=\frac{x^2}{2}$, então
$$\mathbb{E}(Y)=\mathbb{E}\left(\frac{X^2}{2}\right)=\frac{1}{2} \mathbb{E}(X^2)=4$$
A última igualdade decorre do fato que $X\sim \exp(1/2)$ e então $\mathbb{E}(X^2)=\frac{2}{(1/2)^2}=8$. Analogamente $XY$ é v.a. não negativa, então
$$\mathbb{E}(XY)=\mathbb{E}(\mathbb{E}(XY|X))$$
Pelo princípio de substituição temos
$$\mathbb{E}(X\mathbb{E}(Y|X))=\mathbb{E}(XX^2/2)=\frac{1}{2}\mathbb{E}(X^3)=24$$
no qual a última igualdade decorre de $X\sim \exp(1/2)$ e $\mathbb{E}(X^3)=\frac{6}{(1/2)^3}=48$. Então,
$$Cov(X,Y)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=24-2(4)=16$$
 

 

Exemplo 3.5.16
Sejam X e Y variáveis aleatórias tais que $Y$ tem esperança finita.
(a) Mostre que a variância condicional de Y dada X, como definida no exemplo 2.7.2, é a variância da distribuição condicional.
$$Var(Y|X=x)=\mathbb{E}[(Y|X=x)^2]-[\mathbb{E}(Y|X=x)]^2=\mathbb{E}(Y^2|X=x)-\mathbb{E}^2(Y|X=x)$$

(b) Demonstre que $Var(Y)=\mathbb{E}(Var(Y|X))+Var(\mathbb{E}(Y|X))$, i.e., a variância de Y é a soma da esperança da variância condicional e a variância da esperança condicional.
Supomos que $Var(Y)< \infty$ se, e somente se, $\mathbb{E}(Y^2)< \infty$.
$$\mathbb{E}(Var(X|Y))=\mathbb{E}(\mathbb{E}(Y^2|X))-\mathbb{E}(\mathbb{E}^2(Y|X))=\mathbb{E}(Y^2)-\mathbb{E}(\mathbb{E}^2(Y|X))$$
no qual a ultima igualdade temos que $\mathbb{E}(Y^2)< \infty$ e $Y^2$ é integrável. Além disso, temos que
$$Var(\mathbb{E}(Y|X))=\mathbb{E}(\mathbb{E}^2(Y|X))-\left(\mathbb{E}(\mathbb{E}(Y|X))\right)^2=\mathbb{E}(\mathbb{E}^2(Y|X))-(\mathbb{E}(Y))^2$$
Então
$$\mathbb{E}(Var(X|Y))+Var(\mathbb{E}(Y|X))=\mathbb{E}(Y^2)-\mathbb{E}^2(Y)=Var(Y)$$
 

Exemplo 3.5.17:
Sejam X e Y variáveis aleatórias com segundos momentos finitos, e seja Z uma outra variável aleatória. Demonstre a seguinte fórmula:
$$Cov(X,Y)=\mathbb{E}(Cov(X,Y)|Z)+Cov(\mathbb{E}(X|Z), \mathbb{E}(Y|Z)),$$
no qual $Cov((X,Y)|Z)=\mathbb{E}(XY|Z)-\mathbb{E}(X|Z)\mathbb{E}(Y|Z)$.

Como $\mathbb{E}(Y^2)< \infty$ e $\mathbb{E}(X^2)< \infty$, então $Y^2,X^2,Y,X$ são integráveis e portanto por Cauchy-Schwarz $XY$ é integrável
$$\mathbb{E}(Cov(X,Y)|Z)=\mathbb{E}(\mathbb{E}(XY|Z))-\mathbb{E}(\mathbb{E}(X|Z)\mathbb{E}(Y|X))=\mathbb{E}(XY)- \mathbb{E}(\mathbb{E}(X|Z))\mathbb{E}(Y|Z)$$
e
$$Cov(\mathbb{E}(X|Z),\mathbb{E}(Y|Z))=\mathbb{E}(\mathbb{E}(X|Z)\mathbb{E}(Y|Z))-(\mathbb{E}(\mathbb{E}(X|Z))\mathbb{E}(\mathbb{E}(Y|Z)))$$
$$\mathbb{E}(\mathbb{E}(X|Z)\mathbb{E}(Y|Z))-\mathbb{E}(X)\mathbb{E}(Y)$$
Então
$$\mathbb{E}(Cov(X,Y)|Z)+Cov(\mathbb{E}(X|Z),\mathbb{E}(Y|Z))=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=Cov(X,Y)$$

 

Exemplo 3.5.18:
Suponha que em um temporal, o número X de gotas de chuva que caem no IMPA durante um segundo tenha distribuição de Poisson com parâmetro $\lambda> 0$, no qual $\lambda$ representa a intensidade de chuva. Suponha que o parâmetro $\lambda$ seja uma variável aleatória que tenha distribuição gama com parâmetros $\alpha> 0$ e $\beta=1$, i.e. que sua densidade seja dada por
$$f(\lambda)=\left\{\begin{array}{l} \displaystyle\frac{1}{\Gamma(\alpha)}\lambda^{\alpha-1}e^{-\lambda},\quad\quad\text{se}\quad \lambda\leq 0\\ 0,\quad \quad \lambda< 0.\end{array}\right.$$
(a) Mostre que
$$\mathbb{P}(X=k)=\frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\left(\frac{1}{2}\right)^{k+\alpha}, k=0,1,2,\dots$$
Temos que: $X|\lambda=s\sim Poisson(s)$, então
$$\mathbb{P}(X=k)=\int_{-\infty}^\infty \mathbb{P}(X=k|\lambda=s)dF_{\lambda}(s)=\int_0^\infty \left(\frac{s^k}{k!}e^{-s}\right)\frac{1}{\Gamma(\alpha)}s^{\alpha-1}e^{-s}ds$$
$$=\frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\int_0^\infty \frac{s^{k+\alpha-1}e^{-2s}}{\Gamma(k+\alpha)} e^{-2s}ds = \frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\frac{1}{2^{k+\alpha-1}}\int_0^\infty \frac{2s^{(k+\alpha)-1}e^{-2\lambda}}{\Gamma(k+\alpha)}ds$$
fazendo uma mudança de variável $t=2s$ e $dt=2ds$ então
$$\frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\left(\frac{1}{2}\right)^{k+\alpha-1}\frac{1}{2}\int_0^\infty \frac{t^{k+\alpha-1}}{\Gamma(k+\alpha)}e^{-t}dt=\frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\left(\frac{1}{2}\right)^{k+\alpha-1}\frac{1}{2}$$
para $k=1,2,\dots.$
(b) Usando métodos probabilísticos, demonstre que
$$\sum_{k=1}^\infty \binom{k+n-1}{n}\frac{1}{2^k}=2^n,\quad\quad para\quad n=1,2,\dots.$$

Temos que,
$$\mathbb{E}(X)=\mathbb{E}(\mathbb{E}(X|s=\lambda)),$$
Agora $X|s=\lambda\sim Poisson(\lambda)$ então $\mathbb{E}(X|s=\lambda)=\lambda$. Então,
$$\mathbb{E}(X)=\mathbb{E}(\mathbb{E}(X|s=\lambda))=\int_0^\infty \frac{\lambda \lambda^{\alpha-1}e^{-\lambda}}{\Gamma(\lambda)}d\lambda$$
$$=\frac{\Gamma(\alpha+1)}{\Gamma(\alpha)}\int_0^\infty \frac{\lambda^\alpha}{\Gamma(\alpha+1)}e^{-\lambda}d\lambda=\frac{\Gamma(\alpha+1)}{\Gamma(\alpha)}=\alpha$$
Agora, calculando a esperança de X e pela definição e pelo item (a) temos que
$$\mathbb{E}(X)=\displaystyle \sum_{k=0}^\infty k\mathbb{P}(X=k)=\sum_{k=0}^\infty k\frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k+1)}\left(\frac{1}{2}\right)^{k+\alpha}$$
$$=\sum_{k=1}^\infty \frac{\Gamma(k+\alpha)}{\Gamma(\alpha)\Gamma(k)}\left(\frac{1}{2}\right)^{k+\alpha}=\sum_{k=1}^\infty \frac{(k+\alpha-1)!}{(\alpha-1)!(k-1)!}\frac{1}{2^{k+\alpha}}$$
$$=\alpha\frac{1}{2^{\alpha}}\sum_{k=1}^\infty \binom{k+\alpha-1}{\alpha}\frac{1}{2^k}$$
Agora, utilizando as igualdades acima, temos que
$$\alpha\frac{1}{2^{\alpha}}\sum_{k=1}^\infty \binom{k+\alpha-1}{\alpha}\frac{1}{2^k}=\alpha$$
o que implica que
$$\sum_{k=1}^\infty \binom{k+\alpha-1}{\alpha}\frac{1}{2^k}=2^{\alpha}$$
Agora, fazendo $n=\alpha=1,2,3,\dots$ temos que
$$\sum_{k=1}^\infty \binom{k+n-1}{n}\frac{1}{2^k}=2^{n},\quad\quad n=1,2,3,\dots$$
 

Exemplo 3.5.18:
Calcule $\mathbb{E}(X_k|X=t)$ no exercício 23;

Temos que $X_k$ é uma variável aleatória com distribuição
$$\mathbb{P}(X_k\leq x|X=t)=\left\{\begin{array}{l}\frac{(n-1)F(x)}{nF(t)},\quad\quad se\quad x< t\\ 1,\quad\quad se\quad x\geq t\end{array}\right.$$
temos que
$$\mathbb{E}(X)=-\int_{-\infty}^0 F_X(x)dx+\int_0^\infty(1-F_X(x))dx$$
Então,
$$\mathbb{E}(X_k|X=t)=-\int_{-\infty}^0 F_{X_k|X=t}(x)dx+\int_0^\infty(1-F_{X_k|X=t}(x))dx$$
Agora, se $t\leq 0$, então
$$\mathbb{E}(X_k|X=t)=-\left[\int_{-\infty}^t \frac{(n-1)F(x)}{nF(t)}dx+\int_t^0 dx\right]=t-\frac{(n-1)}{nF(t)}\int_{-\infty}^t F(x)dx$$
e se $t> 0$, temos
$$\mathbb{E}(X_k|X=t)=-\int_{-\infty}^0 \frac{(n-1)}{n}\frac{F(x)}{F(t)}dx+\int_0^t\left(1-\frac{n-1}{n}\frac{F(x)}{F(t)}\right)dx$$
$$=-\frac{(n-1)}{nF(t)}\int_{-\infty}^0 F(x)dx+t-\frac{(n-1)}{nF(t)}dx=t-\frac{(n-1)}{nF(t)}\int_{-\infty}^tF(x)dx$$
Então pelas equações acima temos que
$$\mathbb{E}(X_k|X=t)=t-\frac{(n-1)}{nF(t)}\int_{-\infty}^0F(x)dx, \quad\quad \forall t \in \mathbb{R}$$

 

Exemplo 3.5.19:
Determine $\mathbb{E}(X|Y)$ e $\mathbb{E}(Y|X)$ no exemplo 2.7.3. Calcule $Cov(X,Y)$. $X$ e $Y$ são independentes?
$f_{X,Y}(x,y)=\frac{1}{2x},\quad\quad (x,y)\in A,$ no qual $A=\{(x,y):0\leq x\leq 1,-x\leq y\leq x\}$. Pelo princípio da preservação das chamas relativa, temos que
$$f_{X|Y=y}(x)=\frac{f_{X,Y}(x,y)}{f_Y(y)}=\frac{f_{X,Y}(x,y)}{\int_{|y|}^1 f_{X,Y}(x,y)dx}=\left\{\begin{array}{l}\frac{\frac{1}{2x}}{\int_{|y|^1\frac{1}{2x}dx}}=\frac{\frac{1}{2x}}{\frac{1}{2}\ln{x}|_{|y|}^1}= -\frac{x}{\ln{|y|}},|y|\leq x\leq 1\\ 0,\text{Caso}\quad\text{Contrário}\end{array}\right.$$
E agora $X|Y=0\sim U[0,1]$ e portanto,
$$\mathbb{E}(X|Y=y)=\left\{\begin{array}{l}\int_{-\infty}^\infty xf_{X|Y=y}(x)dx=\int_{|y|}^1-\frac{x^2}{\ln{|y|}}=\frac{1}{\ln{|y|}}\left[-\frac{x^3}{3}\right]^1_y=\frac{(y^3-1)}{3\ln{|y|}} ,0< |y|\leq 1\\ \frac{1}{2},y=0\end{array}\right.$$
Temos também que: $Y|X=x\sim U[-x,x]\Rightarrow \mathbb{E}(Y|X=x)=0, x\in [0,1]$. Agora temos também que $Y$ é integrável pois $|y|\leq 1$ e $XY$ é integrável pois $|XY|=|X||Y|\leq 1$. Então,
$$Cov(X,Y)=\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)=\mathbb{E}(\mathbb{E}(XY|X))-\mathbb{E}(X)\mathbb{E}(Y|X)=\mathbb{E}(X\mathbb{E}(Y|X=x)) -\mathbb{E}(X)\mathbb{E}(\mathbb{E}(Y|X))=\mathbb{E}(X 0)-\mathbb{E}(X)\mathbb{E}(0)=0$$
No entanto X e Y não são independentes pois para $(x,y)\in B=(A^c\cap [0,1]\times(-1,1))$.
$$f_X(x)f_Y(y)=1(-\ln{(|y|)})=-\ln{|y|}\neq 0=f_{X,Y}(x,y)$$
Como a medida de Lebesgue de $B$ é não nula então $X$ e $Y$ não são independentes.
 

Exemplo 3.5.20:
Seleciona-se ao acaso um número entre 0 e 1. Se x é o número selecionado, lança-se n vezes uma moeda com probabilidade x de dar "cara". Seja Y a variável aleatória que representa o número de caras lançadas.

(a)Y é variável aleatória discreta ou contínua?
$Y$ é variável discreta pois os resultados possíveis de Y são $0,1,2,3,\dots$
(b) Calcule a esperança e a variância de Y.
$Y$ e $Y^2$ são v.a. não-negativas então para elas vale a propriedades básicas temos que $X\sim U[0,1]$  o que implica que $\mathbb{E}(X)=1/2$ e $\mathbb{E}(X^2)=1/3$ e $Y|X=x\sim b(n,x)$ o que implica $\mathbb{E}(Y|X=x)=nx$ e $\mathbb{E}(Y^2|X=x)=nx(1-x)+(nx)^2$. E então
$$\mathbb{E}(Y)=\mathbb{E}(\mathbb{E}(Y|X=x))=\mathbb{E}(nX)=n\mathbb{E}(X)=\frac{n}{2}$$
e
$$\mathbb{E}(Y^2)=\mathbb{E}(\mathbb{E}(Y^2|X=x))=\mathbb{E}(nX-nX^2+n^2X^2)=n\mathbb{E}(X)+n(n-1)\mathbb{E}(X^2)=\frac{n}{2}+\frac{n(n-1)}{3}$$
e portanto,
$$Var(Y)=\mathbb{E}(Y^2)-\mathbb{E}^2(Y)=\frac{n}{2}+\frac{n(n-1)}{3}-\frac{n^2}{4}=\frac{6n+4n^2-4n-3n^2}{12}\Rightarrow Var(Y)=\frac{n(n+2)}{12}$$

 

Exemplo 3.5.21
(a) Demonstre que se $X$ e $Y$ são independentes, então
$$\mathbb{P}(X< Y)=\int_{-\infty}^\infty (1-F_{Y}(x))dF_X(x).$$
Inicialmente temos que $\mathbb{I}_{[X< Y]}$ é variável aleatória não-negativa temos então
$$\mathbb{P}(X< y)=\mathbb{E}(\mathbb{I}_{[X< Y]})=\mathbb{E}(\mathbb{E}(\mathbb{I}_{[X< Y]}|X=x))$$
$$\mathbb{E}(\mathbb{E}(\mathbb{I}_{[Y|X=x> x]}))$$
Agora como X e Y são independentes temos que $Y|X=x\sim Y$, temos
$$\mathbb{E}(\mathbb{E}(\mathbb{I}_{[Y|X=x> x]}))=\mathbb{E}(\mathbb{E}(\mathbb{I}_{[Y> x]}))= \mathbb{E}(\mathbb{P}(Y> x))$$
$$=\mathbb{E}(1-F_Y(x))=\int_{-\infty}^\infty (1-F_Y(x))dF_X(x)$$

(b)Sejam X e Y independentes, X exponencial de parâmetro $\lambda$ e Y uniforme em $[0,\lambda]$, no qual $\lambda> 0$. Calcule
$$\mathbb{P}(X< Y),\mathbb{P}(X> Y)$$
e
$$\mathbb{P}(X= Y)$$

Neste caso, temos que
$$\mathbb{P}(X< y)=\int_{-\infty}^\infty (1-F_Y(x))dF_X(x)=\int_0^\lambda (1-x/\lambda)\lambda e^{-\lambda x}dx+ \int_{\lambda}^\infty (1-1)\lambda e^{-\lambda x}dx$$
$$=\int_0^\lambda \lambda e^{-\lambda x}dx-\frac{1}{\lambda}\int_0^\lambda x\lambda e^{-\lambda x}dx=1-e^{-\lambda^2}-\frac{1}{\lambda}\int_0^\lambda x\lambda e^{-\lambda x}dx$$
Agora,
$$\int_0^\lambda x\lambda e^{-\lambda x}dx=-xe^{-\lambda x}\bigg|_0^{\lambda}+\int_0^\lambda e^{-\lambda x}dx=-\lambda e^{-\lambda^2}-\frac{e^{-\lambda x}}{\lambda}\bigg|_0^\lambda$$
$$=-\lambda e^{-\lambda^2}+\frac{1}{\lambda}-\frac{1}{\lambda}e^{-\lambda^2}$$
Então,
$$\mathbb{P}(X< y)=1-e^{-\lambda^2}+e^{-\lambda^2}-\frac{1}{\lambda^2}+\frac{1}{\lambda^2}e^{-\lambda^2} =1-\frac{1}{\lambda^2}(1-e^{-\lambda^2})$$
Agora
$$\mathbb{P}(Y< X)=\int_{-\infty}^\infty (1-F_X(y))dF_Y(y)=\int_0^\lambda e^{-\lambda y}\frac{1}{\lambda}dy=-\frac{e^{-\lambda y}}{\lambda^2}\bigg|_0^\lambda=\frac{1}{\lambda^2}(1-e^{-\lambda^2})$$
E como
$$\mathbb{P}(X> Y)+\mathbb{P}(X< Y)+\mathbb{P}(X=Y)=1,$$
pois $\Omega=[X> Y]\cup[X< Y]\cup [X=Y]$ temos
$$\mathbb{P}(X=Y)=1-\mathbb{P}(X> Y)-\mathbb{P}(X< Y)=1-\frac{1}{\lambda^2}(1-e^{-\lambda^2})=1$$
 

Exemplo 3.5.22:
Fregueses entram em um supermercado conforme um processo de Poisson com parâmetro $\lambda$. Há luz no supermercado enquanto não queima um fusível instalado no tempo $t=0$, e cuja vida útil T tem distribuição exponencial com parâmetro $\xi$. Qual o número esperado de fregueses que entram no supermercado enquanto há luz?

Temos que $(X_t)_{t\geq 0}$ é um processo de $Poisson(\lambda)$ e T é variável aleatória $Exp(\xi)$ então $\mathbb{E}(T)=\frac{1}{\xi}$
Y é número de fregueses que entram no supermercado enquanto a luz. Assim $Y=X_T$, no qual T é uma variável aleatória com distribuição $Exp(\lambda)$. Agora $(Y|T=t)= X_t\sim Poisson(\lambda t)$ o que implica que $\mathbb{E}(Y|T=t)=\lambda t$. Mas Y é v.a. não negativa, então para ela vale a propriedade básica e então
$$\mathbb{E}(Y)=\mathbb{E}(\mathbb{E}(Y|T=t))=\mathbb{E}(\lambda T)=\lambda\mathbb{E}(T)=\frac{\lambda}{\xi}$$
 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]