3.3 - Propriedades do valor esperado

Você está aqui

Nesta seção, veremos algumas importantes propriedades do valor esperado de uma variável aleatória. Em cada caso, admitimos que todos os valores esperados mencionados, existem.

P1. Se $ X=c $ com $ c $ uma constante real, então $ \mathbb{E}(X)=c $.

De fato, se $ X $ é uma variável aleatória discreta, temos que


\[\mathbb{E}(X) =\sum_{\mathcal{R}_X}x\mathbb{P}(X=x) = c\mathbb{P}(X=c) = c\cdot 1=c\]

 

P2. Seja $ c $ uma constante real e $ X $ uma variável aleatória. Então,


\[\mathbb{E}(cX) = c\mathbb{E}(X)\]

 

De fato, no caso discreto temos que


\[\mathbb{E}(cX)=\sum_{x\in\mathcal{R}_X}cx\mathbb{P}(X = x)=c\sum_{x\in\mathcal{R}_X}x\mathbb{P}(X = x)= c\mathbb{E}(X).\]

 

De modo análogo, temos no caso contínuo, que


\[\mathbb{E}(cX)=\int_{-\infty}^{\infty}cxf(x)dx=c\int_{-\infty}^{\infty}xf(x)dx=c\mathbb{E}(X)\]

.

 

P3. Sejam $ X $ e $ Y $ duas variáveis aleatórias quaisquer. Então,


\[\mathbb{E}(X + Y) = \mathbb{E}(X) + \mathbb{E}(Y).\]

 

De fato, no caso discreto, considere $ p(x,y) $ a função de probabilidade conjunta e $ p_X(x) $ e $ p_Y(y) $ as funções de probabilidade marginais de $ X $ e $ Y $ respectivamente. Então, temos que


\[\mathbb{E}(X+Y)=\sum_{y\in\mathcal{R}_Y}\sum_{x\in\mathcal{R}_X}(x+y)p(x,y)=\sum_{x\in\mathcal{R}_X}\sum_{y\in\mathcal{R}_Y}xp(x,y)+\sum_{y\in\mathcal{R}_Y}\sum_{x\in\mathcal{R}_X}yf(x,y)\]

 

de onde segue que


\[\mathbb{E}(X+Y)\sum_{x\in\mathcal{R}_X}xp_X(x) +\sum_{y\in\mathcal{R}_Y}yp_Y(y).\]

 

Portanto, concluímos que


\[\mathbb{E}(X+Y)=\mathbb{E}(X)+\mathbb{E}(Y).\]

 

Se $ X $ e $ Y $ são variáveis aleatórias contínuas, considere $ f(x,y) $ a função densidade de probabilidade conjunta e $ f_X(x) $ e $ f_Y(y) $ as funções densidade de probabilidade marginais de $ X $ e $ Y $ respectivamente. Então


\[\mathbb{E}(X+Y)=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}(x+y)f(x,y)dxdy=\int_{-\infty}^{\infty}x\left(\int_{-\infty}^{\infty}f(x,y)dy\right)dx+\int_{-\infty}^{\infty}y\left(\int_{-\infty}^{\infty}f(x,y)dx\right)dy.\]

 

ou seja,


\[\mathbb{E}(X+Y)=\int_{-\infty}^{\infty}xf_X(x,y)dx+\int_{-\infty}^{\infty}yf_Y(x,y)dy=\mathbb{E}(X)+\mathbb{E}(Y)\]

 

demonstrando o resultado.

P4. Sejam $ n $ variáveis aleatórias $ X_1,\ldots,X_n $. Então,


\[\mathbb{E}(X_1+X_2+\ldots+X_n)=\mathbb{E}(X_1)+\mathbb{E}(X_2)+\ldots+\mathbb{E}(X_n).\]

 

A demonstração deste caso é análoga a anterior. Basta fazer uma indução sobre $ n $.

P5. Sejam $ X $ e $ Y $ variáveis aleatórias independentes. Então,


\[\mathbb{E}(XY) = \mathbb{E}(X)\mathbb{E}(Y).\]

 

De fato, suponha que $ X $ e $ Y $ são variáveis aleatórias independentes com função de probabilidade conjunta $ p(x,y) $ para o caso discreto ou função densidade de probabilidade conjunta $ f(x,y) $ para o caso contínuo. Como, por hipótese, $ X $ e $ Y $ são independentes, temos do Teorema 3.1.2 que


\[p(x,y) = p_X(x) \cdot p_Y(y)\]

 

no caso discreto e do Teorema 3.2.1 que


\[f(x,y) = f_X(x)\cdot f_Y(y)\]

 

no caso contínuo. Desta forma, se $ X $ e $ Y $ são variáveis aleatórias discretas independentes, temos que


\[\mathbb{E}(XY)=\sum_{x\in\mathcal{R}_X}\sum_{y\in\mathcal{R}_Y}xyp(x,y)= \sum_{x\in\mathcal{R}_X}\sum_{y\in\mathcal{R}_Y}xyp_X(x)p_Y(y)= \sum_{x\in\mathcal{R}_X}xp_X(x)\sum_{y\in\mathcal{R}_Y}yp_Y(y)\]

 

de onde segue que


\[\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y).\]

 

Analogamente, para o caso contínuo, temos que


\[\mathbb{E}(XY)=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}xyf(x,y)dxdy=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}xyf_X(x)f_Y(y)dxdy\]

 

ou seja,


\[\mathbb{E}(XY)=\int_{-\infty}^{\infty}xf_X(x)\left(\int_{-\infty}^{\infty}yf_Y(y)dy\right)dx=\mathbb{E}(X)\mathbb{E}(Y).\]

 

demonstrando assim o resultado.

P6. (Desigualdade de Jensen)  Seja \mathbb{R}\rightarrow\mathbb{R} $ uma função convexa e $ X $ uma variável aleatória integrável, ou seja, $ E(X)\leq \infty $. Então temos que


\[\mathbb{E}(f(X))\geq f(\mathbb{E}(X)).\]

 

Ressaltamos que uma função é dita convexa se seu gráfico for convexo, ou seja, dado quaisquer pontos $ a,b\in \mathbb{R} $ a reta que passa pelos pares ordenados $ (a,f(a)) $ e $ (b,f(b)) $ não intercepta o gráfico de $ f $ em nenhum ponto no intervalo $ (a,b) $.

Uma definição equivalente seria que para quaisquer $ x, y \in [a,b] $ e para todo $ t\in [0,1] $ temos que:


\[f(tx+(1-t)y)\leq tf(x)+(1-t)f(y)\]

 

De fato se $ f $ é uma função convexa então dado um par ordenado $ (y,f(y)) $ no gráfico de $ f $, temos que existe uma reta $ r $ tal que a reta passa pelo ponto $ (y,f(y)) $ e deixa a curva $ f $ toda acima dela, ou seja, existe um $ \lambda\in\mathbb{R} $ tal que $ r(x)=\lambda(x-y)+f(y) $.

Então temos que 


\[f(x)\geq r(x)=\lambda(x-y)+f(y),~~~\forall x \in\mathbb{R}.\]

 

Portanto, se aplicarmos o valor esperado em ambos os lados obtemos:


\[\mathbb{E}(f(X))\geq \mathbb{E}(r(X))=f(y)+\lambda(\mathbb{E}(X)-y).\]

 

E, tomando $ y=\mathbb{E}(X) $, o resultado segue.

 

Teorema 3.3.1:

Seja X uma variável  aleatória, $ \varphi(x) $ uma função real mensurável. Então 

$$\mathbb{E}(\varphi(X))=\int y dF_{\varphi(X)}(y)=\int \varphi(x)dF_X(x),$$

no qual a existência de uma das integrais implica a existência da outra e a igualdade das duas.

 

 

Exemplo 3.3.1:

Dizemos que a distribuição de X é simétrica (em torno de zero) se $ \mathbb{P}(X\geq x)=\mathbb{P}(X\leq -x) $ para todo $ x\in \mathbb{R} $, e que sua distribuição é simétrica em torno de $ \mu $ se

$$\mathbb{P}(X\geq \mu +x)=\mathbb{P}(X\leq \mu -x) \forall x \in \mathbb{R}$$

(a) Prove: Se a distribuição de X é simétrica em torno de $ \mu $ e se X é simétrica em torno de $ \mu $ e se X é integrável, então $ \mathbb{E}(X)=\mu $

Primeiramente vamos provar para $ \mu=0 $. Se $ \mu=0 $ isso implica que X é integrável e tem distribuição simétrica em zero o que implica que

$$\mathbb{P}(X\geq 0)=\mathbb{P}(X\leq -x)$$

o que implica que

$$(1-F_X(x))=F_X(-x)$$

Logo temos que

$$\mathbb{E}(X)=\int_0^\infty (1-F_X(x))dx-\int_{-\infty}^0 F_X(x)dx$$

Fazendo uma mudança de variável temos que

$$\mathbb{E}(X)=\int_0^\infty (1-F_X(x))dx-\int_{0}^\infty F_X(-x)dx=0$$

Agora, para $ \mu\neq 0 $, temos que $ X $ é integrável e tem distribuição simétrica em $ \mu $, ou seja,

$$\mathbb{P}(X\geq \mu+x)=\mathbb{P}(X\leq \mu - x), \quad \quad \forall x\in \mathbb{R}$$

Assim, definimos $ Y=X-\mu $ então $ Y\leq X $, e como X é integrável implica que Y é integrável, pois
$ Y=X-\mu $ o que implica

$$|X|-\mu \leq |X-\mu|=|Y|=|X-\mu|\leq |X|+\mu$$

Agora $ Y $ é simétrica em zero, pois

$$\mathbb{P}(Y\geq y)=\mathbb{P}(X-\mu \geq y)=\mathbb{P}(X\geq \mu +y)=\mathbb{P}(X\leq \mu-y)=\mathbb{P}(X-\mu\leq -y)=\mathbb{P}(Y\leq -y)$$

Então, pelo caso em que $ \mu=0 $ temos que $ \mathbb{E}(Y)=0 $.

(b) Suponha que X possua densidade $ f(x) $. Mostre que se $ f(\mu+x)=f(\mu-x) $$ \forall x $, então a distribuição de X é simétrica em torno de $ \mu $. Enuncie e prove a propriedade análoga para o caso discreto.

$$\mathbb{P}(X\geq \mu +x)=\int_{\mu+x}^\infty f_X(x)dx$$

Fazendo uma mudança de variável $ y=2\mu-x $ e $ dy=-dx $, temos que

$$\int_{\mu+x}^\infty f_X(x)dx=-\int_{\mu-x}^{-\infty} f_X(2\mu+y)dy=\int_{-\infty}^{\mu-x}f_X(2\mu+y)dy=\int_{-\infty}^{\mu-x}f_X(y)dy=\mathbb{P}(X\leq \mu +x)$$

Caso Discreto: Suponha que X possui função de probabilidade $ p $. Mostre que se

$$\mathbb{P}(\mu+x)=\mathbb{P}(\mu-x), \quad \quad \forall x$$

então a distribuição de X é simétrica em torno de $ \mu $.

$$\mathbb{P}(X\geq \mu +x)=\sum_{\mu+x}^\infty \mathbb{P}(x)$$

tomando $ y=\mu-x $ temos que

$$\sum_{\mu+x}^\infty \mathbb{P}(x)=\sum_{-x}^{-\infty} \mathbb{P}(\mu-y)=\sum_{-\infty}^{-x}\mathbb{P}(\mu+y)=\sum_{-\infty}^{\mu-x}\mathbb{P}(X)=\mathbb{P}(X\leq \mu-x)$$

e o resultado segue.

(c)Qual o ponto de simetria das distribuições das seguintes variáveis aleatórias? Dê a esperança de cada variável aleatória, se existir.
(i) $ X\sim N(\mu,\sigma^2) $.
Temos que

$$f(x)=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}(x-\mu)^2}, \quad \quad x\in \mathbb{R}$$

temos que :

$$f(\mu-x)=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}(\mu-x-\mu)^2}=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}x^2}, \quad \quad x\in \mathbb{R}$$

e

$$f(\mu+x)=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}(\mu+x-\mu)^2}=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}x^2}, \quad \quad x\in \mathbb{R}$$

pelo item (b) X é simétrica em torno de $ \mu $.

$$\mathbb{E}(X)=\int_{-\infty}^\infty x \frac{1}{\sigma \sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}(x-\mu)^2}$$

tomando $ y=\frac{x-\mu}{\sigma} $ e $ x=\sigma y +\mu $ e $ dx=\sigma dy $ então

$$\mathbb{E}(X)=\int_{-\infty}^\infty (\sigma y+\mu)\frac{1}{\sigma \sqrt{2\pi}}e^{-\frac{1}{2}y^2}\sigma dy= \frac{\sigma}{\sqrt{2 \pi}}\int_{-\infty}^\infty y e^{-\frac{1}{2}y^2}dy+\mu \int_{-\infty}^\infty \frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}y^2}dy= \frac{\sigma}{\sqrt{2\pi}}\left[-e^{-\frac{1}{2}y^2}\right]_{-\infty}^{\infty}+\mu=\mu$$

(ii)$ X\sim Cauchy(M,b) $ i.e., $ f(x)=\frac{b}{\pi[b^2+(x-M)^2]}, \quad \quad x \in \mathbb{R} $ 

$$f(M-x)=\frac{b}{\pi[b^2+(M-x-M)^2]}=\frac{b}{\pi(b^2+x^2)}$$

e

$$f(M+x)=\frac{b}{\pi[b^2+(M+x-M)^2]}=\frac{b}{\pi(b^2+x^2)}$$

então pelo item (b) X é simétrica em M.

$$\mathbb{E}(X)=\int_{-\infty}^\infty x\frac{b}{\pi[b^2+(x-M)^2]}dx$$

tomando $ y=x-M $, $ x=y+M $ e $ dx=dy $ temos então que

$$\mathbb{E}(X)=\frac{2}{\pi}\int_{-\infty}^\infty (y+M)\frac{b}{b^2+y^2}dy=\frac{b}{\pi}\int_0^{\infty}\frac{2y}{b^2+y^2}dy+\frac{2bM}{\pi}\int_{0}^\infty \frac{1}{b^2+y^2}dy$$

então, temos que

$$\frac{b}{\pi}\int_0^{\infty}\frac{2y}{b^2+y^2}dy+\frac{2bM}{\pi}\int_{0}^\infty \frac{1}{b^2+y^2}dy=\frac{b}{\pi}\lim_{a\rightarrow \infty}\left(\ln(b^2+y^2)\right)_0^\infty+\frac{2bM}{\pi}\left[\frac{1}{\pi}arctg\left(\frac{M}{b}\right)\right]_0^\infty= 0$$

(iii)$ X\sim U[a,b] $

$$f(x)=\left\{\begin{array}{l}\displaystyle \frac{1}{b-a}, \quad x\in [a,b]\\ \\ \\ 0, \quad \text{Caso Contrário.}\end{array}\right.$$

Então,

$$f\left(\frac{a+b}{2}+x\right)=\left\{\begin{array}{l}\displaystyle \frac{1}{b-a}, \quad\quad \frac{a+b}{2}+x\in [a,b]\Leftrightarrow \frac{a-b}{2}\leq x \leq \frac{b-a}{2}\\ \\ \\ 0, \quad \text{Caso Contrário.}\end{array}\right.$$

e

$$f\left(\frac{a+b}{2}-x\right)=\left\{\begin{array}{l}\displaystyle \frac{1}{b-a}, \quad\quad \frac{a+b}{2}-x\in [a,b]\Leftrightarrow \frac{a-b}{2}\leq -x \leq \frac{b-a}{2}\\ \\ \\ 0, \quad \text{Caso Contrário.}\end{array}\right.$$

Assim,

$$\mathbb{E}(X)=\int_{-\infty}^\infty x f_X(x)dx=\int_a^b\frac{x}{b-a}dx=\frac{1}{b-a}\left[\frac{x^2}{2}\right]^b_a=\frac{1}{2}\frac{b^2-a^2}{(b-a)}=\frac{a+b}{2}$$

(iv)$ X \sim b\left(n, \frac{1}{2}\right) $ 

$$\mathbb{P}(x)=\binom{n}{x}\left(\frac{1}{2}\right)^2, x=0,1,2, \dots, n-1,n.$$

Agora, temos que

$$\mathbb{P}\left(x+\frac{n}{2}\right)=\binom{n}{x+\frac{n}{2}}\left(\frac{1}{2}\right)^n$$

$$\mathbb{P}\left(-x+\frac{n}{2}\right)=\binom{n}{-x+\frac{n}{2}}\left(\frac{1}{2}\right)^n$$

que são iguais pois $ x+\frac{n}{2}=n-\left(x-\frac{n}{2}\right) $. X é integrável, pois $ 0\leq X \leq n $, então pelo item (a):

$$\mathbb{E}(X)=\frac{n}{2}$$

(v) X tal que $ F_X $ é função de Cantor
Por construção X é  simétrica em torno de $ \frac{1}{2} $ e como é limitada $ 0\leq \mathbb{E}(X)\leq 1 $ o que implica que $ \mathbb{E}(X)=\frac{1}{2} $

(vi) X tendo distribuição de Laplace (ou exponencial dupla):

$$f(x)=\frac{\lambda}{2}e^{-\lambda |x-\mu|}, \quad x \in \mathbb{R}$$

Temos que

$$f(\mu -x)=\frac{\lambda}{2}e^{-\lambda |\mu-x-\mu|}=\frac{\lambda}{2}e^{-\lambda |x|}, \quad x \in \mathbb{R}$$

e

$$f(\mu+ x)=\frac{\lambda}{2}e^{-\lambda |\mu+x-\mu|}=\frac{\lambda}{2}e^{-\lambda |x|}, \quad x \in \mathbb{R}$$

ou seja, é simétrica em torno de $ \mu $.
Agora

$$\mathbb{E}(X)=\int_{-\infty}^\infty x \frac{\lambda}{2}e^{-\lambda |x-\mu|}dx$$

definindo $ x-\mu=y $, $ x=y+\mu $ e $ dx=dy $ temos

$$\mathbb{E}(X)=\int_{-\infty}^\infty (y+\mu) \frac{\lambda}{2}e^{-\lambda |y|}dy= \int_{-\infty}^0 (y+\mu) \frac{\lambda}{2}e^{-\lambda |y|}dy +\int_{0}^\infty (y+\mu) \frac{\lambda}{2}e^{-\lambda |y|}dy = \mu$$

 

Exemplo 3.3.2:

Seja X uma variável aleatória tendo distribuição logística com densidade

$$f(x)=\frac{e^{-x}}{(1+e^{-x})^2}, \quad x \in \mathbb{R}.$$

(a) Prove que a distribuição de X é simétrica em torno de zero

$$\frac{f(x)}{f(-x)}=\frac{\frac{e^{-x}}{(1+e^{-x})^2}}{\frac{e^{x}}{(1+e^{x})^2}}=\frac{e^{-x}(1+e^{x})^2}{e^{x}(1+e^{-x})^2}= \frac{e^{-x}+e^{x}+2}{e^{x}+e^{-x}+2}=1\Rightarrow f(x)=f(-x).$$

Assim pelo exemplo 3.3.1 é simétrica em torno de zero.

(b) Determine se X tem esperança finita, Se tiver ache o valor.

Sabemos X é integrável se, e somente se, $ \mathbb{E}(|X|)\textless \infty $
Assim

$$\mathbb{E}(|X|)=\int_0^\infty x dF_{|X|}(x)=\int_0^\infty x \left[f(x)+f(x)\right]dx=2\int_0^\infty x\frac{e^{-x}}{(1+e^{-x})^2}dx$$

Definimos, $ t=e^{-x} $, $ x=-\ln(t) $ e $ dx=-\frac{1}{t}dt $ e então

$$2\int_0^\infty x\frac{e^{-x}}{(1+e^{-x})^2}dx=2\int_0^1 \ln(t)\frac{t}{(1+t)^2}\left(\frac{1}{t}\right)dt=-2\int_0^1 \frac{\ln(t)}{(1+t)^2}dt$$

Novamente fazendo uma mudança de variável, $ u=\ln(t) $ o que implica que $ du=\frac{1}{t}dt $ e $ dv=\frac{1}{(1+t)^2}dt $ o que implica que $ v=-(1+t)^{-1} $. Então, temos que

$$-2\int_0^1 \frac{\ln(t)}{(1+t)^2}dt=-2\left\{\left[-\frac{\ln(t)}{1+t}\right]_0^1+ \int_0^1 \frac{1}{t(t+1)}dt\right\}=$$

$$-2\left\{-\frac{\ln(t)}{1+t}+\ln\left(\frac{1+t}{t}\right)\right\}_0^1 = -2\left[\ln(t)^{1/(t+1)}\left(\frac{1+t}{t}\right)\right]=$$

$$ -2 \left[\frac{t}{1+t}\ln(t)+\ln(1+t)\right]_0^1=2\ln(2)$$

então $ X $ é integrável pelo exemplo 3.3.1 temos que $ \mathbb{E}(X)=0 $.

(c)Obtenha a densidade de $ Y=e^{Y} $ e ache $ \mathbb{E}(Y). $
Temos que

$$f_Y(y)=\left\{\begin{array}{l}\displaystyle \frac{1}{y}f_X(\ln(y))=\frac{1}{y}\frac{\frac{1}{y}}{\left(1+\frac{1}{y}\right)^2}= \frac{1}{(1+y)^2}, \quad \quad y\textgreater 0 \\ \\ \\ 0, \text{Caso Contrário }\end{array}\right.$$

Assim,

$$\mathbb{E}(Y)=\int_0^\infty \frac{y}{(1+y)^2}dy$$

fazendo uma mudança de variável $ u=y $ o que implica que $ du=dy $ e $ dv=\frac{dy}{(1+y)^2} $  que implica que $ v=-\frac{1}{1+y} $, temos então que

$$\int_0^\infty \frac{y}{(1+y)^2}dy=\left[-\frac{y}{1+y}\right]_0^\infty + \int_0^\infty \frac{1}{1+y}dy= \infty$$

 

Exemplo 3.3.3:

Calcule $ \mathbb{E}(X) $ se $ X $ possui densidade $ f(x) $, onde:

(a) f é a densidade dada

$$f(x)=\left\{\begin{array}{l}cx^2, -1\leq x \leq 1 \\ \\ \\ 0, \quad \quad \text{ Caso Contrário.} \end{array}\right.$$

Então, a esperança é dada por

$$\mathbb{E}(X)=\int_{-1}^1 x f(x)dx=\int_{-1}^1 cx^3 dx =\left[\frac{cx^4}{4}\right]_{-1}^1=0$$

(b) $ f(x)=\displaystyle \frac{1}{(1+x)^2} $ se $ x \textgreater 0; $$ f(x)=0 $ se $ x\leq 0 $.

Pelo item (c) do exemplo 3.3.2  $ \mathbb{E}(X)=\infty $.

 

Exemplo 3.3.4:

(a) Se $ X\sim \Gamma(\alpha,\beta) $, com $ \alpha \textgreater 0 $ e $ \beta \textgreater 0 $, qual é $ \mathbb{E}(X) $?

$$f(x)=\left\{\begin{array}{l}\frac{\beta^\alpha x^{\alpha -1}e^{-\beta x}}{\Gamma(\alpha)}, \quad x\textgreater 0 \\ \\ \\ 0, \text{Caso Contrário}\end{array}\right.$$

Temos que

$$\mathbb{E}(X)=\int_{0}^\infty x f(x)dx=\int_0^\infty \frac{\beta^\alpha x^{\alpha}e^{-\beta x}}{\Gamma(\alpha)}dx.$$

Definindo, $ y=\beta x $ e $ dy= \beta dx $, então

$$\int_0^\infty \frac{\beta^\alpha x^{\alpha}e^{-\beta x}}{\Gamma(\alpha)}dx= \frac{1}{\beta \Gamma(\alpha)}\int_0^\infty y^{\alpha} e^{-y}dy= \frac{\Gamma(\alpha+1)}{\beta\Gamma(\alpha)}=\frac{\alpha}{\beta}.$$

(b)Dizemos que $ X $ tem distribuição de Weibull 
se possui densidade

$$f(x)=\left\{\begin{array}{l}\displaystyle \lambda \alpha x^{\alpha-1} e^{-\lambda x^\alpha}, \quad \quad x\geq 0\\ \\ \\ 0, \quad \quad x\leq 0.\end{array}\right.$$

Calcule $ \mathbb{E}(X) $ neste caso.
Temos então

$$\mathbb{E}(X)=\int_0^\infty x f(x)dx=\int_0^\infty \lambda \alpha x^{\alpha}e^{-\lambda x^{\alpha}}dx$$

fazendo mudança de variável $ y=\lambda x^\alpha $, $ x=\left(\frac{y}{\lambda}\right)^{1/\alpha} $ com $ dx=\frac{1}{\lambda^{1/\alpha}}\frac{1}{\alpha} y^{\frac{1}{\alpha}-1} $, então temos que

$$\int_0^\infty \lambda \alpha x^{\alpha}e^{-\lambda x^{\alpha}}dx=\int_0^\infty \alpha y e^{-y}\frac{1}{\alpha}\frac{y^{1/\alpha - 1}}{\lambda^{1/\alpha}} dy = \lambda^{-\frac{1}{\alpha}}\int_{0}^\infty y^{1/\alpha}e^{-y}dy= \lambda^{-1/\alpha} \Gamma(1+1/\alpha)$$

 

Exemplo 3.3.5:

Sejam $ X $ e $ Y $ variáveis aleatórias independentes com distribuição comum $ U[0,1] $. Calcule $ \mathbb{E}(Z) $ e $ \mathbb{E}(W) $, com $ Z=\min(X,Y) $ e $ W=\max(X,Y) $

Temos que

$$F_X(x)=\left\{\begin{array}{l}0, \quad \quad x\textless 0\\ \\ \\ x, \quad \quad 0\leq x\textless 1 \\ \\ \\ 1, \quad \quad x \geq 1 \end{array}\right.$$

e

$$F_Y(y)=\left\{\begin{array}{l}0, \quad \quad y\textgreater 0\\ \\ \\ y, \quad \quad 0\leq y\textless 1 \\ \\ \\ 1, \quad \quad y \geq 1 \end{array}\right.$$

Assim, como X e Y são independente temos que

$$\mathbb{P}(Z\textgreater z)=\mathbb{P}(X\textgreater z, Y\textgreater z)=\mathbb{P}(X\textgreater z)\mathbb{P}(Y\textgreater z) = \left\{ \begin{array}{l}1, \quad \quad z\textless 0\\ \\ \\ (1-z)^2, \quad \quad 0\leq z\textless 1 \\ \\ \\ 0, \quad \quad z \geq 1 \end{array}\right.$$

então,

$$\mathbb{E}(Z)=\int_0^1 \mathbb{P}(Z\textgreater z)dz= \int_0^1 (1-z)^2dz=-\frac{(1-z)^3}{3}\Biggl|_0^1 =\frac{1}{3}$$

Agora

$$\mathbb{P}(W\leq w)=\mathbb{P}(X\leq w, Y\leq w)=\mathbb{P}(X\leq w)\mathbb{P}(Y\leq w) = \left\{ \begin{array}{l}0, \quad \quad w\leq 0\\ \\ \\ (w)^2, \quad \quad 0\leq w\textless 1 \\ \\ \\ 1, \quad \quad z \geq 1 \end{array}\right.$$

Então,

$$\mathbb{E}(W)=\int_0^\infty \mathbb{P}(W\textgreater z)dz= \int_0^1 (1-w)^2dz=w\Biggl|_0^1- \frac{w^3}{3}\Biggl|_0^1 =\frac{2}{3}$$

Exemplo 3.3.6:

Um jogador vai lançando uma moeda honesta. Ele para depois de lançar ou duas caras sucessivas ou duas coras sucessivas. Qual a esperança do número de lançamentos ?

Seja $ X $ o número de lançamentos, primeiramente vamos considerar $ X=n $, com $ n $ par, ou seja, $ n=2k $ para $ k\in \mathbb{N} $. Então,

$$\mathbb{P}(X\textgreater 2k)=2p^k(1-p)^k=2\left(\frac{1}{2}\right)^k\left(\frac{1}{2}\right)^k=2\left(\frac{1}{2}\right)^{2k}=2\left(\frac{1}{2}\right)^n$$

Agora considere $ n=2k+1 $, então

$$\mathbb{P}(X\textgreater 2k+1)=p^k(1-p)^{k+1}+p^{k+1}(1-p)^{k}=2\left(\frac{1}{2}\right)^{2k+1} =2\left(\frac{1}{2}\right)^n$$

e

$$\mathbb{P}(X\textgreater 0)=\mathbb{P}(X\geq 1)=1$$

Então,

$$\mathbb{E}(X)=\displaystyle \sum_{n=0}^\infty \mathbb{P}(X\textgreater 0)=2+\sum_{n=2}^\infty 2\left(\frac{1}{2}\right)^n=2+\frac{1}{1-\frac{1}{2}}=3$$

 

Exemplo 3.3.7:

Uma urna contém n bolas numeradas $ 1,2, \dots,n $. Uma pessoa tira uma bola e a devolve, tira outra e a devolve, continuando até tirar uma bola pela segunda vez. Seja X o número total de retiradas necessárias para obter essa repetição

(a) Ache a distribuição de X

Temos que $ [X\textgreater k]= $ as k primeiras bolas retiradas são diferentes, $ k=2,\dots, (n-1) $. Então,

$$\mathbb{P}(X\textgreater k)=\frac{C_n^k}{n^k}=\frac{n}{n}\frac{n-1}{n}\frac{n-2}{n}\dots \frac{n-k}{n} = \left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right)\dots \left(1-\frac{k}{n}\right)$$

e

$$\mathbb{P}(X\textgreater 0)=\mathbb{P}(X\geq 1)=1$$

e

$$\mathbb{P}(X\geq k)=0, k\geq n$$

(b) Mostre que

$$\mathbb{E}(X)=2+\left(1-\frac{1}{n}\right)+\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right)+\dots +\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right)\dots \left(1-\frac{n-1}{n}\right)$$

Temos que  $ X $ é uma variável não negativa, e pelo item (a) temos que

$$\mathbb{E}(X)=\sum_{n=0}^\infty \mathbb{P}(X\textgreater n)=2+\left(1-\frac{1}{n}\right)+\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right)+\dots +\left(1-\frac{1}{n}\right)\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right)\dots \left(1-\frac{n-1}{n}\right)$$

 

 

Exemplo 3.3.8:

Sejam X e Y variáveis aleatórias. Se $ F_X(x)\leq F_Y(x) $ para todo $ x\in \mathbb{R} $, dizemos que X é estocasticamente maior que Y. Prove que se X é estocasticamente maior que Y, então $ \mathbb{E}(X)\geq \mathbb{E}(Y) $ (se $ \mathbb{E}(X) $ e $ \mathbb{E}(Y) $ existem )

Temos que

$$\mathbb{E}(X)=\int_0^\infty (1-F_X(x))dx-\int_{-\infty}^0 F_X(x)dx$$

e

$$\mathbb{E}(Y)=\int_0^\infty (1-F_Y(y))dy-\int_{-\infty}^0 F_Y(y)dy$$

Agora, como

$$F_X(x)\leq F_Y(x), \forall x\in \mathbb{R}$$

o que implica que

$$\int_{-\infty}^0 F_{X}(x)dx\leq \int_{-\infty}^0 F_Y(y)dy $$

e

$$(1-F_X(x))\geq (1-F_Y(x)), \forall x\in \mathbb{R}$$

o que implica que

$$\int_{0}^\infty(1- F_{X}(x))dx\leq \int_{0}^\infty (1-F_Y(y))dy $$

Então temos que

$$\mathbb{E}(X)\geq \mathbb{E}(Y).$$

 

Exemplo 3.3.9:

Dois componentes eletrônicos vão ser testados simultaneamente. Suponha que a "vida" em horas de cada componente é exponencialmente distribuída com parâmetro $ \lambda $, e que as vidas dos componentes são independentes. Calcule:

(a) A esperança do tempo até a primeira falha de um dos componentes.
Temos que $ T_1\sim \exp(\lambda) $ independente $ T_2\sim \exp(\lambda) $ então

$$[T\textgreater t ]=[T_1\textgreater t]\cap [T_2\textgreater t] $$

Então,

$$\mathbb{P}(T\textgreater t)=\mathbb{P}(T_1\textgreater t) \mathbb{P}(T_2\textgreater t)= e^{-\lambda t}e^{-\lambda t}=e^{-2\lambda t}$$

Assim, como

$$\mathbb{E}(T)=\int_0^\infty \mathbb{P}(T\textgreater t)dt=\int_0^\infty e^{-2\lambda t}=-\frac{e^{-2\lambda}}{2\lambda}\Bigg|_0^\infty = \frac{1}{2\lambda}$$

(b) A esperança do tempo até ambos os componentes falharem.
Para isso, temos que

$$[T\leq t ]=[T_1\leq t]\cap [T_2\leq t] $$

o que implica que

$$\mathbb{P}(T\leq t)=\mathbb{P}(T_1\leq t) \mathbb{P}(T_2\leq t)= \left(1-e^{-\lambda t}\right)^2$$

Como T é uma variável não-negativa então

$$\mathbb{E}(T)=\int_0^\infty \mathbb{P}(T\textgreater t)dt=\int_0^\infty \left(e^{-2\lambda t}+2e^{-\lambda t}\right)dt=\frac{3}{2\lambda}$$

 

 

Exemplo 3.3.10:

Dois jogadores lançam moedas simultaneamente até obterem o primeiro casamento (ie. ou duas caras ou duas coroas ). Se os dois lançam "cara" simultaneamente, ganha o jogador I, se ambos lançam "coroa", ganha o jogador II. Por exemplo, se os dois obtêm "cara" no primeiro lançamento, então o jogo termina e o jogador I ganha o jogo. Suponha que a moeda do jogador I seja honesta, mas que a moeda do outro não necessariamente ou seja, tendo probabilidade $ p $ de "cara", $ 0\textless p\textless 1 $.

(a) Calcule a esperança do número de lançamentos (i.e., o número de vezes que o jogador I lança a moeda até terminar o jogo).
Defina

$$X_i=\{\text{Resultado do i-ésimo lançamento da moeda do jogador I }\}=\left\{\begin{array}{l} 0, \text{ se é Cara}\\ \\ \\ 1, \text{ se é Coroa}\end{array}\right.$$

e

$$Y_i=\{\text{Resultado do i-ésimo lançamento da moeda do jogador II }\}=\left\{\begin{array}{l} 0, \text{ se é Cara}\\ \\ \\ 1, \text{ se é Coroa}\end{array}\right.$$

então

$$\mathbb{P}(X_i=0)=\frac{1}{2}=\mathbb{P}(X_i=1)$$

e

$$\mathbb{P}(Y_i=0)=p,\quad \quad \quad \mathbb{P}(Y_i=1)=1-p$$

Vamos definir os seguintes conjuntos

$$G_i^{I}=\{\text{Ganha o jogador I no Lançamento i}\}$$

$$G_i^{II}=\{\text{Ganha o jogador II no Lançamento i}\}$$

e ainda

$$C_i=\{\text{nem o jogador I e o jogador II no lançamento i e então o jogo continua.}\}$$

Assim temos que

$$\mathbb{P}\left(G_i^{I}\bigg| C_{i-1}\right)=\mathbb{P}(X_i+Y_i=0)=\mathbb{P}(X_i=0)\mathbb{P}(Y_i=0)=\frac{1}{2}p$$

$$\mathbb{P}\left(G_i^{II}\bigg| C_{i-1}\right)=\mathbb{P}(X_i+Y_i=2)=\mathbb{P}(X_i=1)\mathbb{P}(Y_i=1)=\frac{1}{2}(1-p)$$

$$\mathbb{P}\left(C_i\bigg| C_{i-1}\right)=\mathbb{P}(X_i+Y_i=1)=$$

$$\mathbb{P}(X_i=0)\mathbb{P}(Y_i=1)+ \mathbb{P}(X_i=1)\mathbb{P}(Y_i=0)=$$

$$ \frac{1}{2}p+\frac{1}{2}(1-p)=\frac{1}{2}$$

Seja $ Z $ a variável aleatória que conta o número de lançamentos até o jogo acabar. Então, temos que

$$\mathbb{P}(Z\textgreater n)=\mathbb{P}(C_1)\mathbb{P}\left(C_2\bigg|C_1\right)\mathbb{P}\left(C_3\bigg|C_1\cap C_2\right) \dots \mathbb{P}\left(C_n\bigg|C_1\cap C_2\cap \dots \cap C_{n-1}\right)$$

$$= \mathbb{P}\left(C_1\right)\mathbb{P}\left(C_2\bigg|C_1\right)\dots \mathbb{P}\left(C_n\bigg|C_{n-1}\right)=$$

$$\left(\frac{1}{2}\right)^n, \quad n=0,1,2, \dots$$

Como Z é uma variável não negativa, temos que

$$\mathbb{E}(Z)=\sum_{n=0}^\infty \mathbb{P}(Z\textgreater n)=\sum_{n=0}^\infty\left(\frac{1}{2}\right)^n =\frac{1}{1-\frac{1}{2}}=2$$

(b) Ache a probabilidade do jogador I ganhar o jogo (mais cedo ou mais tarde)

Defina

$$W=\{\text{Jogador ganha o Jogo}\}$$

e

$$W_i=\{\text{Jogador ganha o Jogo no lançamento i}\}.$$

Então  $ W=\displaystyle \bigcup_{i=1}^\infty W_i $ pela $ \sigma $-aditividade temos que

$$\mathbb{P}(W)=\sum_{n=1}^\infty \mathbb{P}(W_n)$$

Agora

$$\mathbb{P}(W_n)=\mathbb{P}(C_1)\mathbb{P}\left(C_2\bigg|C_1\right)\dots \mathbb{P}\left(C_{n-1}\bigg|C_{n-2}\right) \mathbb{P}\left(G^{I}_{n}\bigg|C_{n-1}\right)=\left(\frac{1}{2}\right)^{n-1}\frac{1}{2}p$$

Então,

$$\mathbb{P}(W)=\sum_{n=1}^\infty \left(\frac{1}{2}\right)^n p=\frac{\frac{1}{2}}{1-\frac{1}{2}}p=p$$

 

Exemplo 3.3.11:

Jogadores I e II tem $ R\$ 200,00. $ Lança-se uma moeda com probabilidade $ p $ de dar cara (0\textless p \textless 1). Se der cara, o jogador I recebe $ R\$ 100,00 $ do II, se der coroa, I paga $ R\$100,00 $ ao II. Continua-se lançando a moeda, independentemente, até um dos jogadores perder tudo, i.e., até um deles ficar com os $ R\$400,00 $. Determine $ \mathbb{E}(N) $, no qual N é o número de lançamentos até terminar o jogo.

Defina $ X_i=\text{número de caras até a jogada i} $, $ Y_i=\text{ número de coroas até a jogada i} $
o jogo só acaba na i-ésima jogada se $ |X_i-Y_i|=2 $. Assim, considere primeiramente $ n $ um número par e $ n=2k $ então

$$[N\textgreater n]=[X_i=k]\cap [Y_i=k]$$

Então,

$$\mathbb{P}(N\textgreater n)=p^k(1-p)^k=[p(1-p)]^k$$

Agora, se n é impar então

$$[N\textgreater n]=\left([X_i=k]\cap[Y_i=k+1]\right)\bigcup \left([X_i=k+1]\cap[Y_i=k]\right)$$

o que implica que

$$\mathbb{P}(N\textgreater n)=p^k(1-p)^{k+1}+p^{k+1}(1-p)^{k}=p^k(1-p)^k[p(1-p)]=p^k(1-p)^k$$

com

$$\mathbb{P}(N\textgreater 0)=\mathbb{P}(N\textgreater 1)=0$$

Assim,

$$\mathbb{E}(N)=\sum_{n=0}^\infty \mathbb{P}(N\textgreater n)=2+\sum_{k=1}^\infty \mathbb{P}(N\textgreater 2k)+\sum_{k=1}^\infty \mathbb{P}(N\textgreater 2k+1)=2\frac{2p(1-p)}{1-p(1-p)}=\frac{4p(1-p)}{1-p(1-p)}$$

 

 

Exemplo 3.3.12:

 Prove que o critério de integrabilidade ainda vale se "$ \geq $" é substituído por "$ \textgreater  $", isto é, X é integrável se, e somente se,

$$\sum_{n=1}^\infty \mathbb{P}(|X|\textgreater n)\textless \infty.$$

Temos que $ X $ é integrável se, e somente, se $ |X| $ é integrável
Agora $ \mathbb{E}(|X|)\leq \mathbb{E}(|X|)+1 $. Porém,

$$\mathbb{E}(|X|)=\sum_{n=0}^\infty \mathbb{P}(|X|\textgreater n)=\mathbb{P}(|X|\textgreater 0)+ \sum_{n=1}^\infty \mathbb{P}(|X|\textgreater n)$$

então,

$$\sum_{n=0}^\infty \mathbb{P}(|X|\textgreater n)\leq \mathbb{E}(|X|)\leq 1+\sum_{n=1}^\infty \mathbb{P}(|X|\textgreater n)$$

Assim,

$$\sum_{n=1}^\infty \mathbb{P}(|X|\textgreater n)\leq \mathbb{E}(|X|)\leq 2+\sum_{n=1}^\infty \mathbb{P}(|X|\textgreater n).$$

Então,

$$\mathbb{E}(|X|)\textgreater \infty$$

se, e somente se,

$$\sum_{n=1}^\infty \mathbb{P}(|X|\textgreater n)\textless \infty$$

 

Exemplo 3.3.13:

Verifique que a desigualdade de Jensen ainda vale se a função $ \varphi $ é convexa em um intervalo (a,b) tal que

$$\mathbb{P}(a\textless X \textless b)=1,$$

no qual admitimos a possibilidade de $ a=-\infty $ ou $ b=\infty $.

 

 

Exemplo 3.3.14:

Sejam X e Y variáveis aleatórias com densidade conjunta $ f(x,y) $. Verifique se $ \mathbb{E}(aX+bY)=a\mathbb{E}(X)+b\mathbb{E}(Y) $ para esse caso.(Suponha $ \mathbb{E}(X) $ e $ \mathbb{E}(Y) $ finito)

Sabemos que se a X e Y tem densidade conjunta $ f(x,y) $ então:

$$\mathbb{E}(aX+bY)=\int_{-\infty}^\infty \int_{-\infty}^\infty(ax+by)f_{X,Y}(x,y)dxdy=\int_{-\infty}^\infty \int_{-\infty}^\infty a x f_{X,Y}(x,y)dxdy +\int_{-\infty}^\infty \int_{-\infty}^\infty by f_{X,Y}(x,y)dxdy$$

e

$$a\mathbb{E}(X)+b\mathbb{E}(Y)=a\int_{-\infty}^\infty x f_X(x)dx+b\int_{-\infty}^\infty yf_Y(y)dy$$

Mas,

$$\int_{-\infty}^\infty \int_{-\infty}^\infty a x f_{X,Y}(x,y)dxdy +\int_{-\infty}^\infty \int_{-\infty}^\infty by f_{X,Y}(x,y)dxdy=a\int_{-\infty}^\infty x f_X(x)dx+b\int_{-\infty}^\infty yf_Y(y)dy=a\mathbb{E}(X)+b\mathbb{E}(Y)$$

Portanto,
$ \mathbb{E}(aX+bY)=a\mathbb{E}(X)+b\mathbb{E}(Y) $.

 

Exemplo 3.3.15: 

Suponha que $ X\sim U[0,1] $. Determine os valores de $ t(t\in \mathbb{R}) $ tais que $ \mathbb{E}(X^t) $ é finita. Qual o valor da esperança nesse caso?

$$\mathbb{E}(X^t)=\int_{-\infty}^\infty x^t f_X(x)dx$$

Agora se $ X\sim U[0,1] $, então $ f_X(x)=\mathds{1}_{[0,1]} $. Logo,

$$\mathbb{E}(X^t)=\int_0^1 x^tdx=\frac{x^{t+1}}{t+1}\Biggl|_0^1=\frac{1}{t+1}$$

Portanto, $ \mathbb{E}(X^t)\leq \infty $ o que implica que $ t\neq -1 $, assim $ t\in \mathbb{R}-\{-1\} $ o que implica que $ \mathbb{E}(X^t)=\frac{1}{1+t}\textless \infty. $

 

Exemplo 3.3.16: 

Calcule $ \mathbb{E}(e^X) $, no qual X tem densidade Logística 

$$\frac{e^{-x}}{(1+e^{-x})^2}$$

$ x\in \mathbb{R} $, utilizando o Teorema 3.3.1. Compare com o resultado obtido no exemplo 3.3.2(c).

Pelo Teorema 3.3.1 temos: 

$$\mathbb{E}(e^x)= \int_{-\infty}^\infty e^x \frac{e^{-x}}{(1+e^{-x})^2}dx=\int_{-\infty}^\infty \frac{1}{(1+e^{-x})^2}dx=\int_{-\infty}^0 \frac{1}{(1+e^{-x})^2}dx+\int_{0}^\infty \frac{1}{(1+e^{-x})^2}dx $$

Agora, fazendo uma mudança de variável $ y=e^{-x} $ e $ dy=\frac{e^{-x}}{y}dx $

$$\int_{-\infty}^0 \frac{1}{(1+e^{-x})^2}dx=\int_0^1\frac{1}{y\left(1+\frac{1}{y}\right)^2}dy=\int_0^1 \frac{y}{(1+y)^2}dy$$

novamente fazendo uma mudança de variável $ z=1+y $ e $ dz=dy $

$$\int_0^1 \frac{y}{(1+y)^2}dy=\int_1^2 \frac{z-1}{z^2}dz= \ln z\Biggl|_1^2 +\frac{1}{z}\Biggl|_1^2=\ln 2-\frac{1}{2}.$$

Temos que

$$\int_{0}^\infty \frac{1}{(1+e^{-x})^2}dx=\infty$$

pois

$$\frac{1}{(1+e^{-x})^2}\geq 0, \quad \quad x\in \mathbb{R}_{+}$$

e

$$\lim_{x\rightarrow \infty}\frac{1}{(1+e^{-x})^2}=1$$

Então,

$$\mathbb{E}(e^{x})=\ln2- \frac{1}{2}+\infty=\infty$$

 

Exemplo 3.3.17:

Calcule a esperança de

$$f_Y(y)=\left\{\begin{array}{l}cy^2 ,-1\leq y\textless 1 \\ \\ 0, \text{Caso Contrário}\end{array}\right\}$$

e

$$f_X(x)=\left\{\begin{array}{l}2x^2 ,-1\leq x\textless 1 \\ \\ 0, \text{Caso Contrário}\end{array}\right\}$$

Para o primeiro caso, temos que

$$\mathbb{E}(Y)=\int_{-\infty}^\infty f_Y(y)dy=\int_{-1}^1 cy^3dy=\frac{cy^4}{4}\Biggl|_{-1}^{1}=0$$

Para o segundo caso temos que

$$\mathbb{E}(X)=\int_{-\infty}^\infty f_X(x)dx=\int_{0}^1 3y^3dx=\frac{3y^4}{4}\Biggl|_{0}^{1}=\frac{3}{4}$$

 

Exemplo 3.3.18:

Seja X o tempo de espera até o primeiro sucesso em uma sequência de ensaios de Bernoulli tendo probabilidade $ p $ de sucesso em cada ensaio. Calcule $ \mathbb{E}(X^2) $

$$\mathbb{P}(X=k)=p(1-p)^{k-1},\quad \quad k=1,2, \dots $$

para $ 0\textless p\textless 1 $, então

$$\mathbb{E}(X^2)=\sum_{k=1}^\infty \left(k^2 p (1-p)^{k-1}\right)=p\sum_{k=1}^\infty \left(k^2 (1-p)^{k-1}\right)$$

para simplificar a notação vamos definir =(1-p) $, então vamos mostrar que

$$\sum_{k=1}^\infty \left(k^2 q^{k-1}\right)=\frac{1+q}{(1-q)^3}$$

Para isso, observe que

$$\sum_{k=1}^\infty \left(k^2 q^{k-1}\right)=1+4q+9q^2+16q^3+\dots =\sum_{k=1}^\infty q^{k-1}+3q+8q^2+15q^3+\dots$$

$$=\left(\sum_{k=1}^\infty q^{k-1}\right)+3q(1+q+q^2+q^3+\dots)+5q^2+12q^3+21q^4+\dots =\left(\sum_{k=1}^\infty q^{k-1}\right)(1+3q)+5q^2(\sum_{k=1}^\infty q^{k-1})+7q^3+16q^4+\dots$$

$$=\left(\sum_{k=1}^\infty q^{k-1}\right)(1+3q+5q^2+7q^3+9q^4+\dots)=\left(\sum_{k=1}^\infty q^{k-1}\right)\left(\sum_{k=1}^\infty (2k-1)q^{k-1}\right)$$

Então temos que

$$\left(\sum_{k=1}^\infty k^2 q^{k-1}\right)=\left(\sum_{k=1}^\infty q^{k-1}\right)\left[2\left(\sum_{k=1}^\infty q^{k-1}\right)-\left(\sum_{k=1}^\infty k q^{k-1}\right)\right]$$

Mas, é conhecido que

$$\left(\sum_{k=1}^\infty q^{k-1}\right)=\frac{1}{1-q}$$

e

$$\left(\sum_{k=1}^\infty kq^{k-1}\right)=\frac{1}{(1-q)^2}$$

Então, temos que

$$\left(\sum_{k=1}^\infty k^2 q^{k-1}\right)=\left(\frac{1}{1-q}\right)\left[\frac{2}{(1-q)^2}-\frac{1}{1-q}\right]=\frac{1}{1-q}\left( \frac{2-1+q}{(1-q)^2}\right)=\frac{1+q}{(1-q)^3}$$

Desta forma temos que

$$\mathbb{E}(X^2)=p\frac{1+q}{(1-q)^3}=\frac{2-p}{p^2}$$

 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]