- (16) 3376-2047
- [email protected]
- Portfólio de Serviços
- AT
Nesta seção, veremos algumas importantes propriedades do valor esperado de uma variável aleatória. Em cada caso, admitimos que todos os valores esperados mencionados, existem.
P1. Se $X=c$ com $c$ uma constante real, então $\mathbb{E}(X)=c$.
De fato, se $X$ é uma variável aleatória discreta, temos que
\[\mathbb{E}(X) =\sum_{\mathcal{R}_X}x\mathbb{P}(X=x) = c\mathbb{P}(X=c) = c\cdot 1=c\]
P2. Seja $c$ uma constante real e $X$ uma variável aleatória. Então,
\[\mathbb{E}(cX) = c\mathbb{E}(X)\]
De fato, no caso discreto temos que
\[\mathbb{E}(cX)=\sum_{x\in\mathcal{R}_X}cx\mathbb{P}(X = x)=c\sum_{x\in\mathcal{R}_X}x\mathbb{P}(X = x)= c\mathbb{E}(X).\]
De modo análogo, temos no caso contínuo, que
\[\mathbb{E}(cX)=\int_{-\infty}^{\infty}cxf(x)dx=c\int_{-\infty}^{\infty}xf(x)dx=c\mathbb{E}(X)\].
P3. Sejam $X$ e $Y$ duas variáveis aleatórias quaisquer. Então,
\[\mathbb{E}(X + Y) = \mathbb{E}(X) + \mathbb{E}(Y).\]
De fato, no caso discreto, considere $p(x,y)$ a função de probabilidade conjunta e $p_X(x)$ e $p_Y(y)$ as funções de probabilidade marginais de $X$ e $Y$ respectivamente. Então, temos que
\[\mathbb{E}(X+Y)=\sum_{y\in\mathcal{R}_Y}\sum_{x\in\mathcal{R}_X}(x+y)p(x,y)=\sum_{x\in\mathcal{R}_X}\sum_{y\in\mathcal{R}_Y}xp(x,y)+\sum_{y\in\mathcal{R}_Y}\sum_{x\in\mathcal{R}_X}yf(x,y)\]
de onde segue que
\[\mathbb{E}(X+Y)\sum_{x\in\mathcal{R}_X}xp_X(x) +\sum_{y\in\mathcal{R}_Y}yp_Y(y).\]
Portanto, concluímos que
\[\mathbb{E}(X+Y)=\mathbb{E}(X)+\mathbb{E}(Y).\]
Se $X$ e $Y$ são variáveis aleatórias contínuas, considere $f(x,y)$ a função densidade de probabilidade conjunta e $f_X(x)$ e $f_Y(y)$ as funções densidade de probabilidade marginais de $X$ e $Y$ respectivamente. Então
\[\mathbb{E}(X+Y)=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}(x+y)f(x,y)dxdy=\int_{-\infty}^{\infty}x\left(\int_{-\infty}^{\infty}f(x,y)dy\right)dx+\int_{-\infty}^{\infty}y\left(\int_{-\infty}^{\infty}f(x,y)dx\right)dy.\]
ou seja,
\[\mathbb{E}(X+Y)=\int_{-\infty}^{\infty}xf_X(x,y)dx+\int_{-\infty}^{\infty}yf_Y(x,y)dy=\mathbb{E}(X)+\mathbb{E}(Y)\]
demonstrando o resultado.
P4. Sejam $n$ variáveis aleatórias $X_1,\ldots,X_n$. Então,
\[\mathbb{E}(X_1+X_2+\ldots+X_n)=\mathbb{E}(X_1)+\mathbb{E}(X_2)+\ldots+\mathbb{E}(X_n).\]
A demonstração deste caso é análoga a anterior. Basta fazer uma indução sobre $n$.
P5. Sejam $X$ e $Y$ variáveis aleatórias independentes. Então,
\[\mathbb{E}(XY) = \mathbb{E}(X)\mathbb{E}(Y).\]
De fato, suponha que $X$ e $Y$ são variáveis aleatórias independentes com função de probabilidade conjunta $p(x,y)$ para o caso discreto ou função densidade de probabilidade conjunta $f(x,y)$ para o caso contínuo. Como, por hipótese, $X$ e $Y$ são independentes, temos do Teorema 3.1.2 que
\[p(x,y) = p_X(x) \cdot p_Y(y)\]
no caso discreto e do Teorema 3.2.1 que
\[f(x,y) = f_X(x)\cdot f_Y(y)\]
no caso contínuo. Desta forma, se $X$ e $Y$ são variáveis aleatórias discretas independentes, temos que
\[\mathbb{E}(XY)=\sum_{x\in\mathcal{R}_X}\sum_{y\in\mathcal{R}_Y}xyp(x,y)= \sum_{x\in\mathcal{R}_X}\sum_{y\in\mathcal{R}_Y}xyp_X(x)p_Y(y)= \sum_{x\in\mathcal{R}_X}xp_X(x)\sum_{y\in\mathcal{R}_Y}yp_Y(y)\]
de onde segue que
\[\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y).\]
Analogamente, para o caso contínuo, temos que
\[\mathbb{E}(XY)=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}xyf(x,y)dxdy=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}xyf_X(x)f_Y(y)dxdy\]
ou seja,
\[\mathbb{E}(XY)=\int_{-\infty}^{\infty}xf_X(x)\left(\int_{-\infty}^{\infty}yf_Y(y)dy\right)dx=\mathbb{E}(X)\mathbb{E}(Y).\]
demonstrando assim o resultado.
P6. (Desigualdade de Jensen) Seja $f:\mathbb{R}\rightarrow\mathbb{R}$ uma função convexa e $X$ uma variável aleatória integrável, ou seja, $E(X)\leq \infty$. Então temos que
\[\mathbb{E}(f(X))\geq f(\mathbb{E}(X)).\]
Ressaltamos que uma função é dita convexa se seu gráfico for convexo, ou seja, dado quaisquer pontos $a,b\in \mathbb{R}$ a reta que passa pelos pares ordenados $(a,f(a))$ e $(b,f(b))$ não intercepta o gráfico de $f$ em nenhum ponto no intervalo $(a,b)$.
Uma definição equivalente seria que para quaisquer $x, y \in [a,b]$ e para todo $t\in [0,1]$ temos que:
\[f(tx+(1-t)y)\leq tf(x)+(1-t)f(y)\]
De fato se $f$ é uma função convexa então dado um par ordenado $(y,f(y))$ no gráfico de $f$, temos que existe uma reta $r$ tal que a reta passa pelo ponto $(y,f(y))$ e deixa a curva $f$ toda acima dela, ou seja, existe um $\lambda\in\mathbb{R}$ tal que $r(x)=\lambda(x-y)+f(y)$.
Então temos que
\[f(x)\geq r(x)=\lambda(x-y)+f(y),~~~\forall x \in\mathbb{R}.\]
Portanto, se aplicarmos o valor esperado em ambos os lados obtemos:
\[\mathbb{E}(f(X))\geq \mathbb{E}(r(X))=f(y)+\lambda(\mathbb{E}(X)-y).\]
E, tomando $y=\mathbb{E}(X)$, o resultado segue.
Seja X uma variável aleatória, $\varphi(x)$ uma função real mensurável. Então
$$\mathbb{E}(\varphi(X))=\int y dF_{\varphi(X)}(y)=\int \varphi(x)dF_X(x),$$
no qual a existência de uma das integrais implica a existência da outra e a igualdade das duas.
Dizemos que a distribuição de X é simétrica (em torno de zero) se $\mathbb{P}(X\geq x)=\mathbb{P}(X\leq -x)$ para todo $x\in \mathbb{R}$, e que sua distribuição é simétrica em torno de $\mu$ se
$$\mathbb{P}(X\geq \mu +x)=\mathbb{P}(X\leq \mu -x) \forall x \in \mathbb{R}$$
(a) Prove: Se a distribuição de X é simétrica em torno de $\mu$ e se X é simétrica em torno de $\mu$ e se X é integrável, então $\mathbb{E}(X)=\mu$
Primeiramente vamos provar para $\mu=0$. Se $\mu=0$ isso implica que X é integrável e tem distribuição simétrica em zero o que implica que
$$\mathbb{P}(X\geq 0)=\mathbb{P}(X\leq -x)$$
o que implica que
$$(1-F_X(x))=F_X(-x)$$
Logo temos que
$$\mathbb{E}(X)=\int_0^\infty (1-F_X(x))dx-\int_{-\infty}^0 F_X(x)dx$$
Fazendo uma mudança de variável temos que
$$\mathbb{E}(X)=\int_0^\infty (1-F_X(x))dx-\int_{0}^\infty F_X(-x)dx=0$$
Agora, para $\mu\neq 0$, temos que $X$ é integrável e tem distribuição simétrica em $\mu$, ou seja,
$$\mathbb{P}(X\geq \mu+x)=\mathbb{P}(X\leq \mu - x), \quad \quad \forall x\in \mathbb{R}$$
Assim, definimos $Y=X-\mu$ então $Y\leq X$, e como X é integrável implica que Y é integrável, pois
$Y=X-\mu$ o que implica
$$|X|-\mu \leq |X-\mu|=|Y|=|X-\mu|\leq |X|+\mu$$
Agora $Y$ é simétrica em zero, pois
$$\mathbb{P}(Y\geq y)=\mathbb{P}(X-\mu \geq y)=\mathbb{P}(X\geq \mu +y)=\mathbb{P}(X\leq \mu-y)=\mathbb{P}(X-\mu\leq -y)=\mathbb{P}(Y\leq -y)$$
Então, pelo caso em que $\mu=0$ temos que $\mathbb{E}(Y)=0$.
(b) Suponha que X possua densidade $f(x)$. Mostre que se $f(\mu+x)=f(\mu-x)$ $\forall x$, então a distribuição de X é simétrica em torno de $\mu$. Enuncie e prove a propriedade análoga para o caso discreto.
$$\mathbb{P}(X\geq \mu +x)=\int_{\mu+x}^\infty f_X(x)dx$$
Fazendo uma mudança de variável $y=2\mu-x$ e $dy=-dx$, temos que
$$\int_{\mu+x}^\infty f_X(x)dx=-\int_{\mu-x}^{-\infty} f_X(2\mu+y)dy=\int_{-\infty}^{\mu-x}f_X(2\mu+y)dy=\int_{-\infty}^{\mu-x}f_X(y)dy=\mathbb{P}(X\leq \mu +x)$$
Caso Discreto: Suponha que X possui função de probabilidade $p$. Mostre que se
$$\mathbb{P}(\mu+x)=\mathbb{P}(\mu-x), \quad \quad \forall x$$
então a distribuição de X é simétrica em torno de $\mu$.
$$\mathbb{P}(X\geq \mu +x)=\sum_{\mu+x}^\infty \mathbb{P}(x)$$
tomando $y=\mu-x$ temos que
$$\sum_{\mu+x}^\infty \mathbb{P}(x)=\sum_{-x}^{-\infty} \mathbb{P}(\mu-y)=\sum_{-\infty}^{-x}\mathbb{P}(\mu+y)=\sum_{-\infty}^{\mu-x}\mathbb{P}(X)=\mathbb{P}(X\leq \mu-x)$$
e o resultado segue.
(c)Qual o ponto de simetria das distribuições das seguintes variáveis aleatórias? Dê a esperança de cada variável aleatória, se existir.
(i) $X\sim N(\mu,\sigma^2)$.
Temos que
$$f(x)=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}(x-\mu)^2}, \quad \quad x\in \mathbb{R}$$
temos que :
$$f(\mu-x)=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}(\mu-x-\mu)^2}=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}x^2}, \quad \quad x\in \mathbb{R}$$
e
$$f(\mu+x)=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}(\mu+x-\mu)^2}=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}x^2}, \quad \quad x\in \mathbb{R}$$
pelo item (b) X é simétrica em torno de $\mu$.
$$\mathbb{E}(X)=\int_{-\infty}^\infty x \frac{1}{\sigma \sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}(x-\mu)^2}$$
tomando $y=\frac{x-\mu}{\sigma}$ e $x=\sigma y +\mu$ e $dx=\sigma dy$ então
$$\mathbb{E}(X)=\int_{-\infty}^\infty (\sigma y+\mu)\frac{1}{\sigma \sqrt{2\pi}}e^{-\frac{1}{2}y^2}\sigma dy= \frac{\sigma}{\sqrt{2 \pi}}\int_{-\infty}^\infty y e^{-\frac{1}{2}y^2}dy+\mu \int_{-\infty}^\infty \frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}y^2}dy= \frac{\sigma}{\sqrt{2\pi}}\left[-e^{-\frac{1}{2}y^2}\right]_{-\infty}^{\infty}+\mu=\mu$$
(ii)$X\sim Cauchy(M,b)$ i.e., $f(x)=\frac{b}{\pi[b^2+(x-M)^2]}, \quad \quad x \in \mathbb{R}$
$$f(M-x)=\frac{b}{\pi[b^2+(M-x-M)^2]}=\frac{b}{\pi(b^2+x^2)}$$
e
$$f(M+x)=\frac{b}{\pi[b^2+(M+x-M)^2]}=\frac{b}{\pi(b^2+x^2)}$$
então pelo item (b) X é simétrica em M.
$$\mathbb{E}(X)=\int_{-\infty}^\infty x\frac{b}{\pi[b^2+(x-M)^2]}dx$$
tomando $y=x-M$, $x=y+M$ e $dx=dy$ temos então que
$$\mathbb{E}(X)=\frac{2}{\pi}\int_{-\infty}^\infty (y+M)\frac{b}{b^2+y^2}dy=\frac{b}{\pi}\int_0^{\infty}\frac{2y}{b^2+y^2}dy+\frac{2bM}{\pi}\int_{0}^\infty \frac{1}{b^2+y^2}dy$$
então, temos que
$$\frac{b}{\pi}\int_0^{\infty}\frac{2y}{b^2+y^2}dy+\frac{2bM}{\pi}\int_{0}^\infty \frac{1}{b^2+y^2}dy=\frac{b}{\pi}\lim_{a\rightarrow \infty}\left(\ln(b^2+y^2)\right)_0^\infty+\frac{2bM}{\pi}\left[\frac{1}{\pi}arctg\left(\frac{M}{b}\right)\right]_0^\infty= 0$$
(iii)$X\sim U[a,b]$
$$f(x)=\left\{\begin{array}{l}\displaystyle \frac{1}{b-a}, \quad x\in [a,b]\\ \\ \\ 0, \quad \text{Caso Contrário.}\end{array}\right.$$
Então,
$$f\left(\frac{a+b}{2}+x\right)=\left\{\begin{array}{l}\displaystyle \frac{1}{b-a}, \quad\quad \frac{a+b}{2}+x\in [a,b]\Leftrightarrow \frac{a-b}{2}\leq x \leq \frac{b-a}{2}\\ \\ \\ 0, \quad \text{Caso Contrário.}\end{array}\right.$$
e
$$f\left(\frac{a+b}{2}-x\right)=\left\{\begin{array}{l}\displaystyle \frac{1}{b-a}, \quad\quad \frac{a+b}{2}-x\in [a,b]\Leftrightarrow \frac{a-b}{2}\leq -x \leq \frac{b-a}{2}\\ \\ \\ 0, \quad \text{Caso Contrário.}\end{array}\right.$$
Assim,
$$\mathbb{E}(X)=\int_{-\infty}^\infty x f_X(x)dx=\int_a^b\frac{x}{b-a}dx=\frac{1}{b-a}\left[\frac{x^2}{2}\right]^b_a=\frac{1}{2}\frac{b^2-a^2}{(b-a)}=\frac{a+b}{2}$$
(iv)$X \sim b\left(n, \frac{1}{2}\right)$
$$\mathbb{P}(x)=\binom{n}{x}\left(\frac{1}{2}\right)^2, x=0,1,2, \dots, n-1,n.$$
Agora, temos que
$$\mathbb{P}\left(x+\frac{n}{2}\right)=\binom{n}{x+\frac{n}{2}}\left(\frac{1}{2}\right)^n$$
$$\mathbb{P}\left(-x+\frac{n}{2}\right)=\binom{n}{-x+\frac{n}{2}}\left(\frac{1}{2}\right)^n$$
que são iguais pois $x+\frac{n}{2}=n-\left(x-\frac{n}{2}\right)$. X é integrável, pois $0\leq X \leq n$, então pelo item (a):
$$\mathbb{E}(X)=\frac{n}{2}$$
(v) X tal que $F_X$ é função de Cantor
Por construção X é simétrica em torno de $\frac{1}{2}$ e como é limitada $0\leq \mathbb{E}(X)\leq 1$ o que implica que $\mathbb{E}(X)=\frac{1}{2}$
(vi) X tendo distribuição de Laplace (ou exponencial dupla):
$$f(x)=\frac{\lambda}{2}e^{-\lambda |x-\mu|}, \quad x \in \mathbb{R}$$
Temos que
$$f(\mu -x)=\frac{\lambda}{2}e^{-\lambda |\mu-x-\mu|}=\frac{\lambda}{2}e^{-\lambda |x|}, \quad x \in \mathbb{R}$$
e
$$f(\mu+ x)=\frac{\lambda}{2}e^{-\lambda |\mu+x-\mu|}=\frac{\lambda}{2}e^{-\lambda |x|}, \quad x \in \mathbb{R}$$
ou seja, é simétrica em torno de $\mu$.
Agora
$$\mathbb{E}(X)=\int_{-\infty}^\infty x \frac{\lambda}{2}e^{-\lambda |x-\mu|}dx$$
definindo $x-\mu=y$, $x=y+\mu$ e $dx=dy$ temos
$$\mathbb{E}(X)=\int_{-\infty}^\infty (y+\mu) \frac{\lambda}{2}e^{-\lambda |y|}dy= \int_{-\infty}^0 (y+\mu) \frac{\lambda}{2}e^{-\lambda |y|}dy +\int_{0}^\infty (y+\mu) \frac{\lambda}{2}e^{-\lambda |y|}dy = \mu$$
Seja X uma variável aleatória tendo distribuição logística com densidade
$$f(x)=\frac{e^{-x}}{(1+e^{-x})^2}, \quad x \in \mathbb{R}.$$
(a) Prove que a distribuição de X é simétrica em torno de zero
$$\frac{f(x)}{f(-x)}=\frac{\frac{e^{-x}}{(1+e^{-x})^2}}{\frac{e^{x}}{(1+e^{x})^2}}=\frac{e^{-x}(1+e^{x})^2}{e^{x}(1+e^{-x})^2}= \frac{e^{-x}+e^{x}+2}{e^{x}+e^{-x}+2}=1\Rightarrow f(x)=f(-x).$$
Assim pelo exemplo 3.3.1 é simétrica em torno de zero.
(b) Determine se X tem esperança finita, Se tiver ache o valor.
Sabemos X é integrável se, e somente se, $\mathbb{E}(|X|)< \infty$
Assim
$$\mathbb{E}(|X|)=\int_0^\infty x dF_{|X|}(x)=\int_0^\infty x \left[f(x)+f(x)\right]dx=2\int_0^\infty x\frac{e^{-x}}{(1+e^{-x})^2}dx$$
Definimos, $t=e^{-x}$, $x=-\ln(t)$ e $dx=-\frac{1}{t}dt$ e então
$$2\int_0^\infty x\frac{e^{-x}}{(1+e^{-x})^2}dx=2\int_0^1 \ln(t)\frac{t}{(1+t)^2}\left(\frac{1}{t}\right)dt=-2\int_0^1 \frac{\ln(t)}{(1+t)^2}dt$$
Novamente fazendo uma mudança de variável, $u=\ln(t)$ o que implica que $du=\frac{1}{t}dt$ e $dv=\frac{1}{(1+t)^2}dt$ o que implica que $v=-(1+t)^{-1}$. Então, temos que
$$-2\int_0^1 \frac{\ln(t)}{(1+t)^2}dt=-2\left\{\left[-\frac{\ln(t)}{1+t}\right]_0^1+ \int_0^1 \frac{1}{t(t+1)}dt\right\}=$$
$$-2\left\{-\frac{\ln(t)}{1+t}+\ln\left(\frac{1+t}{t}\right)\right\}_0^1 = -2\left[\ln(t)^{1/(t+1)}\left(\frac{1+t}{t}\right)\right]=$$
$$ -2 \left[\frac{t}{1+t}\ln(t)+\ln(1+t)\right]_0^1=2\ln(2)$$
então $X$ é integrável pelo exemplo 3.3.1 temos que $\mathbb{E}(X)=0$.
(c)Obtenha a densidade de $Y=e^{Y}$ e ache $\mathbb{E}(Y).$
Temos que
$$f_Y(y)=\left\{\begin{array}{l}\displaystyle \frac{1}{y}f_X(\ln(y))=\frac{1}{y}\frac{\frac{1}{y}}{\left(1+\frac{1}{y}\right)^2}= \frac{1}{(1+y)^2}, \quad \quad y> 0 \\ \\ \\ 0, \text{Caso Contrário }\end{array}\right.$$
Assim,
$$\mathbb{E}(Y)=\int_0^\infty \frac{y}{(1+y)^2}dy$$
fazendo uma mudança de variável $u=y$ o que implica que $du=dy$ e $dv=\frac{dy}{(1+y)^2}$ que implica que $v=-\frac{1}{1+y}$, temos então que
$$\int_0^\infty \frac{y}{(1+y)^2}dy=\left[-\frac{y}{1+y}\right]_0^\infty + \int_0^\infty \frac{1}{1+y}dy= \infty$$
Exemplo 3.3.3:
Calcule $\mathbb{E}(X)$ se $X$ possui densidade $f(x)$, onde:
(a) f é a densidade dada
$$f(x)=\left\{\begin{array}{l}cx^2, -1\leq x \leq 1 \\ \\ \\ 0, \quad \quad \text{ Caso Contrário.} \end{array}\right.$$
Então, a esperança é dada por
$$\mathbb{E}(X)=\int_{-1}^1 x f(x)dx=\int_{-1}^1 cx^3 dx =\left[\frac{cx^4}{4}\right]_{-1}^1=0$$
(b) $f(x)=\displaystyle \frac{1}{(1+x)^2}$ se $x > 0;$ $f(x)=0$ se $x\leq 0$.
Pelo item (c) do exemplo 3.3.2 $\mathbb{E}(X)=\infty$.
Exemplo 3.3.4:
(a) Se $X\sim \Gamma(\alpha,\beta)$, com $\alpha > 0$ e $\beta > 0$, qual é $\mathbb{E}(X)$?
$$f(x)=\left\{\begin{array}{l}\frac{\beta^\alpha x^{\alpha -1}e^{-\beta x}}{\Gamma(\alpha)}, \quad x> 0 \\ \\ \\ 0, \text{Caso Contrário}\end{array}\right.$$
Temos que
$$\mathbb{E}(X)=\int_{0}^\infty x f(x)dx=\int_0^\infty \frac{\beta^\alpha x^{\alpha}e^{-\beta x}}{\Gamma(\alpha)}dx.$$
Definindo, $y=\beta x$ e $dy= \beta dx$, então
$$\int_0^\infty \frac{\beta^\alpha x^{\alpha}e^{-\beta x}}{\Gamma(\alpha)}dx= \frac{1}{\beta \Gamma(\alpha)}\int_0^\infty y^{\alpha} e^{-y}dy= \frac{\Gamma(\alpha+1)}{\beta\Gamma(\alpha)}=\frac{\alpha}{\beta}.$$
(b)Dizemos que $X$ tem distribuição de Weibull
se possui densidade
$$f(x)=\left\{\begin{array}{l}\displaystyle \lambda \alpha x^{\alpha-1} e^{-\lambda x^\alpha}, \quad \quad x\geq 0\\ \\ \\ 0, \quad \quad x\leq 0.\end{array}\right.$$
Calcule $\mathbb{E}(X)$ neste caso.
Temos então
$$\mathbb{E}(X)=\int_0^\infty x f(x)dx=\int_0^\infty \lambda \alpha x^{\alpha}e^{-\lambda x^{\alpha}}dx$$
fazendo mudança de variável $y=\lambda x^\alpha$, $x=\left(\frac{y}{\lambda}\right)^{1/\alpha}$ com $dx=\frac{1}{\lambda^{1/\alpha}}\frac{1}{\alpha} y^{\frac{1}{\alpha}-1}$, então temos que
$$\int_0^\infty \lambda \alpha x^{\alpha}e^{-\lambda x^{\alpha}}dx=\int_0^\infty \alpha y e^{-y}\frac{1}{\alpha}\frac{y^{1/\alpha - 1}}{\lambda^{1/\alpha}} dy = \lambda^{-\frac{1}{\alpha}}\int_{0}^\infty y^{1/\alpha}e^{-y}dy= \lambda^{-1/\alpha} \Gamma(1+1/\alpha)$$
Exemplo 3.3.5:
Sejam $X$ e $Y$ variáveis aleatórias independentes com distribuição comum $U[0,1]$. Calcule $\mathbb{E}(Z)$ e $\mathbb{E}(W)$, com $Z=\min(X,Y)$ e $W=\max(X,Y)$
Temos que
$$F_X(x)=\left\{\begin{array}{l}0, \quad \quad x< 0\\ \\ \\ x, \quad \quad 0\leq x< 1 \\ \\ \\ 1, \quad \quad x \geq 1 \end{array}\right.$$
e
$$F_Y(y)=\left\{\begin{array}{l}0, \quad \quad y> 0\\ \\ \\ y, \quad \quad 0\leq y< 1 \\ \\ \\ 1, \quad \quad y \geq 1 \end{array}\right.$$
Assim, como X e Y são independente temos que
$$\mathbb{P}(Z> z)=\mathbb{P}(X> z, Y> z)=\mathbb{P}(X> z)\mathbb{P}(Y> z) = \left\{ \begin{array}{l}1, \quad \quad z< 0\\ \\ \\ (1-z)^2, \quad \quad 0\leq z< 1 \\ \\ \\ 0, \quad \quad z \geq 1 \end{array}\right.$$
então,
$$\mathbb{E}(Z)=\int_0^1 \mathbb{P}(Z> z)dz= \int_0^1 (1-z)^2dz=-\frac{(1-z)^3}{3}\Biggl|_0^1 =\frac{1}{3}$$
Agora
$$\mathbb{P}(W\leq w)=\mathbb{P}(X\leq w, Y\leq w)=\mathbb{P}(X\leq w)\mathbb{P}(Y\leq w) = \left\{ \begin{array}{l}0, \quad \quad w\leq 0\\ \\ \\ (w)^2, \quad \quad 0\leq w< 1 \\ \\ \\ 1, \quad \quad z \geq 1 \end{array}\right.$$
Então,
$$\mathbb{E}(W)=\int_0^\infty \mathbb{P}(W> z)dz= \int_0^1 (1-w)^2dz=w\Biggl|_0^1- \frac{w^3}{3}\Biggl|_0^1 =\frac{2}{3}$$
Exemplo 3.3.6:
Um jogador vai lançando uma moeda honesta. Ele para depois de lançar ou duas caras sucessivas ou duas coras sucessivas. Qual a esperança do número de lançamentos ?
Seja $X$ o número de lançamentos, primeiramente vamos considerar $X=n$, com $n$ par, ou seja, $n=2k$ para $k\in \mathbb{N}$. Então,
$$\mathbb{P}(X> 2k)=2p^k(1-p)^k=2\left(\frac{1}{2}\right)^k\left(\frac{1}{2}\right)^k=2\left(\frac{1}{2}\right)^{2k}=2\left(\frac{1}{2}\right)^n$$
Agora considere $n=2k+1$, então
$$\mathbb{P}(X> 2k+1)=p^k(1-p)^{k+1}+p^{k+1}(1-p)^{k}=2\left(\frac{1}{2}\right)^{2k+1} =2\left(\frac{1}{2}\right)^n$$
e
$$\mathbb{P}(X> 0)=\mathbb{P}(X\geq 1)=1$$
Então,
$$\mathbb{E}(X)=\displaystyle \sum_{n=0}^\infty \mathbb{P}(X> 0)=2+\sum_{n=2}^\infty 2\left(\frac{1}{2}\right)^n=2+\frac{1}{1-\frac{1}{2}}=3$$
Exemplo 3.3.7:
Uma urna contém n bolas numeradas $1,2, \dots,n$. Uma pessoa tira uma bola e a devolve, tira outra e a devolve, continuando até tirar uma bola pela segunda vez. Seja X o número total de retiradas necessárias para obter essa repetição
(a) Ache a distribuição de X
Temos que $[X> k]=$ as k primeiras bolas retiradas são diferentes, $k=2,\dots, (n-1)$. Então,
$$\mathbb{P}(X> k)=\frac{C_n^k}{n^k}=\frac{n}{n}\frac{n-1}{n}\frac{n-2}{n}\dots \frac{n-k}{n} = \left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right)\dots \left(1-\frac{k}{n}\right)$$
e
$$\mathbb{P}(X> 0)=\mathbb{P}(X\geq 1)=1$$
e
$$\mathbb{P}(X\geq k)=0, k\geq n$$
(b) Mostre que
$$\mathbb{E}(X)=2+\left(1-\frac{1}{n}\right)+\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right)+\dots +\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right)\dots \left(1-\frac{n-1}{n}\right)$$
Temos que $X$ é uma variável não negativa, e pelo item (a) temos que
$$\mathbb{E}(X)=\sum_{n=0}^\infty \mathbb{P}(X> n)=2+\left(1-\frac{1}{n}\right)+\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right)+\dots +\left(1-\frac{1}{n}\right)\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right)\dots \left(1-\frac{n-1}{n}\right)$$
Exemplo 3.3.8:
Sejam X e Y variáveis aleatórias. Se $F_X(x)\leq F_Y(x)$ para todo $x\in \mathbb{R}$, dizemos que X é estocasticamente maior que Y. Prove que se X é estocasticamente maior que Y, então $\mathbb{E}(X)\geq \mathbb{E}(Y)$ (se $\mathbb{E}(X)$ e $\mathbb{E}(Y)$ existem )
Temos que
$$\mathbb{E}(X)=\int_0^\infty (1-F_X(x))dx-\int_{-\infty}^0 F_X(x)dx$$
e
$$\mathbb{E}(Y)=\int_0^\infty (1-F_Y(y))dy-\int_{-\infty}^0 F_Y(y)dy$$
Agora, como
$$F_X(x)\leq F_Y(x), \forall x\in \mathbb{R}$$
o que implica que
$$\int_{-\infty}^0 F_{X}(x)dx\leq \int_{-\infty}^0 F_Y(y)dy $$
e
$$(1-F_X(x))\geq (1-F_Y(x)), \forall x\in \mathbb{R}$$
o que implica que
$$\int_{0}^\infty(1- F_{X}(x))dx\leq \int_{0}^\infty (1-F_Y(y))dy $$
Então temos que
$$\mathbb{E}(X)\geq \mathbb{E}(Y).$$
Exemplo 3.3.9:
Dois componentes eletrônicos vão ser testados simultaneamente. Suponha que a "vida" em horas de cada componente é exponencialmente distribuída com parâmetro $\lambda$, e que as vidas dos componentes são independentes. Calcule:
(a) A esperança do tempo até a primeira falha de um dos componentes.
Temos que $T_1\sim \exp(\lambda)$ independente $T_2\sim \exp(\lambda)$ então
$$[T> t ]=[T_1> t]\cap [T_2> t] $$
Então,
$$\mathbb{P}(T> t)=\mathbb{P}(T_1> t) \mathbb{P}(T_2> t)= e^{-\lambda t}e^{-\lambda t}=e^{-2\lambda t}$$
Assim, como
$$\mathbb{E}(T)=\int_0^\infty \mathbb{P}(T> t)dt=\int_0^\infty e^{-2\lambda t}=-\frac{e^{-2\lambda}}{2\lambda}\Bigg|_0^\infty = \frac{1}{2\lambda}$$
(b) A esperança do tempo até ambos os componentes falharem.
Para isso, temos que
$$[T\leq t ]=[T_1\leq t]\cap [T_2\leq t] $$
o que implica que
$$\mathbb{P}(T\leq t)=\mathbb{P}(T_1\leq t) \mathbb{P}(T_2\leq t)= \left(1-e^{-\lambda t}\right)^2$$
Como T é uma variável não-negativa então
$$\mathbb{E}(T)=\int_0^\infty \mathbb{P}(T> t)dt=\int_0^\infty \left(e^{-2\lambda t}+2e^{-\lambda t}\right)dt=\frac{3}{2\lambda}$$
Exemplo 3.3.10:
Dois jogadores lançam moedas simultaneamente até obterem o primeiro casamento (ie. ou duas caras ou duas coroas ). Se os dois lançam "cara" simultaneamente, ganha o jogador I, se ambos lançam "coroa", ganha o jogador II. Por exemplo, se os dois obtêm "cara" no primeiro lançamento, então o jogo termina e o jogador I ganha o jogo. Suponha que a moeda do jogador I seja honesta, mas que a moeda do outro não necessariamente ou seja, tendo probabilidade $p$ de "cara", $0< p< 1$.
(a) Calcule a esperança do número de lançamentos (i.e., o número de vezes que o jogador I lança a moeda até terminar o jogo).
Defina
$$X_i=\{\text{Resultado do i-ésimo lançamento da moeda do jogador I }\}=\left\{\begin{array}{l} 0, \text{ se é Cara}\\ \\ \\ 1, \text{ se é Coroa}\end{array}\right.$$
e
$$Y_i=\{\text{Resultado do i-ésimo lançamento da moeda do jogador II }\}=\left\{\begin{array}{l} 0, \text{ se é Cara}\\ \\ \\ 1, \text{ se é Coroa}\end{array}\right.$$
então
$$\mathbb{P}(X_i=0)=\frac{1}{2}=\mathbb{P}(X_i=1)$$
e
$$\mathbb{P}(Y_i=0)=p,\quad \quad \quad \mathbb{P}(Y_i=1)=1-p$$
Vamos definir os seguintes conjuntos
$$G_i^{I}=\{\text{Ganha o jogador I no Lançamento i}\}$$
$$G_i^{II}=\{\text{Ganha o jogador II no Lançamento i}\}$$
e ainda
$$C_i=\{\text{nem o jogador I e o jogador II no lançamento i e então o jogo continua.}\}$$
Assim temos que
$$\mathbb{P}\left(G_i^{I}\bigg| C_{i-1}\right)=\mathbb{P}(X_i+Y_i=0)=\mathbb{P}(X_i=0)\mathbb{P}(Y_i=0)=\frac{1}{2}p$$
$$\mathbb{P}\left(G_i^{II}\bigg| C_{i-1}\right)=\mathbb{P}(X_i+Y_i=2)=\mathbb{P}(X_i=1)\mathbb{P}(Y_i=1)=\frac{1}{2}(1-p)$$
$$\mathbb{P}\left(C_i\bigg| C_{i-1}\right)=\mathbb{P}(X_i+Y_i=1)=$$
$$\mathbb{P}(X_i=0)\mathbb{P}(Y_i=1)+ \mathbb{P}(X_i=1)\mathbb{P}(Y_i=0)=$$
$$ \frac{1}{2}p+\frac{1}{2}(1-p)=\frac{1}{2}$$
Seja $Z$ a variável aleatória que conta o número de lançamentos até o jogo acabar. Então, temos que
$$\mathbb{P}(Z> n)=\mathbb{P}(C_1)\mathbb{P}\left(C_2\bigg|C_1\right)\mathbb{P}\left(C_3\bigg|C_1\cap C_2\right) \dots \mathbb{P}\left(C_n\bigg|C_1\cap C_2\cap \dots \cap C_{n-1}\right)$$
$$= \mathbb{P}\left(C_1\right)\mathbb{P}\left(C_2\bigg|C_1\right)\dots \mathbb{P}\left(C_n\bigg|C_{n-1}\right)=$$
$$\left(\frac{1}{2}\right)^n, \quad n=0,1,2, \dots$$
Como Z é uma variável não negativa, temos que
$$\mathbb{E}(Z)=\sum_{n=0}^\infty \mathbb{P}(Z> n)=\sum_{n=0}^\infty\left(\frac{1}{2}\right)^n =\frac{1}{1-\frac{1}{2}}=2$$
(b) Ache a probabilidade do jogador I ganhar o jogo (mais cedo ou mais tarde)
Defina
$$W=\{\text{Jogador ganha o Jogo}\}$$
e
$$W_i=\{\text{Jogador ganha o Jogo no lançamento i}\}.$$
Então $W=\displaystyle \bigcup_{i=1}^\infty W_i$ pela $\sigma$-aditividade temos que
$$\mathbb{P}(W)=\sum_{n=1}^\infty \mathbb{P}(W_n)$$
Agora
$$\mathbb{P}(W_n)=\mathbb{P}(C_1)\mathbb{P}\left(C_2\bigg|C_1\right)\dots \mathbb{P}\left(C_{n-1}\bigg|C_{n-2}\right) \mathbb{P}\left(G^{I}_{n}\bigg|C_{n-1}\right)=\left(\frac{1}{2}\right)^{n-1}\frac{1}{2}p$$
Então,
$$\mathbb{P}(W)=\sum_{n=1}^\infty \left(\frac{1}{2}\right)^n p=\frac{\frac{1}{2}}{1-\frac{1}{2}}p=p$$
Exemplo 3.3.11:
Jogadores I e II tem $R\$ 200,00.$ Lança-se uma moeda com probabilidade $p$ de dar cara (0< p < 1). Se der cara, o jogador I recebe $R\$ 100,00$ do II, se der coroa, I paga $R\$100,00$ ao II. Continua-se lançando a moeda, independentemente, até um dos jogadores perder tudo, i.e., até um deles ficar com os $R\$400,00$. Determine $\mathbb{E}(N)$, no qual N é o número de lançamentos até terminar o jogo.
Defina $X_i=\text{número de caras até a jogada i}$, $Y_i=\text{ número de coroas até a jogada i}$
o jogo só acaba na i-ésima jogada se $|X_i-Y_i|=2$. Assim, considere primeiramente $n$ um número par e $n=2k$ então
$$[N> n]=[X_i=k]\cap [Y_i=k]$$
Então,
$$\mathbb{P}(N> n)=p^k(1-p)^k=[p(1-p)]^k$$
Agora, se n é impar então
$$[N> n]=\left([X_i=k]\cap[Y_i=k+1]\right)\bigcup \left([X_i=k+1]\cap[Y_i=k]\right)$$
o que implica que
$$\mathbb{P}(N> n)=p^k(1-p)^{k+1}+p^{k+1}(1-p)^{k}=p^k(1-p)^k[p(1-p)]=p^k(1-p)^k$$
com
$$\mathbb{P}(N> 0)=\mathbb{P}(N> 1)=0$$
Assim,
$$\mathbb{E}(N)=\sum_{n=0}^\infty \mathbb{P}(N> n)=2+\sum_{k=1}^\infty \mathbb{P}(N> 2k)+\sum_{k=1}^\infty \mathbb{P}(N> 2k+1)=2\frac{2p(1-p)}{1-p(1-p)}=\frac{4p(1-p)}{1-p(1-p)}$$
Exemplo 3.3.12:
Prove que o critério de integrabilidade ainda vale se "$\geq$" é substituído por "$> $", isto é, X é integrável se, e somente se,
$$\sum_{n=1}^\infty \mathbb{P}(|X|> n)< \infty.$$
Temos que $X$ é integrável se, e somente, se $|X|$ é integrável
Agora $\mathbb{E}(|X|)\leq \mathbb{E}(|X|)+1$. Porém,
$$\mathbb{E}(|X|)=\sum_{n=0}^\infty \mathbb{P}(|X|> n)=\mathbb{P}(|X|> 0)+ \sum_{n=1}^\infty \mathbb{P}(|X|> n)$$
então,
$$\sum_{n=0}^\infty \mathbb{P}(|X|> n)\leq \mathbb{E}(|X|)\leq 1+\sum_{n=1}^\infty \mathbb{P}(|X|> n)$$
Assim,
$$\sum_{n=1}^\infty \mathbb{P}(|X|> n)\leq \mathbb{E}(|X|)\leq 2+\sum_{n=1}^\infty \mathbb{P}(|X|> n).$$
Então,
$$\mathbb{E}(|X|)> \infty$$
se, e somente se,
$$\sum_{n=1}^\infty \mathbb{P}(|X|> n)< \infty$$
Exemplo 3.3.13:
Verifique que a desigualdade de Jensen ainda vale se a função $\varphi$ é convexa em um intervalo (a,b) tal que
$$\mathbb{P}(a< X < b)=1,$$
no qual admitimos a possibilidade de $a=-\infty$ ou $b=\infty$.
Exemplo 3.3.14:
Sejam X e Y variáveis aleatórias com densidade conjunta $f(x,y)$. Verifique se $\mathbb{E}(aX+bY)=a\mathbb{E}(X)+b\mathbb{E}(Y)$ para esse caso.(Suponha $\mathbb{E}(X)$ e $\mathbb{E}(Y)$ finito)
Sabemos que se a X e Y tem densidade conjunta $f(x,y)$ então:
$$\mathbb{E}(aX+bY)=\int_{-\infty}^\infty \int_{-\infty}^\infty(ax+by)f_{X,Y}(x,y)dxdy=\int_{-\infty}^\infty \int_{-\infty}^\infty a x f_{X,Y}(x,y)dxdy +\int_{-\infty}^\infty \int_{-\infty}^\infty by f_{X,Y}(x,y)dxdy$$
e
$$a\mathbb{E}(X)+b\mathbb{E}(Y)=a\int_{-\infty}^\infty x f_X(x)dx+b\int_{-\infty}^\infty yf_Y(y)dy$$
Mas,
$$\int_{-\infty}^\infty \int_{-\infty}^\infty a x f_{X,Y}(x,y)dxdy +\int_{-\infty}^\infty \int_{-\infty}^\infty by f_{X,Y}(x,y)dxdy=a\int_{-\infty}^\infty x f_X(x)dx+b\int_{-\infty}^\infty yf_Y(y)dy=a\mathbb{E}(X)+b\mathbb{E}(Y)$$
Portanto,
$\mathbb{E}(aX+bY)=a\mathbb{E}(X)+b\mathbb{E}(Y)$.
Exemplo 3.3.15:
Suponha que $X\sim U[0,1]$. Determine os valores de $t(t\in \mathbb{R})$ tais que $\mathbb{E}(X^t)$ é finita. Qual o valor da esperança nesse caso?
$$\mathbb{E}(X^t)=\int_{-\infty}^\infty x^t f_X(x)dx$$
Agora se $X\sim U[0,1]$, então $f_X(x)=\mathbf{1}_{[0,1]}$. Logo,
$$\mathbb{E}(X^t)=\int_0^1 x^tdx=\frac{x^{t+1}}{t+1}\Biggl|_0^1=\frac{1}{t+1}$$
Portanto, $\mathbb{E}(X^t)\leq \infty$ o que implica que $t\neq -1$, assim $t\in \mathbb{R}-\{-1\}$ o que implica que $\mathbb{E}(X^t)=\frac{1}{1+t}< \infty.$
Exemplo 3.3.16:
Calcule $\mathbb{E}(e^X)$, no qual X tem densidade Logística
$$\frac{e^{-x}}{(1+e^{-x})^2}$$
$x\in \mathbb{R}$, utilizando o Teorema 3.3.1. Compare com o resultado obtido no exemplo 3.3.2(c).
Pelo Teorema 3.3.1 temos:
$$\mathbb{E}(e^x)= \int_{-\infty}^\infty e^x \frac{e^{-x}}{(1+e^{-x})^2}dx=\int_{-\infty}^\infty \frac{1}{(1+e^{-x})^2}dx=\int_{-\infty}^0 \frac{1}{(1+e^{-x})^2}dx+\int_{0}^\infty \frac{1}{(1+e^{-x})^2}dx $$
Agora, fazendo uma mudança de variável $y=e^{-x}$ e $dy=\frac{e^{-x}}{y}dx$
$$\int_{-\infty}^0 \frac{1}{(1+e^{-x})^2}dx=\int_0^1\frac{1}{y\left(1+\frac{1}{y}\right)^2}dy=\int_0^1 \frac{y}{(1+y)^2}dy$$
novamente fazendo uma mudança de variável $z=1+y$ e $dz=dy$
$$\int_0^1 \frac{y}{(1+y)^2}dy=\int_1^2 \frac{z-1}{z^2}dz= \ln z\Biggl|_1^2 +\frac{1}{z}\Biggl|_1^2=\ln 2-\frac{1}{2}.$$
Temos que
$$\int_{0}^\infty \frac{1}{(1+e^{-x})^2}dx=\infty$$
pois
$$\frac{1}{(1+e^{-x})^2}\geq 0, \quad \quad x\in \mathbb{R}_{+}$$
e
$$\lim_{x\rightarrow \infty}\frac{1}{(1+e^{-x})^2}=1$$
Então,
$$\mathbb{E}(e^{x})=\ln2- \frac{1}{2}+\infty=\infty$$
Exemplo 3.3.17:
Calcule a esperança de
$$f_Y(y)=\left\{\begin{array}{l}cy^2 ,-1\leq y< 1 \\ \\ 0, \text{Caso Contrário}\end{array}\right\}$$
e
$$f_X(x)=\left\{\begin{array}{l}2x^2 ,-1\leq x< 1 \\ \\ 0, \text{Caso Contrário}\end{array}\right\}$$
Para o primeiro caso, temos que
$$\mathbb{E}(Y)=\int_{-\infty}^\infty f_Y(y)dy=\int_{-1}^1 cy^3dy=\frac{cy^4}{4}\Biggl|_{-1}^{1}=0$$
Para o segundo caso temos que
$$\mathbb{E}(X)=\int_{-\infty}^\infty f_X(x)dx=\int_{0}^1 3y^3dx=\frac{3y^4}{4}\Biggl|_{0}^{1}=\frac{3}{4}$$
Exemplo 3.3.18:
Seja X o tempo de espera até o primeiro sucesso em uma sequência de ensaios de Bernoulli tendo probabilidade $p$ de sucesso em cada ensaio. Calcule $\mathbb{E}(X^2)$
$$\mathbb{P}(X=k)=p(1-p)^{k-1},\quad \quad k=1,2, \dots $$
para $0< p< 1$, então
$$\mathbb{E}(X^2)=\sum_{k=1}^\infty \left(k^2 p (1-p)^{k-1}\right)=p\sum_{k=1}^\infty \left(k^2 (1-p)^{k-1}\right)$$
para simplificar a notação vamos definir $q:=(1-p)$, então vamos mostrar que
$$\sum_{k=1}^\infty \left(k^2 q^{k-1}\right)=\frac{1+q}{(1-q)^3}$$
Para isso, observe que
$$\sum_{k=1}^\infty \left(k^2 q^{k-1}\right)=1+4q+9q^2+16q^3+\dots =\sum_{k=1}^\infty q^{k-1}+3q+8q^2+15q^3+\dots$$
$$=\left(\sum_{k=1}^\infty q^{k-1}\right)+3q(1+q+q^2+q^3+\dots)+5q^2+12q^3+21q^4+\dots =\left(\sum_{k=1}^\infty q^{k-1}\right)(1+3q)+5q^2(\sum_{k=1}^\infty q^{k-1})+7q^3+16q^4+\dots$$
$$=\left(\sum_{k=1}^\infty q^{k-1}\right)(1+3q+5q^2+7q^3+9q^4+\dots)=\left(\sum_{k=1}^\infty q^{k-1}\right)\left(\sum_{k=1}^\infty (2k-1)q^{k-1}\right)$$
Então temos que
$$\left(\sum_{k=1}^\infty k^2 q^{k-1}\right)=\left(\sum_{k=1}^\infty q^{k-1}\right)\left[2\left(\sum_{k=1}^\infty q^{k-1}\right)-\left(\sum_{k=1}^\infty k q^{k-1}\right)\right]$$
Mas, é conhecido que
$$\left(\sum_{k=1}^\infty q^{k-1}\right)=\frac{1}{1-q}$$
e
$$\left(\sum_{k=1}^\infty kq^{k-1}\right)=\frac{1}{(1-q)^2}$$
Então, temos que
$$\left(\sum_{k=1}^\infty k^2 q^{k-1}\right)=\left(\frac{1}{1-q}\right)\left[\frac{2}{(1-q)^2}-\frac{1}{1-q}\right]=\frac{1}{1-q}\left( \frac{2-1+q}{(1-q)^2}\right)=\frac{1+q}{(1-q)^3}$$
Desta forma temos que
$$\mathbb{E}(X^2)=p\frac{1+q}{(1-q)^3}=\frac{2-p}{p^2}$$
O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.