3.4 - Momentos

Você está aqui

Seja $X$ uma variável aleatória. Se $\mathbb{E}(X^r) \ < \ \infty$, dizemos que  $\mathbb{E}(X^r)$ é o r-ésimo momento de $X$.

O r-ésimo momento em torno de $\alpha\in\mathbb{R}$ é definido como sendo $\mathbb{E}((X-\alpha)^r)$, caso este valor esperado exista. Se $\alpha=\mathbb{E}(X)$ então ele é chamado de r-ésimo momento central. Observamos que $\text{Var}(X)=\mathbb{E}[(X-\mathbb{E}(X))^2]$, ou seja, a variância $\text{Var}(X)$ é definida como sendo o segundo momento central. Uma definição mais detalhada da variância e de suas propriedades pode ser encontrada na Seção 4.

Função geradora de momentos

Definição 3.4.1: 

Seja $X$ uma variável aleatória. A função geradora de momentos da variável $X$ é definida como sendo a função

\[M_{X}(t)=\mathbb{E}(e^{tX})\]

 

desde que $\mathbb{E}(e^{tX})$ exista em algum intervalo do tipo $(-h,h)$ para algum número real $h \ > \ 0$.

A função geradora de momentos possui esse nome pois, a partir dela, podemos encontrar todos os momentos da variável aleatória $X$ (quando estes existem). A função só precisa estar definida em uma vizinhança do ponto zero, pois os momentos serão obtidos através de sucessivas diferenciações aplicadas em zero, utilizando o resultado abaixo.

Teorema 3.4.1:

Seja $X$ uma variável aleatória. Como $\mathbb{E}(e^{tX})$ está definido para $t\in (-h,h)$ para algum $h\in\mathbb{R}$, temos que

\[M_{X}^{(n)}(t)=\frac{d^n}{dt^n}\mathbb{E}\left(e^{tX}\right)=\mathbb{E}\left(\frac{d^n}{dt^n}e^{tX}\right) = \mathbb{E}\left(X^ne^{tX}\right).\]

 

Observamos que

\[M_{X}^\prime(t)=\frac{d}{dt}\mathbb{E}\left(e^{tX}\right)=\mathbb{E}\left(\frac{d}{dt}e^{tX}\right)=\mathbb{E}\left(Xe^{tX}\right)\]

 

e, no ponto $t = 0$ temos que $M_{X}^\prime(0)=\mathbb{E}(X)$. Similarmente temos que:

\[M_{X}^{\prime\prime}(t)=\frac{d^2}{dt^2}\mathbb{E}\left(e^{tX}\right)=\mathbb{E}\left(\frac{d^2}{dt^2}e^{tX}\right)=\mathbb{E}\left(X^2e^{tX}\right)\]

 

e, se calcularmos $M_X^{\prime\prime}(t)$ no ponto $t=0$, temos que $M_{X}^{\prime\prime}(0)=\mathbb{E}(X^2)$. Por indução, é fácil perceber que:

\[M_{X}^{(n)}(t)=\frac{d^n}{dt^n}\mathbb{E}\left(e^{tX}\right)=\mathbb{E}\left(X^ne^{tX}\right).\]

 

de onde segue que $M_X^{(n)}(0) = \mathbb{E}(X^n)$.

Portanto, se queremos encontrar o n-ésimo momento da variável aleatória $X$, basta derivarmos sua função geradores de momentos (quando esta existir) $n$ vezes e então calcular o seu valor no ponto $t = 0$.

Função geradora de momentos de variáveis aleatórias discretas.

Definição 3.4.2:

Seja $X$ uma variável aleatória discreta que assume valores em $\mathcal{R}_X$. A função geradora de momentos de $X$, quando existe, é então calculada da seguinte forma:

\[M_{X}(t)=\mathbb{E}\left(e^{tX}\right)=\sum_{x\in\mathcal{R}_X}e^{tx}p(x),\]

 

em que $p(x)$ é a função de probabilidade da variável aleatória $X$, isto é, $p(x) = \mathbb{P}(X=x)$. 

A seguir, apresentamos alguns exemplos de funções geradoras de momentos para algumas variáveis aleatórias discretas (veremos com mais detalhes essas variáveis aleatórias na seção 5).

Exemplo 3.4.1:

Seja $X$ uma variável aleatória discreta com distribuição binomial com parâmetros $n$ e $p$, ou seja, $X\sim b(n,p)$. Então

\[M_{X}(t)=\mathbb{E}\left(e^{tX}\right)=\sum_{x=0}^{n}e^{tx}\left(\begin{array}{c}n\\x\end{array}\right)p^x(1-p)^{n-x}=\sum_{x=0}^{n}\left(\begin{array}{c}n\\x\end{array}\right)(e^t p)^x(1-p)^{n-x}=(pe^t+1-p)^{n}.\]

 

Podemos encontrar a média e a variância através da função geradora de momentos. Assim\[M^\prime_X(t)=\frac{d}{dt}(p e^t+ 1-p)^n=n(pe^t+1-p)^{n-1}pe^t.\]

Então como $\mathbb{E}(X)=M^\prime_X(0)=n(p+1-p)^{n-1}p=np$.

Para encontrarmos a variância basta derivarmos mais uma vez a função $M_X(t)$. Assim temos que:

\[M^{\prime\prime}_X(t)=\frac{d^2}{dt^2}(p e^t+ 1-p)^n=n(n-1)(pe^t+1-p)^{n-2}pe^t pe^t+pe^t n(pe^t+1-p)^{n-1}\]

 

e, portanto,

\[M^{\prime\prime}_X(t)=n(n-1)(pe^t+1-p)^{n-2}(pe^t)^2+npe^t (pe^t+1-p)^{n-1}.\]

 

Logo, segue que $\mathbb{E}\left(X^2\right)=M^{\prime\prime}_X(0)=n(n-1)p^2+ pn$, então obtemos que:

\[\text{Var}(X)=\mathbb{E}(X^2)-\mathbb{E}^2(X)=[n(n-1)p^2+pn] -(np)^2=np^2(n-1)+np-n^2p^2=np(1-p).\]

 

Exemplo 3.4.2:

Seja $X$ uma variável aleatória discreta com distribuição de Poisson, com parâmetro $\lambda$, ou seja, $X\sim Po({\lambda})$. Então

\[M_{X}(t)=\mathbb{E}[e^{tX}]=\sum_{k=0}^{\infty}\frac{e^{tk}e^{\lambda}\lambda^k}{k!}=e^{-\lambda}\sum_{k=0}^{\infty}\frac{(\lambda e^t)^k}{k!}=e^{-\lambda}e^{\lambda e^t}=e^{\lambda[e^t-1]}.\]

 

Exemplo 3.4.3: 

Seja $X$ uma variável aleatória discreta com distribuição geométrica com parâmetro p, ou seja, $X\sim \ \text{Geo}(p)$. Então

\[M_{X}(t)=\mathbb{E}[e^{tX}]=\sum_{k=0}^{\infty}e^{tk}(1-p)^{k-1}p=\frac{pe^{t}}{1-(1-p)e^t}.\]

 

A tabela abaixo resume a função geradora de momentos de algumas das principais distribuições discretas já vistas acima.

Distribuição Densidade Média Variância Função Geradora de Momentos
Binomial $p(x) = \left(\begin{array}{c}n\\x\end{array}\right)p^x(1-p)^{n-x}$ $np$ $np(1-p)$ $(1-p) + pe^t$
Poisson $p(x) = \frac{e^{-\lambda}\lambda^x}{x!}$ $\lambda$ $\lambda$ $\exp\{\lambda(e^t-1)\}$
Geométrica $p(x) = p(1-p)^x$ $\frac{(1-p)}{p}$ $\frac{(1-p)}{p^2}$ $\frac{p}{1-(1-p)e^t}$

Exemplo 3.4.4:

Vamos encontrar a função geradora de momentos para calcular a variável aleatória da soma de Poisson independentes, assim sendo, seja $X~\sim ~Po(\lambda_1)$ e $Y~\sim ~Po(\lambda_2)$.

\[M_{X+Y}(t)=\mathbb{E}(e^{(X+Y)t})=\mathbb{E}(e^{Xt}e^{Yt})=\mathbb{E}(e^{Xt})\cdot {E}(e^{Yt})=M_X(t)M_Y(t)=e^{(\lambda_1\lambda_2)(e^t - 1)}\]

 

Pela unicidade da função geradora de momentos, temos que a soma de variáveis aleatórias independentes que seguem uma distribuição de Poisson, também possui uma distribuição de Poisson. Ou seja, $X+Y~\sim ~Po(\lambda_1+\lambda_2)$. Por indução finita podemos concluir que se $X_i~\sim ~Po(\lambda_i)$, então $\displaystyle\sum_{i=1}^{n}X_i~\sim ~Po\left(\displaystyle\sum_{i=1}^{n}\lambda_i \right)$.

Exemplo 3.4.5:

Vamos utilizar a função geradora de momentos para encontrar a distribuição de $X+Y$, sabendo que $X$ e $Y$ são independentes com $X~\sim ~b(n,p)$ e $Y~\sim ~b(m,p)$.

\[M_{X+Y}(t)=\mathbb{E}(e^{(X+Y)t})=\mathbb{E}(e^{Xt}e^{Yt})=\mathbb{E}(e^{Xt})\mathbb{E}(e^{Yt})=M_X(t)M_Y(t)=(pe^t+ 1-p)^{m+n}.\]

 

Da mesma forma que o exemplo anterior concluímos pela unicidade da função geradora de momentos que $X+Y~\sim ~b(m+n,p)$. Assim por indução finita concluímos que $X_i~\sim ~ b(n_i,p)$, então $\displaystyle\sum_{i=1}^{k}X_i~\sim ~b\left(\displaystyle\sum_{i=1}^{k}n_i,p \right)$

Função geradora de momentos de variáveis aleatórias contínuas.

Assim como foi definido para variáveis aleatórias discretas, temos a seguinte definição para a função geradora de momentos de uma variável aleatória contínua

Definição 3.4.3:

Seja $X$ uma variável aleatória contínua. A função geradora de momentos, também denotada por $M_X(t)$ é dada por:

\[M_{X}(t)=\mathbb{E}[e^{tX}]=\int_{-\infty}^{\infty}e^{tx}f(x)dx\]

 

em que $f(x)$ é a função densidade de probabilidade de $X$. A seguir, vamos calcular a função geradora de momentos para algumas variáveis aleatórias contínuas, sendo que veremos cada uma delas com mais detalhes no seção 6.

Exemplo 3.4.6: 

Seja $X$ uma variável aleatória contínua com distribuição exponencial de parâmetro $\lambda$, ou seja, $X\sim \ \text{Exp}(\lambda)$. Então, temos que

\[M_{X}(t)=\mathbb{E}[e^{tX}]=\int_{-\infty}^{\infty}e^{tx}\lambda e^{-\lambda x}dx=\lambda \int_{0}^{\infty}e^{-(\lambda-t)x}dx=\frac{\lambda}{\lambda -t},~~~t<\lambda.\]

 

Exemplo 3.4.7:

Seja $X$ uma variável aleatória contínua com distribuição normal com média $\mu=0$ e variância $\sigma^2=1$, ou seja, $X\sim N(0,1)$. Então

\[M_{X}(t)=\mathbb{E}[e^{tX}]=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e^{tx}e^{-x^2/2}dx=\frac{e^{t^2/2}}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e^{-(x-t)^2/2}dx=e^{t^2/2}.\]

 

Exemplo 3.4.8:

Seja $X$ uma variável aleatória contínua com distribuição normal com média $\mu$ e variância $\sigma^2$, ou seja, $X \sim N(\mu,\sigma^2)$ e seja $Z\sim N(0,1)$. Então $X=\sigma Z+\mu$. Assim sendo, podemos usar a função geradora de momentos de $Z$ para calcular a função geradora de momentos de X, da seguinte forma:

\[M_X(t)=\mathbb{E}[e^{tX}]=\mathbb{E}[e^{t(\sigma Z+ \mu)}]=e^{t\mu}\mathbb{E}[e^{t\sigma Z}]=e^{t\mu}e^{\frac{(t\sigma)^2}{2}}=\exp\left\{\frac{\sigma^2 t^2}{2}+ \mu t\right\}.\]

 

Vamos calcular a variância e a média de X a partir da função geradora de momentos.

\[M^\prime_X(t)=\frac{d}{dt}\exp\left\{\frac{\sigma^2t^2}{2}+ \mu t\right\}=(\mu+t\sigma^2)\exp\left\{\frac{\sigma^2t^2}{2}+ \mu t\right\}\]

 

e

\[M^{\prime\prime}_X(t)=\frac{d^2}{dt^2}\exp\left\{\frac{\sigma^2t^2}{2}+ \mu t\right\}=(\mu+ t\sigma^2)^2 \exp\left\{\frac{\sigma^2t^2}{2}+ \mu t\right\}+ \sigma^2 \exp\left\{\frac{\sigma^2t^2}{2}+ \mu t\right\}\]

 

E, portanto, $\mathbb{E}[X]=M^\prime_X(0)=\mu$ e $\mathbb{E}[X^2]=\mu^2+\sigma^2$ de onde segue que a variância é dada por

\[\text{Var}(X)=\mathbb{E}(X^2)-\mathbb{E}^2(X)=\mu^2-\sigma^2-\mu^2=\sigma^2.\]

 

Uma demonstração alternativa deste fato pode ser vista no seção 6.2.

Exemplo 3.4.9:

Se $X\sim N(\mu_1,\sigma_1^2)$ e $Y\sim N(\mu_2,\sigma_2^2)$ são variáveis aleatórias independentes, então $X+Y\sim N(\mu_1+ \mu_2,\sigma_1^2+\sigma_2^2)$.

De fato,

\[M_{X+Y}(t)=\mathbb{E}(e^{(X+Y)t})=\mathbb{E}(e^{Xt}e^{Yt})=\mathbb{E}(e^{Xt})\mathbb{E}(e^{Yt})=M_X(t)M_Y(t)\]

 

de onde segue que

\[M_{X+Y}(t)=\exp\left\{\frac{\sigma_1^2 t^2}{2}+ \mu_1 t\right\}\exp\left\{\frac{\sigma_2^2 t^2}{2}+ \mu_2 t\right\}=\exp\left\{ \frac{(\sigma_1^2+\sigma_2^2)t^2}{2}+(\mu_1+\mu_2)t\right\}.\]

 

Assim pela unicidade da função geradora de momentos concluímos que $X+Y\sim N(\mu_1+ \mu_2,\sigma_1^2+\sigma_2^2)$. Por indução finita podemos concluir que se $X_i~\sim ~ N(\mu_i,\sigma_i^2)$, então $\displaystyle\sum_{i=1}^{k}X_i~\sim ~N\left(\displaystyle\sum_{i=1}^{k}\mu_i,\sum_{i=1}^{k}\sigma_i\right)$.

 

Exemplo 3.4.10:

Suponha que a variável aleatória X tenha a seguinte densidade "triangular":

$$f(x)=\begin{array}{l}1+x,\quad se \quad\quad -1\leq x\leq 0\\ \\ 1-x , \quad se \quad\quad 0< x\leq 1, \\ \\ 0 , \quad se \quad\quad x< -1 \quad ou \quad x> 1.\end{array}$$
Calcule $\mathbb{E}(X)$ e $Var(X)$.

$$\mathbb{E}\left(X\right)=\int_{-\infty}^\infty x f(x)dx=\int_{-1}^0 x(1+x)dx+\int_{0}^1x(1-x)dx=\left[\frac{x^2}{2}+\frac{x^3}{3}\right]_{-1}^0+ \left[\frac{x^2}{2}+\frac{x^3}{3}\right]_{0}^1=-\frac{1}{2}+\frac{1}{3}+\frac{1}{2}-\frac{1}{3}=0$$

$$\mathbb{E}(X^2)=\int_{-\infty}^\infty x^2 f(x)dx =\int_{-1}^0x^2(1+x)dx+\int_{0}^1 x^2(1+x)dx=\left[\frac{x^3}{3}+\frac{x^4}{4}\right]_{-1}^0 + \left[\frac{x^3}{3}+\frac{x^4}{4}\right]_{0}^1=\frac{1}{3}-\frac{1}{4}+\frac{1}{3}-\frac{1}{4}=\frac{1}{6}$$
Então,
$$Var(X)=\mathbb{E}(X^2)-\mathbb{E}^2(X)=\frac{1}{6}$$
 

Exemplo 3.4.11:

(a) Prove: se a variável aleatória X é limitada, então tem momentos finitos de toda ordem.

X é limitada o que implica que existe $k> 0$ tal que $|X|< k$ o que implica que $\mathbb{E}(|X|)< k$ o que implica que X é integrável. Agora, se X é limitada $|X|^t< k^t$, $t> 0$ o que implica que $\mathbb{E}(|X|^t)< k^t$ o que implica que $X^t$ é integrável. Assim, X terá momentos finitos de toda ordem.

(b) Seja A um evento aleatória. Calcule todos os momentos absolutos da variáveis aleatória $X=\mathbf{1}_A$.
Temos que $X^t=\left(\mathbf{1}_A\right)^t=\mathbf{1}_A$ o que implica que
$$\mathbb{E}(X^t)=\mathbb{E}(X)=\mathbb{E}(\mathbf{1}_A)=\int_A f_x(x)dx=\mathbb{P}(X\in A), \forall t \in A$$

(c) Demonstre: se $X\sim N(\mu,\sigma^2)$, então todos os momentos absolutos de X são finitos.

(d) Seja $X\sim Cauchy(0,1)$.
Quais são os momentos absolutos finitos de X?

 

Exemplo 3.4.12:

 Obtenha as variância de $Z$ e $W$ dadas por

$$f_Z(z)=\left\{\begin{array}{l}2(1-z), 0\leq z\leq 1 \\ \\ \\ 0, \text{ Caso Contrário.}\end{array}\right.$$

$$f_W(w)=\left\{\begin{array}{l}2w, 0\leq w\leq 1 \\ \\ \\ 0, \text{ Caso Contrário.}\end{array}\right.$$
Agora, já sabemos que $\mathbb{E}(Z)=\frac{1}{3}$ e $\mathbb{E}(W)=\frac{2}{3}$. Agora,

$$\mathbb{E}(Z^2)=\int_{-\infty}^\infty z^2f_Z(z)dz =\int_0^1 2z^2(1-z)dz=\left(\frac{2}{3}z^3-\frac{z^4}{2}\right)_0^1=\frac{2}{3}-\frac{1}{2}=\frac{1}{6}$$

e
$$\mathbb{E}(W^2)=\int_{-\infty}^\infty w^2f_W(w)dw =\int_0^1 2w^3dw=\left(\frac{w^4}{2}\right)_0^1=\frac{1}{2}$$

Então,
$$Var(Z)=\mathbb{E}(Z^2)-\mathbb{E}^2(Z)=\frac{1}{6}-\frac{1}{9}=\frac{1}{18}$$
$$Var(W)=\mathbb{E}(W^2)-\mathbb{E}^2(W)=\frac{1}{2}-\frac{4}{9}=\frac{1}{18}$$
 

 

Exemplo 3.4.13:

Através de experimentos estatísticos, determina-se que a duração de um certo tipo de chamada telefônica satisfaz a relação
$$\mathbb{P}(T> t)=ae^{-\lambda t}+(1-a)e^{-\xi t}$$
$t\geq 0$, no qual $0\leq a\leq 1$, $\lambda > 0$, $\xi > 0$. Ache a média e a variância de T.
Temos que T é uma variável não-negativa, então:
$$\mathbb{E}(T)=\int_0^\infty \mathbb{P}(T> t)dt=\int_0^\infty a e^{-\lambda t}dt+\int_0^\infty (1-a)e^{-\xi t}dt= a \int_0^\infty  e^{-\lambda t}dt+(1-a)\int_0^\infty e^{-\xi t}dt$$
o que implica que $\mathbb{E}(T)=\frac{a}{\lambda}+\frac{(1-a)}{\xi}$. Agora $T^2$ é também variável aleatória não-negativa, então:
$$\mathbb{E}(T^2)=2\int_0^\infty t \mathbb{P}(T> t)dt=2\left\{ a \int_0^\infty  te^{-\lambda t}dt+(1-a)\int_0^\infty t e^{-\xi t}dt\right\}=2\left[\frac{a}{\lambda^2}+\frac{(1-a)}{\xi^2}\right]$$
Assim,
$$Var(T)=\mathbb{E}(T^2)-\left(\mathbb{E}(T)\right)^2=2\left[\frac{a}{\lambda^2}+\frac{1-a}{\xi^2}\right]- \left[\frac{a}{\lambda}-\frac{1-a}{\xi}\right]^2$$

 

Exemplo 3.4.14:

Prove que se X assume valores somente no intervalo $[a,b]$, então $a\leq \mathbb{E}(X)\leq b$ e $Var(X)\leq \frac{(b-a)^2}{4}$. Exiba uma variável aleatória que atinge a variância máxima.

Defina uma variável $Y$ tal que $0\leq Y \leq 1$ o que implica que $0\leq \mathbb{E}(Y)\leq 1$. Agora, seja m uma mediana de Y então
$$Var(Y)=Var(Y-m)\leq \mathbb{E}(Y-m)^2=\int_0^m (Y-m)^2 dF_Y+ \int_m^1 (Y-m)^2 dF_Y\leq m^2 \mathbb{P}(Y\leq m)+ (1-m^2)\mathbb{P}(Y\geq m) \leq \frac{1}{2}m^2+\frac{1}{2}(1- m^2)=m^2- m +\frac{1}{2}=\left(m-\frac{1}{2}\right)^2+\frac{1}{4}\leq \frac{1}{4}$$
Resumindo $Var(Y)\leq \frac{1}{4}$. Agora tome $Y-(b-a)X+a$ o que implica que $Var(Y)=(b-a)^2Var(X)\leq \frac{(b-a)^2}{4}$ e $\mathbb{E}(Y)=(b-a)\mathbb{E}(X)+a$ o que implica que $a\leq \mathbb{E}(Y)\leq b$. A variável aleatória que atinge a variância maxima é
$$\mathbb{P}(X=a)=\mathbb{P}(X=b)=\frac{1}{2}$$

 

Exemplo 3.4.15:

Demonstre que a desigualdade de Jensen é estrita, isto é, $\mathbb{E}(\varphi(X))> \varphi\left(\mathbb{E}(X)\right)$, se a função $\varphi$ é estritamente convexa e X não é constante.

Temos que $\varphi(x)$ é estritamente convexa. Então, para $X\neq X_0$ temos
$$\varphi(x)> \varphi(x_0)+\lambda (x-x_0)$$
Agora, fazendo $X_0=\mathbb{E}(X)$ e como
$$\mathbb{P}(X\neq X_0)=\mathbb{P}(X\neq \mathbb{E}(X))=\mathbb{P}(|X-\mathbb{E}(X)|> 0)$$
pois $\mathbb{P}(X=X_0)< 1,$ para todo $X_0\in \mathbb{R}$ (X não é constante), então:
$$\mathbb{E}(\varphi(X))> \varphi(X_0)+\lambda \mathbb{E}(X-X_0)=\varphi(\mathbb{E}(X)).$$
 

 

Exemplo 3.4.16:

Sejam $X_1,\dots, X_n$ variáveis aleatórias independentes com $\mathbb{E}(X_j)=\mu_j$ e $Var(X_j)=\sigma_j^2$. Considere combinações lineares
$$Y=\sum_{j=1}^n p_j X_j$$
no qual $p_j\geq 0$ e
$$\sum_{j=1}^n p_j =1$$
Prove que $Var(Y)$. Prove que $Var(Y)$ é minimizada pela escolha de
$$p_j=\frac{\sigma^{-2}_j}{\sum_{i=1}^n \sigma^{-2}_i}, \quad \quad j=1, \dots, n.$$

Temos, com $X_1, \dots, X_n$ são variável aleatória independentes
$$Var(Y)=Var\left(\sum_{j=1}^n p_jX_j\right)=\sum_{j=1}^n p_j^2\left(Var(X_j)\right)=\sum_{j=1}^n p_j^2\sigma^2_j.$$
Para resolver esse problema usaremos o método do lagrange, então queremos:
$$\min_{p_1,p_2,\dots,p_j}\sum_{j=1}^n p_j^2 \sigma_j^2$$
com $\sum_{j=1}^n p_j=1$ e $p_j> 0, \forall j=1, \dots, n.$
Então,
$$L=\sum_{j=1}^n p_j^2\sigma_j^2+\lambda\left(1-\sum_{j=1}^n p_j\right)$$
então, $\frac{dL}{dp_j=0}$ o que implica que
$$2p_j\sigma_k^2-\lambda =0$$
o que implica que $p_j=\frac{\lambda}{2}\sigma^{-2}_j$. Assim,
$$\sum_{j=1}^n p_j=\frac{\lambda}{2}\sum_{j=1}^n \sigma^{-2}_j=1 $$
o que implica que
$$\lambda=\frac{2}{\displaystyle \sum_{j=1}^n \sigma_j^{-2}}$$
substituindo temos que
$$p_j=\frac{\sigma_j^{-2}}{\displaystyle \sum_{j=1}^n \sigma_j^{-2}}$$
para $j=1,2,\dots,n$, o qual é um ponto de mínimo pois
$$\frac{d^2L}{d^2 p_j}=2\sigma_j^2> 0$$
para $j=1,2,\dots,n$.
 

Exemplo 3.4.17:

Sejam X e Y variáveis aleatórias com variâncias finitas. Mostre que se $Var(X)\neq Var(Y)$, então $X+Y$ e $X-Y$ não são independentes
Primeiramente observe que
$$\mathbb{E}[(X+Y)(X-Y)]=\mathbb{E}[X^2-Y^2]=\mathbb{E}(X^2)-\mathbb{E}(Y^2)$$
Como tem variância finita então temos que
$$\mathbb{E}(X^2)-\mathbb{E}(Y^2)=Var(X)+\left(\mathbb{E}(X)\right)^2-Var(Y)-\left(\mathbb{E}(Y)\right)^2$$
$$=\left(\mathbb{E}(X)-\mathbb{E}(Y)\right)+\left(Var(X)-Var(Y)\right)=\mathbb{E}(X+Y)\mathbb{E}(X-Y)+Var(X)-Var(Y)$$
Então temos que
$$\mathbb{E}[(X+Y)(X-Y)]=\mathbb{E}(X+Y)\mathbb{E}(X-Y)+Var(X)-Var(Y)$$
Agora desde que $Var(X)\neq Var(Y)$, temos que (X+Y) e (X-Y) não são independentes pois isso implica que
$$\mathbb{E}[(X+Y)(X-Y)]\neq \mathbb{E}(X+Y)\mathbb{E}(X-Y)$$
(pois se fossem independentes teríamos que $\mathbb{E}[(X+Y)(X-Y)]= \mathbb{E}(X+Y)\mathbb{E}(X-Y)$)

 

Exemplo 3.4.18:

Seja X uma variável aleatória tendo distribuição $b(n,p)$. Mostre que X tem a mesma distribuição de $X_1+\dots +X_n$, com $X_i$ sendo variáveis aleatórias independentes e identicamente distribuídas que assumem apenas os valores 0,1. Calcule a esperança e a variância de X.

Provaremos que isto vale quando $\mathbb{P}(X_i=1)=p$ para $i=1,2,\dots,n.$
Agora, note que
$$\left[X_1+\dots +X_n=k\right]=\bigcup_{(i_1,i_2,\dots, i_n)\in \Pi}\left([X_{i_1}=1]\cap[X_{i_k}=1]\cap[X_{i_{k}+1}=0]\cap \dots \cap [X_{i_n}=0]\right)$$
no qual $\Pi$ é o conjunto de todas as permutações $(1,2,3,\dots,n)$. Então
$$\mathbb{P}(X_1+\dots+X_n=k)=\sum_{(i_1,i_2,\dots, i_n)\in \Pi} \left(\mathbb{P}(X_1=1)\right)^k\left(1-\mathbb{P}(X_1=1)\right)^{n-k}=\binom{n}{k}p^k(1-p)^{n-k}, k=0,1,\dots,n.$$
Assim, $X_1+\dots X_n \sim b(n,p)$. Desta maneira;
$$\mathbb{E}(X)=\mathbb{E}(X_1+\dots +X_n)=n\mathbb{E}(X_1)=n(0(1-p)+1p)=np$$
$$Var(X)=Var(X_1+\dots+X_n)=nVar(X_1)$$
Mas
$$\mathbb{E}(X_1^2)=0^2(1-p)+1^2p=p$$
Então,
$$Var(X_1)=\mathbb{E}(X_1^2)-\left(X_1\right)^2=p-p^2=p(1-p)$$
Desta forma temos que
$$Var(X)=np(1-p)$$

 

Exemplo 3.4.19:

Seja (X,Y) uniformemente distribuído na seguinte região:

Calcule $Cov(X,Y)$.

Temos que $Cov(X,Y)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)$. Agora, X é simétrico em torno de zero e limitado então integrável, então pelo exemplo 3.3.1, temos que $\mathbb{E}(X)=0$.
Então, $Cov(X,Y)=\mathbb{E}(XY)$. Agora, $A=A_1\cup A_2$, com $A_1=\{(x,y): 0\leq x \leq 1, x-1\leq y\leq 1\}$ e $A_2=\{(x,y): -1\leq x< 0, -x-1\leq y\leq 1\}$, então a Area de $A=3$ logo
$$f(x,y)=\left\{\begin{array}{l}\displaystyle\frac{1}{3},\quad x\in A\\ \\ \\ 0,\quad x\notin A.\end{array}\right.$$
Então,
$$\mathbb{E}(XY)=\int xy f(x,y)dxdy=\int_0^1\int_{x-1}^1 \frac{xy}{3}dxdy+\int_{-1}^0\int_{-x-1}^1 \frac{xy}{3}dxdy = \frac{1}{3}\int_{0}^1 x\left[\frac{y^2}{2}\right]_{x-1}^1dx + \frac{1}{3}\int_{-1}^0 x\left[\frac{y^2}{2}\right]_{-x-1}^1dx$$
$$=-\frac{1}{6}\left\{\int_{0}^1 x^2(x-2)dx +\int_{-1}^0 x^2(x+2)dx\right\}=-\frac{1}{6}\left\{\left[\frac{x^4}{4}-\frac{2x^3}{3}\right]_0^1 +\left[\frac{x^4}{4}+\frac{2x^3}{3}\right]_{-1}^0\right\} $$
$$=0$$

 

 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]