3.4 - Momentos

Você está aqui

Seja $ X $ uma variável aleatória. Se $ \mathbb{E}(X^r) \ \textless \ \infty $, dizemos que  $ \mathbb{E}(X^r) $ é o r-ésimo momento de $ X $.

O r-ésimo momento em torno de $ \alpha\in\mathbb{R} $ é definido como sendo $ \mathbb{E}((X-\alpha)^r) $, caso este valor esperado exista. Se $ \alpha=\mathbb{E}(X) $ então ele é chamado de r-ésimo momento central. Observamos que $ \text{Var}(X)=\mathbb{E}[(X-\mathbb{E}(X))^2] $, ou seja, a variância $ \text{Var}(X) $ é definida como sendo o segundo momento central. Uma definição mais detalhada da variância e de suas propriedades pode ser encontrada na Seção 4.

Função geradora de momentos

Definição 3.4.1: 

Seja $ X $ uma variável aleatória. A função geradora de momentos da variável $ X $ é definida como sendo a função


\[M_{X}(t)=\mathbb{E}(e^{tX})\]

 

desde que $ \mathbb{E}(e^{tX}) $ exista em algum intervalo do tipo $ (-h,h) $ para algum número real $ h \ \textgreater \ 0 $.

A função geradora de momentos possui esse nome pois, a partir dela, podemos encontrar todos os momentos da variável aleatória $ X $ (quando estes existem). A função só precisa estar definida em uma vizinhança do ponto zero, pois os momentos serão obtidos através de sucessivas diferenciações aplicadas em zero, utilizando o resultado abaixo.

Teorema 3.4.1:

Seja $ X $ uma variável aleatória. Como $ \mathbb{E}(e^{tX}) $ está definido para $ t\in (-h,h) $ para algum $ h\in\mathbb{R} $, temos que


\[M_{X}^{(n)}(t)=\frac{d^n}{dt^n}\mathbb{E}\left(e^{tX}\right)=\mathbb{E}\left(\frac{d^n}{dt^n}e^{tX}\right) = \mathbb{E}\left(X^ne^{tX}\right).\]

 

Observamos que


\[M_{X}^\prime(t)=\frac{d}{dt}\mathbb{E}\left(e^{tX}\right)=\mathbb{E}\left(\frac{d}{dt}e^{tX}\right)=\mathbb{E}\left(Xe^{tX}\right)\]

 

e, no ponto $ t = 0 $ temos que $ M_{X}^\prime(0)=\mathbb{E}(X) $. Similarmente temos que:


\[M_{X}^{\prime\prime}(t)=\frac{d^2}{dt^2}\mathbb{E}\left(e^{tX}\right)=\mathbb{E}\left(\frac{d^2}{dt^2}e^{tX}\right)=\mathbb{E}\left(X^2e^{tX}\right)\]

 

e, se calcularmos $ M_X^{\prime\prime}(t) $ no ponto $ t=0 $, temos que $ M_{X}^{\prime\prime}(0)=\mathbb{E}(X^2) $. Por indução, é fácil perceber que:


\[M_{X}^{(n)}(t)=\frac{d^n}{dt^n}\mathbb{E}\left(e^{tX}\right)=\mathbb{E}\left(X^ne^{tX}\right).\]

 

de onde segue que $ M_X^{(n)}(0) = \mathbb{E}(X^n) $.

Portanto, se queremos encontrar o n-ésimo momento da variável aleatória $ X $, basta derivarmos sua função geradores de momentos (quando esta existir) $ n $ vezes e então calcular o seu valor no ponto $ t = 0 $.

Função geradora de momentos de variáveis aleatórias discretas.

Definição 3.4.2:

Seja $ X $ uma variável aleatória discreta que assume valores em $ \mathcal{R}_X $. A função geradora de momentos de $ X $, quando existe, é então calculada da seguinte forma:


\[M_{X}(t)=\mathbb{E}\left(e^{tX}\right)=\sum_{x\in\mathcal{R}_X}e^{tx}p(x),\]

 

em que $ p(x) $ é a função de probabilidade da variável aleatória $ X $, isto é, $ p(x) = \mathbb{P}(X=x) $

A seguir, apresentamos alguns exemplos de funções geradoras de momentos para algumas variáveis aleatórias discretas (veremos com mais detalhes essas variáveis aleatórias na seção 5).

Exemplo 3.4.1:

Seja $ X $ uma variável aleatória discreta com distribuição binomial com parâmetros $ n $ e $ p $, ou seja, $ X\sim b(n,p) $. Então


\[M_{X}(t)=\mathbb{E}\left(e^{tX}\right)=\sum_{x=0}^{n}e^{tx}\left(\begin{array}{c}n\\x\end{array}\right)p^x(1-p)^{n-x}=\sum_{x=0}^{n}\left(\begin{array}{c}n\\x\end{array}\right)(e^t p)^x(1-p)^{n-x}=(pe^t+1-p)^{n}.\]

 

Podemos encontrar a média e a variância através da função geradora de momentos. Assim

\[M^\prime_X(t)=\frac{d}{dt}(p e^t+ 1-p)^n=n(pe^t+1-p)^{n-1}pe^t.\]

Então como $ \mathbb{E}(X)=M^\prime_X(0)=n(p+1-p)^{n-1}p=np $.

Para encontrarmos a variância basta derivarmos mais uma vez a função $ M_X(t) $Assim temos que:


\[M^{\prime\prime}_X(t)=\frac{d^2}{dt^2}(p e^t+ 1-p)^n=n(n-1)(pe^t+1-p)^{n-2}pe^t pe^t+pe^t n(pe^t+1-p)^{n-1}\]

 

e, portanto,


\[M^{\prime\prime}_X(t)=n(n-1)(pe^t+1-p)^{n-2}(pe^t)^2+npe^t (pe^t+1-p)^{n-1}.\]

 

Logo, segue que $ \mathbb{E}\left(X^2\right)=M^{\prime\prime}_X(0)=n(n-1)p^2+ pn $, então obtemos que:


\[\text{Var}(X)=\mathbb{E}(X^2)-\mathbb{E}^2(X)=[n(n-1)p^2+pn] -(np)^2=np^2(n-1)+np-n^2p^2=np(1-p).\]

 

Exemplo 3.4.2:

Seja $ X $ uma variável aleatória discreta com distribuição de Poisson, com parâmetro $ \lambda $, ou seja, $ X\sim Po({\lambda}) $. Então


\[M_{X}(t)=\mathbb{E}[e^{tX}]=\sum_{k=0}^{\infty}\frac{e^{tk}e^{\lambda}\lambda^k}{k!}=e^{-\lambda}\sum_{k=0}^{\infty}\frac{(\lambda e^t)^k}{k!}=e^{-\lambda}e^{\lambda e^t}=e^{\lambda[e^t-1]}.\]

 

Exemplo 3.4.3: 

Seja $ X $ uma variável aleatória discreta com distribuição geométrica com parâmetro p, ou seja, $ X\sim \ \text{Geo}(p) $. Então


\[M_{X}(t)=\mathbb{E}[e^{tX}]=\sum_{k=0}^{\infty}e^{tk}(1-p)^{k-1}p=\frac{pe^{t}}{1-(1-p)e^t}.\]

 

A tabela abaixo resume a função geradora de momentos de algumas das principais distribuições discretas já vistas acima.

Distribuição Densidade Média Variância Função Geradora de Momentos
Binomial $ p(x) = \left(\begin{array}{c}n\\x\end{array}\right)p^x(1-p)^{n-x} $ $ np $ $ np(1-p) $ $ (1-p) + pe^t $
Poisson $ p(x) = \frac{e^{-\lambda}\lambda^x}{x!} $ $ \lambda $ $ \lambda $ $ \exp\{\lambda(e^t-1)\} $
Geométrica $ p(x) = p(1-p)^x $ $ \frac{(1-p)}{p} $ $ \frac{(1-p)}{p^2} $ $ \frac{p}{1-(1-p)e^t} $

Exemplo 3.4.4:

Vamos encontrar a função geradora de momentos para calcular a variável aleatória da soma de Poisson independentes, assim sendo, seja $ X~\sim ~Po(\lambda_1) $ e $ Y~\sim ~Po(\lambda_2) $.


\[M_{X+Y}(t)=\mathbb{E}(e^{(X+Y)t})=\mathbb{E}(e^{Xt}e^{Yt})=\mathbb{E}(e^{Xt})\mathgbb{E}(e^{Yt})=M_X(t)M_Y(t)=e^{(\lambda_1\lambda_2)(e^t - 1)}\]

 

Pela unicidade da função geradora de momentos, temos que a soma de variáveis aleatórias independentes que seguem uma distribuição de Poisson, também possui uma distribuição de Poisson. Ou seja, $ X+Y~\sim ~Po(\lambda_1+\lambda_2) $. Por indução finita podemos concluir que se $ X_i~\sim ~Po(\lambda_i) $, então $ \displaystyle\sum_{i=1}^{n}X_i~\sim ~Po\left(\displaystyle\sum_{i=1}^{n}\lambda_i \right) $.

Exemplo 3.4.5:

Vamos utilizar a função geradora de momentos para encontrar a distribuição de $ X+Y $, sabendo que $ X $ e $ Y $ são independentes com $ X~\sim ~b(n,p) $ e $ Y~\sim ~b(m,p) $.


\[M_{X+Y}(t)=\mathbb{E}(e^{(X+Y)t})=\mathbb{E}(e^{Xt}e^{Yt})=\mathbb{E}(e^{Xt})\mathbb{E}(e^{Yt})=M_X(t)M_Y(t)=(pe^t+ 1-p)^{m+n}.\]

 

Da mesma forma que o exemplo anterior concluímos pela unicidade da função geradora de momentos que $ X+Y~\sim ~b(m+n,p) $. Assim por indução finita concluímos que $ X_i~\sim ~ b(n_i,p) $, então $ \displaystyle\sum_{i=1}^{k}X_i~\sim ~b\left(\displaystyle\sum_{i=1}^{k}n_i,p \right) $

Função geradora de momentos de variáveis aleatórias contínuas.

Assim como foi definido para variáveis aleatórias discretas, temos a seguinte definição para a função geradora de momentos de uma variável aleatória contínua

Definição 3.4.3:

Seja $ X $ uma variável aleatória contínua. A função geradora de momentos, também denotada por $ M_X(t) $ é dada por:


\[M_{X}(t)=\mathbb{E}[e^{tX}]=\int_{-\infty}^{\infty}e^{tx}f(x)dx\]

 

em que $ f(x) $ é a função densidade de probabilidade de $ X $. A seguir, vamos calcular a função geradora de momentos para algumas variáveis aleatórias contínuas, sendo que veremos cada uma delas com mais detalhes no seção 6.

Exemplo 3.4.6: 

Seja $ X $ uma variável aleatória contínua com distribuição exponencial de parâmetro $ \lambda $, ou seja, $ X\sim \ \text{Exp}(\lambda) $. Então, temos que


\[M_{X}(t)=\mathbb{E}[e^{tX}]=\int_{-\infty}^{\infty}e^{tx}\lambda e^{-\lambda x}dx=\lambda \int_{0}^{\infty}e^{-(\lambda-t)x}dx=\frac{\lambda}{\lambda -t},~~~t\textless\lambda.\]

 

Exemplo 3.4.7:

Seja $ X $ uma variável aleatória contínua com distribuição normal com média $ \mu=0 $ e variância $ \sigma^2=1 $, ou seja, $ X\sim N(0,1) $. Então


\[M_{X}(t)=\mathbb{E}[e^{tX}]=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e^{tx}e^{-x^2/2}dx=\frac{e^{t^2/2}}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e^{-(x-t)^2/2}dx=e^{t^2/2}.\]

 

Exemplo 3.4.8:

Seja $ X $ uma variável aleatória contínua com distribuição normal com média $ \mu $ e variância $ \sigma^2 $, ou seja, $ X \sim N(\mu,\sigma^2) $ e seja $ Z\sim N(0,1) $. Então $ X=\sigma Z+\mu $. Assim sendo, podemos usar a função geradora de momentos de $ Z $ para calcular a função geradora de momentos de X, da seguinte forma:


\[M_X(t)=\mathbb{E}[e^{tX}]=\mathbb{E}[e^{t(\sigma Z+ \mu)}]=e^{t\mu}\mathbb{E}[e^{t\sigma Z}]=e^{t\mu}e^{\frac{(t\sigma)^2}{2}}=\exp\left\{\frac{\sigma^2 t^2}{2}+ \mu t\right\}.\]

 

Vamos calcular a variância e a média de X a partir da função geradora de momentos.


\[M^\prime_X(t)=\frac{d}{dt}\exp\left\{\frac{\sigma^2t^2}{2}+ \mu t\right\}=(\mu+t\sigma^2)\exp\left\{\frac{\sigma^2t^2}{2}+ \mu t\right\}\]

 

e


\[M^{\prime\prime}_X(t)=\frac{d^2}{dt^2}\exp\left\{\frac{\sigma^2t^2}{2}+ \mu t\right\}=(\mu+ t\sigma^2)^2 \exp\left\{\frac{\sigma^2t^2}{2}+ \mu t\right\}+ \sigma^2 \exp\left\{\frac{\sigma^2t^2}{2}+ \mu t\right\}\]

 

E, portanto, $ \mathbb{E}[X]=M^\prime_X(0)=\mu $ e $ \mathbb{E}[X^2]=\mu^2+\sigma^2 $ de onde segue que a variância é dada por


\[\text{Var}(X)=\mathbb{E}(X^2)-\mathbb{E}^2(X)=\mu^2-\sigma^2-\mu^2=\sigma^2.\]

 

Uma demonstração alternativa deste fato pode ser vista no seção 6.2.

Exemplo 3.4.9:

Se $ X\sim N(\mu_1,\sigma_1^2) $ e $ Y\sim N(\mu_2,\sigma_2^2) $ são variáveis aleatórias independentes, então $ X+Y\sim N(\mu_1+ \mu_2,\sigma_1^2+\sigma_2^2) $.

De fato,


\[M_{X+Y}(t)=\mathbb{E}(e^{(X+Y)t})=\mathbb{E}(e^{Xt}e^{Yt})=\mathbb{E}(e^{Xt})\mathbb{E}(e^{Yt})=M_X(t)M_Y(t)\]

 

de onde segue que


\[M_{X+Y}(t)=\exp\left\{\frac{\sigma_1^2 t^2}{2}+ \mu_1 t\right\}\exp\left\{\frac{\sigma_2^2 t^2}{2}+ \mu_2 t\right\}=\exp\left\{ \frac{(\sigma_1^2+\sigma_2^2)t^2}{2}+(\mu_1+\mu_2)t\right\}.\]

 

Assim pela unicidade da função geradora de momentos concluímos que $ X+Y\sim N(\mu_1+ \mu_2,\sigma_1^2+\sigma_2^2) $. Por indução finita podemos concluir que se $ X_i~\sim ~ N(\mu_i,\sigma_i^2) $, então $ \displaystyle\sum_{i=1}^{k}X_i~\sim ~N\left(\displaystyle\sum_{i=1}^{k}\mu_i,\sum_{i=1}^{k}\sigma_i\right) $.

 

Exemplo 3.4.10:

Suponha que a variável aleatória X tenha a seguinte densidade "triangular":

$$f(x)=\begin{array}{l}1+x,\quad se \quad\quad -1\leq x\leq 0\\ \\ 1-x , \quad se \quad\quad 0\textless x\leq 1, \\ \\ 0 , \quad se \quad\quad x\textless -1 \quad ou \quad x\textgreater 1.\end{array}$$

Calcule $ \mathbb{E}(X) $ e $ Var(X) $.

$$\mathbb{E}\left(X\right)=\int_{-\infty}^\infty x f(x)dx=\int_{-1}^0 x(1+x)dx+\int_{0}^1x(1-x)dx=\left[\frac{x^2}{2}+\frac{x^3}{3}\right]_{-1}^0+ \left[\frac{x^2}{2}+\frac{x^3}{3}\right]_{0}^1=-\frac{1}{2}+\frac{1}{3}+\frac{1}{2}-\frac{1}{3}=0$$

$$\mathbb{E}(X^2)=\int_{-\infty}^\infty x^2 f(x)dx =\int_{-1}^0x^2(1+x)dx+\int_{0}^1 x^2(1+x)dx=\left[\frac{x^3}{3}+\frac{x^4}{4}\right]_{-1}^0 + \left[\frac{x^3}{3}+\frac{x^4}{4}\right]_{0}^1=\frac{1}{3}-\frac{1}{4}+\frac{1}{3}-\frac{1}{4}=\frac{1}{6}$$

Então,

$$Var(X)=\mathbb{E}(X^2)-\mathbb{E}^2(X)=\frac{1}{6}$$

 

Exemplo 3.4.11:

(a) Prove: se a variável aleatória X é limitada, então tem momentos finitos de toda ordem.

X é limitada o que implica que existe $ k\textgreater 0 $ tal que $ |X|\textless k $ o que implica que $ \mathbb{E}(|X|)\textless k $ o que implica que X é integrável. Agora, se X é limitada $ |X|^t\textless k^t $, $ t\textgreater 0 $ o que implica que $ \mathbb{E}(|X|^t)\textless k^t $ o que implica que $ X^t $ é integrável. Assim, X terá momentos finitos de toda ordem.

(b) Seja A um evento aleatória. Calcule todos os momentos absolutos da variáveis aleatória $ X=\mathds{1}_A $.
Temos que $ X^t=\left(\mathds{1}_A\right)^t=\mathds{1}_A $ o que implica que

$$\mathbb{E}(X^t)=\mathbb{E}(X)=\mathbb{E}(\mathds{1}_A)=\int_A f_x(x)dx=\mathbb{P}(X\in A), \forall t \in A$$

(c) Demonstre: se $ X\sim N(\mu,\sigma^2) $, então todos os momentos absolutos de X são finitos.

(d) Seja $ X\sim Cauchy(0,1) $.
Quais são os momentos absolutos finitos de X?

 

Exemplo 3.4.12:

 Obtenha as variância de $ Z $ e $ W $ dadas por

$$f_Z(z)=\left\{\begin{array}{l}2(1-z), 0\leq z\leq 1 \\ \\ \\ 0, \text{ Caso Contrário.}\end{array}\right.$$

$$f_W(w)=\left\{\begin{array}{l}2w, 0\leq w\leq 1 \\ \\ \\ 0, \text{ Caso Contrário.}\end{array}\right.$$

Agora, já sabemos que $ \mathbb{E}(Z)=\frac{1}{3} $ e $ \mathbb{E}(W)=\frac{2}{3} $. Agora,

$$\mathbb{E}(Z^2)=\int_{-\infty}^\infty z^2f_Z(z)dz =\int_0^1 2z^2(1-z)dz=\left(\frac{2}{3}z^3-\frac{z^4}{2}\right)_0^1=\frac{2}{3}-\frac{1}{2}=\frac{1}{6}$$

e

$$\mathbb{E}(W^2)=\int_{-\infty}^\infty w^2f_W(w)dw =\int_0^1 2w^3dw=\left(\frac{w^4}{2}\right)_0^1=\frac{1}{2}$$

Então,

$$Var(Z)=\mathbb{E}(Z^2)-\mathbb{E}^2(Z)=\frac{1}{6}-\frac{1}{9}=\frac{1}{18}$$

$$Var(W)=\mathbb{E}(W^2)-\mathbb{E}^2(W)=\frac{1}{2}-\frac{4}{9}=\frac{1}{18}$$

 

 

Exemplo 3.4.13:

Através de experimentos estatísticos, determina-se que a duração de um certo tipo de chamada telefônica satisfaz a relação

$$\mathbb{P}(T\textgreater t)=ae^{-\lambda t}+(1-a)e^{-\xi t}$$

$ t\geq 0 $, no qual $ 0\leq a\leq 1 $, $ \lambda \textgreater 0 $, $ \xi \textgreater 0 $. Ache a média e a variância de T.
Temos que T é uma variável não-negativa, então:

$$\mathbb{E}(T)=\int_0^\infty \mathbb{P}(T\textgreater t)dt=\int_0^\infty a e^{-\lambda t}dt+\int_0^\infty (1-a)e^{-\xi t}dt= a \int_0^\infty  e^{-\lambda t}dt+(1-a)\int_0^\infty e^{-\xi t}dt$$

o que implica que $ \mathbb{E}(T)=\frac{a}{\lambda}+\frac{(1-a)}{\xi} $. Agora $ T^2 $ é também variável aleatória não-negativa, então:

$$\mathbb{E}(T^2)=2\int_0^\infty t \mathbb{P}(T\textgreater t)dt=2\left\{ a \int_0^\infty  te^{-\lambda t}dt+(1-a)\int_0^\infty t e^{-\xi t}dt\right\}=2\left[\frac{a}{\lambda^2}+\frac{(1-a)}{\xi^2}\right]$$

Assim,

$$Var(T)=\mathbb{E}(T^2)-\left(\mathbb{E}(T)\right)^2=2\left[\frac{a}{\lambda^2}+\frac{1-a}{\xi^2}\right]- \left[\frac{a}{\lambda}-\frac{1-a}{\xi}\right]^2$$

 

Exemplo 3.4.14:

Prove que se X assume valores somente no intervalo $ [a,b] $, então $ a\leq \mathbb{E}(X)\leq b $ e $ Var(X)\leq \frac{(b-a)^2}{4} $. Exiba uma variável aleatória que atinge a variância máxima.

Defina uma variável $ Y $ tal que $ 0\leq Y \leq 1 $ o que implica que $ 0\leq \mathbb{E}(Y)\leq 1 $. Agora, seja m uma mediana de Y então

$$Var(Y)=Var(Y-m)\leq \mathbb{E}(Y-m)^2=\int_0^m (Y-m)^2 dF_Y+ \int_m^1 (Y-m)^2 dF_Y\leq m^2 \mathbb{P}(Y\leq m)+ (1-m^2)\mathbb{P}(Y\geq m) \leq \frac{1}{2}m^2+\frac{1}{2}(1- m^2)=m^2- m +\frac{1}{2}=\left(m-\frac{1}{2}\right)^2+\frac{1}{4}\leq \frac{1}{4}$$

Resumindo $ Var(Y)\leq \frac{1}{4} $. Agora tome $ Y-(b-a)X+a $ o que implica que $ Var(Y)=(b-a)^2Var(X)\leq \frac{(b-a)^2}{4} $ e $ \mathbb{E}(Y)=(b-a)\mathbb{E}(X)+a $ o que implica que $ a\leq \mathbb{E}(Y)\leq b $. A variável aleatória que atinge a variância maxima é

$$\mathbb{P}(X=a)=\mathbb{P}(X=b)=\frac{1}{2}$$

 

Exemplo 3.4.15:

Demonstre que a desigualdade de Jensen é estrita, isto é, $ \mathbb{E}(\varphi(X))\textgreater \varphi\left(\mathbb{E}(X)\right) $, se a função $ \varphi $ é estritamente convexa e X não é constante.

Temos que $ \varphi(x) $ é estritamente convexa. Então, para $ X\neq X_0 $ temos

$$\varphi(x)\textgreater \varphi(x_0)+\lambda (x-x_0)$$

Agora, fazendo $ X_0=\mathbb{E}(X) $ e como

$$\mathbb{P}(X\neq X_0)=\mathbb{P}(X\neq \mathbb{E}(X))=\mathbb{P}(|X-\mathbb{E}(X)|\textgreater 0)$$

pois $ \mathbb{P}(X=X_0)\textless 1, $ para todo $ X_0\in \mathbb{R} $ (X não é constante), então:

$$\mathbb{E}(\varphi(X))\textgreater \varphi(X_0)+\lambda \mathbb{E}(X-X_0)=\varphi(\mathbb{E}(X)).$$

 

 

Exemplo 3.4.16:

Sejam $ X_1,\dots, X_n $ variáveis aleatórias independentes com $ \mathbb{E}(X_j)=\mu_j $ e $ Var(X_j)=\sigma_j^2 $. Considere combinações lineares

$$Y=\sum_{j=1}^n p_j X_j$$

no qual $ p_j\geq 0 $ e

$$\sum_{j=1}^n p_j =1$$

Prove que $ Var(Y) $. Prove que $ Var(Y) $ é minimizada pela escolha de

$$p_j=\frac{\sigma^{-2}_j}{\sum_{i=1}^n \sigma^{-2}_i}, \quad \quad j=1, \dots, n.$$

Temos, com $ X_1, \dots, X_n $ são variável aleatória independentes

$$Var(Y)=Var\left(\sum_{j=1}^n p_jX_j\right)=\sum_{j=1}^n p_j^2\left(Var(X_j)\right)=\sum_{j=1}^n p_j^2\sigma^2_j.$$

Para resolver esse problema usaremos o método do lagrange, então queremos:

$$\min_{p_1,p_2,\dots,p_j}\sum_{j=1}^n p_j^2 \sigma_j^2$$

com $ \sum_{j=1}^n p_j=1 $ e $ p_j\textgreater 0, \forall j=1, \dots, n. $
Então,

$$L=\sum_{j=1}^n p_j^2\sigma_j^2+\lambda\left(1-\sum_{j=1}^n p_j\right)$$

então, $ \frac{dL}{dp_j=0} $ o que implica que

$$2p_j\sigma_k^2-\lambda =0$$

o que implica que $ p_j=\frac{\lambda}{2}\sigma^{-2}_j $. Assim,

$$\sum_{j=1}^n p_j=\frac{\lambda}{2}\sum_{j=1}^n \sigma^{-2}_j=1 $$

o que implica que

$$\lambda=\frac{2}{\displaystyle \sum_{j=1}^n \sigma_j^{-2}}$$

substituindo temos que

$$p_j=\frac{\sigma_j^{-2}}{\displaystyle \sum_{j=1}^n \sigma_j^{-2}}$$

para $ j=1,2,\dots,n $, o qual é um ponto de mínimo pois

$$\frac{d^2L}{d^2 p_j}=2\sigma_j^2\textgreater 0$$

para $ j=1,2,\dots,n $.
 

Exemplo 3.4.17:

Sejam X e Y variáveis aleatórias com variâncias finitas. Mostre que se $ Var(X)\neq Var(Y) $, então $ X+Y $ e $ X-Y $ não são independentes
Primeiramente observe que

$$\mathbb{E}[(X+Y)(X-Y)]=\mathbb{E}[X^2-Y^2]=\mathbb{E}(X^2)-\mathbb{E}(Y^2)$$

Como tem variância finita então temos que

$$\mathbb{E}(X^2)-\mathbb{E}(Y^2)=Var(X)+\left(\mathbb{E}(X)\right)^2-Var(Y)-\left(\mathbb{E}(Y)\right)^2$$

$$=\left(\mathbb{E}(X)-\mathbb{E}(Y)\right)+\left(Var(X)-Var(Y)\right)=\mathbb{E}(X+Y)\mathbb{E}(X-Y)+Var(X)-Var(Y)$$

Então temos que

$$\mathbb{E}[(X+Y)(X-Y)]=\mathbb{E}(X+Y)\mathbb{E}(X-Y)+Var(X)-Var(Y)$$

Agora desde que $ Var(X)\neq Var(Y) $, temos que (X+Y) e (X-Y) não são independentes pois isso implica que

$$\mathbb{E}[(X+Y)(X-Y)]\neq \mathbb{E}(X+Y)\mathbb{E}(X-Y)$$

(pois se fossem independentes teríamos que $ \mathbb{E}[(X+Y)(X-Y)]= \mathbb{E}(X+Y)\mathbb{E}(X-Y) $)

 

Exemplo 3.4.18:

Seja X uma variável aleatória tendo distribuição $ b(n,p) $. Mostre que X tem a mesma distribuição de $ X_1+\dots +X_n $, com $ X_i $ sendo variáveis aleatórias independentes e identicamente distribuídas que assumem apenas os valores 0,1. Calcule a esperança e a variância de X.

Provaremos que isto vale quando $ \mathbb{P}(X_i=1)=p $ para $ i=1,2,\dots,n. $
Agora, note que

$$\left[X_1+\dots +X_n=k\right]=\bigcup_{(i_1,i_2,\dots, i_n)\in \Pi}\left([X_{i_1}=1]\cap[X_{i_k}=1]\cap[X_{i_{k}+1}=0]\cap \dots \cap [X_{i_n}=0]\right)$$

no qual $ \Pi $ é o conjunto de todas as permutações $ (1,2,3,\dots,n) $. Então

$$\mathbb{P}(X_1+\dots+X_n=k)=\sum_{(i_1,i_2,\dots, i_n)\in \Pi} \left(\mathbb{P}(X_1=1)\right)^k\left(1-\mathbb{P}(X_1=1)\right)^{n-k}=\binom{n}{k}p^k(1-p)^{n-k}, k=0,1,\dots,n.$$

Assim, $ X_1+\dots X_n \sim b(n,p) $. Desta maneira;

$$\mathbb{E}(X)=\mathbb{E}(X_1+\dots +X_n)=n\mathbb{E}(X_1)=n(0(1-p)+1p)=np$$

$$Var(X)=Var(X_1+\dots+X_n)=nVar(X_1)$$

Mas

$$\mathbb{E}(X_1^2)=0^2(1-p)+1^2p=p$$

Então,

$$Var(X_1)=\mathbb{E}(X_1^2)-\left(X_1\right)^2=p-p^2=p(1-p)$$

Desta forma temos que

$$Var(X)=np(1-p)$$

 

Exemplo 3.4.19:

Seja (X,Y) uniformemente distribuído na seguinte região:

Calcule $ Cov(X,Y) $.

Temos que $ Cov(X,Y)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y) $. Agora, X é simétrico em torno de zero e limitado então integrável, então pelo exemplo 3.3.1, temos que $ \mathbb{E}(X)=0 $.
Então, $ Cov(X,Y)=\mathbb{E}(XY) $. Agora, $ A=A_1\cup A_2 $, com  0\leq x \leq 1, x-1\leq y\leq 1\} $ e  -1\leq x\textless 0, -x-1\leq y\leq 1\} $, então a Area de $ A=3 $ logo

$$f(x,y)=\left\{\begin{array}{l}\displaystyle\frac{1}{3},\quad x\in A\\ \\ \\ 0,\quad x\notin A.\end{array}\right.$$

Então,

$$\mathbb{E}(XY)=\int xy f(x,y)dxdy=\int_0^1\int_{x-1}^1 \frac{xy}{3}dxdy+\int_{-1}^0\int_{-x-1}^1 \frac{xy}{3}dxdy = \frac{1}{3}\int_{0}^1 x\left[\frac{y^2}{2}\right]_{x-1}^1dx + \frac{1}{3}\int_{-1}^0 x\left[\frac{y^2}{2}\right]_{-x-1}^1dx$$

$$=-\frac{1}{6}\left\{\int_{0}^1 x^2(x-2)dx +\int_{-1}^0 x^2(x+2)dx\right\}=-\frac{1}{6}\left\{\left[\frac{x^4}{4}-\frac{2x^3}{3}\right]_0^1 +\left[\frac{x^4}{4}+\frac{2x^3}{3}\right]_{-1}^0\right\} $$

$$=0$$

 

 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]