3.1 - Valor esperado de variáveis aleatórias discretas e de vetores discretos

Você está aqui

Definição 3.1.1:

Seja $ X $ uma variável aleatória discreta que assume os valores $ \{x_1,x_2,\ldots\} $e seja $ p(x) $ a função de probabilidade de $ X $, isto é, $ p(x_i) = \mathbb{P}(X = x_i) $. Então, o valor esperado de $ X $, também chamado de esperança de $ X $ e denotado por $ \mathbb{E}(X) $ ou $ \mu_X $, é definido por


\[\mathbb{E}(X)= \mu_X=\sum_{i=1}^\infty x_i p(x_i) = \sum_{i=1}^\infty x_i\mathbb{P}(X = x_i).\]

 

Este número também é denominado valor médio ou expectância de X. Observamos que o valor esperado $ \mathbb{E}(X) $ só está definido se a série acima for absolutamente convergente, ou seja, se


\[\mathbb{E}(X)=\sum_{i=1}^{\infty} |x_i| \mathbb{P}(X=x_i) \ \textless \ \infty.\]

 

Observação 3.1.1: 

Se $ X $ tomar apenas um número finito de valores, a expressão acima se torna $ \mathbb{E}(X)=\sum_{i=1}^n x_i\mathbb{P}(X=x_i) $. Neste caso, o valor esperado pode ser considerado como uma média ponderada dos possíveis valores $ x_1,x_2,\ldots,x_n $. Se todos esses valores possíveis forem equiprováveis, $ \mathbb{E}(X)=\frac{1}{n}\displaystyle\sum_{i=1}^n x_i $, que representa a média aritmética simples dos n possíveis valores.

Exemplo 3.1.1:

Consideremos o lançamento de um dado equilibrado. Consideremos a variável aleatória $ X = \ \text{``número da face voltada para cima''} $. Calcular o valor esperado de $ X $.

Sabemos que os valores possíveis de $ X $ são $ \{1, 2, 3, 4, 5, 6\} $ e que esses valores são equiprováveis. Assim,


\[\mathbb{E}(X)=\frac{1}{6}(1+2+3+4+5+6)=\frac{7}{2}.\]

 

Observação 3.1.2:

Este exemplo ilustra claramente que $ \mathbb{E}(X) $ não é o resultado que podemos esperar quando $ X $ for observado uma única vez. De fato, temos que $ \mathbb{E}(X) = 7/2 $ nem é um possível valor de $ X $. Esse valor na verdade significa que se jogássemos o dado um grande número de vezes e depois calculássemos a média aritmética dos vários resultados, esperaríamos que essa média ficasse próxima de 7/2  e quanto maior fosse o número de vezes que o dado fosse lançado, mais a média aritmética se aproximaria de 7/2.

Dado $ X $ uma variável aleatória discreta assumindo valores em $ \mathcal{R}_X=\{x_1, x_2, \cdots \} $ e com função de distribuição $ p_X $. Seja  \Bbb{R} \rightarrow \Bbb{R} $ uma função real. A variável aleatória $ Y=g(X) $ tem função de distribuição dada por


g(x) = y\}}\mathbb{P}[X=x]. \]

 

Assim, obtemos o seguinte resultado.

Teorema 3.1.1:

Seja $ X $ uma variável aleatória discreta que assume valores em $ \mathcal{R}_X $ com função de probabilidade $ p(x) $ e  \mathbb{R} \rightarrow \mathbb{R} $ uma função. Temos então que


\[\mathbb{E}[g(X)]= \sum_{x_i\in\mathcal{R}_X}g(x_i)p(x_i) = \sum_{x_i\in\mathcal{R}_X}g(x_i)\mathbb{P}(X=x_i).\]

 

De fato, considerando a variável aleatória $ Y $ dada por $ Y=g(X) $, temos que


g(x)=y\}}g(x) \mathbb{P}(X = x)\]

 

de onde concluímos que


\[\mathbb{E}[g(X)] = \sum_{i=1}^{n}g(x_i)\mathbb{P}(X = x_i)\]

 

Exemplo 3.1.2:

Seja $ X $ uma variável aleatória com distribuição de probabilidade dada na tabela abaixo:

$ X $ -2 -1 0 1 2
$ \mathbb{P}(X = x) $ 1/5 1/5 1/5 1/5 1/5

e seja $ g(X)=X^{2} $. Vamos calcular o valor esperado de $ X $ e de $ g(X) $.

O valor esperado de $ X $ é dado por


\[\mathbb{E}(X)= \sum_{i=1}^{5}x_i \mathbb{P}(X = x_i)=-2\frac{1}{5}-1\frac{1}{5}+0\frac{1}{5}+1\frac{1}{5}+2\frac{1}{5}=0.\]

 

Para calcularmos a esperança de $ g(X) $, existem duas possibilidades: utilizando o Teorema 3.1.1 ou através da forma tradicional, isto é, encontrando a distribuição de probabilidade da variável $ Y = g(X) $. Através do Teorema 3.1.1 temos que:


\[\mathbb{E}[g(X)]=\sum_{i=1}^{5}g(x_i)\mathbb{P}(X = x_i)=(-2)^2\frac{1}{5}-1^2\frac{1}{5}+0^2\frac{1}{5}+1^2\frac{1}{5}+2^2\frac{1}{5}=2.\]

 

Para o cálculo através da forma tradicional, inicialmente devemos encontrar a distribuição de probabilidade de $ g(X) $, que é dada por

$ g(X) $ 0 1 4
$ \mathbb{P}(g(X) = g(x)) $ 1/5 2/5 2/5

e então, temos que


\[\mathbb{E}[g(X)]=\sum_{i=1}^{3} g(x_i)\mathbb{P}(g(X) = g(x_i))= 0\frac{1}{5}+1\frac{2}{5}+4\frac{2}{5}=2.\]

 

Exemplo 3.1.3:

Uma indústria alimentícia está participando de três licitações públicas, com lucros possíveis de 30, 50 e 60 mil reais, respectivamente. Se a probabilidade dessa indústria vencer as licitações são de 0,3; 0,7 e 0,2 respectivamente, qual o valor esperado do lucro desta indústria?

Neste caso basta aplicarmos diretamente a definição de valor esperado, ou seja:


\[\mathbb{E}(X)=0,3~\cdot ~ 30 + 0,7~ \cdot ~50 + 0,2~ \cdot~ 60=56.\]

 

Assim, o valor esperado do lucro desta indústria nas licitações é de 56 mil reais.

Valor esperado e funções de vetores aleatórios discretos

Dado $ Z=(X,Y) $ um vetor aleatório discreto e \Bbb{R}^2 \rightarrow \Bbb{R} $ uma função. A função de distribuição da variável aleatória $ W = g(X,Y) $ é dada por:


\[\mathbb{P}\left[W=w\right]=\mathbb{P}\left[(X,Y) \in B_w\right],\]

 

no qual g(x,y)=w\} $. Assim, ao utilizarmos os mesmos argumentos do Teorema 3.1.1, obtemos a seguinte definição para o valor esperado de uma função de um vetor aleatório discreto.

Definição 3.1.2: 

Seja $ \widetilde{Z} = (X,Y) $ um vetor aleatório bidimensional discreto, $ p(x,y) $ a função de probabilidade conjunta de $ \widetilde{Z} $ e \mathbb{R}^2\rightarrow\mathbb{R} $ uma função real Borel mensurável. Então definimos o valor esperado de $ g(\widetilde{Z}) $ por


\[\mathbb{E}[g(\widetilde{Z})]=\sum_{x\in\mathcal{R}_X}\sum_{y\in\mathcal{R}_Y}g(x,y)p(x,y) = \sum_{x\in\mathcal{R}_X}\sum_{y\in\mathcal{R}_Y}g(x,y)\mathbb{P}(X = x; Y = y).\]

 

Observação 3.1.3:

A Definição 3.1.2 acima pode ser generalizada para o caso em que temos uma vetor aleatório n-dimensional.

 

Definição 3.1.3:

Seja $ \widetilde{Z} = (X,Y) $ um vetor aleatório bidimensional discreto, $ p(x,y) $ a função de probabilidade conjunta de $ \widetilde{Z} $ e $ p_{X}(x) $ e $ p_{Y}(y) $ as funções de probabilidade marginais das variáveis $ X $ e $ Y $ respectivamente. Então, temos que o valor esperado das variáveis $ X $ e $ Y $ são dados por


\[\mathbb{E}(X) = \sum_{x\in\mathcal{R}_X}xp_X(x) \quad \text{e} \quad \mathbb{E}(Y) = \sum_{y\in\mathcal{R}_Y}yp_Y(y).\]

 

Além disso, temos que o valor esperado do vetor aleatório $ \widetilde{Z} $ é dado por


\[\mathbb{E}(\widetilde{Z}) = (\mathbb{E}(X),\mathbb{E}(Y))\]

 

Exemplo 3.1.4:

Suponha que uma máquina seja utilizada para determinada tarefa de manhã e para outra tarefa à tarde. Suponha que o número de vezes que a máquina apresenta problema de manhã e à tarde sejam representados, respectivamente, por variáveis aleatórias $ X $ e $ Y $ com função de probabilidade conjunta.

X\Y 0 1 2 $ p_X(x) $
0 0,1 0,2 0,2 0,5
1 0,04 0,08 0,08 0,2
2 0,06 0,12 0,12 0,3
$ p_Y(y) $ 0,2 0,4 0,4 1

Neste caso, temos que


\[\mathbb{E}(X) = \sum_{x\in\mathcal{R}_X}xp_X(x) = 0\cdot 0,5 + 1 \cdot 0,2 + 2\cdot 0,3 = 0,8.\]


\[\mathbb{E}(Y) = \sum_{y\in\mathcal{R}_Y}yp_Y(y) = 0\cdot 0,2 + 1 \cdot 0,4 + 2\cdot 0,4 = 1,2.\]

 

De onde segue que $ \mathbb{E}(\widetilde{Z}) = (\mathbb{E}(X),\mathbb{E}(Y)) = (0,8;1,2) $.

Seja $ g(X,Y) = XY $. Então o valor esperado de $ g(X,Y) $ é dado por


\[\mathbb{E}(g(X,Y)) = 0\cdot 0\cdot p(0,0) + 0\cdot 1\cdot p(0,1) + \ldots + 2\cdot 2\cdot p(2,2) = 0,96.\]

 

Observe que, neste exemplo, para todo $ (x,y)\in\mathcal{R}_X\times\mathcal{R}_Y $, temos que $ p(x,y) = p_X(x)\cdot p_Y(y) $ e, portanto, do Corolário 2.5.2 concluímos que $ X $ e $ Y $ são independentes.

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]