3.1 - Valor esperado de variáveis aleatórias discretas e de vetores discretos

Você está aqui

Definição 3.1.1:

Seja $X$ uma variável aleatória discreta que assume os valores $\{x_1,x_2,\ldots\}$ e seja $p(x)$ a função de probabilidade de $X$, isto é, $p(x_i) = \mathbb{P}(X = x_i)$. Então, o valor esperado de $X$, também chamado de esperança de $X$ e denotado por $\mathbb{E}(X)$ ou $\mu_X$, é definido por

\[\mathbb{E}(X)= \mu_X=\sum_{i=1}^\infty x_i p(x_i) = \sum_{i=1}^\infty x_i\mathbb{P}(X = x_i).\]

 

Este número também é denominado valor médio ou expectância de X. Observamos que o valor esperado $\mathbb{E}(X)$ só está definido se a série acima for absolutamente convergente, ou seja, se

\[\mathbb{E}(X)=\sum_{i=1}^{\infty} |x_i| \mathbb{P}(X=x_i) \ < \ \infty.\]

 

Observação 3.1.1: 

Se $X$ tomar apenas um número finito de valores, a expressão acima se torna $\mathbb{E}(X)=\sum_{i=1}^n x_i\mathbb{P}(X=x_i)$. Neste caso, o valor esperado pode ser considerado como uma média ponderada dos possíveis valores $x_1,x_2,\ldots,x_n$. Se todos esses valores possíveis forem equiprováveis, $\mathbb{E}(X)=\frac{1}{n}\displaystyle\sum_{i=1}^n x_i$, que representa a média aritmética simples dos n possíveis valores.

Exemplo 3.1.1:

Consideremos o lançamento de um dado equilibrado. Consideremos a variável aleatória $X = \ \text{``número da face voltada para cima''}$. Calcular o valor esperado de $X$.

Sabemos que os valores possíveis de $X$ são $\{1, 2, 3, 4, 5, 6\}$ e que esses valores são equiprováveis. Assim,

\[\mathbb{E}(X)=\frac{1}{6}(1+2+3+4+5+6)=\frac{7}{2}.\]

 

Observação 3.1.2:

Este exemplo ilustra claramente que $\mathbb{E}(X)$ não é o resultado que podemos esperar quando $X$ for observado uma única vez. De fato, temos que $\mathbb{E}(X) = 7/2$ nem é um possível valor de $X$. Esse valor na verdade significa que se jogássemos o dado um grande número de vezes e depois calculássemos a média aritmética dos vários resultados, esperaríamos que essa média ficasse próxima de 7/2  e quanto maior fosse o número de vezes que o dado fosse lançado, mais a média aritmética se aproximaria de 7/2.

Dado $X$ uma variável aleatória discreta assumindo valores em $\mathcal{R}_X=\{x_1, x_2, \cdots \}$ e com função de distribuição $p_X$. Seja $g: \Bbb{R} \rightarrow \Bbb{R}$ uma função real. A variável aleatória $Y=g(X)$ tem função de distribuição dada por

\[p_Y (y) = \mathbb{P} [ Y = y] = \sum_{\{x \in \mathcal{R}_X:g(x) = y\}}\mathbb{P}[X=x]. \]

 

Assim, obtemos o seguinte resultado.

Teorema 3.1.1:

Seja $X$ uma variável aleatória discreta que assume valores em $\mathcal{R}_X$ com função de probabilidade $p(x)$ e $g: \mathbb{R} \rightarrow \mathbb{R}$ uma função. Temos então que

\[\mathbb{E}[g(X)]= \sum_{x_i\in\mathcal{R}_X}g(x_i)p(x_i) = \sum_{x_i\in\mathcal{R}_X}g(x_i)\mathbb{P}(X=x_i).\]

 

De fato, considerando a variável aleatória $Y$ dada por $Y=g(X)$, temos que

\[\mathbb{E}(Y)=\sum_{y\in\mathcal{R}_Y} y \mathbb{P}(Y = y) =\sum_{y\in\mathcal{R}_Y} \sum_{\{x:g(x)=y\}}g(x) \mathbb{P}(X = x)\]

 

de onde concluímos que

\[\mathbb{E}[g(X)] = \sum_{i=1}^{n}g(x_i)\mathbb{P}(X = x_i)\]

 

Exemplo 3.1.2:

Seja $X$ uma variável aleatória com distribuição de probabilidade dada na tabela abaixo:

$X$ -2 -1 0 1 2
$\mathbb{P}(X = x)$ 1/5 1/5 1/5 1/5 1/5

e seja $g(X)=X^{2}$. Vamos calcular o valor esperado de $X$ e de $g(X)$.

O valor esperado de $X$ é dado por

\[\mathbb{E}(X)= \sum_{i=1}^{5}x_i \mathbb{P}(X = x_i)=-2\frac{1}{5}-1\frac{1}{5}+0\frac{1}{5}+1\frac{1}{5}+2\frac{1}{5}=0.\]

 

Para calcularmos a esperança de $g(X)$, existem duas possibilidades: utilizando o Teorema 3.1.1 ou através da forma tradicional, isto é, encontrando a distribuição de probabilidade da variável $Y = g(X)$. Através do Teorema 3.1.1 temos que:

\[\mathbb{E}[g(X)]=\sum_{i=1}^{5}g(x_i)\mathbb{P}(X = x_i)=(-2)^2\frac{1}{5}-1^2\frac{1}{5}+0^2\frac{1}{5}+1^2\frac{1}{5}+2^2\frac{1}{5}=2.\]

 

Para o cálculo através da forma tradicional, inicialmente devemos encontrar a distribuição de probabilidade de $g(X)$, que é dada por

$g(X)$ 0 1 4
$\mathbb{P}(g(X) = g(x))$ 1/5 2/5 2/5

e então, temos que

\[\mathbb{E}[g(X)]=\sum_{i=1}^{3} g(x_i)\mathbb{P}(g(X) = g(x_i))= 0\frac{1}{5}+1\frac{2}{5}+4\frac{2}{5}=2.\]

 

Exemplo 3.1.3:

Uma indústria alimentícia está participando de três licitações públicas, com lucros possíveis de 30, 50 e 60 mil reais, respectivamente. Se a probabilidade dessa indústria vencer as licitações são de 0,3; 0,7 e 0,2 respectivamente, qual o valor esperado do lucro desta indústria?

Neste caso basta aplicarmos diretamente a definição de valor esperado, ou seja:

\[\mathbb{E}(X)=0,3~\cdot ~ 30 + 0,7~ \cdot ~50 + 0,2~ \cdot~ 60=56.\]

 

Assim, o valor esperado do lucro desta indústria nas licitações é de 56 mil reais.

Valor esperado e funções de vetores aleatórios discretos

Dado $Z=(X,Y)$ um vetor aleatório discreto e $g:\Bbb{R}^2 \rightarrow \Bbb{R}$ uma função. A função de distribuição da variável aleatória $W = g(X,Y)$ é dada por:

\[\mathbb{P}\left[W=w\right]=\mathbb{P}\left[(X,Y) \in B_w\right],\]

 

no qual $B_w = \{(x,y):g(x,y)=w\}$. Assim, ao utilizarmos os mesmos argumentos do Teorema 3.1.1, obtemos a seguinte definição para o valor esperado de uma função de um vetor aleatório discreto.

Definição 3.1.2: 

Seja $\widetilde{Z} = (X,Y)$ um vetor aleatório bidimensional discreto, $p(x,y)$ a função de probabilidade conjunta de $\widetilde{Z}$ e $g:\mathbb{R}^2\rightarrow\mathbb{R}$ uma função real Borel mensurável. Então definimos o valor esperado de $g(\widetilde{Z})$ por

\[\mathbb{E}[g(\widetilde{Z})]=\sum_{x\in\mathcal{R}_X}\sum_{y\in\mathcal{R}_Y}g(x,y)p(x,y) = \sum_{x\in\mathcal{R}_X}\sum_{y\in\mathcal{R}_Y}g(x,y)\mathbb{P}(X = x; Y = y).\]

 

Observação 3.1.3:

A Definição 3.1.2 acima pode ser generalizada para o caso em que temos uma vetor aleatório n-dimensional.

 

Definição 3.1.3:

Seja $\widetilde{Z} = (X,Y)$ um vetor aleatório bidimensional discreto, $p(x,y)$ a função de probabilidade conjunta de $\widetilde{Z}$ e $p_{X}(x)$ e $p_{Y}(y)$ as funções de probabilidade marginais das variáveis $X$ e $Y$ respectivamente. Então, temos que o valor esperado das variáveis $X$ e $Y$ são dados por

\[\mathbb{E}(X) = \sum_{x\in\mathcal{R}_X}xp_X(x) \quad \text{e} \quad \mathbb{E}(Y) = \sum_{y\in\mathcal{R}_Y}yp_Y(y).\]

 

Além disso, temos que o valor esperado do vetor aleatório $\widetilde{Z}$ é dado por

\[\mathbb{E}(\widetilde{Z}) = (\mathbb{E}(X),\mathbb{E}(Y))\]

 

Exemplo 3.1.4:

Suponha que uma máquina seja utilizada para determinada tarefa de manhã e para outra tarefa à tarde. Suponha que o número de vezes que a máquina apresenta problema de manhã e à tarde sejam representados, respectivamente, por variáveis aleatórias $X$ e $Y$ com função de probabilidade conjunta.

X\Y 0 1 2 $p_X(x)$
0 0,1 0,2 0,2 0,5
1 0,04 0,08 0,08 0,2
2 0,06 0,12 0,12 0,3
$p_Y(y)$ 0,2 0,4 0,4 1

Neste caso, temos que

\[\mathbb{E}(X) = \sum_{x\in\mathcal{R}_X}xp_X(x) = 0\cdot 0,5 + 1 \cdot 0,2 + 2\cdot 0,3 = 0,8.\]

\[\mathbb{E}(Y) = \sum_{y\in\mathcal{R}_Y}yp_Y(y) = 0\cdot 0,2 + 1 \cdot 0,4 + 2\cdot 0,4 = 1,2.\]

 

De onde segue que $\mathbb{E}(\widetilde{Z}) = (\mathbb{E}(X),\mathbb{E}(Y)) = (0,8;1,2)$.

Seja $g(X,Y) = XY$. Então o valor esperado de $g(X,Y)$ é dado por

\[\mathbb{E}(g(X,Y)) = 0\cdot 0\cdot p(0,0) + 0\cdot 1\cdot p(0,1) + \ldots + 2\cdot 2\cdot p(2,2) = 0,96.\]

 

Observe que, neste exemplo, para todo $(x,y)\in\mathcal{R}_X\times\mathcal{R}_Y$, temos que $p(x,y) = p_X(x)\cdot p_Y(y)$ e, portanto, do Corolário 2.5.2 concluímos que $X$ e $Y$ são independentes.

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]