3.2 - Esperança Condicional para uma partição

Você está aqui

Sejam $ (\Omega,\mathcal{A},\mathbb{P}) $ um espaço de probabilidade e $ \mathcal{D}=\{D_1,\cdots, D_k\} $ uma partição finita de $ \Omega $. Uma variável aleatória simples é dada por

X(\omega)=x_j\}.$$

Sabemos que a esperança de uma variável aleatória simples é uma combinação linear dos elementos do conjunto de probabilidades $ \{\mathbb{P}(D_1), \cdots , \mathbb{P}(D_k)\} $, na forma

$$\mathbb{E}[X]=\displaystyle \sum_{j=1}^{n}x_j \mathbb{P}(A_j)$$

De forma similar, podemos definir a esperança condicional de $ X $ dado uma partição finita $ \mathcal{D} $ como uma combinação linear dos elementos da família de probabilidades condicionais $ \{\mathbb{P}(A_1 \mid \mathcal{D}), \cdots , \mathbb{P}(A_n \mid \mathcal{D}\} $. Na seção probabilidade condicional dado uma partição, definimos a probabilidade condicional do evento $ A \in \mathcal{A} $ dado a partição $ \mathcal{D} $, por

\[\mathbb{P}(A\mid \mathcal{D})(\omega) = \sum_{i=1}^k \mathbb{P}(A \mid D_i) 1\!\!1_{ \{D_i\}} (\omega), \quad \omega \in \Omega.\]

Assim, chegamos a seguinte definição de esperança condicional.

Definição 3.2.1:

A esperança condicional da variável aleatória simples $ X $ dado a partição finita $ \mathcal{D}=\{D_1, \cdots , D_k\} $ é definida pela forma

$$\displaystyle \mathbb{E}[X|\mathcal{D}]=\sum_{j=1}^{n}x_j \mathbb{P}(A_j|\mathcal{D}).$$

Observe que a esperança condicional $ \mathbb{E}[X|\mathcal{D}] $ é uma variável aleatória. Além disso, para todo $ \omega \in D_i $, temos que $ \mathbb{E}(X \mid \mathcal{D})(\omega)=\sum_j x_j \mathbb{P}(A_j \mid D_i) $. Como consequência, denotamos por

$$\displaystyle \mathbb{E}[X|D_i]=\sum_{j=1}^{n}x_j \mathbb{P}(A_j|D_i)=\frac{\mathbb{E}[X 1\!\!1_{D_i}]}{\mathbb{P}(D_i)}$$

e

$$\mathbb{E}(X \mid \mathcal{D})(\omega)=\sum_{i=1}^k \mathbb{E}(X \mid D_i) 1\!\!1_{\{D_i\}}(\omega),\quad \omega \in \Omega.$$

A seguir, vamos apresentar propriedades da esperança condicional.

Proposição 3.2.1:

Sejam $ X $ e $ Y $ variáveis aleatórias simples e $ a,b\in \mathbb{R} $, e ainda $ C $ uma função constante. Então as seguintes propriedades são satisfeitas.
(i) $ \mathbb{E}[aX+bY|\mathcal{D}]=a\mathbb{E}[X|\mathcal{D}]+b\mathbb{E}[Y|\mathcal{D}] $;

(ii) $ \mathbb{E}[X|\Omega]=\mathbb{E}[X] $;

(iii) $ \mathbb{E}[C|\mathcal{D}]=C $;

(iv) Se $ X=1\!\!1_{A}(\omega) $, então $ \mathbb{E}[X|\mathcal{D}]=\mathbb{P}(A|\mathcal{D}) $;

(v) Temos que $ \mathbb{E}[\mathbb{E}[X|\mathcal{D}]]=\mathbb{E}[X] $;

no qual $ \mathcal{D} $ é uma partição finita de $ \Omega $.

Demonstração:

Os itens (i)-(iv) são consequências direta da definição. Para provarmos o item (v), basta aplicarmos o fato de que a esperança da probabilidade condicional do evento $ A_j $ dado a partição $ \mathcal{D} $ é $ \mathbb{P}(A_j) $, de fato

$$\mathbb{E}[\mathbb{E}[X|\mathcal{D}]]=\mathbb{E}[\displaystyle \sum_{j=1}^{n}x_j\mathbb{P}(A_j|\mathcal{D})]= \sum_{j=1}^{n}x_j\mathbb{E}[\mathbb{P}(A_j|\mathcal{D})]=\sum_{j=1}^{n}x_j\mathbb{P}(A_j)=\mathbb{E}[X].$$

Segue a proposição.

Considere $ \mathcal{D}=\{D_1, \cdots , D_k\} $ uma partição finita de $ \Omega $. Neste caso, a $ \sigma $-álgebra gerada por $ \mathcal{D} $, que será denotada por $ \sigma(\mathcal{D}) $, é a classe formada por união de elementos de $ \mathcal{D} $ e o conjunto vazio.  Dado $ Y $ uma variável aleatória simples, dizemos que $ Y $ é mensurável com respeito a $ \sigma(\mathcal{D}) $ (ou, com respeito a partição $ \mathcal{D} $), se a $ \sigma(Y)\subset \sigma(\mathcal{D}) $

Lema 3.2.1:

Dado $ \mathcal{D} $ uma partição de $ \Omega $. Uma variável aleatória simples $ Y $ é mensurável com respeito a $ \sigma(\mathcal{D}) $ se, e só se, $ Y $ pode ser representada na forma

\[Y(\omega)=\sum_{i=1}^k y_i 1\!\!1_{\{D_i\}}(\omega), \quad \omega \in \Omega.\]

Demonstração:

Basta aplicarmos o teorema da representação de Doob.

Dados duas partições finitas $ \mathcal{D}_1 $ e $ \mathcal{D}_2 $, dizemos que $ \mathcal{D}_2 $ é mais fina que $ \mathcal{D}_1 $, se para todo elemento $ D\in \mathcal{D}_1 $, existe uma família $ \{F_1, \cdots , F_m\} \subset \mathca{D}_2 $ tal que $ D=F_1\cup \cdots \cup F_m $. Assim, obtemos que $ \mathcal{D}_2 $ é mais fina que $ \mathcal{D}_1 $ se, e só se, $ \sigma(\mathcal{D}_1)\subset \sigma(\mathcal{D}_2) $ (exercício).

Considere $ \mathcal{D}=\{D_1, \cdots , D_k\} $ uma partição de $ \Omega $ e $ Y $ uma variável aleatória simples na forma

$$Y(\omega) = \sum_{j=1}^n y_j 1\!\!1_{\{A_j\}}(\omega), \quad \omega \in \Omega.$$

Com isso, introduzimos a probabilidade $ \mu $ definida sobre o espaço mensurável $ (\Omega,\sigma(\mathcal{D})) $ tal que

$$\mu(\emptyset)=0, \quad \mu(D_i)=\mathbb{E}[Y 1\!\!1_{\{D_i\}}] \quad \text{e} \quad \mu(F)=\sum_{u=1}^m \mu(D_{i_u}),$$

no qual $ F\in \sigma(\mathcal{D}) $ com $ F=D_{i_1} \cup \cdots \cup D_{i_m} $ e $ (i_1, \cdots ,i_m)\subset (1,2, \cdots , k) $.

Sabemos que

\[\mathbb{E}(X \mid \mathcal{D})(\omega)=\sum_{i=1}^k \frac{\mathbb{E}[X 1\!\!1_{D_i}]}{\mathbb{P}(D_i)} 1\!\!1_{\{D_i\}}(\omega)=\sum_{i=1}^k \frac{\mu(D_i)}{\mathbb{P}(D_i)}1\!\!1_{\{D_i\}}(\omega), \quad \omega \in \Omega.\]

Desta forma, obtemos que $ \mu(D_i)=\mathbb{E}[\mathbb{E}(Y \mid \mathcal{D})1\!\!1_{\{D_i\}}] $ e, consequentemente, concluímos que

\[\mathbb{E}[Y 1\!\!1_{\{F\}}]=\mu(F)=\mathbb{E}[\mathbb{E}(Y \mid \mathcal{D})1\!\!1_{\{F\}}],\quad F \in \sigma(\mathcal{D}).\]

Teorema 3.2.1

Considere $ Y $ uma variável aleatória simples, $ \mathcal{D} $ uma partição finita de $ \Omega $. A esperança condicional de $ Y $ dado $ \mathcal{D} $ é a única variável aleatória \Omega \rightarrow \mathbb{R} $ satisfazendo

(i) $ g $ é mensurável com respeito a $ \sigma(\mathcal{D}) $;

(ii) Para todo $ F\in\sigma(\mathcal{D}) $, temos que

\[\mathbb{E}[Y 1\!\!1_{\{F\}}]=\mathbb{E}[g1\!\!1_{\{F\}}],\quad F \in \sigma(\mathcal{D})\quad (1).\]

Observe que esta equação é válida para todo elemento da $ \sigma $-álgebra gerada pela partição $ \mathcal{D} $. Além disso, ela caracteriza a esperança condicional no seguinte sentido: a esperança condicional é a única variável aleatória simples, mensurável com respeito a $ \sigma(\mathcal{D}) $ e  satisfazendo (1).  Na sequência, apresentamos algumas propriedades da esperança condicional

Proposição 3.2.2

Sejam $ X $ uma variável aleatória simples e $ Y $ uma variável aleatória mensurável com respeito $ \sigma(\mathcal{D}) $. Então, temos que

\[\mathbb{E}[X Y \mid \mathcal{D}]=Y\mathbb{E}[X \mid \mathcal{D}].\]

Demonstração:

Tomamos $ \displaystyleX=\sum_{j=1}^{n}x_j 1\!\!1_{A_j} $. Como $ Y $ é $ \mathcal{D} $-mensurável temos que $ Y = \sum_{i=1}^k y_i 1\!\!1_{D_k} $ e

$$YX=\displaystyle \sum_{j=1}^{n}\sum_{i=1}^{k}x_j y_i 1\!\!1_{A_j}1\!\!1_{D_i}.$$

Portanto,

$$\mathbb{E}[YX \mid\mathcal{D}]=\displaystyle \sum_{j=1}^{n}\sum_{i=1}^{k}x_j y_i\mathbb{P}[A_j\cap D_i|\mathcal{D}]$$

$$=\displaystyle \sum_{j=1}^{n}\sum_{i=1}^{k}x_j y_i\sum_{m=1}^{k} \mathbb{P}[A_j\cap D_i|D_m]1\!\!1_{D_m}$$

$$=\displaystyle \sum_{j=1}^{n}\sum_{i=1}^{k}x_j y_i\mathbb{P}[A_j\cap D_i|D_i]1\!\!1_{D_i}$$

$$=\displaystyle \sum_{j=1}^{n}\sum_{i=1}^{k}x_j y_i\mathbb{P}[A_j |D_i]1\!\!1_{D_i}$$

Por outro lado, como $ 1\!\!1^2_{D_i}=1\!\!1_{D_i} $ e $ 1\!\!1_{D_i}1\!\!1_{D_j}=0 $ para todo $ i\neq j $, temos que:

$$\displaystyle Y \mathbb{E}[X|\mathcal{D}]=\left[\sum_{i=1}^{k}y_i 1\!\!1_{D_i}\right]\left[\sum_{j=1}^{n}x_j \mathbb{P}(A_j|\mathcal{D})\right]$$

$$=\left[\sum_{i=1}^{k}y_i 1\!\!1_{D_i}\right]\sum_{m=1}^{k}\left[\sum_{j=1}^{n}x_j \mathbb{P}(A_j|D_m)\right]1\!\!1_{D_m}$$

$$=\sum_{i=1}^{k}\sum_{j=1}^{n}x_j y_i \mathbb{P}(A_j|D_i)1\!\!1_{D_i},$$

Segue a proposição.
Na sequência, vamos mostrar a propriedade de "torre" da esperança condicional.

Proposição 3.2.3

Considere $ \mathcal{D}_1 $ e $ \mathcal{D}_2 $ partições de $ \Omega $ tal que $ \sigma(\mathcal{D}_1)\subset\sigma(\mathca{D}_2) $. Para todo variável aleatória simples $ X $, temos que

\[\mathbb{E}\left[\mathbb{E}\left(X \mid \mathcal{D}_1\right) \mid \mathcal{D}_2\right](\omega)=\mathbb{E}\left[\mathbb{E}\left(X \mid \mathcal{D}_2\right) \mid \mathcal{D}_1\right](\omega)=\mathbb{E}\left(X \mid \mathcal{D}_1\right)(\omega), \quad \omega \in \Omega.\]

Demonstração:

Desde que $ \mathbb{E}(X \mid \mathcal{D}_1) $ é uma variável aleatória simples mensurável com respeito a $ \sigma(\mathcal{D}_2) $, segue da proposição 3.2.2 que

\[\mathbb{E}\left[\mathbb{E}\left(X \mid \mathcal{D}_1\right) \mid \mathcal{D}_2\right]=\mathbb{E}\left(X \mid \mathcal{D}_1\right).\]

Na sequência, tomamos $ \mathcal{D}_1=\{D^1_{1},\cdots, D^1_{m}\} $ e $ \mathcal{D}_2=\{D^2_{1},\cdots, D^2_{n}\} $. Ao denotarmos por $ \displaystyleX=\sum_{j=1}^{n}x_j 1\!\!1_{A_j} $, obtemos que

$$\mathbb{E}\left[\mathbb{E}\left(X \mid \mathcal{D}_2\right) \mid \mathcal{D}_1\right]=\displaystyle \mathbb{E}\left[\sum_{j=1}^{n}x_j\mathbb{P}(A_j|\mathcal{D}_2)\mid \mathcal{D}_1\right].$$

Assim, basta mostrarmos que $ \mathbb{E}[\mathbb{P}(A_j|\mathcal{D}_2)|\mathcal{D}_1]=\mathbb{P}(A_j|\mathcal{D}_1) $. Notemos primeiramente que

$$\mathbb{P}[A_j|\mathcal{D}_2]=\displaystyle \sum_{p=1}^{n}\mathbb{P}(A_j|D^2_p)1\!\!1_{D^2_{p}}$$

Portanto temos que

$$\mathbb{E}[\mathbb{P}(A_j|\mathcal{D}^{2})|\mathcal{D}_1]=\mathbb{E}[\displaystyle \sum_{p=1}^{n}\mathbb{P}(A_j|D^2_p)1\!\!1_{D^2_{p}}|\mathcal{D}_1]$$

$$=\displaystyle \sum_{p=1}^{n}\mathbb{P}(A_j|D^2_p)\mathbb{P}(D^2_{p}|\mathcal{D}_1)$$

$$=\displaystyle \sum_{p=1}^{n}\mathbb{P}(A_j|D^2_p)\left[\sum_{q=1}^{m}\mathbb{P}(D^2_{p}|D^1_{q})1\!\!1_{D^1_{q}}\right]$$

$$=\displaystyle \sum_{q=1}^{m}1\!\!1_{D^1_{q}}\sum_{p=1}^{n}\mathbb{P}(A_j|D^2_p)\mathbb{P}(D^2_{p}|D^1_{q})$$

$$=\displaystyle \sum_{q=1}^{m}1\!\!1_{D^1_{q}}\mathbb{P}(D^2_{p}|D^1_{q})$$

$$=\mathbb{P}(A_j|\mathcal{D}_1).$$

Segue a proposição.

Proposição 3.2.4:

Sejam $ X $ e $ Y $ variáveis aleatórias independentes, com $ \mathbb{E}(|X|)\textless \infty $ e $ \mathbb{E}(|Y|)\textless \infty $. Então, temos que $ \mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y) $.

Demonstração:

Primeiramente considere o caso em que $ X\geq 0 $ e $ Y\geq 0 $. Seja

$$X_n=\displaystyle \sum_{k=0}^\infty \frac{k}{n}\mathds{1}_{\{k/n\leq X(\omega)\textless (k+1)/n\}},$$

$$Y_n=\displaystyle \sum_{k=0}^\infty \frac{\ell}{n}\mathds{1}_{\{\ell/n\leq Y(\omega)\textless (\ell+1)/n\}},$$

Então $ X_n\leq X $, $ |X_n-X|\leq 1/n $ e $ Y_n\leq Y $, $ |Y_n-Y|\leq 1/n $. Desde que $ \mathbb{E}(X)\textless \infty $ e $ \mathbb{E}(Y)\textless \infty $. Assim, segue do teorema da convergência dominada que

$$\lim_{n\rightarrow \infty} \mathbb{E}(X_n)=\mathbb{E}(X)$$

$$\lim_{n\rightarrow \infty} \mathbb{E}(Y_n)=\mathbb{E}(Y).$$

Além do mais, desde que $ X $ e $ Y $ são independente,

$$\mathbb{E}(X_nY_n)=\displaystyle \sum_{k,\ell \geq 0} \frac{k\ell}{n^2}\mathbb{E}(\mathds{1}_{\{k/n\leq X(\omega)\textless (k+1)/n\}}\mathds{1}_{\{\ell/n\leq Y(\omega)\textless (\ell+1)/n\}})$$

$$=\displaystyle \sum_{k,\ell \geq 0} \frac{k\ell}{n^2}\mathbb{E}(\mathds{1}_{\{k/n\leq X(\omega)\textless (k+1)/n\}})\mathbb{E}(\mathds{1}_{\{\ell/n\leq Y(\omega)\textless (\ell+1)/n\}})=\mathbb{E}(X_n)\mathbb{E}(Y_n).$$

Agora note que

$$|\mathbb{E}(XY)-\mathbb{E}(X_n Y_n)|\leq \mathbb{E}(|XY-X_nY_n|) $$

$$\leq \mathbb{E}(|X||Y-Y_n|)+\leq \mathbb{E}(|Y_n||X-X_n|)\leq\displaystyle \frac{1}{n} \mathbb{E}(X)+\frac{1}{n}\mathbb{E}\left(Y+\frac{1}{n}\right)\rightarrow 0, ~~n\rightarrow \infty.$$

Portanto,

$$\displaystyle \mathbb{E}(XY)=\lim_{n\rightarrow \infty}\mathbb{E}(X_nY_n)=\lim_{n\rightarrow \infty}\mathbb{E}(X_n)\lim_{n\rightarrow \infty}\mathbb{E}(Y_n).$$

De modo geral se reduz a seguinte representação

$$X=X^+ +X^-$$

$$Y=Y^+ +Y^-$$

$$XY=X^+Y^+ -X^-Y^+ -X^+Y^- X^-Y^-.$$

E isto completa a prova.

 

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]