3.2 - Esperança Condicional para uma partição

Você está aqui

Sejam $(\Omega,\mathcal{A},\mathbb{P})$ um espaço de probabilidade e $\mathcal{D}=\{D_1,\cdots, D_k\}$ uma partição finita de $\Omega$. Uma variável aleatória simples é dada por $$X=\displaystyle \sum_{j=1}^{n}x_j 1\!\!1_{A_j},~~~A_j=\{\omega:X(\omega)=x_j\}.$$

Sabemos que a esperança de uma variável aleatória simples é uma combinação linear dos elementos do conjunto de probabilidades $\{\mathbb{P}(D_1), \cdots , \mathbb{P}(D_k)\}$, na forma $$\mathbb{E}[X]=\displaystyle \sum_{j=1}^{n}x_j \mathbb{P}(A_j)$$

De forma similar, podemos definir a esperança condicional de $X$ dado uma partição finita $\mathcal{D}$ como uma combinação linear dos elementos da família de probabilidades condicionais $\{\mathbb{P}(A_1 \mid \mathcal{D}), \cdots , \mathbb{P}(A_n \mid \mathcal{D}\}$. Na seção probabilidade condicional dado uma partição, definimos a probabilidade condicional do evento $A \in \mathcal{A}$ dado a partição $\mathcal{D}$, por \[\mathbb{P}(A\mid \mathcal{D})(\omega) = \sum_{i=1}^k \mathbb{P}(A \mid D_i) 1\!\!1_{ \{D_i\}} (\omega), \quad \omega \in \Omega.\] Assim, chegamos a seguinte definição de esperança condicional.

Definição 3.2.1:

A esperança condicional da variável aleatória simples $X$ dado a partição finita $\mathcal{D}=\{D_1, \cdots , D_k\}$ é definida pela forma
$$\displaystyle \mathbb{E}[X|\mathcal{D}]=\sum_{j=1}^{n}x_j \mathbb{P}(A_j|\mathcal{D}).$$

Observe que a esperança condicional $\mathbb{E}[X|\mathcal{D}]$ é uma variável aleatória. Além disso, para todo $\omega \in D_i$, temos que $\mathbb{E}(X \mid \mathcal{D})(\omega)=\sum_j x_j \mathbb{P}(A_j \mid D_i)$. Como consequência, denotamos por $$\displaystyle \mathbb{E}[X|D_i]=\sum_{j=1}^{n}x_j \mathbb{P}(A_j|D_i)=\frac{\mathbb{E}[X 1\!\!1_{D_i}]}{\mathbb{P}(D_i)}$$ e $$\mathbb{E}(X \mid \mathcal{D})(\omega)=\sum_{i=1}^k \mathbb{E}(X \mid D_i) 1\!\!1_{\{D_i\}}(\omega),\quad \omega \in \Omega.$$ A seguir, vamos apresentar propriedades da esperança condicional.

Proposição 3.2.1:

Sejam $X$ e $Y$ variáveis aleatórias simples e $a,b\in \mathbb{R}$, e ainda $C$ uma função constante. Então as seguintes propriedades são satisfeitas.
(i) $\mathbb{E}[aX+bY|\mathcal{D}]=a\mathbb{E}[X|\mathcal{D}]+b\mathbb{E}[Y|\mathcal{D}]$;

(ii) $\mathbb{E}[X|\Omega]=\mathbb{E}[X]$;

(iii) $\mathbb{E}[C|\mathcal{D}]=C$;

(iv) Se $X=1\!\!1_{A}(\omega)$, então $\mathbb{E}[X|\mathcal{D}]=\mathbb{P}(A|\mathcal{D})$;

(v) Temos que $\mathbb{E}[\mathbb{E}[X|\mathcal{D}]]=\mathbb{E}[X]$;

no qual $\mathcal{D}$ é uma partição finita de $\Omega$.

Demonstração:

Os itens (i)-(iv) são consequências direta da definição. Para provarmos o item (v), basta aplicarmos o fato de que a esperança da probabilidade condicional do evento $A_j$ dado a partição $\mathcal{D}$ é $\mathbb{P}(A_j)$, de fato

$$\mathbb{E}[\mathbb{E}[X|\mathcal{D}]]=\mathbb{E}[\displaystyle \sum_{j=1}^{n}x_j\mathbb{P}(A_j|\mathcal{D})]= \sum_{j=1}^{n}x_j\mathbb{E}[\mathbb{P}(A_j|\mathcal{D})]=\sum_{j=1}^{n}x_j\mathbb{P}(A_j)=\mathbb{E}[X].$$ Segue a proposição.

Considere $\mathcal{D}=\{D_1, \cdots , D_k\}$ uma partição finita de $\Omega$. Neste caso, a $\sigma$-álgebra gerada por $\mathcal{D}$, que será denotada por $\sigma(\mathcal{D})$, é a classe formada por união de elementos de $\mathcal{D}$ e o conjunto vazio.  Dado $Y$ uma variável aleatória simples, dizemos que $Y$ é mensurável com respeito a $\sigma(\mathcal{D})$ (ou, com respeito a partição $\mathcal{D}$), se a $\sigma(Y)\subset \sigma(\mathcal{D})$

Lema 3.2.1:

Dado $\mathcal{D}$ uma partição de $\Omega$. Uma variável aleatória simples $Y$ é mensurável com respeito a $\sigma(\mathcal{D})$ se, e só se, $Y$ pode ser representada na forma \[Y(\omega)=\sum_{i=1}^k y_i 1\!\!1_{\{D_i\}}(\omega), \quad \omega \in \Omega.\]

Demonstração:

Basta aplicarmos o teorema da representação de Doob.

Dados duas partições finitas $\mathcal{D}_1$ e $\mathcal{D}_2$, dizemos que $\mathcal{D}_2$ é mais fina que $\mathcal{D}_1$, se para todo elemento $D\in \mathcal{D}_1$, existe uma família $\{F_1, \cdots , F_m\} \subset \mathca{D}_2$ tal que $D=F_1\cup \cdots \cup F_m$. Assim, obtemos que $\mathcal{D}_2$ é mais fina que $\mathcal{D}_1$ se, e só se, $\sigma(\mathcal{D}_1)\subset \sigma(\mathcal{D}_2)$ (exercício).

Considere $\mathcal{D}=\{D_1, \cdots , D_k\}$ uma partição de $\Omega$ e $Y$ uma variável aleatória simples na forma $$Y(\omega) = \sum_{j=1}^n y_j 1\!\!1_{\{A_j\}}(\omega), \quad \omega \in \Omega.$$ Com isso, introduzimos a probabilidade $\mu$ definida sobre o espaço mensurável $(\Omega,\sigma(\mathcal{D}))$ tal que $$\mu(\emptyset)=0, \quad \mu(D_i)=\mathbb{E}[Y 1\!\!1_{\{D_i\}}] \quad \text{e} \quad \mu(F)=\sum_{u=1}^m \mu(D_{i_u}),$$ no qual $F\in \sigma(\mathcal{D})$ com $F=D_{i_1} \cup \cdots \cup D_{i_m}$ e $(i_1, \cdots ,i_m)\subset (1,2, \cdots , k)$.

Sabemos que \[\mathbb{E}(X \mid \mathcal{D})(\omega)=\sum_{i=1}^k \frac{\mathbb{E}[X 1\!\!1_{D_i}]}{\mathbb{P}(D_i)} 1\!\!1_{\{D_i\}}(\omega)=\sum_{i=1}^k \frac{\mu(D_i)}{\mathbb{P}(D_i)}1\!\!1_{\{D_i\}}(\omega), \quad \omega \in \Omega.\] Desta forma, obtemos que $\mu(D_i)=\mathbb{E}[\mathbb{E}(Y \mid \mathcal{D})1\!\!1_{\{D_i\}}]$ e, consequentemente, concluímos que\[\mathbb{E}[Y 1\!\!1_{\{F\}}]=\mu(F)=\mathbb{E}[\mathbb{E}(Y \mid \mathcal{D})1\!\!1_{\{F\}}],\quad F \in \sigma(\mathcal{D}).\]

Teorema 3.2.1

Considere $Y$ uma variável aleatória simples, $\mathcal{D}$ uma partição finita de $\Omega$. A esperança condicional de $Y$ dado $\mathcal{D}$ é a única variável aleatória $g:\Omega \rightarrow \mathbb{R}$ satisfazendo

(i) $g$ é mensurável com respeito a $\sigma(\mathcal{D})$;

(ii) Para todo $F\in\sigma(\mathcal{D})$, temos que \[\mathbb{E}[Y 1\!\!1_{\{F\}}]=\mathbb{E}[g1\!\!1_{\{F\}}],\quad F \in \sigma(\mathcal{D})\quad (1).\]

Observe que esta equação é válida para todo elemento da $\sigma$-álgebra gerada pela partição $\mathcal{D}$. Além disso, ela caracteriza a esperança condicional no seguinte sentido: a esperança condicional é a única variável aleatória simples, mensurável com respeito a $\sigma(\mathcal{D})$ e  satisfazendo (1).  Na sequência, apresentamos algumas propriedades da esperança condicional

Proposição 3.2.2

Sejam $X$ uma variável aleatória simples e $Y$ uma variável aleatória mensurável com respeito $\sigma(\mathcal{D})$. Então, temos que \[\mathbb{E}[X Y \mid \mathcal{D}]=Y\mathbb{E}[X \mid \mathcal{D}].\]

Demonstração:

Tomamos $\displaystyleX=\sum_{j=1}^{n}x_j 1\!\!1_{A_j}$. Como $Y$ é $\mathcal{D}$-mensurável temos que $Y = \sum_{i=1}^k y_i 1\!\!1_{D_k}$ e $$YX=\displaystyle \sum_{j=1}^{n}\sum_{i=1}^{k}x_j y_i 1\!\!1_{A_j}1\!\!1_{D_i}.$$ Portanto,
$$\mathbb{E}[YX \mid\mathcal{D}]=\displaystyle \sum_{j=1}^{n}\sum_{i=1}^{k}x_j y_i\mathbb{P}[A_j\cap D_i|\mathcal{D}]$$
$$=\displaystyle \sum_{j=1}^{n}\sum_{i=1}^{k}x_j y_i\sum_{m=1}^{k} \mathbb{P}[A_j\cap D_i|D_m]1\!\!1_{D_m}$$
$$=\displaystyle \sum_{j=1}^{n}\sum_{i=1}^{k}x_j y_i\mathbb{P}[A_j\cap D_i|D_i]1\!\!1_{D_i}$$
$$=\displaystyle \sum_{j=1}^{n}\sum_{i=1}^{k}x_j y_i\mathbb{P}[A_j |D_i]1\!\!1_{D_i}$$

Por outro lado, como $1\!\!1^2_{D_i}=1\!\!1_{D_i}$ e $1\!\!1_{D_i}1\!\!1_{D_j}=0$ para todo $i\neq j$, temos que:
$$\displaystyle Y \mathbb{E}[X|\mathcal{D}]=\left[\sum_{i=1}^{k}y_i 1\!\!1_{D_i}\right]\left[\sum_{j=1}^{n}x_j \mathbb{P}(A_j|\mathcal{D})\right]$$
$$=\left[\sum_{i=1}^{k}y_i 1\!\!1_{D_i}\right]\sum_{m=1}^{k}\left[\sum_{j=1}^{n}x_j \mathbb{P}(A_j|D_m)\right]1\!\!1_{D_m}$$
$$=\sum_{i=1}^{k}\sum_{j=1}^{n}x_j y_i \mathbb{P}(A_j|D_i)1\!\!1_{D_i},$$ Segue a proposição.
Na sequência, vamos mostrar a propriedade de "torre" da esperança condicional.

Proposição 3.2.3

Considere $\mathcal{D}_1$ e $\mathcal{D}_2$ partições de $\Omega$ tal que $\sigma(\mathcal{D}_1)\subset\sigma(\mathca{D}_2)$. Para todo variável aleatória simples $X$, temos que \[\mathbb{E}\left[\mathbb{E}\left(X \mid \mathcal{D}_1\right) \mid \mathcal{D}_2\right](\omega)=\mathbb{E}\left[\mathbb{E}\left(X \mid \mathcal{D}_2\right) \mid \mathcal{D}_1\right](\omega)=\mathbb{E}\left(X \mid \mathcal{D}_1\right)(\omega), \quad \omega \in \Omega.\]

Demonstração:

Desde que $\mathbb{E}(X \mid \mathcal{D}_1)$ é uma variável aleatória simples mensurável com respeito a $\sigma(\mathcal{D}_2)$, segue da proposição 3.2.2 que \[\mathbb{E}\left[\mathbb{E}\left(X \mid \mathcal{D}_1\right) \mid \mathcal{D}_2\right]=\mathbb{E}\left(X \mid \mathcal{D}_1\right).\] Na sequência, tomamos $\mathcal{D}_1=\{D^1_{1},\cdots, D^1_{m}\}$ e $\mathcal{D}_2=\{D^2_{1},\cdots, D^2_{n}\}$. Ao denotarmos por $\displaystyleX=\sum_{j=1}^{n}x_j 1\!\!1_{A_j}$, obtemos que $$\mathbb{E}\left[\mathbb{E}\left(X \mid \mathcal{D}_2\right) \mid \mathcal{D}_1\right]=\displaystyle \mathbb{E}\left[\sum_{j=1}^{n}x_j\mathbb{P}(A_j|\mathcal{D}_2)\mid \mathcal{D}_1\right].$$ Assim, basta mostrarmos que $\mathbb{E}[\mathbb{P}(A_j|\mathcal{D}_2)|\mathcal{D}_1]=\mathbb{P}(A_j|\mathcal{D}_1)$. Notemos primeiramente que

$$\mathbb{P}[A_j|\mathcal{D}_2]=\displaystyle \sum_{p=1}^{n}\mathbb{P}(A_j|D^2_p)1\!\!1_{D^2_{p}}$$

Portanto temos que
$$\mathbb{E}[\mathbb{P}(A_j|\mathcal{D}^{2})|\mathcal{D}_1]=\mathbb{E}[\displaystyle \sum_{p=1}^{n}\mathbb{P}(A_j|D^2_p)1\!\!1_{D^2_{p}}|\mathcal{D}_1]$$
$$=\displaystyle \sum_{p=1}^{n}\mathbb{P}(A_j|D^2_p)\mathbb{P}(D^2_{p}|\mathcal{D}_1)$$
$$=\displaystyle \sum_{p=1}^{n}\mathbb{P}(A_j|D^2_p)\left[\sum_{q=1}^{m}\mathbb{P}(D^2_{p}|D^1_{q})1\!\!1_{D^1_{q}}\right]$$
$$=\displaystyle \sum_{q=1}^{m}1\!\!1_{D^1_{q}}\sum_{p=1}^{n}\mathbb{P}(A_j|D^2_p)\mathbb{P}(D^2_{p}|D^1_{q})$$
$$=\displaystyle \sum_{q=1}^{m}1\!\!1_{D^1_{q}}\mathbb{P}(D^2_{p}|D^1_{q})$$
$$=\mathbb{P}(A_j|\mathcal{D}_1).$$ Segue a proposição.

Proposição 3.2.4:

Sejam $X$ e $Y$ variáveis aleatórias independentes, com $\mathbb{E}(|X|)\textless \infty$ e $\mathbb{E}(|Y|)\textless \infty$. Então, temos que $\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$.

Demonstração:

Primeiramente considere o caso em que $X\geq 0$ e $Y\geq 0$. Seja

$$X_n=\displaystyle \sum_{k=0}^\infty \frac{k}{n}\mathds{1}_{\{k/n\leq X(\omega)\textless (k+1)/n\}},$$

$$Y_n=\displaystyle \sum_{k=0}^\infty \frac{\ell}{n}\mathds{1}_{\{\ell/n\leq Y(\omega)\textless (\ell+1)/n\}},$$

Então $X_n\leq X$, $|X_n-X|\leq 1/n$ e $Y_n\leq Y$, $|Y_n-Y|\leq 1/n$. Desde que $\mathbb{E}(X)\textless \infty$ e $\mathbb{E}(Y)\textless \infty$. Assim, segue do teorema da convergência dominada que
$$\lim_{n\rightarrow \infty} \mathbb{E}(X_n)=\mathbb{E}(X)$$

$$\lim_{n\rightarrow \infty} \mathbb{E}(Y_n)=\mathbb{E}(Y).$$

Além do mais, desde que $X$ e $Y$ são independente,

$$\mathbb{E}(X_nY_n)=\displaystyle \sum_{k,\ell \geq 0} \frac{k\ell}{n^2}\mathbb{E}(\mathds{1}_{\{k/n\leq X(\omega)\textless (k+1)/n\}}\mathds{1}_{\{\ell/n\leq Y(\omega)\textless (\ell+1)/n\}})$$
$$=\displaystyle \sum_{k,\ell \geq 0} \frac{k\ell}{n^2}\mathbb{E}(\mathds{1}_{\{k/n\leq X(\omega)\textless (k+1)/n\}})\mathbb{E}(\mathds{1}_{\{\ell/n\leq Y(\omega)\textless (\ell+1)/n\}})=\mathbb{E}(X_n)\mathbb{E}(Y_n).$$

Agora note que

$$|\mathbb{E}(XY)-\mathbb{E}(X_n Y_n)|\leq \mathbb{E}(|XY-X_nY_n|) $$
$$\leq \mathbb{E}(|X||Y-Y_n|)+\leq \mathbb{E}(|Y_n||X-X_n|)\leq\displaystyle \frac{1}{n} \mathbb{E}(X)+\frac{1}{n}\mathbb{E}\left(Y+\frac{1}{n}\right)\rightarrow 0, ~~n\rightarrow \infty.$$

Portanto,

$$\displaystyle \mathbb{E}(XY)=\lim_{n\rightarrow \infty}\mathbb{E}(X_nY_n)=\lim_{n\rightarrow \infty}\mathbb{E}(X_n)\lim_{n\rightarrow \infty}\mathbb{E}(Y_n).$$

De modo geral se reduz a seguinte representação
$$X=X^+ +X^-$$
$$Y=Y^+ +Y^-$$
$$XY=X^+Y^+ -X^-Y^+ -X^+Y^- X^-Y^-.$$
E isto completa a prova.

 

Processo Estocástico

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]