4.2 - Covariância e Coeficiente de Correlação

Você está aqui

Em probabilidade, a covariância de duas variáveis X e Y é uma medida da variabilidade conjunta destas variáveis aleatórias. Se as variáveis tem covariância positiva tendem a mostrar um comportamento semelhante, ou seja, os menores(maiores) valores da variável X corresponde aos menores(maiores) da variável Y . Se a covariância é negativa então as variáveis tendem a mostrar um comportamento oposto, ou seja, os menores(maiores) valores da variável X corresponde aos maiores(menores) da variável Y.

Assim, podemos ver que o sinal da covariância mostra a tendência na relação linear entre as variáveis.

Definição 4.2.1: Sejam $X$ e $Y$ variáveis aleatórias integráveis. Então a covariância entre X e Y é definida por

$$Cov(X,Y)=\mathbb{E}[(X-\mathbb{E}(X))(Y-\mathbb{E}(Y))],$$
se essa esperança existe, então pela linearidade da esperança temos que

$$Cov(X,Y)=\mathbb{E}(XY-Y\mathbb{E}(X)-X\mathbb{E}(Y)+\mathbb{E}(X)\mathbb{E}(Y))=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)$$

Assim, temos que existe a covariância entre duas variáveis integráveis se, e somente se, existe a esperança $\mathbb{E}(XY)$.

 

De fato, se existe a covariância entre duas variáveis integráveis então temos que
$$Cov(X,Y)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)< \infty\Rightarrow\mathbb{E}(XY)\leq \mathbb{E}(X)\mathbb{E}(Y)< \infty$$
desde que X e Y são integráveis.

Agora existe $\mathbb{E}(XY)$ e as variáveis X e Y são integráveis então temos que $\mathbb{E}(XY)< \infty$ e $\mathbb{E}(X)< \infty$ e $\mathbb{E}(Y)< \infty$ então temos que a $Cov(XY)< \infty$.

Se $Cov(X,Y)=0$, dizemos que $X$ e $Y$ são não-correlacionado. Se X e Y são independentes e integráveis, então são não-correlacionado, poies neste caso
$$\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$$
mas é claro que $\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$ não implica que em independência, ou seja, a covariância zero não necessariamente implica independência.

Teorema 4.2.1: Sejam $X_1,\dots, X_n$ variáveis aleatórias integráveis. Então,
$$Var\left(\sum_{i=1}^n X_i\right)=\sum_{i=1}^n Var(X_i)]+2\sum_{i< j}Cov(X_i,X_j).$$

Em particular se $Cov(X_i,X_j)=0$ para $i\neq j$ então

$$Var\left(\sum_{i=1}^n X_i\right)=\sum_{i=1}^nVar(X_i)$$.
Demonstração:
$$Var(X_1+\dots+X_n)=\mathbb{E}(X_1+\dots+X_n-\mathbb{E}(X_1+\dots+X_n))^2$$
$$=\mathbb{E}(X_1-\mathbb{E}(X_1)+\dots+X_n-\mathbb{E}(X_n))^2$$

$$=\mathbb{E}\left[\sum_{i=1}^n\sum_{j=1}^n (X_i-\mathbb{E}(X_i))(X_j-\mathbb{E}(X_j))\right]$$

$$=\mathbb{E}\left[\sum_{i=1}^n(X_i-\mathbb{E}(X_i))^2+\sum_{i\neq j}(X_i-\mathbb{E}(X_i))(X_j-\mathbb{E}(X_j))\right]$$
$$=\mathbb{E}\left(\sum_{i=1}^n (X_i-\mathbb{E}(X_i))^2+2\sum_{i< j}(X_i-\mathbb{E}(X_i))(X_j-\mathbb{E}(X_j))\right)$$
$$=\sum_{i=1}^n Var(X_i)+2\sum_{i< j}Cov(X_i,X_j)$$
Portanto o resultado segue.

Corolário 4.2.1: Se $X_1,\dots, X_n$ são independentes e integráveis, então
$$Var(X_1+\dots+X_n)=\sum_{i=1}^n Var(X_i).$$
 


A magnitude da covariância não é fácil de interpretar. A versão normalizada da covariância (coeficiente de correlação) entretanto, mostra por sua magnitude a força da relação linear. Assim, agora X e Y sejam variáveis aleatórias integráveis, com variâncias positivas e finitas. Dizemos que a variável aleatória $\displaystyle \frac{X-\mathbb{E}(X)}{\sigma_X}$ é uma padronização de X, pois expressa o valor de X em unidades padronizadas (desvio padrão). Um variável aleatória padronizada possuí esperança zero e variância 1.

A covariância padronizada, chama-se coeficiente de correlação entre X e Y, o qual denotaremos por $\rho(X,Y)$

Definição 4.2.2: Seja X e Y variáveis aleatórias integráveis então o coeficiente de correlação entre X e Y é dado por

$$\rho(X,Y):=\frac{Cov(X,Y)}{\sigma_X \sigma_Y}=\mathbb{E}\left[\left(\frac{X-\mathbb{E}(X)}{\sigma_X}\right) \left(\frac{Y-\mathbb{E}(Y)}{\sigma_Y}\right)\right]$$


Proposição 4.2.1: O coeficiente de correlação é independente da escola e transação da variáveis, ou seja,
$$\rho(X,Y)=\rho(aX+b,cY+d)$$
para $a< 0$, $c< 0$.

Demonstração: De fato, primeiramente observe que
$$\sigma_{aX+b}=\sqrt{Var(aX+b)}=\sqrt{a^2Var(X)}=a\sqrt{Var(X)}=a\sigma_X$$
$$\sigma_{cY+d}=\sqrt{Var(cY+d)}=\sqrt{c^2Var(Y)}=c\sqrt{Var(Y)}=c\sigma_Y$$
e portanto
$$\rho(aX+b,cY+d)=\mathbb{E}\left[\left(\frac{aX+b-\mathbb{E}(aX+b)}{\sigma_{aX+b}}\right) \left(\frac{cY+d-\mathbb{E}(cY+d)}{\sigma_{cY+d}}\right)\right]$$
$$=\mathbb{E}\left[\left(\frac{aX-\mathbb{E}(aX)}{\sigma_{aX+b}}\right) \left(\frac{cY-\mathbb{E}(cY)}{\sigma_{cY+d}}\right)\right]$$
$$=\mathbb{E}\left[\left(\frac{a(X-\mathbb{E}(X))}{\sigma_{aX+b}}\right) \left(\frac{c(Y-\mathbb{E}(Y))}{\sigma_{cY+d}}\right)\right]$$
$$=\mathbb{E}\left[\left(\frac{a(X-\mathbb{E}(X))}{a\sigma_{X}}\right) \left(\frac{c(Y-\mathbb{E}(Y))}{c\sigma_{Y}}\right)\right]$$
$$=\mathbb{E}\left[\left(\frac{X-\mathbb{E}(X)}{\sigma_{X}}\right) \left(\frac{Y-\mathbb{E}(Y)}{\sigma_{Y}}\right)\right]$$
$$=\rho(X,Y)$$

A seguir temos uma proposição com algumas propriedades do coeficiente linear.

Proposição 4.2.2: Sejam X e Y variáveis aleatórias com variâncias finitas e positivas. Então:
a) $-1\leq \rho(X,Y)\leq 1$
b) $\rho(X,Y)=1$ se, e somente se, $\mathbb{P}(Y=aX+b)=1$ para algum $a> 0$, $b\in \mathbb{R}$.
c) $\rho(X,Y)=-1\Leftrightarrow \mathbb{P}(Y=aX+b)=1$ para algum $a< 0, \quad b\in \mathbb{R}.$

Demonstração: (a) Como
$$0\leq \left(\frac{X-\mathbb{E}(X)}{\sigma_X}-\frac{Y-\mathbb{E}(Y)}{\sigma_Y}\right)^2,$$
temos
$$0\leq \mathbb{E}\left(\frac{X-\mathbb{E}(X)}{\sigma_X}-\frac{Y-\mathbb{E}(Y)}{\sigma_Y}\right)^2$$
$$=\mathbb{E}\left(\frac{X-\mathbb{E}(X)}{\sigma_X}\right)^2+\mathbb{E}\left(\frac{Y-\mathbb{E}(Y)}{\sigma_Y}\right)^2- \frac{2}{\sigma_X\sigma_Y}\mathbb{E}[(X-\mathbb{E}(X))(Y-\mathbb{E}(Y))]$$
$$=\frac{Var(X)}{\sigma^2_X}+\frac{Var(Y)}{\sigma^2_Y}-\frac{2Cov(X,Y)}{\sigma_X\sigma_Y}=2-2\rho(X,Y).$$
Logo $\rho(X,Y)\leq 1.$

Substituindo o sinal "$-$" por "$+$" na expressão acima temos que
$$0\leq 2+2\rho(X,Y)$$
isto é $\rho(X,Y)\geq -1$. Portanto, (a) segue.

Agora se $\rho=1$ então temos que
$$0=2-2\rho(X,Y)=\frac{Var(X)}{\sigma^2_X}+\frac{Var(Y)}{\sigma^2_Y}- \frac{2Cov(X,Y)}{\sigma_X\sigma_Y}=\mathbb{E}\left(\frac{X-\mathbb{E}(X)}{\sigma_X}-\frac{Y-\mathbb{E}(Y)}{\sigma_Y}\right)^2$$
Então,
$$\mathbb{E}\left(\frac{X-\mathbb{E}(X)}{\sigma_X}-\frac{Y-\mathbb{E}(Y)}{\sigma_Y}\right)^2=0$$
ou seja,
$$\mathbb{E}\left(\frac{X-\mathbb{E}(X)}{\sigma_X}\right)=\mathbb{E}\left(\frac{Y-\mathbb{E}(Y)}{\sigma_Y}\right)$$
Desde que, X e Y são positivas temos que
$$\mathbb{P}\left(\frac{X-\mathbb{E}(X)}{\sigma_X}-\frac{Y-\mathbb{E}(Y)}{\sigma_Y}\right)=1$$
ou seja,
$$Y=\mathbb{E}(Y)+\frac{\sigma_Y}{\sigma_X}(X-\mathbb{E})$$
quase certamente. Para a volta basta tomar $a=\frac{\sigma_Y}{\sigma_X}$ e $b=\mathbb{E}(Y)-\frac{\sigma_Y}{\sigma_X}\mathbb{E}(X)$.

Agora se $\rho(X,Y)=-1$, então
$$\mathbb{E}\left(\frac{X-\mathbb{E}(X)}{\sigma_X}+\frac{Y-\mathbb{E}(Y)}{\sigma_Y}\right)=0$$
e
$$Y=\mathbb{E}(Y)-\frac{\sigma_Y}{\sigma_X}(X-\mathbb{E}(X))$$
com probabilidade 1. Neste caso, $a=-\frac{\sigma_Y}{\sigma_X}$ e $b=\mathbb{E}(Y)+\frac{\sigma_Y}{\sigma_X}\mathbb{E}(X)$.

Por outro lado, se $\mathbb{P}(Y=aX+b)=1$ para algum $a\neq 0$, temos

$$\rho(X,Y)=\mathbb{E}\left[\left(\frac{X-\mathbb{E}(X)}{\sigma_X}\right)\left(\frac{aX+b-a\mathbb{E}(X)-b}{\sqrt{a^2\sigma^2_X}}\right)\right]$$
$$=\frac{a}{|a|}\mathbb{E}\left(\frac{X-\mathbb{E}(X)}{\sigma_X}\right)^2=\frac{a}{|a|}=\text{sinal}(a)$$
 


Uma alta correlação entre X e Y, i.e. se $\rho(X,Y)$ próximo de 1, significa que o valor de $Y$ tende a acompanhar o de X.

Exemplo 4.2.1: Mostre que se $\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$ e X e Y assumem apenas valores $0$ e $1$ então X e Y são independentes.
De fato, observe que:
$$\mathbb{E}(X)=0\mathbb{P}(X=0)+1\mathbb{P}(X=1)=\mathbb{P}(X=1)$$

$$\mathbb{E}(Y)=0\mathbb{P}(Y=0)+1\mathbb{P}(Y=1)=\mathbb{P}(Y=1)$$
e
$$\mathbb{E}(XY)=0\mathbb{P}(X=0,Y=0)+0\mathbb{P}(X=0,Y=1)+0\mathbb{P}(X=1,Y=0)+1\mathbb{P}(X=1,Y=1)=\mathbb{P}(X=1,Y=1)$$
Mas como por hipótese $\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$ então temos que
$$\mathbb{E}(XY)=\mathbb{P}(X=1,Y=1)=\mathbb{E}(X)\mathbb{E}(Y)=\mathbb{P}(X=1)\mathbb{P}(Y=1)$$
Agora observe que
$$\mathbb{P}(X=0,Y=1)=\mathbb{P}(Y=1)-\mathbb{P}(X=1,Y=1)=\mathbb{P}(Y=1)-\mathbb{P}(X=1)\mathbb{P}(Y=1)=\mathbb{P}(Y=1) \left(1-\mathbb{P}(X=1)\right)=\mathbb{P}(Y=1)\mathbb{P}(X=0)$$
e
$$\mathbb{P}(X=0,Y=0)=\mathbb{P}(X=0)-\mathbb{P}(X=0,Y=1)=\mathbb{P}(X=0)(1-\mathbb{P}(Y=1))=\mathbb{P}(X=0)=\mathbb{P}(X=0)\mathbb{P}(Y=0)$$
Pelas equações acima obtemos a independência.
 


Exemplo 4.2.2: Se X assume apenas valores $a$ e $b$, Y assume apenas os valores c e d e $Cov(X,Y)=0$, então X e Y são independentes
De fato, considere que $W$ e $Z$ assumem apenas valores 0 e 1. Então
$$X=(b-a)W+a$$
e
$$Y=(d-c)Z+c$$
Então,
$$XY=[(b-a)W+a][(d-c)Z+c]=(b-a)(d-c)WZ+a(d-c)Z+c(b-a)W+ac$$
e portanto
$$\mathbb{E}(XY)=(b-a)(d-c)\mathbb{E}(WZ)+a(d-c)\mathbb{E}(Z)+c(b-a)\mathbb{E}(W)+ac$$
e temos que
$$\mathbb{E}(X)=(b-a)\mathbb{E}(W)+a$$
e
$$\mathbb{E}(Y)=(d-c)\mathbb{E}(Z)+c$$
o que implica que
$$\mathbb{E}(X)\mathbb{E}(Y)=(b-a)(d-c)\mathbb{E}(W)\mathbb{E}(Z)+a(d-c)\mathbb{E}(Z)+c(b-a)\mathbb{E}(W)+ac$$
Como a $Cov(X,Y)=0$ e
$$0=Cov(X,Y)=(b-a)(d-c)Cov(W,Z)$$
e ainda
$$Cov(XY)=\mathbb{E}(XY)-\mathbb{E}(X)\mathbb{E}(Y)=(b-a)(d-c)\mathbb{E}(WZ)+a(d-c)\mathbb{E}(Z)+c(b-a)\mathbb{E}(W)+ac - (b-a)(d-c)\mathbb{E}(W)\mathbb{E}(Z)+a(d-c)\mathbb{E}(Z)+c(b-a)\mathbb{E}(W)+ac $$
$$(b-a)(d-c)[\mathbb{E}(WZ)-\mathbb{E}(W)\mathbb{E}(Z)]=(b-a)(d-c)Cov(W,Z)$$
Agora se $Cov(X,Y)=0$ então como $(a-b)(d-c)\neq 0$, pois $b> a$ e $d> c$ o que implica que pelo exemplo anterior temos que
$$Cov(W,Z)=0$$
o que implica que $W$ e $Z$ são independentes o que implica que $(b-a)W+a$ e $(d-c)Z+c$ são independentes e portanto X e Y são independente.


Exemplo 4.2.3: Se X e Y são independentes com variância finita, então
$$Var(XY)=Var(X)Var(Y)+\mathbb{E}(X)^2Var(Y)+\mathbb{E}(Y)^2Var(X)$$
Para isso observe que
$$Var(X)Var(Y)+\mathbb{E}(X)^2Var(Y)+\mathbb{E}(Y)^2Var(X)=\left(\mathbb{E}(X^2)-\mathbb{E}^2(X)\right)\left(\mathbb{E}(Y^2)-\mathbb{E}^2(Y)\right) $$
$$+\left(\mathbb{E}^2(X)\right) \left(\mathbb{E}(Y^2)-\mathbb{E}^2(Y)\right)+ \left(\mathbb{E}^2(Y)\right)\left(\mathbb{E}(X^2)-\mathbb{E}^2(X)\right)$$
$$=\mathbb{E}^2(X)\mathbb{E}(Y^2)-\mathbb{E}^2(X)\mathbb{E}^2(Y)+\mathbb{E}(X^2)\mathbb{E}^2(Y)-\mathbb{E}^2(X)\mathbb{E}^2(Y) + \mathbb{E}(X^2)\mathbb{E}(X^2)-\mathbb{E}(X^2)\mathbb{E}^2(Y)-\mathbb{E}^2(X)\mathbb{E}(Y^2)+\mathbb{E}^2(X)\mathbb{E}^2(Y)$$
$$=\mathbb{E}(X^2)\mathbb{E}(Y^2)-\mathbb{E}^2(X)\mathbb{E}^2(Y)=\mathbb{E}((XY)^2)-\mathbb{E}^2(XY)=Var(XY)$$
portanto o resultado segue.
 


Proposição 4.2.3: A covariância é bilinear, ou seja,
$$Cov\left(\sum_{i=1}^n a_iX_i, \sum_{j=1}^m b_jY_j\right)=\sum_{j=1}^m\sum_{i=1}^n a_i b_j Cov(X_i,Y_j)$$
no qual $a_i$ e $b_j$ são números reais e $Var(X_i)$, $Var(Y_j)$ são finitas.
Demonstração: Como as variâncias são finitas então $\mathbb{E}(X_iY_j)< \infty$, e pela desigualdade de Cauchy-Schwartz a $Cov(X_i,Y_j)$. Assim
$$Cov\left(\sum_{i=1}^n a_iX_i, \sum_{j=1}^n b_jY_j\right)=\mathbb{E}\left(\sum_{i=1}^n a_iX_i\sum_{j=1}^n b_jY_j\right)-\mathbb{E}\left(\sum_{i=1}^n a_i X_i\right)\mathbb{E}\left(\sum_{j=1}^m b_j Y_j\right)$$
$$=\mathbb{E}\left(\sum_{j=1}^m\sum_{i=1}^n a_i b_jX_iY_j\right)-\mathbb{E}\left(\sum_{i=1}^n a_iX_i\right)\mathbb{E}\left(\sum_{j=1}^m b_jY_j\right)$$
Pela linearidade da esperança temos que
$$Cov\left(\sum_{i=1}^n a_iX_i, \sum_{j=1}^n b_jY_j\right)=\sum_{j=1}^n\sum_{i=1}^m a_ib_j\mathbb{E}(X_i Y_j)-\left(\sum_{i=1}^n a_i\mathbb{E}(X_i)\right)\left(\sum_{j=1}^m b_j\mathbb{E}(Y_j)\right)$$
$$=\sum_{i=1}^n \sum_{j=1}^m a_ib_j \left(\mathbb{E}(X_iY_j)-\mathbb{E}(X_i)\mathbb{E}(Y_i)\right)=\sum_{j=1}^m\sum_{i=1}^n a_ib_jCov(X_i,Y_j)$$
portanto o resultado segue.
 

Exemplo 4.2.4: Sejam $(X_1,\dots X_n, Y_1, \dots, Y_m)$ um vetor aleatória $(m+n)$-dimensional tal que $Var(X_i)=Var(Y_j)=1$ e $\rho(X_i,X_j)=\rho_1$ e $\rho(Y_i,Y_j)=\rho_2$ para todo $i\neq j$ e $\rho(X_i,Y_j)=\rho_3$. Se $U=X_1+\dots+X_m$ e $V=Y_1+\dots+Y_n$, então prove que o coeficiente de correlação $$\rho(U,V)=\frac{\sqrt{mn}\rho_3}{\sqrt{1+(m-1)\rho_1}\sqrt{1+(n-1)\rho_2}}$$
Para isso, observe que
$$Cov(U,V)=Cov\left(\sum_{i=1}^n X_i,\sum_{j=1}^m Y_j\right)=\sum_{i=1}^n\sum_{j=1}^mCov(X_i, Y_j)=mn(\rho_3\sqrt{Var(X_1)}\sqrt{Var(Y_1)})=mn\rho_3$$
Agora
$$\sigma_U^2=Var\left(\sum_{i=1}^nX_i\right)=\sum_{i=1}^nVar(X_i)+2\sum_{i< j}Cov(X_i,X_j)=n+2n(n-1)\rho_1=n(1+(n-1)\rho_1)$$
Igualmente obtemos que
$$\sigma_V^2=Var\left(\sum_{i=1}^mY_i\right)=\sum_{i=1}^mVar(Y_i)+2\sum_{i< j}Cov(Y_i,Y_j)=m(1+(m-1)\rho_2)$$
Então,
$$\rho(U,V)=\frac{Cov(U,V)}{\sigma_U\sigma_V}=\frac{\sqrt{mn}\rho_3}{\sqrt{1+(m-1)\rho_1}\sqrt{1+(n-1)\rho_2}}$$
e portanto o resultado segue.
 

Exemplo 4.2.5: Sejam X, Y e Z variáveis independentes com distribuição comum $U[0,1]$. Calcule a esperança e a variância de $W=(X+Y)Z$.
Primeiramente note que
$$\mathbb{E}(X)=\frac{1}{2}$$
e
$$\mathbb{E}(X^2)=\frac{1}{3}$$
Agora usando a independência, temos que
$$\mathbb{E}(W)=\mathbb{E}(X+Y)\mathbb{E}(Z)=\mathbb{E}(X)\mathbb{E}(Z)+\mathbb{E}(Y)\mathbb{E}(Z)=\left(\frac{1}{2}+\frac{1}{2}\right)\frac{1}{2}=\frac{1}{2}$$
e usando o Exemplo 4.2.3, temos que
$$Var[(X+Y)Z]=Var(X+Y)Var(Z)+\mathbb{E}(X+Y)^2Var(Z)+\mathbb{E}(Z)^2Var(X+Y)=\frac{5}{36}$$
 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]