2.3 Propriedades dos Estimadores

Você está aqui

2.3.1 Propriedades dos estimadores de mínimos quadrados e do estimador para $ \sigma^2 $

Consideremos o "Modelo 2.2" na forma matricial. Pelo Teorema de Gauss-Markov temos que o estimador de mínimos quadrados $ \widehat{\beta} $ é não viciado e tem variância mínima entre todos os estimadores não viciados que são combinações lineares dos $ Y_i $.  Assim,

1. Valor esperado (média) de $ \widehat{\beta} $:

$$E(\widehat{\beta})= E[(X^\prime X)^{-1}X^\prime Y]=E[(X^\prime X)^{-1}X^\prime (X\beta+\varepsilon)]=E[(X^\prime X)^{-1}X^\prime X\beta+(X^\prime X)^{-1}X^\prime \varepsilon]$$

 

$$=E[I\beta]+E[(X^\prime X)^{-1}X^\prime \varepsilon]=\beta+(X^\prime X)^{-1}X^\prime E[\varepsilon]=\beta,$$

em que $ E[\varepsilon]=0 $ e $ (X^\prime X)^{-1}X^\prime X=I $ (matriz identidade).

2. Matriz de covariâncias de $ \widehat{\beta} $:

Para calcular a variância de $ \widehat{\beta}, $ vamos primeiramente destacar a definição de variância no caso matricial, ou seja, se $ W $ é um vetor de variáveis aleatórias, então a matriz de covariâncias de W é dado por

$$Cov(W)= E \left[ W W^\prime\right] - E[W] E(W)^\prime,$$

que na forma matricial é escrita como

$$Cov[W] = \left[ \begin{array}{ccccc} Cov[W_1,W_1]~~Cov[W_1,W_2]~~Cov[W_1,W_3]~~\ldots ~~Cov[W_1,W_n] \\ Cov[W_2,W_1] ~~ Cov[W_2,W_2] ~~ Cov[W_2,W_3] ~~ \ldots ~~ Cov[W_2,W_n] \\ Cov[W_3,W_1] ~~Cov[W_3,W_2] ~~Cov[W_3,W_3] ~~ \ldots ~~Cov[W_3,W_n] \\ ~~~\vdots ~~~~~~~~~~~~~~~~~~ \vdots ~~~~~~~~~~~~~~~~ \vdots ~~~~~~~~~~~ \ddots ~~~~~~~~~~~ \vdots \\ Cov[W_n,W_1] ~~Cov[W_n,W_2] ~~Cov[W_n,W_3] ~~\ldots ~~Cov[W_n,W_n] \\ \end{array} \right]$$

Com isso, a matriz de covariâncias $ \widehat{\beta} $ é

$$Cov(\widehat{\beta})= E \left[\widehat{\beta}\widehat{\beta}^\prime \right] - E[\widehat{\beta}] E(\widehat{\beta})^\prime = E \left\{\left[(X^\prime X)^{-1} X^\prime Y\right]~\left[(X^\prime X)^{-1} X^\prime Y\right]^\prime \right\} - \beta \beta^\prime$$

$$= (X^\prime X)^{-1} X^\prime E(YY^\prime )~X(X^\prime X)^{-1} - \beta \beta^\prime = (X^\prime X)^{-1} X^\prime \bl[Cov(Y)+ E(Y)E(Y)^\prime \br]~X(X^\prime X)^{-1} - \beta \beta^\prime$$

$$=(X^\prime X)^{-1} X^\prime ~ Cov(Y) ~ X(X^\prime X)^{-1} + (X^\prime X)^{-1}X^\prime ~ E(Y)E(Y)^\prime X(X^\prime X)^{-1} - \beta \beta^\prime.$$

Fazendo $ Cov(Y)=\sigma^2~I $ e também que $ E(Y)=X \beta $

$$Cov(\widehat{\beta})=\sigma^2 (X^\prime X)^{-1}\overbrace{ X^\prime I X(X^\prime X)^{-1}}^{=~I} + (X^\prime X)^{-1}X^\prime(X\beta)(X\beta)^\prime X^\prime X(X^\prime X)^{-1} - \beta \beta^\prime$$

$$ = \sigma^2 (X^\prime X)^{-1} + \overbrace{(X^\prime X)^{-1}X^\prime X}^{=~I}\beta ~ \beta^\prime \overbrace{X^\prime X(X^\prime X)^{-1}}^{=~I} ~ - ~ \beta \beta^\prime$$

$$ = \sigma^2 (X^\prime X)^{-1} + \beta \beta^\prime - \beta \beta^\prime =\sigma^2(X^\prime X)^{-1}.$$

3. Estimador não viciado para $ \sigma^2 $:

Consideremos a soma de quadrados dos resíduos dada por​ Anchor

$$SQE= \sum_{i=1}^n e^2_i = e^\prime e = (Y-\widehat{Y})^\prime (Y-\widehat{Y})= (Y-X\widehat{\beta})^\prime (Y-X\widehat{\beta})$$

$$= Y^\prime Y - Y^\prime X\widehat{\beta} - \widehat{\beta}^\prime X^\prime Y + \widehat{\beta}^\prime X^\prime X\widehat{\beta}= Y^\prime Y - 2\widehat{\beta}^\prime X^\prime Y + \widehat{\beta}^\prime X^\prime X\widehat{\beta}.$$

Desde que $ X^\prime X\widehat{\beta}=X^\prime Y, $ segue que  

$$SQE = Y^\prime Y - 2\widehat{\beta}^\prime X^\prime Y + \widehat{\beta}^\prime X^\prime Y = Y^\prime Y - \widehat{\beta}^\prime X^\prime Y\mbox{~~ou~ainda,}$$

$$= Y^\prime Y - Y^\prime X (X^\prime X)^{-1}X^\prime Y = Y^\prime (I - X(X^\prime X)^{-1}X^\prime)Y.$$

Portanto,

$$SQE = Y^\prime(I - X(X^\prime X)^{-1}X^\prime)Y.$$

Veremos a SQE com mais detalhes em "Análise de Variância".

 

Teorema - Distribuição de forma quadrática: Se $ Y \sim N_p(\mu;\Sigma) $, então, $ Y^\primeAY \sim \chi^2_{r(A),\delta} $ (Qui-quadrado não central) se, e somente se, $ A\Sigma $ é idempotente, em que   

  • r(A): representa o rank da matriz A, ou seja, o número de colunas linearmente independentes da matriz A.
  • $ \delta=\dfrac{1}{2}\mu^\primeA \mu $: representa o parâmetro de não centralidade.
  • Idempotente: $ A\Sigma \times A\Sigma = A\Sigma $

Como assumimos que o vetor de erro $ \varepsilon~\sim~N_p(0;\sigma^2I_p) $, segue que $ Y\sim N_p(X\beta;\sigma^2I_p) $ e então,

$$\dfrac{Y}{\sigma}\sim N_p\left(\dfrac{X\beta}{\sigma};I_p\right).$$

Desta forma, utilizando o teorema obtemos que

$$\dfrac{SQE}{\sigma^2}=\dfrac{Y^\prime }{\sigma} \bl[I - X (X^\prime X)^{-1}X^\prime \br]\dfrac{Y}{\sigma}\sim\chi^{2}_{r[I -X(X^\prime X)^{-1}X^\prime ];\delta}$$

já que a matriz $ (I - X (X^\prime X)^{-1}X^\prime ) $ é idempotente. Como

$$\delta=\dfrac{1}{2}\dfrac{\beta^\prime X^\prime (I-X(X^\prime X)^{-1}X^\prime )X\beta}{\sigma^2}=0~~\mbox{e}$$

 

$$r(I-X(X^\prime X)^{-1}X^\prime )=n-(p+1),$$

então

$$\dfrac{SQE}{\sigma^2}\sim\chi^{2}_{n-(p+1)}.$$

 

Portanto, um estimador não viciado para $ \sigma^2 $ é dado por

$$\widehat{\sigma}^2=QME=\dfrac{SQE}{n-p-1}.$$

4. Matriz de covariâncias estimada de $ \widehat{\beta} $:

em que $ \widehat{Cov}(\bf{\widehat{\beta}}) $ é uma matriz $ (p+1)\times (p+1) $, sendo $ p $ o número de variáveis explicativas do modelo.

Sendo $ C $ a diagonal da matriz $ {(X^\prime X)}^{-1} $, isto é,

$$C=\begin{bmatrix}C_{00}~~~~~~~~~~~~~~~\\~~~~~C_{11}~~~~~~~~~~\\~~~~~~~~~~\ddots~~~~~\\~~~~~~~~~~~~~~~C_{pp}\end{bmatrix},$$

podemos escrever a variância estimada dos $ \widehat{\beta}_{j} $ como

$$\widehat{\sigma}^{2}(\widehat{\beta}_j)=\widehat{\sigma}^2C_{jj},\quad j=0,1,\dots,p.$$

Exemplo 2.3.1

Calcular a matriz de covariâncias estimada considerando os dados transformados do "Exemplo 2.2.3". 

A matriz $ {(X^\prime X)} $ neste caso é dada por

Temos também que 

$$\widehat{\sigma}^2= QME = \dfrac{SQE}{n-p-1}=\dfrac{y^\prime y-\whidehar{\beta}^\prime X^\prime y}{14-2-1}=\dfrac{22.527.889-22.514.467,9}{11}=\dfrac{13.421,2}{11}=1.220,1.$$

Logo,

Podemos também utilizar a matriz $ C $, dada por

Neste caso, a variância estimada dos estimadores $ \widehat{\beta}_{j}\quad j=0,1,2 $ é


$$\widehat{\sigma}^{2}(\widehat{\beta}_{0})=\widehat{\sigma}^{2}C_{00}=1.220,1(0,0720)=87,881.$$


$$\widehat{\sigma}^{2}(\widehat{\beta}_{1})=\widehat{\sigma}^{2}C_{11}=1.220,1(0,1660)=202,481.$$


$$\widehat{\sigma}^{2}(\widehat{\beta}_{2})=\widehat{\sigma}^{2}C_{22}=1.220,1(0,1429)=174,323.$$

O desvio padrão dos estimadores é 

$$\widehat{\sigma}(\widehat{\beta}_{0})=\sqrt{87,881}=9,374.$$

$$\widehat{\sigma}(\widehat{\beta}_{1})=\sqrt{202,481}=14,230.$$

$$\widehat{\sigma}(\widehat{\beta}_{2})=\sqrt{174,323}=13,203.$$

Usando o software Action temos os seguintes resultados:

 Para entender como executar essa função do Software Action, você pode consultar o manual do usuário.

Dúvidas sobre esse conteúdo? Comente:

Sobre o Portal Action

O Portal Action é mantido por Estatcamp - Consultoria Estatística e Qualidade e por DIGUP - Desenvolvimento de Sistemas e Consultoria Estatística, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook