2.3 Propriedades dos Estimadores

Você está aqui

2.3.1 Propriedades dos estimadores de mínimos quadrados e do estimador para $\sigma^2$

Consideremos o "Modelo 2.2" na forma matricial. Pelo Teorema de Gauss-Markov temos que o estimador de mínimos quadrados $\widehat{\beta}$ é não viciado e tem variância mínima entre todos os estimadores não viciados que são combinações lineares dos $Y_i$.  Assim,

1. Valor esperado (média) de $\widehat{\beta}$:

$$E(\widehat{\beta})= E[(X^\prime X)^{-1}X^\prime Y]=E[(X^\prime X)^{-1}X^\prime (X\beta+\varepsilon)]=E[(X^\prime X)^{-1}X^\prime X\beta+(X^\prime X)^{-1}X^\prime \varepsilon]$$ $$=E[I\beta]+E[(X^\prime X)^{-1}X^\prime \varepsilon]=\beta+(X^\prime X)^{-1}X^\prime E[\varepsilon]=\beta,$$

em que $E[\varepsilon]=0$ e $(X^\prime X)^{-1}X^\prime X=I$ (matriz identidade).

2. Matriz de covariâncias de $\widehat{\beta}$:

Para calcular a variância de $\widehat{\beta},$ vamos primeiramente destacar a definição de variância no caso matricial, ou seja, se $W$ é um vetor de variáveis aleatórias, então a matriz de covariâncias de W é dado por $$Cov(W)= E \left[ W W^\prime\right] - E[W] E(W)^\prime,$$

que na forma matricial é escrita como $$Cov[W] = \left[ \begin{array}{ccccc} Cov[W_1,W_1]~~Cov[W_1,W_2]~~Cov[W_1,W_3]~~\ldots ~~Cov[W_1,W_n] \\ Cov[W_2,W_1] ~~ Cov[W_2,W_2] ~~ Cov[W_2,W_3] ~~ \ldots ~~ Cov[W_2,W_n] \\ Cov[W_3,W_1] ~~Cov[W_3,W_2] ~~Cov[W_3,W_3] ~~ \ldots ~~Cov[W_3,W_n] \\ ~~~\vdots ~~~~~~~~~~~~~~~~~~ \vdots ~~~~~~~~~~~~~~~~ \vdots ~~~~~~~~~~~ \ddots ~~~~~~~~~~~ \vdots \\ Cov[W_n,W_1] ~~Cov[W_n,W_2] ~~Cov[W_n,W_3] ~~\ldots ~~Cov[W_n,W_n] \\ \end{array} \right]$$

Com isso, a matriz de covariâncias $\widehat{\beta}$ é $$Cov(\widehat{\beta})= E \left[\widehat{\beta}\widehat{\beta}^\prime \right] - E[\widehat{\beta}] E(\widehat{\beta})^\prime = E \left\{\left[(X^\prime X)^{-1} X^\prime Y\right]~\left[(X^\prime X)^{-1} X^\prime Y\right]^\prime \right\} - \beta \beta^\prime$$
$$= (X^\prime X)^{-1} X^\prime E(YY^\prime )~X(X^\prime X)^{-1} - \beta \beta^\prime = (X^\prime X)^{-1} X^\prime \bl[Cov(Y)+ E(Y)E(Y)^\prime \br]~X(X^\prime X)^{-1} - \beta \beta^\prime$$
$$=(X^\prime X)^{-1} X^\prime ~ Cov(Y) ~ X(X^\prime X)^{-1} + (X^\prime X)^{-1}X^\prime ~ E(Y)E(Y)^\prime X(X^\prime X)^{-1} - \beta \beta^\prime.$$

Fazendo $Cov(Y)=\sigma^2~I$ e também que $E(Y)=X \beta$ $$Cov(\widehat{\beta})=\sigma^2 (X^\prime X)^{-1}\overbrace{ X^\prime I X(X^\prime X)^{-1}}^{=~I} + (X^\prime X)^{-1}X^\prime(X\beta)(X\beta)^\prime X(X^\prime X)^{-1} - \beta \beta^\prime$$
$$ = \sigma^2 (X^\prime X)^{-1} + \overbrace{(X^\prime X)^{-1}X^\prime X}^{=~I}\beta ~ \beta^\prime \overbrace{X^\prime X(X^\prime X)^{-1}}^{=~I} ~ - ~ \beta \beta^\prime$$
$$ = \sigma^2 (X^\prime X)^{-1} + \beta \beta^\prime - \beta \beta^\prime =\sigma^2(X^\prime X)^{-1}.$$

3. Estimador não viciado para $\sigma^2$:

Consideremos a soma de quadrados dos resíduos dada por​ Anchor$$SQE= \sum_{i=1}^n e^2_i = e^\prime e = (Y-\widehat{Y})^\prime (Y-\widehat{Y})= (Y-X\widehat{\beta})^\prime (Y-X\widehat{\beta})$$
$$= Y^\prime Y - Y^\prime X\widehat{\beta} - \widehat{\beta}^\prime X^\prime Y + \widehat{\beta}^\prime X^\prime X\widehat{\beta}= Y^\prime Y - 2\widehat{\beta}^\prime X^\prime Y + \widehat{\beta}^\prime X^\prime X\widehat{\beta}.$$

Desde que $X^\prime X\widehat{\beta}=X^\prime Y,$ segue que  $$SQE = Y^\prime Y - 2\widehat{\beta}^\prime X^\prime Y + \widehat{\beta}^\prime X^\prime Y = Y^\prime Y - \widehat{\beta}^\prime X^\prime Y\mbox{~~ou~ainda,}$$
$$= Y^\prime Y - Y^\prime X (X^\prime X)^{-1}X^\prime Y = Y^\prime (I - X(X^\prime X)^{-1}X^\prime)Y.$$
Portanto, $$SQE = Y^\prime(I - X(X^\prime X)^{-1}X^\prime)Y.$$

Veremos a SQE com mais detalhes em "Análise de Variância".

 

Teorema - Distribuição de forma quadrática: Se $Y \sim N_p(\mu;\Sigma)$, então, $Y^\prime AY \sim \chi^2_{r(A),\delta}$ (Qui-quadrado não central) se, e somente se, $A\Sigma$ é idempotente, em que   

  • r(A): representa o rank da matriz A, ou seja, o número de colunas linearmente independentes da matriz A.
  • $\delta=\dfrac{1}{2}\mu^\prime A \mu$: representa o parâmetro de não centralidade.
  • Idempotente: $A\Sigma \times A\Sigma = A\Sigma$

Como assumimos que o vetor de erro $\varepsilon~\sim~N_p(0;\sigma^2I_p)$, segue que $Y\sim N_p(X\beta;\sigma^2I_p)$ e então, $$\dfrac{Y}{\sigma}\sim N_p\left(\dfrac{X\beta}{\sigma};I_p\right).$$

Desta forma, utilizando o teorema obtemos que $$\dfrac{SQE}{\sigma^2}=\dfrac{Y^\prime }{\sigma} \bl[I - X (X^\prime X)^{-1}X^\prime \br]\dfrac{Y}{\sigma}\sim\chi^{2}_{r[I -X(X^\prime X)^{-1}X^\prime ];\delta}$$

já que a matriz $(I - X (X^\prime X)^{-1}X^\prime )$ é idempotente. Como $$\delta=\dfrac{1}{2}\dfrac{\beta^\prime X^\prime (I-X(X^\prime X)^{-1}X^\prime )X\beta}{\sigma^2}=0~~\mbox{e}$$   $$r(I-X(X^\prime X)^{-1}X^\prime )=n-(p+1),$$

então $$\dfrac{SQE}{\sigma^2}\sim\chi^{2}_{n-(p+1)}.$$ 

Portanto, um estimador não viciado para $\sigma^2$ é dado por $$\widehat{\sigma}^2=QME=\dfrac{SQE}{n-p-1}.$$

4. Matriz de covariâncias estimada de $\widehat{\beta}$:

em que $\widehat{Cov}(\bf{\widehat{\beta}})$ é uma matriz $(p+1)\times (p+1)$, sendo $p$ o número de variáveis explicativas do modelo.

Sendo $C$ a diagonal da matriz ${(X^\prime X)}^{-1}$, isto é, $$C=\begin{bmatrix}C_{00}~~~~~~~~~~~~~~~\\~~~~~C_{11}~~~~~~~~~~\\~~~~~~~~~~\ddots~~~~~\\~~~~~~~~~~~~~~~C_{pp}\end{bmatrix},$$

podemos escrever a variância estimada dos $\widehat{\beta}_{j}$ como $$\widehat{\sigma}^{2}(\widehat{\beta}_j)=\widehat{\sigma}^2C_{jj},\quad j=0,1,\dots,p.$$

Exemplo 2.3.1

Calcular a matriz de covariâncias estimada considerando os dados transformados do "Exemplo 2.2.3". 

A matriz ${(X^\prime X)}$ neste caso é dada por

Temos também que $$\widehat{\sigma}^2= QME = \dfrac{SQE}{n-p-1}=\dfrac{y^\prime y-\whidehar{\beta}^\prime X^\prime y}{14-2-1}=\dfrac{22.527.889-22.514.467,9}{11}=\dfrac{13.421,2}{11}=1.220,1.$$

Logo,

Podemos também utilizar a matriz $C$, dada por

Neste caso, a variância estimada dos estimadores $\widehat{\beta}_{j}\quad j=0,1,2$ é

$$\widehat{\sigma}^{2}(\widehat{\beta}_{0})=\widehat{\sigma}^{2}C_{00}=1.220,1(0,0720)=87,881.$$

$$\widehat{\sigma}^{2}(\widehat{\beta}_{1})=\widehat{\sigma}^{2}C_{11}=1.220,1(0,1660)=202,481.$$

$$\widehat{\sigma}^{2}(\widehat{\beta}_{2})=\widehat{\sigma}^{2}C_{22}=1.220,1(0,1429)=174,323.$$

O desvio padrão dos estimadores é $$\widehat{\sigma}(\widehat{\beta}_{0})=\sqrt{87,881}=9,374.$$
$$\widehat{\sigma}(\widehat{\beta}_{1})=\sqrt{202,481}=14,230.$$
$$\widehat{\sigma}(\widehat{\beta}_{2})=\sqrt{174,323}=13,203.$$

Usando o software Action temos os seguintes resultados:

 Para entender como executar essa função do Software Action, você pode consultar o manual do usuário.

Análise de Regressão

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]