- (16) 3376-2047
- [email protected]
- Portfólio de Serviços
- AT
Consideremos o "Modelo 2.2" na forma matricial. Pelo Teorema de Gauss-Markov temos que o estimador de mínimos quadrados $\widehat{\beta}$ é não viciado e tem variância mínima entre todos os estimadores não viciados que são combinações lineares dos $Y_i$. Assim,
1. Valor esperado (média) de $\widehat{\beta}$:
$$E(\widehat{\beta})= E[(X^\prime X)^{-1}X^\prime Y]=E[(X^\prime X)^{-1}X^\prime (X\beta+\varepsilon)]=E[(X^\prime X)^{-1}X^\prime X\beta+(X^\prime X)^{-1}X^\prime \varepsilon]$$ $$=E[I\beta]+E[(X^\prime X)^{-1}X^\prime \varepsilon]=\beta+(X^\prime X)^{-1}X^\prime E[\varepsilon]=\beta,$$
em que $E[\varepsilon]=0$ e $(X^\prime X)^{-1}X^\prime X=I$ (matriz identidade).
2. Matriz de covariâncias de $\widehat{\beta}$:
Para calcular a variância de $\widehat{\beta},$ vamos primeiramente destacar a definição de variância no caso matricial, ou seja, se $W$ é um vetor de variáveis aleatórias, então a matriz de covariâncias de W é dado por $$Cov(W)= E \left[ W W^\prime\right] - E[W] E(W)^\prime,$$
que na forma matricial é escrita como $$Cov[W] = \left[ \begin{array}{ccccc} Cov[W_1,W_1]~~Cov[W_1,W_2]~~Cov[W_1,W_3]~~\ldots ~~Cov[W_1,W_n] \\ Cov[W_2,W_1] ~~ Cov[W_2,W_2] ~~ Cov[W_2,W_3] ~~ \ldots ~~ Cov[W_2,W_n] \\ Cov[W_3,W_1] ~~Cov[W_3,W_2] ~~Cov[W_3,W_3] ~~ \ldots ~~Cov[W_3,W_n] \\ ~~~\vdots ~~~~~~~~~~~~~~~~~~ \vdots ~~~~~~~~~~~~~~~~ \vdots ~~~~~~~~~~~ \ddots ~~~~~~~~~~~ \vdots \\ Cov[W_n,W_1] ~~Cov[W_n,W_2] ~~Cov[W_n,W_3] ~~\ldots ~~Cov[W_n,W_n] \\ \end{array} \right]$$
Com isso, a matriz de covariâncias $\widehat{\beta}$ é $$Cov(\widehat{\beta})= E \left[\widehat{\beta}\widehat{\beta}^\prime \right] - E[\widehat{\beta}] E(\widehat{\beta})^\prime = E \left\{\left[(X^\prime X)^{-1} X^\prime Y\right]~\left[(X^\prime X)^{-1} X^\prime Y\right]^\prime \right\} - \beta \beta^\prime$$
$$= (X^\prime X)^{-1} X^\prime E(YY^\prime )~X(X^\prime X)^{-1} - \beta \beta^\prime = (X^\prime X)^{-1} X^\prime \bl[Cov(Y)+ E(Y)E(Y)^\prime \br]~X(X^\prime X)^{-1} - \beta \beta^\prime$$
$$=(X^\prime X)^{-1} X^\prime ~ Cov(Y) ~ X(X^\prime X)^{-1} + (X^\prime X)^{-1}X^\prime ~ E(Y)E(Y)^\prime X(X^\prime X)^{-1} - \beta \beta^\prime.$$
Fazendo $Cov(Y)=\sigma^2~I$ e também que $E(Y)=X \beta$ $$Cov(\widehat{\beta})=\sigma^2 (X^\prime X)^{-1}\overbrace{ X^\prime I X(X^\prime X)^{-1}}^{=~I} + (X^\prime X)^{-1}X^\prime(X\beta)(X\beta)^\prime X(X^\prime X)^{-1} - \beta \beta^\prime$$
$$ = \sigma^2 (X^\prime X)^{-1} + \overbrace{(X^\prime X)^{-1}X^\prime X}^{=~I}\beta ~ \beta^\prime \overbrace{X^\prime X(X^\prime X)^{-1}}^{=~I} ~ - ~ \beta \beta^\prime$$
$$ = \sigma^2 (X^\prime X)^{-1} + \beta \beta^\prime - \beta \beta^\prime =\sigma^2(X^\prime X)^{-1}.$$
3. Estimador não viciado para $\sigma^2$:
Consideremos a soma de quadrados dos resíduos dada por Anchor$$SQE= \sum_{i=1}^n e^2_i = e^\prime e = (Y-\widehat{Y})^\prime (Y-\widehat{Y})= (Y-X\widehat{\beta})^\prime (Y-X\widehat{\beta})$$
$$= Y^\prime Y - Y^\prime X\widehat{\beta} - \widehat{\beta}^\prime X^\prime Y + \widehat{\beta}^\prime X^\prime X\widehat{\beta}= Y^\prime Y - 2\widehat{\beta}^\prime X^\prime Y + \widehat{\beta}^\prime X^\prime X\widehat{\beta}.$$
Desde que $X^\prime X\widehat{\beta}=X^\prime Y,$ segue que $$SQE = Y^\prime Y - 2\widehat{\beta}^\prime X^\prime Y + \widehat{\beta}^\prime X^\prime Y = Y^\prime Y - \widehat{\beta}^\prime X^\prime Y\mbox{~~ou~ainda,}$$
$$= Y^\prime Y - Y^\prime X (X^\prime X)^{-1}X^\prime Y = Y^\prime (I - X(X^\prime X)^{-1}X^\prime)Y.$$
Portanto, $$SQE = Y^\prime(I - X(X^\prime X)^{-1}X^\prime)Y.$$
Veremos a SQE com mais detalhes em "Análise de Variância".
Teorema - Distribuição de forma quadrática: Se $Y \sim N_p(\mu;\Sigma)$, então, $Y^\prime AY \sim \chi^2_{r(A),\delta}$ (Qui-quadrado não central) se, e somente se, $A\Sigma$ é idempotente, em que
Como assumimos que o vetor de erro $\varepsilon~\sim~N_p(0;\sigma^2I_p)$, segue que $Y\sim N_p(X\beta;\sigma^2I_p)$ e então, $$\dfrac{Y}{\sigma}\sim N_p\left(\dfrac{X\beta}{\sigma};I_p\right).$$
Desta forma, utilizando o teorema obtemos que $$\dfrac{SQE}{\sigma^2}=\dfrac{Y^\prime }{\sigma} \bl[I - X (X^\prime X)^{-1}X^\prime \br]\dfrac{Y}{\sigma}\sim\chi^{2}_{r[I -X(X^\prime X)^{-1}X^\prime ];\delta}$$
já que a matriz $(I - X (X^\prime X)^{-1}X^\prime )$ é idempotente. Como $$\delta=\dfrac{1}{2}\dfrac{\beta^\prime X^\prime (I-X(X^\prime X)^{-1}X^\prime )X\beta}{\sigma^2}=0~~\mbox{e}$$ $$r(I-X(X^\prime X)^{-1}X^\prime )=n-(p+1),$$
então $$\dfrac{SQE}{\sigma^2}\sim\chi^{2}_{n-(p+1)}.$$
Portanto, um estimador não viciado para $\sigma^2$ é dado por $$\widehat{\sigma}^2=QME=\dfrac{SQE}{n-p-1}.$$
4. Matriz de covariâncias estimada de $\widehat{\beta}$:
em que $\widehat{Cov}(\bf{\widehat{\beta}})$ é uma matriz $(p+1)\times (p+1)$, sendo $p$ o número de variáveis explicativas do modelo.
Sendo $C$ a diagonal da matriz ${(X^\prime X)}^{-1}$, isto é, $$C=\begin{bmatrix}C_{00}~~~~~~~~~~~~~~~\\~~~~~C_{11}~~~~~~~~~~\\~~~~~~~~~~\ddots~~~~~\\~~~~~~~~~~~~~~~C_{pp}\end{bmatrix},$$
podemos escrever a variância estimada dos $\widehat{\beta}_{j}$ como $$\widehat{\sigma}^{2}(\widehat{\beta}_j)=\widehat{\sigma}^2C_{jj},\quad j=0,1,\dots,p.$$
Calcular a matriz de covariâncias estimada considerando os dados transformados do "Exemplo 2.2.3".
A matriz ${(X^\prime X)}$ neste caso é dada por
Temos também que $$\widehat{\sigma}^2= QME = \dfrac{SQE}{n-p-1}=\dfrac{y^\prime y-\whidehar{\beta}^\prime X^\prime y}{14-2-1}=\dfrac{22.527.889-22.514.467,9}{11}=\dfrac{13.421,2}{11}=1.220,1.$$
Logo,
Podemos também utilizar a matriz $C$, dada por
Neste caso, a variância estimada dos estimadores $\widehat{\beta}_{j}\quad j=0,1,2$ é
$$\widehat{\sigma}^{2}(\widehat{\beta}_{0})=\widehat{\sigma}^{2}C_{00}=1.220,1(0,0720)=87,881.$$
$$\widehat{\sigma}^{2}(\widehat{\beta}_{1})=\widehat{\sigma}^{2}C_{11}=1.220,1(0,1660)=202,481.$$
$$\widehat{\sigma}^{2}(\widehat{\beta}_{2})=\widehat{\sigma}^{2}C_{22}=1.220,1(0,1429)=174,323.$$
O desvio padrão dos estimadores é $$\widehat{\sigma}(\widehat{\beta}_{0})=\sqrt{87,881}=9,374.$$
$$\widehat{\sigma}(\widehat{\beta}_{1})=\sqrt{202,481}=14,230.$$
$$\widehat{\sigma}(\widehat{\beta}_{2})=\sqrt{174,323}=13,203.$$
Usando o software Action temos os seguintes resultados:
![]() |
Para entender como executar essa função do Software Action, você pode consultar o manual do usuário. |
O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.