2.2 Estimação dos Parâmetros do Modelo

Você está aqui

Suponha que temos $ n $ observações $ (n\textgreater p) $ da variável resposta e das $ p $ variáveis explicativas. Assim, $ y_i $ é o valor da variável resposta na i-ésima observação enquanto que $ x_{ij} $ é o valor da variável $ x_j $ na i-ésima observação, $ j=1,\dots,p. $ Os dados de um MRLM podem ser representados da seguinte forma:

$ y $ $ x_1 $ $ x_2 $ $ \ldots $ $ x_p $
$ y_1 $ $ x_{11} $ $ x_{12} $ $ \ldots $ $ x_{1p} $
$ y_2 $ $ x_{21} $ $ x_{22} $ $ \ldots $ $ x_{2p} $
$ \vdots $ $ \vdots $ $ \vdots $ $ \vdots $ $ \vdots $
$ y_n $ $ x_{n1} $ $ x_{n2} $ $ \ldots $ $ x_{np} $

Tabela 2.2.1: Representação dos dados.

em que cada observação satisfaz 

$$\begin{equation*}Y_i=\beta_0 + \beta_1 x_{i1} + \beta_2 x_{i2} + \ldots + \beta_p x_{ip} + \varepsilon_i, \quad i=1,\ldots, n.\end{equation*}$$

2.2.1 Método dos Mínimos Quadrados

O objetivo é minimizar a função 

$$L=\sum_{i=1}^n\varepsilon_i^2=\sum_{i=1}^n\left(Y_i-\beta_0-\beta_1 x_{i1}-\beta_2 x_{i2}-\ldots -\beta_px_{ip}\right)^2.$$

Derivando L em função dos $ \beta $'s obtemos  

$$\dfrac{\partial L}{\partial \beta_0}=-2\sum_{i=1}^n[Y_i-\beta_0-\beta_1x_{i1}-\beta_2x_{i2}-\dots-\beta_px_{ip}],$$


$$\dfrac{\partial L}{\partial \beta_j}=-2\sum_{i=1}^n[Y_i-\beta_0-\beta_1x_{i1}-\beta_2x_{i2}-\dots-\beta_px_{ip}]x_{ji},\quad j=1,2,\dots,p.$$

Igualando as derivadas parciais a zero e substituindo $ \beta_0,\beta_1,\dots,\beta_p $ por $ \widehat{\beta}_0,\widehat{\beta}_1,\dots,\widehat{\beta}_p $, temos o sistema de equações


$$\left\lbrace \begin{array}{c} n \widehat{\beta}_0+\widehat{\beta}_1 \displaystyle \sum_{i=1}^n x_{i1}+\widehat{\beta}_2 \displaystyle\sum_{i=1}^n x_{i2}+\ldots+\widehat{\beta}_p \displaystyle\sum_{i=1}^n x_{ip}=\sum_{i=1}^n Y_i\\\widehat{\beta}_0\displaystyle\sum_{i=1}^n x_{i1}+\widehat{\beta}_1 \displaystyle\sum_{i=1}^n x_{i1}^2+\widehat{\beta}_2 \displaystyle\sum_{i=1}^n x_{i1}x_{i2}+\ldots+\widehat{\beta}_p\displaystyle\sum_{i=1}^n x_{i1} x_{ip}=\displaystyle\sum_{i=1}^n x_{i1} Y_i\\\vdots\vdots\\\widehat{\beta}_0 \displaystyle\sum_{i=1}^n x_{ip}+\widehat{\beta}_1 \displaystyle\sum_{i=1}^n x_{ip} x_{i1}+\widehat{\beta}_2 \displaystyle\sum_{i=1}^n x_{ip} x_{i2}+\ldots+\widehat{\beta}_p \displaystyle\sum_{i=1}^n _{ip}^2=\displaystyle\sum_{i=1}^n x_{ip} Y_i .\end{array}\right.$$

Resolvendo este sistema, obtemos os estimadores de mínimos quadrados $ \widehat{\beta}_0,\dots,\widehat{\beta}_p $ dos parâmetros do modelo em questão. 

2.2.2 Representação matricial do MRLM 

Notemos que os estimadores de mínimos quadrados dos parâmetros do "Modelo 2.2" podem ser facilmente encontrados considerando a notação matricial dos dados, que é de fácil manipulação. Desta forma, considerando a entrada de dados apresentada na Tabela 2.2.1, o modelo de Regressão Linear Múltipla pode ser escrito como  

$$\begin{equation*}Y=X\beta+\varepsilon,\end{equation*}$$

com 

$$Y=\left[\begin{array}{c}Y_1\\Y_2\\\vdots\\Y_n\\\end{array} \right]~~,~~X=\left[\begin{array}{ccccc}1~x_{11}~ x_{12}~\ldots~x_{1p}\\1~x_{21}~x_{22}~\ldots~x_{2p}\\\vdots~~~\vdots~~~\vdots~~~\ddots~~~\vdots\\1~x_{n1}~x_{n2}~\ldots~x_{np}\\\end{array} \right]~~,~~\beta=\left[ \begin{array}{c}\beta_0\\\beta_1\\\vdots\\\beta_p\\\end{array} \right]~~\mbox{e}~~ \varepsilon=\left[ \begin{array}{c}\varepsilon_1\\\varepsilon_2\\\vdots\\\varepsilon_n\\\end{array}\right],$$

em que

  • $ Y $ é um vetor $ n\times 1 $ cujos componentes corresponde às n respostas;
  • $ X $ é uma matriz de dimensão $ n\times (p+1) $ denominada matriz do modelo;
  • $ \varepsilon $ é um vetor de dimensão $ n\times 1 $ cujos componentes são os erros e
  • $ \beta $ é um vetor $ (p+1)\times 1 $ cujos elementos são os coeficientes de regressão. 

O método de mínimos quadrados tem como objetivo encontrar o vetor $ \widehat{\beta} $ que minimiza

$$L=\sum_{i=1}^n\varepsilon_i^2=\varepsilon^\prime \varepsilon= (Y-X\beta)^\prime (Y-X\beta)=$$

$$=Y^\prime Y-Y^\prime X\beta-\beta^\prime X^\prime Y+\beta^\prime X^\prime X\beta=Y^\prime Y-2\beta^\prime X^\prime Y+\beta^\prime X^\prime X\beta,$$

sendo que $ Y^\prime X\beta=\beta^\prime X^\prime Y $ pois o produto resulta em um escalar. A notação $ X^\prime  $ representa o transposto da matriz $ X $ enquanto que $ Y^\prime $ e $ \beta^\prime $ representam os transpostos dos vetores $ Y $ e $ \beta $, respectivamente. Usando a técnica de derivação (em termos matriciais) obtemos

$$\dfrac{\partial L}{\partial\beta}=-2X^\prime Y+2X^\prime X\beta.$$

Igualando a zero e substituindo o vetor $ \beta $ pelo vetor $ \widehat{\beta} $, temos

$$(X^\prime X)\widehat{\beta}=X^\prime Y.$$

Em geral, a matriz $ (X^\prime X) $ é não singular, ou seja, tem determinante diferente de zero, e portanto é invertível. Desta forma, conclui-se que os estimadores para os parâmetros $ \beta_j,\quad j=0,\dots,p $ são dados pelo vetor

$ \begin{equation*}\widehat{\beta}=(X^\prime X)^{-1} X^\prime Y.\end{equation*} $

Portanto, o modelo de regressão linear ajustado e o vetor de resíduos são respectivamente

$ \begin{equation*}\widehat{Y}=X\widehat{\beta}\quad\mbox {e}\quad e=Y-\widehat{Y}=Y - \widehat{Y}.\end{equation*} $

Ao substituirmos os estimadores de mínimos quadrados, obtemos que $ \widehat{Y} = HY $ no qual $ H=X(X^\prime X)^{-1} X^\prime $ é a matriz chapéu, ou matriz de projeção do vetor de respostas $ Y $ no vetor de respostas ajustadas $ \widehat{Y} $

Exemplo 2.2.1

Com os dados do exemplo na "Motivação 2", obter as estimativas dos parâmetros do "Modelo 2.2".

clique aqui para efetuar o download dos dados utilizados nesse exemplo

Solução:

Sejam a variável resposta Ganho (Y) e as variáveis explicativas Tempo ($ x_1 $) e Dose ($ x_2 $).

Temos que $ n=14, $$ \quad \sum\limits_{i=1}^{14}Y_i= 17.495 $; $ \quad\sum\limits_{i=1}^{14}x_{i1}= 3.155 $ e $ \quad \sum\limits_{i=1}^{14} x_{i2}= 60,72. $ Além disso,
$ \sum\limits_{i=1}^{14} x_{i1}^2= 716.425 $; $ \quad\sum\limits_{i=1}^{14}x_{i2}^2= 264,2584 $; $ \quad \sum\limits_{i=1}^{14} x_{i1} x_{i2}= 13.683,50 $; $ \quad \sum\limits_{i=1}^{14} x_{i1} Y_i= 4.001.120 $ e $ \quad \sum\limits_{i=1}^{14} x_{i2}Y_i= 75.738,30. $

As equações normais serão

$$\left\lbrace \begin{array}{c} n \widehat{\beta}_0+\widehat{\beta}_1 \displaystyle\sum_{i=1}^n x_{i1}+\widehat{\beta}_2 \displaystyle\sum_{i=1}^n x_{i2}=\displaystyle\sum_{i=1}^n Y_i\\\widehat{\beta}_0 \displaystyle\sum_{i=1}^n x_{i1}+\widehat{\beta}_1 \displaystyle\sum_{i=1}^n x_{i1}^2 +\widehat{\beta}_2 \displaystyle\sum_{i=1}^n x_{i1} x_{i2}=\displaystyle\sum_{i=1}^n x_{i1} Y_i\\\widehat{\beta}_0 \displaystyle\sum_{i=1}^n x_{i2}+\widehat{\beta}_1 \displaystyle\sum_{i=1}^n x_{i1} x_{i2}+\widehat{\beta}_2 \displaystyle\sum_{i=1}^n x_{i2}^2=\sum_{i=1}^n x_{i2} Y_i\end{array}\right.$$

Substituindo os valores para esse exemplo, temos


$$\left\lbrace \begin{array}{c}14\,\widehat{\beta}_0\,+\,3.155\,\widehat{\beta}_1\,+\,60,72\,\widehat{\beta}_2\,=\, 17.495\\3.155 \,\widehat{\beta}_0\,+\,716.425\,\widehat{\beta}_1\,+\,13.683,50\, \widehat{\beta}_2\,=\,4.001.120\\60,72\,\widehat{\beta}_0\,+\,13.683,50\,\widehat{\beta}_1 \, +\, 264,2584 \,\widehat{\beta}_2 \,=\,75.738,30\end{array}\right.$$

Resolvendo o sistema, obtemos

$ \widehat{\beta}_0= -520,08, $$ \widehat{\beta}_1 = 10,78  $  e  $ \widehat{\beta}_2 = -152,15. $

Na representação matricial temos

Logo, as estimativas $ \widehat{\beta} $ são dadas por

e portanto, $ \widehat{y} = -520,08 + 10,78 x_1 -152,15 x_2. $

Não podemos afirmar que a variável $ x_1 $ aumenta o ganho, pois as variáveis $ x_1 $ e $ x_2 $ estão em unidades diferentes. No exemplo 2.2.3 abaixo, as variáveis foram transformadas para que fiquem na mesma unidade.

 

Exemplo 2.2.2

Interpretar os resultados do "Exemplo 2.2.1".

Solução:

Com os dados do exemplo na "Motivação 2", obtemos o modelo


$$E(Y\mid x)= -520,08 - 152,15 \, Dose + 10,78 \, Tempo.$$

Se o $ Tempo = 225 $ (constante), então

$$E(Y\mid x)= 1.905,42 - 152,15\, Dose.$$

Assim,

$ \beta_1=-152,15 $ indica que a cada acréscimo de uma unidade na $ Dose $ a resposta média decrescerá $ 152,15 $ unidades;

$ \beta_2=10,78 $ indica um acréscimo na resposta média de $ 10,78 $ unidades para cada acréscimo de uma unidade na variável $ Dose $.

 

2.2.3 Transformação de dados

 

Em determinadas situações é usual transformarmos as variáveis explicativas dos dados originais para que fiquem na mesma unidade (escala), facilitando a interpretação dos resultados. Suponha que $ \xi_{1},\xi_{2},\dots,\xi_{p} $ são as variáveis explicativas originais do modelo. A expressão para transformar as variáveis explicativas $ \xi $ é dada por


$$x_{ij}=\dfrac{\xi_{ij}-\dfrac{[max(\xi_{ij})+min(\xi_{ij})]}{2}}{\dfrac{[max(\xi_{ij})-min(\xi_{ij})]}{2}},$$

em que j indica a variável que está sendo transformada, $ j=1,\dots,p $. Desta forma, temos que os valores das variáveis explicativas transformadas estão todos entre -1 e 1.

Notemos que os valores das estimativas dos parâmetros do modelo de regressão linear múltipla não são os mesmos considerando as variáveis originais e as variáveis transformadas.

 

Exemplo 2.2.3

Considerando os dados do Exemplo 2.2.1, transformar as variáveis explicativas para que fiquem na mesma unidade (escala). Então, ajustar o modelo de regressão linear múltipla aos dados transformados.

clique aqui para efetuar o download dos dados utilizados nesse exemplo

Considerando que $ \xi_{1} $ e $ \xi_{2} $ são as variáveis explicativas no conjunto de dados original, temos que as variáveis explicativas transformadas, denotadas por $ x_1 $ e $ x_2 $ são dadas por

  • Para $ x_{i1} $:


$$x_{i1}=\dfrac{\xi_{i1} - 225}{30}.$$

  • Para $ x_{i2} $:


$$x_{i2}=\frac{\xi_{i2} -4,36}{0,36}.$$

Observação Tempo (min)    $ (\xi_{1}) $

Dose de íons $ 10^{14} $

 $ (\xi_{2}) $

$ x_1 $ $ x_2 $ Ganho (y)
1 195 4 -1 -1 1.004
2 255 4 1 -1 1.636
3 195 4,6 -1 0,6667 852
4 255 4,6 1 0,6667 1.506
5 225 4,2 0 -0,4444 1.272
6 225 4,1 0 -0,7222 1.270
7 225 4,6 0 0,6667 1.269
8 195 4,3 -1 -0,1667 903
9 255 4,3 1 -0,1667 1.555
10 225 4 0 -1 1.260
11 225 4,7 0 0,9444 1.146
12 225 4,3 0 -0,1667 1.276
13 225 4,72 0 1 1.225
14 230 4,3 0,1667 -0,1667 1.321

Tabela 2.2.2: Dados Transformados.

Considerando os dados transformados, temos que a matriz $ X $ e o vetor $ y $ são dados respectivamente por

Assim, a matriz $ X^\prime X $ é

Portanto, as estimativas $ \widehat{\beta} $ são

Assim, a equação da regressão é dada por

$$\widehat{y}= 1.242,31 + 323,43~x_1 - 54,77~x_2.$$

Usando o software Action temos os seguintes resultados:

  • Considerando a escala original dos dados

  • Considerando a transformação

 Para entender como executar essa função do Software Action, você pode consultar o  manual do usuário.

 

Análise de Regressão

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]