1.11.2 - Estimação dos parâmetros do modelo

Você está aqui

Para estimarmos os parâmetros do modelo de regressão linear heterocedástico tomamos a função de mínimos quadrados por


$$Q_w=\displaystyle\sum^n_{i=1}\eta^2_{i}= \sum_{i=1}^{n} w_i\left( Y_i-\left(\beta_{w0}+\beta_{w1}X_i\right) \right)^2,$$

que é soma dos desvios ponderados por $ w_i $. No modelo de regressão admitimos que o vetor de erros experimentais tem matriz de covariância dada por $ \sigma^2 V $. Assim, temos que $ V $ é uma matriz diagonal com elementos da diagonal dados por $ 1/w_i $.

Os estimadores $ \widehat{\beta}_{w0} $ e $ \widehat{\beta}_{w1} $ que minimizam a função de mínimos quadrados são conhecidos como estimadores de mínimos quadrados ponderados. Notamos que esses estimadores, coincidem com os estimadores de mínimos quadrados ordinários apresentados nas seções anteriores (para mais detalhes consulte Estimação dos Parâmetros do Modelo) quando consideramos a suposição de homocedasticidade, que implica em pesos $ (w_{i}) $ iguais. 

As observações de maior variância têm menos influência sobre os estimadores de $ \beta_{w0} $ e $ \beta_{w1} $, e as de menor variância têm mais influência. Isso é devido ao fato de que as observações de menor variância apresentam informações mais pertinentes a respeito da $ \mathbb{E}[Y|X_i],~~i=1,\dots,n. $

Calculamos os estimadores de mínimos quadrados ponderados derivando $ Q_w $ em relação aos parâmetros e igualando a zero para obter o ponto de mínimo, ou seja:


$$ \dfrac{\partial Q_w}{\partial \beta_{w0}} = 2\displaystyle \sum_{i=1}^{n} w_i\left(Y_i - \left( \beta_{w0} +\beta_{w1}X_i \right) \right)=2\displaystyle \sum_{i=1}^{n} w_i Y_i -2\beta_{w0}\displaystyle \sum_{i=1}^{n}w_i -2\beta_{w1}\displaystyle \sum_{i=1}^{n}w_iX_i=0$$


$$ \dfrac{\partial Q_w}{\partial \beta_{w1}} = 2\displaystyle \sum_{i=1}^{n} w_i\left(Y_i - \left( \beta_{w0} +\beta_{w1}X_i \right) \right)X_i=2\displaystyle \sum_{i=1}^{n} w_i Y_i X_i -2\beta_{w0}\displaystyle \sum_{i=1}^{n}w_iX_i -2\beta_{w1}\displaystyle \sum_{i=1}^{n}w_i{X_i}^2=0$$

Desta forma, obtemos o sistema:

$$\left\{\begin{array}{l}\displaystyle \sum_{i=1}^{n} w_iY_i = \beta_{w0} \displaystyle \sum_{i=1}^{n}w_i + \beta_{w_{w1}} \displaystyle \sum_{i=1}^{n} w_iX_i \\ \displaystyle \sum_{i=1}^{n} w_iY_iX_i = \beta_{w0} \displaystyle \sum_{i=1}^{n}w_iX_i + \beta_{w1} \displaystyle \sum_{i=1}^{n} w_i{X_i}^2\end{array}\right.$$

Com isso, a solução das equações são dadas por:


$$\beta_{w0}= \dfrac { \displaystyle\displaystyle \sum_{i=1}^{n} w_i Y_i - \beta_{w1} \displaystyle\displaystyle \sum_{i=1}^{n} w_i X_i }{ \displaystyle\displaystyle \sum_{i=1}^{n} w_i}\quad \text{e}\quad\beta_{w1} = \dfrac{\displaystyle \displaystyle \sum_{i=1}^{n} w_iY_iX_i - \dfrac{\displaystyle \displaystyle \sum_{i=1}^{n}w_iY_i \displaystyle \displaystyle \sum_{i=1}^{n}w_iX_i }{ \displaystyle \displaystyle \sum_{i=1}^{n} {w_i}}}{ \displaystyle \displaystyle \sum_{i=1}^{n} w_i{X_i}^2 - \dfrac{\left(\displaystyle \displaystyle \sum_{i=1}^{n} w_i X_i \right)^2}{\displaystyle \displaystyle \sum_{i=1}^{n} w_i}}$$

Para facilitar a notação, denotamos $ \overline{Y}_w=\dfrac{\displaystyle \sum_{i=1}^{n}w_i Y_i }{\displaystyle \sum_{i=1}^{n}w_i} $ e $ \overline{X}_w = \dfrac{\displaystyle \sum_{i=1}^{n} w_i X_i}{\displaystyle \sum_{i=1}^{n}wi} $ as médias ponderadas de $ Y $ e $ X $, respectivamente. Afim de facilitar os cálculos, vamos reescrever o estimador de mínimos quadrados ponderados de $ \beta_{w1} $ da seguinte maneira: 

$ \widehat{\beta}_{w1}=\dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)(Y_i - \overline{Y}_w) }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2} = $


$$=\dfrac{\displaystyle \sum_{i=1}^n w_i X_i Y_i -\displaystyle \sum_{i=1}^{n} w_i X_i \overline{Y}_w -\displaystyle \sum_{i=1}^n w_i \overline{X}_w Y_i +\displaystyle \sum_{i=1}^n w_i\overline{X}_w \overline{Y}_w}{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$


$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \displaystyle \sum_{i=1}^{n} w_i X_i \left( \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i}{ \displaystyle \sum_{i=1}^{n} w_i } \right) - \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w Y_i + \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w \left( \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i}{\displaystyle \sum_{i=1}^{n} w_i}\right) }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$


$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i\displaystyle \sum_{i=1}^{n} w_i X_i}{ \displaystyle \sum_{i=1}^{n} w_i }- \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w Y_i + \dfrac{\displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{i=1}^{n}\overline{X}_w w_i Y_i}{\displaystyle \sum_{i=1}^{n} w_i} }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$


$$= \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \displaystyle \sum_{i=1}^{n} w_iY_i \overline{X}_w - \displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w + \displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w}{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}$$


$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_iY_iX_i -\displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2 } = \dfrac{ \displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)Y_i }{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2} \quad~~(1.11.1.5)$$

Logo, os estimadores de mínimos quadrados ponderados são dadas por:


$$\widehat{\beta}_{w0} = \overline{Y}_w - \widehat{\beta}_{w1}\overline{X}_w\quad \text{e}\quad \widehat{\beta}_{w1} = \dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i }{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 } $$

Os valores de $ \widehat{\beta}_{w0} $ e$ \widehat{\beta}_{w0} $ obtidos são denominados Estimadores de Mínimos Quadrados Ponderados (EMQP).

O modelo de regressão linear simples ponderado ajustado é dado por


$$\widehat{Y}_i=\widehat{\beta}_{w0}+\widehat{\beta}_{w1}X_i\quad i=1,\dots,n$$

em que $ \widehat{Y} $ é um estimador pontual da média da variável Y para um valor de $ x $, ou seja,


$$\widehat{\mathbb{E}(Y|X_i)}=\widehat{\beta}_{w0}+\widehat{\beta}_{w1}X_i,\quad i=1,\dots,n$$

 

Exemplo 1.11.1.1

Voltamos à motivação, considere a curva de calibração para o ensaio de certo composto químico realizado por um equipamento chamado Cromatógrado. A seguir, vamos calcular as estimativas dos parâmetros $ \beta_{w0} $ e $ \beta_{w1} $ pelo método dos mínimos quadrados ponderados. Vale lembrar que estamos desenvolvendo a teoria, como se as variâncias fossem conhecidas, porém para resolvermos este exemplo vamos admitir que as variâncias sejam desconhecidas. Com isso, vamos utilizar a variância amostral $ s^2_i $ no lugar de $ \sigma^2_i. $ Através do software Action obtemos os valores dos pesos $ 1/s^2_i: $

clique aqui para efetuar o download dos dados utilizados nesse exemplo

 

 Para entender como executar essa função do Software Action, você pode consultar o Manual do Usuário.

Dos resultados obtidos do Action, calculamos $ w_i=1/s^2_i= $1/Variância.  Com isso, obtemos a tabela:

n Área $ (Y_i) $ Concentração $ (X_i) $ $ w_i $ $ w_i X_i $ $ w_i Y_i $ $ V=(X_i-\overline{X}_w) $ $ w_i*V*Y_i $ $ w_i*V^2 $
1 0,078 0 5,45 0 0,42 -17,81 -7,57 1727,75
2 1,329 0 5,45 0 7,24 -17,81 -128,92 1727,75
3 0,483 0 5,45 0 2,63 -17,81 -46,85 1727,75
4 0,698 0 5,45 0 3,80 -17,81 -67,71 1727,75
5 0,634 0 5,45 0 3,45 -17,81 -61,50 1727,75
6 0,652 0 5,45 0 3,55 -17,81 -63,25 1727,75
7 0,071 0 5,45 0 0,39 -17,81 -6,89 1727,75
8 20,718 25 0,27 6,67 5,53 7,19 39,74 13,79
9 21,805 25 0,27 6,67 5,82 7,19 41,82 13,79
10 16,554 25 0,27 6,67 4,42 7,19 31,75 13,79
11 19,948 25 0,27 6,67 5,32 7,19 38,26 13,79
12 21,676 25 0,27 6,67 5,78 7,19 41,58 13,79
13 22,207 25 0,27 6,67 5,92 7,19 42,59 13,79
14 19,671 25 0,27 6,67 5,25 7,19 37,73 13,79
15 33,833 50 2,65 132,37 89,57 32,19 2883,23 2743,15
16 34,726 50 2,65 132,37 91,94 32,19 2959,33 2743,15
17 35,463 50 2,65 132,37 93,89 32,19 3022,14 2743,15
18 34,04 50 2,65 132,37 90,12 32,19 2900,87 2743,15
19 34,194 50 2,65 132,37 90,53 32,19 2913,99 2743,15
20 33,664 50 2,65 132,37 89,12 32,19 2868,83 2743,15
21 34,517 50 2,65 132,37 91,38 32,19 2941,52 2743,15
22 79,224 100 0,040 4,01 3,18 82,19 261,37 271,15
23 73,292 100 0,040 4,01 2,94 82,19 241,80 271,15
24 85,514 100 0,040 4,01 3,43 82,19 282,12 271,15
25 82,072 100 0,040 4,01 3,29 82,19 270,76 271,15
26 85,044 100 0,040 4,01 3,41 82,19 280,57 271,15
27 73,876 100 0,040 4,01 2,97 82,19 243,72 271,15
28 82,568 100 0,040 4,01 3,31 82,19 272,40 271,15
29 108,065 150 0,011 1,58 1,14 132,19 150,40 183,98
30 118,268 150 0,011 1,58 1,25 132,19 164,60 183,98
31 108,89 150 0,011 1,58 1,15 132,19 151,55 183,98
32 127,183 150 0,011 1,58 1,34 132,19 177,01 183,98
33 121,447 150 0,011 1,58 1,28 132,19 169,03 183,98
34 122,414 150 0,011 1,58 1,29 132,19 170,37 183,98
35 135,555 150 0,011 1,58 1,43 132,19 188,66 183,98
36 224,932 250 0,013 3,13 2,82 232,19 654,74 675,86
37 200,113 250 0,013 3,13 2,51 232,19 582,50 675,86
38 200,368 250 0,013 3,13 2,51 232,19 583,24 675,86
39 205,17 250 0,013 3,13 2,57 232,19 597,22 675,86
40 213,059 250 0,013 3,13 2,67 232,19 620,18 675,86
41 207,931 250 0,013 3,13 2,61 232,19 605,25 675,86
42 201,766 250 0,013 3,13 2,53 232,19 587,31 675,86
43 371,534 500 0,0047 2,35 1,75 482,19 842,14 1092,95
44 408,86 500 0,0047 2,35 1,92 482,19 926,74 1092,95
45 383,509 500 0,0047 2,35 1,80 482,19 869,28 1092,95
46 405,143 500 0,0047 2,35 1,90 482,19 918,32 1092,95
47 404,132 500 0,0047 2,35 1,90 482,19 916,03 1092,95
48 379,243 500 0,0047 2,35 1,78 482,19 859,61 1092,95
49 387,419 500 0,0047 2,35 1,82 482,19 878,14 1092,95
Soma             33845,74 46960,42
Média ponderada 12,86 17,81         $ \widehat{\beta}_{w1} $ 0,720729081
              $ \widehat{\beta}_{w0} $ 0,020396847

Tabela 1.11.2.1: Cálculo dos coeficientes de regressão.

Agora, vamos calcular as médias ponderadas.

$ \overline{Y}_w=\dfrac{\displaystyle \sum_{i=1}^{n}w_i Y_i }{\displaystyle \sum_{i=1}^{n}w_i}=\dfrac{758,58}{59}=12,86~~ $ e $ ~\overline{X}_w = \dfrac{\displaystyle \sum_{i=1}^{n} w_i X_i}{\displaystyle \sum_{i=1}^{n}wi}=\dfrac{1050,84}{59}=17,81 $

Para ilustrar as contas, vamos tomar a observação 8, com isso obtemos:


$$w_8(X_8-\overline{X}_w)Y_8=0,27(25\sqrt{0,27}-17,81)20,718=39,74$$

e


$$w_8(X_8-\overline{X}_w)^2=0,27~(25\sqrt{27}-17,81)^2=13,79 $$

Repetimos as contas para todas as observações e obtemos:


$$\widehat{\beta}_{w1} = \dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i }{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 }=\dfrac{33845,74}{46960,42}=0,7207 $$


$$\widehat{\beta}_{w0} = \overline{Y}_w - \widehat{\beta}_{w1}\overline{X}_w=12,86-0,7207\times 17,81=0,02039.$$

 

Figura 1.11.1.1: Gráfico do modelos ajustado.

Da figura 1.11.1.1 notamos que as faixas de maior concentração apresentam maior variabilidade que as faixas iniciais de concentração.

 

Exemplo 1.11.1.2

Neste exemplo aplicamos o modelo de regressão ponderada para peso $ w_i = k\times \frac{1/s_i^2}{\displaystyle\sum_{i=1}^k 1/s_i^2} $ em que $ s_i $ é a estimativa do desvio padrão no nível $ i $, $ i=1,...,k $ e $ k=8. $ Aqui utilizamos a coluna ponto, pois foi utilizado concentrações reais, o que são muito utilizados na prática.  Na tabela a seguir, temos os valores da Concentração e da Absorbância do analito e alguns cálculos que serão utilizados para a estimativa dos parâmetros.

Ponto Concentração Área
A 0,020253 0,00154
A 0,020713 0,00152
A 0,020289 0,00152
B 0,11507 0,00617
B 0,11644 0,00608
B 0,1093 0,00608
C 0,23444 0,01234
C 0,22935 0,01215
C 0,22946 0,01215
D 0,35652 0,0185
D 0,35304 0,01823
D 0,34955 0,01823
E 0,47907 0,02467
E 0,48037 0,02431
E 0,47239 0,02431
F 0,60912 0,03084
F 0,59584 0,03038
F 0,58696 0,03038
G 0,73821 0,03701
G 0,69549 0,03646
G 0,71271 0,03646
H 0,80135 0,04009
H 0,76376 0,0395
H 0,77783 0,0395

Tabela 1.11.2.2: Validação de regressão ponderada.

clique aqui para efetuar o download dos dados utilizados nesse exemplo

A seguir descrevemos os passos da validação

  • Estimativas dos Parâmetros:

Para calcularmos as estimativas dos parâmetros do modelo de regressão ponderada, consideramos os cálculos:

$ \overline{Y}_w=\dfrac{\displaystyle\sum_{i=1}^{n}w_i Y_i }{\displaystyle\sum_{i=1}^{n}w_i}=\dfrac{0,781927533}{24}=0,002134747 $

$ \overline{X}_w = \dfrac{\displaystyle\sum_{i=1}^{n} w_i X_i}{\displaystyle\sum_{i=1}^{n}wi}=\dfrac{0,051233925}{24}=1,165731963 $

$ \widehat{\beta}_{w1} = \dfrac{\displaystyle\sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i }{\displaystyle\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 }=\dfrac{0,004434393}{0,088253868}=0,050245873  $

$ \widehat{\beta}_{w0} = \overline{Y}_w - \widehat{\beta}_{w1}\overline{X}_w=0,002134747-0,050245873\times 1,165731963 =0,000497721. $

Portanto, o modelo ponderado ajustado é

$$\mbox{Absorbância} = 0,000497721 + 0,050245873*\mbox{Concentração}$$

Comprovamos estes cálculos através da tabela a seguir:

Ponto Concentração Área $ \frac{k\frac{1}{s^2_i}}{\displaystyle\sum^p_{i=1}\frac{1}{s^2_i}} $ $ w_i X_i $ $ w_i Y_i $ $ w^{1/2}_i X_i $ $ w^{1/2}_i Y_i $ $ X_i-\overline{X}_w $ $ w^{1/2}_i(X_i-\overline{X}_w) $ $ w_i(X_i-\overline{X}_w)Y_i $ $ w_i(X_i-\overline{X}_w)^2 $
A 0,020253 0,00154 7,45297 0,150944916 0,011477567 0,055290934 0,004204219 -0,012327314 -0,033653715 -0,000141488 0,001132573
A 0,020713 0,00152 7,45297 0,154373281 0,011328508 0,05654674 0,004149618 -0,011867314 -0,03239791 -0,000134439 0,001049625
A 0,020289 0,00152 7,45297 0,151213223 0,011328508 0,055389214 0,004149618 -0,012291314 -0,033555435 -0,000139242 0,001125967
B 0,11507 0,00617 0,36805 0,042351238 0,002270854 0,069809433 0,003743149 0,082489686 0,050043958 0,000187322 0,002504398
B 0,11644 0,00608 0,36805 0,042855463 0,002237729 0,07064057 0,003688549 0,083859686 0,050875094 0,000187655 0,002588275
B 0,1093 0,00608 0,36805 0,040227603 0,002237729 0,066308951 0,003688549 0,076719686 0,046543476 0,000171678 0,002166295
C 0,23444 0,01234 0,08258 0,01936037 0,001019054 0,067370951 0,003546142 0,201859686 0,058008356 0,000205706 0,003364969
C 0,22935 0,01215 0,08258 0,01894003 0,001003363 0,065908239 0,003491542 0,196769686 0,056545644 0,000197431 0,00319741
C 0,22946 0,01215 0,08258 0,018949114 0,001003363 0,06593985 0,003491542 0,196879686 0,056577255 0,000197542 0,003200986
D 0,35652 0,0185 0,04089 0,014579592 0,000756542 0,072096576 0,003741127 0,323939686 0,065508084 0,000245074 0,004291309
D 0,35304 0,01823 0,04089 0,014437281 0,000745501 0,07139284 0,003686527 0,320459686 0,064804348 0,000238903 0,004199603
D 0,34955 0,01823 0,04089 0,01429456 0,000745501 0,070687081 0,003686527 0,316969686 0,064098589 0,000236301 0,004108629
E 0,47907 0,02467 0,02300 0,011020035 0,000567483 0,072659262 0,003741633 0,446489686 0,067717893 0,000253375 0,004585713
E 0,48037 0,02431 0,02300 0,011049939 0,000559202 0,072856429 0,003687032 0,447789686 0,06791506 0,000250405 0,004612455
E 0,47239 0,02431 0,02300 0,010866375 0,000559202 0,071646124 0,003687032 0,439809686 0,066704755 0,000245943 0,004449524
F 0,60912 0,03084 0,01409 0,008581757 0,000434498 0,072300207 0,00366059 0,576539686 0,068433049 0,000250505 0,004683082
F 0,59584 0,03038 0,01409 0,008394658 0,000428017 0,070723922 0,003605989 0,563259686 0,066856764 0,000241085 0,004469827
F 0,58696 0,03038 0,01409 0,00826955 0,000428017 0,0696699 0,003605989 0,554379686 0,065802742 0,000237284 0,004330001
G 0,73821 0,03701 0,00986 0,007275179 0,00036474 0,073284446 0,0036741 0,705629686 0,070050095 0,000257371 0,004907016
G 0,69549 0,03646 0,00986 0,006854167 0,000359319 0,069043497 0,0036195 0,662909686 0,065809146 0,000238196 0,004330844
G 0,71271 0,03646 0,00986 0,007023873 0,000359319 0,070752981 0,0036195 0,680129686 0,06751863 0,000244384 0,004558765
H 0,80135 0,04009 0,00856 0,006862895 0,000343337 0,074159159 0,00371004 0,768769686 0,071144086 0,000263947 0,005061481
H 0,76376 0,0395 0,00856 0,006540968 0,000338285 0,070680476 0,00365544 0,731179686 0,067665403 0,000247347 0,004578607
H 0,77783 0,0395 0,00856 0,006661466 0,000338285 0,000122521 0,00365544 0,745249686 0,06896748 0,000252106 0,004756513
Soma     24 0,781927533 0,051233925 1,575280303 0,089189395     0,004434393 0,088253868
Média 0,411146875 0,021184167   0,032580314 0,002134747 30,74682062 1,740826908        
                    $ \widehat{\beta}_{1w} $ 0,050245873
                    $ \widehat{\beta}_{0w} $ 0,000497721

Tabela 1.11.2.3: Validação dos cálculos dos coeficientes de regressão para o exemplo 1.11.2.2.

A seguir apresentamos os resultados obtidos pelo Action Stat.

 

1.11.2.1 Resíduos

 

A diferença entre o valor observado $ Y_{i} $ e o correspondente valor ajustado $ \widehat{Y}_{i} $, é chamada de resíduo e é denotada por


$$e_{i}=Y_{i}-\widehat{Y}_{i}=Y_{i}-(\widehat\beta_{w0}+\widehat\beta_{w1}x_{i})$$

Essa medida é importante já que por meio dela verificamos o ajuste do modelo.

Algumas propriedades do ajuste de mínimos quadrados 

  • A soma dos resíduos ponderados é sempre nula.


$$\sum^n_{i=1}\eta_i=\sum\limits_{i=1}^{n}(w_i)^{1/2}e_{i}=\sum\limits_{i=1}^{n}(w_i)(Y_{i}-\widehat{Y}_{i})=0;$$

De fato,


$$\sum^n_{i=1}\eta_i=\sum^n_{i=1}w_i(Y_i-\widehat{Y}_i)=\sum^n_{i=1}w_i\left\{Y_i-\widehat{\beta}_{w0}-\widehat{\beta}_{w1}x_i\right\}=$$


$$=\sum^n_{i=1}w_i\left\{Y_i-\overline{Y}_{w}+\widehat{\beta}_{w1}\overline{X}_{w}-\widehat{\beta}_{w1}x_i\right\}=$$


$$=\sum^n_{i=1}w_i\left\{Y_i-\frac{\displaystyle\sum^n_{i=1}w_i Y_i}{\displaystyle\sum^n_{i=1}w_i}-\widehat{\beta}_{w1}\left(x_i-\frac{\displaystyle\sum^n_{i=1}w_i x_i}{\displaystyle\sum^n_{i=1}w_i}\right)\right\}=$$


$$=\sum^n_{i=1}w_iY_i-\sum^n_{i=1}w_i\frac{\displaystyle\sum^n_{i=1}w_i Y_i}{\displaystyle\sum^n_{i=1}w_i}-\widehat{\beta}_{w1}\left(\sum^n_{i=1}w_ix_i-\sum^n_{i=1}w_i\frac{\displaystyle\sum^n_{i=1}w_i x_i}{\displaystyle\sum^n_{i=1}w_i}\right)=$$


$$=\sum^n_{i=1}w_iY_i-\sum^n_{i=1}w_iY_i-\widehat{\beta}_{w1}\left(\sum^n_{i=1}w_ix_i-\sum^n_{i=1}w_ix_i\right)=0$$

  • A reta de regressão de mínimos quadrados passa pelo ponto $ (\overline{X},\overline{Y}) $. De fato,


$$Y_i=\beta_{w0}+\beta_{w1}X_i+\varepsilon_i=\beta_{w0}+\beta_{w1}(X_i-\overline{X})+\beta_{w1}\overline{X}+\varepsilon_i=$$


$$=(\beta_{w0}+\beta_{w1}\overline{X})+\beta_{w1}(X_i-\overline{X})+\varepsilon_i=\beta_{w0}^{*}+\beta_{w1}(X_i-\overline{X})+\varepsilon_i,$$

com $ \beta_{w0}^{*}=\beta_{w0}+\beta_{w1}\overline{X} $. Assim, a reta de regressão ajustada é dada por


$$\widehat{Y}=\widehat{\beta}_{w0}^{*}+\widehat{\beta}_{w1}(X_i-\overline{X})=\widehat{\beta}_{w0}+\widehat{\beta}_{w1}\overline{X}+\widehat{\beta}_{w1}(X_i-\overline{X})=$$


$$=(\overline{Y}-\widehat{\beta}_{w1}\overline{X})+\widehat{\beta}_{w1}\overline{X}+\widehat{\beta}_{w1}(X_i-\overline{X})=\overline{Y}+\widehat{\beta}_{w1}(X_i-\overline{X}).$$

Logo,

$$\widehat{Y}=\overline{Y}+\widehat{\beta}_{w1}(\overline{X}-\overline{X})=\overline{Y}$$

e portanto, temos que a reta ajustada passa por $ (\overline{X},\overline{Y}) $.

  • A soma dos resíduos ponderados pelo correspondente valor da variável regressora é sempre nula. 


$$\sum\limits_{i=1}^{n}(w_i)^{1/2} x_{i}e_{i}=0;$$

  • A soma dos resíduos ponderados pelo correspondente valor ajustado é sempre zero.


$$\sum\limits_{i=1}^{n}(w_i) \widehat{Y}_{i}e_{i}=0.$$

Área Concentração $ w_i $ $ w_i\times X_i $ $ w_i\times Y_i $ $ \widehat{Y}_i $ $ e_i $ $ w_i\times e_i $ $ w_i\times \widehat{Y}_i\times e_i $
0,078 0 5,446474769 0 0,424825 0,020397 0,057603 0,313734574 0,00639917
1,329 0 5,446474769 0 7,238365 0,020397 1,308603 7,12727451 0,145373333
0,483 0 5,446474769 0 2,630647 0,020397 0,462603 2,519556855 0,051390806
0,698 0 5,446474769 0 3,801639 0,020397 0,677603 3,690548931 0,075275254
0,634 0 5,446474769 0 3,453065 0,020397 0,613603 3,341974545 0,068165465
0,652 0 5,446474769 0 3,551102 0,020397 0,631603 3,440011091 0,070165093
0,071 0 5,446474769 0 0,3867 0,020397 0,050603 0,27560925 0,005621537
20,718 25 0,266796415 6,66991 5,527488 18,03862 2,679376 0,714848045 12,89487474
21,805 25 0,266796415 6,66991 5,817496 18,03862 3,766376 1,004855748 18,12621451
16,554 25 0,266796415 6,66991 4,416548 18,03862 -1,48462 -0,39609223 -7,14495857
19,948 25 0,266796415 6,66991 5,322055 18,03862 1,909376 0,509414805 9,189141874
21,676 25 0,266796415 6,66991 5,783079 18,03862 3,637376 0,97043901 17,50538394
22,207 25 0,266796415 6,66991 5,924748 18,03862 4,168376 1,112107907 20,06089582
19,671 25 0,266796415 6,66991 5,248152 18,03862 1,632376 0,435512198 7,856040571
33,833 50 2,647451113 132,3726 89,57121 36,05685 -2,22385 -5,88753479 -212,28596
34,726 50 2,647451113 132,3726 91,93539 36,05685 -1,33085 -3,52336095 -127,041298
35,463 50 2,647451113 132,3726 93,88656 36,05685 -0,59385 -1,57218947 -56,6882004
34,04 50 2,647451113 132,3726 90,11924 36,05685 -2,01685 -5,33951241 -192,525999
34,194 50 2,647451113 132,3726 90,52694 36,05685 -1,86285 -4,93180494 -177,825352
33,664 50 2,647451113 132,3726 89,12379 36,05685 -2,39285 -6,33495403 -228,418489
34,517 50 2,647451113 132,3726 91,38207 36,05685 -1,53985 -4,07667823 -146,992176
79,224 100 0,040140331 4,014033 3,180078 72,0933 7,130696 0,286228509 20,6351588
73,292 100 0,040140331 4,014033 2,941965 72,0933 1,198696 0,048116066 3,468846133
85,514 100 0,040140331 4,014033 3,43256 72,0933 13,4207 0,53871119 38,83746944
82,072 100 0,040140331 4,014033 3,294397 72,0933 9,978696 0,400548171 28,87684095
85,044 100 0,040140331 4,014033 3,413694 72,0933 12,9507 0,519845235 37,47736038
73,876 100 0,040140331 4,014033 2,965407 72,0933 1,782696 0,071558019 5,158853989
82,568 100 0,040140331 4,014033 3,314307 72,0933 10,4747 0,420457775 30,31219009
108,065 150 0,010528595 1,579289 1,137773 108,1298 -0,06476 -0,0006818 -0,0737231
118,268 150 0,010528595 1,579289 1,245196 108,1298 10,13824 0,106741449 11,54192695
108,89 150 0,010528595 1,579289 1,146459 108,1298 0,760243 0,008004288 0,865501761
127,183 150 0,010528595 1,579289 1,339058 108,1298 19,05324 0,20060387 21,69124775
121,447 150 0,010528595 1,579289 1,278666 108,1298 13,31724 0,140211851 15,16107342
122,414 150 0,010528595 1,579289 1,288847 108,1298 14,28424 0,150393002 16,26195881
135,555 150 0,010528595 1,579289 1,427204 108,1298 27,42524 0,288749264 31,22238783
224,932 250 0,012536482 3,134121 2,819856 180,2027 44,72934 0,560748529 101,0483789
200,113 250 0,012536482 3,134121 2,508713 180,2027 19,91034 0,249605574 44,9795894
200,368 250 0,012536482 3,134121 2,51191 180,2027 20,16534 0,252802377 45,55566182
205,17 250 0,012536482 3,134121 2,57211 180,2027 24,96734 0,313002565 56,40389611
213,059 250 0,012536482 3,134121 2,67101 180,2027 32,85634 0,411902874 74,22599531
207,931 250 0,012536482 3,134121 2,606723 180,2027 27,72834 0,347615793 62,64129197
201,766 250 0,012536482 3,134121 2,529436 180,2027 21,56334 0,270328379 48,71389413
371,534 500 0,00470075 2,350375 1,746488 360,3849 11,14907 0,052408983 18,88740762
408,86 500 0,00470075 2,350375 1,921949 360,3849 48,47507 0,227869174 82,1206165
383,509 500 0,00470075 2,350375 1,80278 360,3849 23,12407 0,108700463 39,17400882
405,143 500 0,00470075 2,350375 1,904476 360,3849 44,75807 0,210396486 75,82372325
404,132 500 0,00470075 2,350375 1,899723 360,3849 43,74707 0,205644028 74,11100895
379,243 500 0,00470075 2,350375 1,782726 360,3849 18,85807 0,088647064 31,94706596
387,419 500 0,00470075 2,350375 1,82116 360,3849 27,03407 0,127080395 45,7978594
Soma   59,00039919 1050,842 758,5758     5,84061E-13 2,90896E-11
Média     17,81076 12,85713     1,19196E-14  

Tabela 1.11.2.4: Exemplo de cálculo dos resíduos ponderados.

 

Exemplo 1.11.1.3

 

Voltando o exemplo 1.11.2, aplicamos os mesmos conjunto de dados para calcularmos os resíduos ponderados. Desta forma, calculamos os resíduos ponderados para primeira observação obtidas da tabela 1, os demais são calculados de forma análoga.

$$e_{1}=Y_1-\widehat{Y_1}= Y_1-\widehat{\beta_{0w}}-\widehat{\beta_{1w}}x_1=0,00154-0,000497721-0,050245873\times 0,020253=2,46498\times 10^{-5}$$

$$e_{1w}=w^{1/2}_1\times e_1= \sqrt{7,453}\times 2,46498\times 10^{-5}=6,72942\times 10^{-5}$$
Ponto Concentração Área $ \widehat{Y}_i $ $ e_i $ $ w_i^{1/2}e_i $
A 0,020253 0,00154 0,001515 2,46E-05 6,72942E-05
A 0,020713 0,00152 0,001538 -1,8E-05 -5,04051E-05
A 0,020289 0,00152 0,001517 2,84E-06 7,75575E-06
B 0,11507 0,00617 0,00628 -0,00011 -6,64383E-05
B 0,11644 0,00608 0,006348 -0,00027 -0,0001628
B 0,1093 0,00608 0,00599 9,04E-05 5,48462E-05
C 0,23444 0,01234 0,012277 6,26E-05 1,8E-05
C 0,22935 0,01215 0,012022 0,000128 3,68949E-05
C 0,22946 0,01215 0,012027 0,000123 3,53066E-05
D 0,35652 0,0185 0,018411 8,86E-05 1,79212E-05
D 0,35304 0,01823 0,018237 -6,5E-06 -1,31923E-06
D 0,34955 0,01823 0,018061 0,000169 3,41422E-05
E 0,47907 0,02467 0,024569 0,000101 1,53167E-05
E 0,48037 0,02431 0,024634 -0,00032 -4,91904E-05
E 0,47239 0,02431 0,024233 7,66E-05 1,16225E-05
F 0,60912 0,03084 0,031103 -0,00026 -3,12749E-05
F 0,59584 0,03038 0,030436 -5,6E-05 -6,6733E-06
F 0,58696 0,03038 0,02999 0,00039 4,6287E-05
G 0,73821 0,03701 0,03759 -0,00058 -5,75513E-05
G 0,69549 0,03646 0,035443 0,001017 0,000100939
G 0,71271 0,03646 0,036308 0,000152 1,50442E-05
H 0,80135 0,04009 0,040762 -0,00067 -6,2212E-05
H 0,76376 0,0395 0,038874 0,000626 5,79772E-05
H 0,77783 0,0395 0,03958 -8E-05 -7,44675E-06
  $ \widehat{\beta}_{1w} $ 0,050246      
  $ \widehat{\beta}_{0w} $ 0,000498      

Tabela 1.11.2.5: Validação do cálculo dos resíduos ponderados para o exemplo 1.11.2.2.

A seguir apresentamos os resultados obtidos pelo Action Stat.

 

1.11.2.2. Estimador da variância residual

 

Assim como os parâmetros $ \beta_{w0} $ e $ \beta_{w1} $, a variância $ \sigma^2_i $ dos termos do erro $ \varepsilon_i $ precisa ser estimada. Isto é necessário já que inferências a respeito da função de regressão e da predição de Y requerem uma estimativa de $ \sigma^2_i $. Consideremos os resíduos $ \varepsilon_{i} $. Desta forma, definimos a Soma de Quadrados dos Resíduos (Erros),


$$SQE = \sum\limits_{i=1}^n w_i e_i^{2} =\sum\limits_{i=1}^n w_i(Y_i - \widehat{Y}_i)^{2}=\sum\limits_{i=1}^n w_i(Y_i - (\widehat{\beta}_{w0}+\widehat{\beta}_{w1}X_i))^{2}.$$

Não utilizamos a soma dos resíduos uma vez que em (i),


$$\sum\limits_{i=1}^{n} w_i\widehat{\varepsilon}_{i}=0.$$

Na seção "Propriedades dos Estimadores" vamos demonstrar que SQE é um estimador não viciado de $ \sigma^2 $, isto é, 


$$\mathbb{E}(SQE)= \sigma^2_w(n-2).$$

Desta forma, um estimador não viciado para $ \sigma^2_w $ é dado por


$$\widehat{\sigma}^2_w=QME_w=\dfrac{SQE}{n-2},$$

em que QME é o Quadrado Médio dos Erros (Resíduos).

Área Concentração 1/s² $ w_i\times e^2_i $
0,078 0 5,446475 0,018072
1,329 0 5,446475 9,326774
0,483 0 5,446475 1,165555
0,698 0 5,446475 2,500728
0,634 0 5,446475 2,050646
0,652 0 5,446475 2,172722
0,071 0 5,446475 0,013947
20,718 25 0,266796 1,915347
21,805 25 0,266796 3,784665
16,554 25 0,266796 0,588048
19,948 25 0,266796 0,972665
21,676 25 0,266796 3,529852
22,207 25 0,266796 4,635684
19,671 25 0,266796 0,71092
33,833 50 2,647451 13,093
34,726 50 2,647451 4,689066
35,463 50 2,647451 0,933645
34,04 50 2,647451 10,769
34,194 50 2,647451 9,187214
33,664 50 2,647451 15,1586
34,517 50 2,647451 6,277474
79,224 100 0,04014 2,041009
73,292 100 0,04014 0,057677
85,514 100 0,04014 7,229879
82,072 100 0,04014 3,996949
85,044 100 0,04014 6,732358
73,876 100 0,04014 0,127566
82,568 100 0,04014 4,404167
108,065 150 0,010529 4,42E-05
118,268 150 0,010529 1,082171
108,89 150 0,010529 0,006085
127,183 150 0,010529 3,822154
121,447 150 0,010529 1,867235
122,414 150 0,010529 2,14825
135,555 150 0,010529 7,919019
224,932 250 0,012536 25,08191
200,113 250 0,012536 4,969731
200,368 250 0,012536 5,097845
205,17 250 0,012536 7,81484
213,059 250 0,012536 13,53362
207,931 250 0,012536 9,638807
201,766 250 0,012536 5,829182
371,534 500 0,004701 0,584311
408,86 500 0,004701 11,04597
383,509 500 0,004701 2,513597
405,143 500 0,004701 9,41694
404,132 500 0,004701 8,996323
379,243 500 0,004701 1,671712
387,419 500 0,004701 3,4355
Soma   59,0004 244,5585
$ \sqrt{\text{QME}_w} $     2,28109

 A seguir apresentamos os resultados obtidos pelo Action Stat.

 

Exemplo 1.11.1.4

 

Voltando o exemplo 1.11.1.2, aplicamos os mesmos conjunto de dados para calcularmos o desvio-padrão dos resíduos.

Com os resíduos ponderados da tabela 1.11.2.5 calculamos a soma de quadrado dos resíduos.

$$QME = \frac{1}{n-2}\sum\limits_{i=1}^n w_i \varepsilon_i^{2} =\frac{1}{n-2}\sum\limits_{i=1}^n w_i(Y_i - \widehat{Y}_i)^{2}=3,29293\times 10^{-9} $$

O desvio-padrão dos resíduos são calculados da seguinte forma:

$$\widehat{\sigma}=\sqrt{QME} =\sqrt{3,29293\times 10^{-9}}=5,73840\times 10^{-5}  $$

 

SQEw 7,24444E-08
n-p 22
QMEw 3,29293E-09
$ \widehat{\sigma}=\sqrt{\text{QME}_w} $ 5,7384E-05

A seguir apresentamos os resultados obtidos pelo Action Stat.

 

 

Análise de Regressão

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]