- Estatcamp: (16) 3376-2047 [email protected]
- [email protected] https://www.actionstat.com.br
Para estimarmos os parâmetros do modelo de regressão linear heterocedástico tomamos a função de mínimos quadrados por
$$Q_w=\displaystyle\sum^n_{i=1}\eta^2_{i}= \sum_{i=1}^{n} w_i\left( Y_i-\left(\beta_{w0}+\beta_{w1}X_i\right) \right)^2,$$ que é soma dos desvios ponderados por $w_i$. No modelo de regressão admitimos que o vetor de erros experimentais tem matriz de covariância dada por $\sigma^2 V$. Assim, temos que $V$ é uma matriz diagonal com elementos da diagonal dados por $1/w_i$.
Os estimadores $\widehat{\beta}_{w0}$ e $\widehat{\beta}_{w1}$ que minimizam a função de mínimos quadrados são conhecidos como estimadores de mínimos quadrados ponderados. Notamos que esses estimadores, coincidem com os estimadores de mínimos quadrados ordinários apresentados nas seções anteriores (para mais detalhes consulte Estimação dos Parâmetros do Modelo) quando consideramos a suposição de homocedasticidade, que implica em pesos $(w_{i})$ iguais.
As observações de maior variância têm menos influência sobre os estimadores de $\beta_{w0}$ e $\beta_{w1}$, e as de menor variância têm mais influência. Isso é devido ao fato de que as observações de menor variância apresentam informações mais pertinentes a respeito da $\mathbb{E}[Y|X_i],~~i=1,\dots,n.$
Calculamos os estimadores de mínimos quadrados ponderados derivando $Q_w$ em relação aos parâmetros e igualando a zero para obter o ponto de mínimo, ou seja:
$$ \dfrac{\partial Q_w}{\partial \beta_{w0}} = 2\displaystyle \sum_{i=1}^{n} w_i\left(Y_i - \left( \beta_{w0} +\beta_{w1}X_i \right) \right)=2\displaystyle \sum_{i=1}^{n} w_i Y_i -2\beta_{w0}\displaystyle \sum_{i=1}^{n}w_i -2\beta_{w1}\displaystyle \sum_{i=1}^{n}w_iX_i=0$$
$$ \dfrac{\partial Q_w}{\partial \beta_{w1}} = 2\displaystyle \sum_{i=1}^{n} w_i\left(Y_i - \left( \beta_{w0} +\beta_{w1}X_i \right) \right)X_i=2\displaystyle \sum_{i=1}^{n} w_i Y_i X_i -2\beta_{w0}\displaystyle \sum_{i=1}^{n}w_iX_i -2\beta_{w1}\displaystyle \sum_{i=1}^{n}w_i{X_i}^2=0$$
Desta forma, obtemos o sistema:
$$\left\{\begin{array}{l}\displaystyle \sum_{i=1}^{n} w_iY_i = \beta_{w0} \displaystyle \sum_{i=1}^{n}w_i + \beta_{w_{w1}} \displaystyle \sum_{i=1}^{n} w_iX_i \\ \displaystyle \sum_{i=1}^{n} w_iY_iX_i = \beta_{w0} \displaystyle \sum_{i=1}^{n}w_iX_i + \beta_{w1} \displaystyle \sum_{i=1}^{n} w_i{X_i}^2\end{array}\right.$$
Com isso, a solução das equações são dadas por:
$$\beta_{w0}= \dfrac { \displaystyle\displaystyle \sum_{i=1}^{n} w_i Y_i - \beta_{w1} \displaystyle\displaystyle \sum_{i=1}^{n} w_i X_i }{ \displaystyle\displaystyle \sum_{i=1}^{n} w_i}\quad \text{e}\quad\beta_{w1} = \dfrac{\displaystyle \displaystyle \sum_{i=1}^{n} w_iY_iX_i - \dfrac{\displaystyle \displaystyle \sum_{i=1}^{n}w_iY_i \displaystyle \displaystyle \sum_{i=1}^{n}w_iX_i }{ \displaystyle \displaystyle \sum_{i=1}^{n} {w_i}}}{ \displaystyle \displaystyle \sum_{i=1}^{n} w_i{X_i}^2 - \dfrac{\left(\displaystyle \displaystyle \sum_{i=1}^{n} w_i X_i \right)^2}{\displaystyle \displaystyle \sum_{i=1}^{n} w_i}}$$
Para facilitar a notação, denotamos $\overline{Y}_w=\dfrac{\displaystyle \sum_{i=1}^{n}w_i Y_i }{\displaystyle \sum_{i=1}^{n}w_i}$ e $\overline{X}_w = \dfrac{\displaystyle \sum_{i=1}^{n} w_i X_i}{\displaystyle \sum_{i=1}^{n}wi}$ as médias ponderadas de $Y$ e $X$, respectivamente. Afim de facilitar os cálculos, vamos reescrever o estimador de mínimos quadrados ponderados de $\beta_{w1}$ da seguinte maneira:
$\widehat{\beta}_{w1}=\dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)(Y_i - \overline{Y}_w) }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2} =$
$$=\dfrac{\displaystyle \sum_{i=1}^n w_i X_i Y_i -\displaystyle \sum_{i=1}^{n} w_i X_i \overline{Y}_w -\displaystyle \sum_{i=1}^n w_i \overline{X}_w Y_i +\displaystyle \sum_{i=1}^n w_i\overline{X}_w \overline{Y}_w}{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$
$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \displaystyle \sum_{i=1}^{n} w_i X_i \left( \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i}{ \displaystyle \sum_{i=1}^{n} w_i } \right) - \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w Y_i + \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w \left( \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i}{\displaystyle \sum_{i=1}^{n} w_i}\right) }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$
$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i\displaystyle \sum_{i=1}^{n} w_i X_i}{ \displaystyle \sum_{i=1}^{n} w_i }- \displaystyle \sum_{i=1}^{n} w_i \overline{X}_w Y_i + \dfrac{\displaystyle \sum_{i=1}^{n} w_i \displaystyle \sum_{i=1}^{n}\overline{X}_w w_i Y_i}{\displaystyle \sum_{i=1}^{n} w_i} }{\displaystyle \sum_{i=1}^{n}w_i (X_i -\overline{X}_w)^2}=$$
$$= \dfrac{\displaystyle \sum_{i=1}^{n} w_i Y_i X_i - \displaystyle \sum_{i=1}^{n} w_iY_i \overline{X}_w - \displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w + \displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w}{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2}$$
$$=\dfrac{\displaystyle \sum_{i=1}^{n} w_iY_iX_i -\displaystyle \sum_{i=1}^{n} w_i Y_i \overline{X}_w}{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w)^2 } = \dfrac{ \displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)Y_i }{\displaystyle \sum_{i=1}^{n} w_i(X_i - \overline{X}_w)^2} \quad~~(1.11.1.5)$$
Logo, os estimadores de mínimos quadrados ponderados são dadas por:
$$\widehat{\beta}_{w0} = \overline{Y}_w - \widehat{\beta}_{w1}\overline{X}_w\quad \text{e}\quad \widehat{\beta}_{w1} = \dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i }{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 } $$
Os valores de $\widehat{\beta}_{w0}$ e$\widehat{\beta}_{w0}$ obtidos são denominados Estimadores de Mínimos Quadrados Ponderados (EMQP).
O modelo de regressão linear simples ponderado ajustado é dado por
$$\widehat{Y}_i=\widehat{\beta}_{w0}+\widehat{\beta}_{w1}X_i\quad i=1,\dots,n$$
em que $\widehat{Y}$ é um estimador pontual da média da variável Y para um valor de $x$, ou seja,
$$\widehat{\mathbb{E}(Y|X_i)}=\widehat{\beta}_{w0}+\widehat{\beta}_{w1}X_i,\quad i=1,\dots,n$$
Voltamos à motivação, considere a curva de calibração para o ensaio de certo composto químico realizado por um equipamento chamado Cromatógrado. A seguir, vamos calcular as estimativas dos parâmetros $\beta_{w0}$ e $\beta_{w1}$ pelo método dos mínimos quadrados ponderados. Vale lembrar que estamos desenvolvendo a teoria, como se as variâncias fossem conhecidas, porém para resolvermos este exemplo vamos admitir que as variâncias sejam desconhecidas. Com isso, vamos utilizar a variância amostral $s^2_i$ no lugar de $\sigma^2_i.$ Através do software Action obtemos os valores dos pesos $1/s^2_i:$
clique aqui para efetuar o download dos dados utilizados nesse exemplo
![]() |
Para entender como executar essa função do Software Action, você pode consultar o Manual do Usuário. |
Dos resultados obtidos do Action, calculamos $w_i=1/s^2_i=$1/Variância. Com isso, obtemos a tabela:
n | Área $(Y_i)$ | Concentração $(X_i)$ | $w_i$ | $w_i X_i$ | $w_i Y_i$ | $V=(X_i-\overline{X}_w)$ | $w_i*V*Y_i$ | $w_i*V^2$ |
1 | 0,078 | 0 | 5,45 | 0 | 0,42 | -17,81 | -7,57 | 1727,75 |
2 | 1,329 | 0 | 5,45 | 0 | 7,24 | -17,81 | -128,92 | 1727,75 |
3 | 0,483 | 0 | 5,45 | 0 | 2,63 | -17,81 | -46,85 | 1727,75 |
4 | 0,698 | 0 | 5,45 | 0 | 3,80 | -17,81 | -67,71 | 1727,75 |
5 | 0,634 | 0 | 5,45 | 0 | 3,45 | -17,81 | -61,50 | 1727,75 |
6 | 0,652 | 0 | 5,45 | 0 | 3,55 | -17,81 | -63,25 | 1727,75 |
7 | 0,071 | 0 | 5,45 | 0 | 0,39 | -17,81 | -6,89 | 1727,75 |
8 | 20,718 | 25 | 0,27 | 6,67 | 5,53 | 7,19 | 39,74 | 13,79 |
9 | 21,805 | 25 | 0,27 | 6,67 | 5,82 | 7,19 | 41,82 | 13,79 |
10 | 16,554 | 25 | 0,27 | 6,67 | 4,42 | 7,19 | 31,75 | 13,79 |
11 | 19,948 | 25 | 0,27 | 6,67 | 5,32 | 7,19 | 38,26 | 13,79 |
12 | 21,676 | 25 | 0,27 | 6,67 | 5,78 | 7,19 | 41,58 | 13,79 |
13 | 22,207 | 25 | 0,27 | 6,67 | 5,92 | 7,19 | 42,59 | 13,79 |
14 | 19,671 | 25 | 0,27 | 6,67 | 5,25 | 7,19 | 37,73 | 13,79 |
15 | 33,833 | 50 | 2,65 | 132,37 | 89,57 | 32,19 | 2883,23 | 2743,15 |
16 | 34,726 | 50 | 2,65 | 132,37 | 91,94 | 32,19 | 2959,33 | 2743,15 |
17 | 35,463 | 50 | 2,65 | 132,37 | 93,89 | 32,19 | 3022,14 | 2743,15 |
18 | 34,04 | 50 | 2,65 | 132,37 | 90,12 | 32,19 | 2900,87 | 2743,15 |
19 | 34,194 | 50 | 2,65 | 132,37 | 90,53 | 32,19 | 2913,99 | 2743,15 |
20 | 33,664 | 50 | 2,65 | 132,37 | 89,12 | 32,19 | 2868,83 | 2743,15 |
21 | 34,517 | 50 | 2,65 | 132,37 | 91,38 | 32,19 | 2941,52 | 2743,15 |
22 | 79,224 | 100 | 0,040 | 4,01 | 3,18 | 82,19 | 261,37 | 271,15 |
23 | 73,292 | 100 | 0,040 | 4,01 | 2,94 | 82,19 | 241,80 | 271,15 |
24 | 85,514 | 100 | 0,040 | 4,01 | 3,43 | 82,19 | 282,12 | 271,15 |
25 | 82,072 | 100 | 0,040 | 4,01 | 3,29 | 82,19 | 270,76 | 271,15 |
26 | 85,044 | 100 | 0,040 | 4,01 | 3,41 | 82,19 | 280,57 | 271,15 |
27 | 73,876 | 100 | 0,040 | 4,01 | 2,97 | 82,19 | 243,72 | 271,15 |
28 | 82,568 | 100 | 0,040 | 4,01 | 3,31 | 82,19 | 272,40 | 271,15 |
29 | 108,065 | 150 | 0,011 | 1,58 | 1,14 | 132,19 | 150,40 | 183,98 |
30 | 118,268 | 150 | 0,011 | 1,58 | 1,25 | 132,19 | 164,60 | 183,98 |
31 | 108,89 | 150 | 0,011 | 1,58 | 1,15 | 132,19 | 151,55 | 183,98 |
32 | 127,183 | 150 | 0,011 | 1,58 | 1,34 | 132,19 | 177,01 | 183,98 |
33 | 121,447 | 150 | 0,011 | 1,58 | 1,28 | 132,19 | 169,03 | 183,98 |
34 | 122,414 | 150 | 0,011 | 1,58 | 1,29 | 132,19 | 170,37 | 183,98 |
35 | 135,555 | 150 | 0,011 | 1,58 | 1,43 | 132,19 | 188,66 | 183,98 |
36 | 224,932 | 250 | 0,013 | 3,13 | 2,82 | 232,19 | 654,74 | 675,86 |
37 | 200,113 | 250 | 0,013 | 3,13 | 2,51 | 232,19 | 582,50 | 675,86 |
38 | 200,368 | 250 | 0,013 | 3,13 | 2,51 | 232,19 | 583,24 | 675,86 |
39 | 205,17 | 250 | 0,013 | 3,13 | 2,57 | 232,19 | 597,22 | 675,86 |
40 | 213,059 | 250 | 0,013 | 3,13 | 2,67 | 232,19 | 620,18 | 675,86 |
41 | 207,931 | 250 | 0,013 | 3,13 | 2,61 | 232,19 | 605,25 | 675,86 |
42 | 201,766 | 250 | 0,013 | 3,13 | 2,53 | 232,19 | 587,31 | 675,86 |
43 | 371,534 | 500 | 0,0047 | 2,35 | 1,75 | 482,19 | 842,14 | 1092,95 |
44 | 408,86 | 500 | 0,0047 | 2,35 | 1,92 | 482,19 | 926,74 | 1092,95 |
45 | 383,509 | 500 | 0,0047 | 2,35 | 1,80 | 482,19 | 869,28 | 1092,95 |
46 | 405,143 | 500 | 0,0047 | 2,35 | 1,90 | 482,19 | 918,32 | 1092,95 |
47 | 404,132 | 500 | 0,0047 | 2,35 | 1,90 | 482,19 | 916,03 | 1092,95 |
48 | 379,243 | 500 | 0,0047 | 2,35 | 1,78 | 482,19 | 859,61 | 1092,95 |
49 | 387,419 | 500 | 0,0047 | 2,35 | 1,82 | 482,19 | 878,14 | 1092,95 |
Soma | 33845,74 | 46960,42 | ||||||
Média ponderada | 12,86 | 17,81 | $\widehat{\beta}_{w1}$ | 0,720729081 | ||||
$\widehat{\beta}_{w0}$ | 0,020396847 |
Tabela 1.11.2.1: Cálculo dos coeficientes de regressão.
Agora, vamos calcular as médias ponderadas.
$\overline{Y}_w=\dfrac{\displaystyle \sum_{i=1}^{n}w_i Y_i }{\displaystyle \sum_{i=1}^{n}w_i}=\dfrac{758,58}{59}=12,86~~$ e $~\overline{X}_w = \dfrac{\displaystyle \sum_{i=1}^{n} w_i X_i}{\displaystyle \sum_{i=1}^{n}wi}=\dfrac{1050,84}{59}=17,81$
Para ilustrar as contas, vamos tomar a observação 8, com isso obtemos:
$$w_8(X_8-\overline{X}_w)Y_8=0,27(25\sqrt{0,27}-17,81)20,718=39,74$$
e
$$w_8(X_8-\overline{X}_w)^2=0,27~(25\sqrt{27}-17,81)^2=13,79 $$
Repetimos as contas para todas as observações e obtemos:
$$\widehat{\beta}_{w1} = \dfrac{\displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i }{ \displaystyle \sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 }=\dfrac{33845,74}{46960,42}=0,7207 $$
$$\widehat{\beta}_{w0} = \overline{Y}_w - \widehat{\beta}_{w1}\overline{X}_w=12,86-0,7207\times 17,81=0,02039.$$
Figura 1.11.1.1: Gráfico do modelos ajustado.
Da figura 1.11.1.1 notamos que as faixas de maior concentração apresentam maior variabilidade que as faixas iniciais de concentração.
Neste exemplo aplicamos o modelo de regressão ponderada para peso $w_i = k\times \frac{1/s_i^2}{\displaystyle\sum_{i=1}^k 1/s_i^2}$ em que $s_i$ é a estimativa do desvio padrão no nível $i$, $i=1,...,k$ e $k=8.$ Aqui utilizamos a coluna ponto, pois foi utilizado concentrações reais, o que são muito utilizados na prática. Na tabela a seguir, temos os valores da Concentração e da Absorbância do analito e alguns cálculos que serão utilizados para a estimativa dos parâmetros.
Ponto | Concentração | Área |
A | 0,020253 | 0,00154 |
A | 0,020713 | 0,00152 |
A | 0,020289 | 0,00152 |
B | 0,11507 | 0,00617 |
B | 0,11644 | 0,00608 |
B | 0,1093 | 0,00608 |
C | 0,23444 | 0,01234 |
C | 0,22935 | 0,01215 |
C | 0,22946 | 0,01215 |
D | 0,35652 | 0,0185 |
D | 0,35304 | 0,01823 |
D | 0,34955 | 0,01823 |
E | 0,47907 | 0,02467 |
E | 0,48037 | 0,02431 |
E | 0,47239 | 0,02431 |
F | 0,60912 | 0,03084 |
F | 0,59584 | 0,03038 |
F | 0,58696 | 0,03038 |
G | 0,73821 | 0,03701 |
G | 0,69549 | 0,03646 |
G | 0,71271 | 0,03646 |
H | 0,80135 | 0,04009 |
H | 0,76376 | 0,0395 |
H | 0,77783 | 0,0395 |
Tabela 1.11.2.2: Validação de regressão ponderada.
clique aqui para efetuar o download dos dados utilizados nesse exemplo
A seguir descrevemos os passos da validação
Para calcularmos as estimativas dos parâmetros do modelo de regressão ponderada, consideramos os cálculos:
$\overline{Y}_w=\dfrac{\displaystyle\sum_{i=1}^{n}w_i Y_i }{\displaystyle\sum_{i=1}^{n}w_i}=\dfrac{0,781927533}{24}=0,002134747$
$\overline{X}_w = \dfrac{\displaystyle\sum_{i=1}^{n} w_i X_i}{\displaystyle\sum_{i=1}^{n}wi}=\dfrac{0,051233925}{24}=1,165731963$
$\widehat{\beta}_{w1} = \dfrac{\displaystyle\sum_{i=1}^{n} w_i (X_i - \overline{X}_w) Y_i }{\displaystyle\sum_{i=1}^{n} w_i (X_i - \overline{X}_w )^2 }=\dfrac{0,004434393}{0,088253868}=0,050245873 $
$\widehat{\beta}_{w0} = \overline{Y}_w - \widehat{\beta}_{w1}\overline{X}_w=0,002134747-0,050245873\times 1,165731963 =0,000497721.$
Portanto, o modelo ponderado ajustado é
$$\mbox{Absorbância} = 0,000497721 + 0,050245873*\mbox{Concentração}$$
Comprovamos estes cálculos através da tabela a seguir:
Ponto | Concentração | Área | $\frac{k\frac{1}{s^2_i}}{\displaystyle\sum^p_{i=1}\frac{1}{s^2_i}}$ | $w_i X_i$ | $w_i Y_i$ | $w^{1/2}_i X_i$ | $w^{1/2}_i Y_i$ | $X_i-\overline{X}_w$ | $w^{1/2}_i(X_i-\overline{X}_w)$ | $w_i(X_i-\overline{X}_w)Y_i$ | $w_i(X_i-\overline{X}_w)^2$ |
A | 0,020253 | 0,00154 | 7,45297 | 0,150944916 | 0,011477567 | 0,055290934 | 0,004204219 | -0,012327314 | -0,033653715 | -0,000141488 | 0,001132573 |
A | 0,020713 | 0,00152 | 7,45297 | 0,154373281 | 0,011328508 | 0,05654674 | 0,004149618 | -0,011867314 | -0,03239791 | -0,000134439 | 0,001049625 |
A | 0,020289 | 0,00152 | 7,45297 | 0,151213223 | 0,011328508 | 0,055389214 | 0,004149618 | -0,012291314 | -0,033555435 | -0,000139242 | 0,001125967 |
B | 0,11507 | 0,00617 | 0,36805 | 0,042351238 | 0,002270854 | 0,069809433 | 0,003743149 | 0,082489686 | 0,050043958 | 0,000187322 | 0,002504398 |
B | 0,11644 | 0,00608 | 0,36805 | 0,042855463 | 0,002237729 | 0,07064057 | 0,003688549 | 0,083859686 | 0,050875094 | 0,000187655 | 0,002588275 |
B | 0,1093 | 0,00608 | 0,36805 | 0,040227603 | 0,002237729 | 0,066308951 | 0,003688549 | 0,076719686 | 0,046543476 | 0,000171678 | 0,002166295 |
C | 0,23444 | 0,01234 | 0,08258 | 0,01936037 | 0,001019054 | 0,067370951 | 0,003546142 | 0,201859686 | 0,058008356 | 0,000205706 | 0,003364969 |
C | 0,22935 | 0,01215 | 0,08258 | 0,01894003 | 0,001003363 | 0,065908239 | 0,003491542 | 0,196769686 | 0,056545644 | 0,000197431 | 0,00319741 |
C | 0,22946 | 0,01215 | 0,08258 | 0,018949114 | 0,001003363 | 0,06593985 | 0,003491542 | 0,196879686 | 0,056577255 | 0,000197542 | 0,003200986 |
D | 0,35652 | 0,0185 | 0,04089 | 0,014579592 | 0,000756542 | 0,072096576 | 0,003741127 | 0,323939686 | 0,065508084 | 0,000245074 | 0,004291309 |
D | 0,35304 | 0,01823 | 0,04089 | 0,014437281 | 0,000745501 | 0,07139284 | 0,003686527 | 0,320459686 | 0,064804348 | 0,000238903 | 0,004199603 |
D | 0,34955 | 0,01823 | 0,04089 | 0,01429456 | 0,000745501 | 0,070687081 | 0,003686527 | 0,316969686 | 0,064098589 | 0,000236301 | 0,004108629 |
E | 0,47907 | 0,02467 | 0,02300 | 0,011020035 | 0,000567483 | 0,072659262 | 0,003741633 | 0,446489686 | 0,067717893 | 0,000253375 | 0,004585713 |
E | 0,48037 | 0,02431 | 0,02300 | 0,011049939 | 0,000559202 | 0,072856429 | 0,003687032 | 0,447789686 | 0,06791506 | 0,000250405 | 0,004612455 |
E | 0,47239 | 0,02431 | 0,02300 | 0,010866375 | 0,000559202 | 0,071646124 | 0,003687032 | 0,439809686 | 0,066704755 | 0,000245943 | 0,004449524 |
F | 0,60912 | 0,03084 | 0,01409 | 0,008581757 | 0,000434498 | 0,072300207 | 0,00366059 | 0,576539686 | 0,068433049 | 0,000250505 | 0,004683082 |
F | 0,59584 | 0,03038 | 0,01409 | 0,008394658 | 0,000428017 | 0,070723922 | 0,003605989 | 0,563259686 | 0,066856764 | 0,000241085 | 0,004469827 |
F | 0,58696 | 0,03038 | 0,01409 | 0,00826955 | 0,000428017 | 0,0696699 | 0,003605989 | 0,554379686 | 0,065802742 | 0,000237284 | 0,004330001 |
G | 0,73821 | 0,03701 | 0,00986 | 0,007275179 | 0,00036474 | 0,073284446 | 0,0036741 | 0,705629686 | 0,070050095 | 0,000257371 | 0,004907016 |
G | 0,69549 | 0,03646 | 0,00986 | 0,006854167 | 0,000359319 | 0,069043497 | 0,0036195 | 0,662909686 | 0,065809146 | 0,000238196 | 0,004330844 |
G | 0,71271 | 0,03646 | 0,00986 | 0,007023873 | 0,000359319 | 0,070752981 | 0,0036195 | 0,680129686 | 0,06751863 | 0,000244384 | 0,004558765 |
H | 0,80135 | 0,04009 | 0,00856 | 0,006862895 | 0,000343337 | 0,074159159 | 0,00371004 | 0,768769686 | 0,071144086 | 0,000263947 | 0,005061481 |
H | 0,76376 | 0,0395 | 0,00856 | 0,006540968 | 0,000338285 | 0,070680476 | 0,00365544 | 0,731179686 | 0,067665403 | 0,000247347 | 0,004578607 |
H | 0,77783 | 0,0395 | 0,00856 | 0,006661466 | 0,000338285 | 0,000122521 | 0,00365544 | 0,745249686 | 0,06896748 | 0,000252106 | 0,004756513 |
Soma | 24 | 0,781927533 | 0,051233925 | 1,575280303 | 0,089189395 | 0,004434393 | 0,088253868 | ||||
Média | 0,411146875 | 0,021184167 | 0,032580314 | 0,002134747 | 30,74682062 | 1,740826908 | |||||
$\widehat{\beta}_{1w}$ | 0,050245873 | ||||||||||
$\widehat{\beta}_{0w}$ | 0,000497721 |
Tabela 1.11.2.3: Validação dos cálculos dos coeficientes de regressão para o exemplo 1.11.2.2.
A seguir apresentamos os resultados obtidos pelo Action Stat.
A diferença entre o valor observado $Y_{i}$ e o correspondente valor ajustado $\widehat{Y}_{i}$, é chamada de resíduo e é denotada por
$$e_{i}=Y_{i}-\widehat{Y}_{i}=Y_{i}-(\widehat\beta_{w0}+\widehat\beta_{w1}x_{i})$$
Essa medida é importante já que por meio dela verificamos o ajuste do modelo.
Algumas propriedades do ajuste de mínimos quadrados
$$\sum^n_{i=1}\eta_i=\sum\limits_{i=1}^{n}(w_i)^{1/2}e_{i}=\sum\limits_{i=1}^{n}(w_i)(Y_{i}-\widehat{Y}_{i})=0;$$
De fato,
$$\sum^n_{i=1}\eta_i=\sum^n_{i=1}w_i(Y_i-\widehat{Y}_i)=\sum^n_{i=1}w_i\left\{Y_i-\widehat{\beta}_{w0}-\widehat{\beta}_{w1}x_i\right\}=$$
$$=\sum^n_{i=1}w_i\left\{Y_i-\overline{Y}_{w}+\widehat{\beta}_{w1}\overline{X}_{w}-\widehat{\beta}_{w1}x_i\right\}=$$
$$=\sum^n_{i=1}w_i\left\{Y_i-\frac{\displaystyle\sum^n_{i=1}w_i Y_i}{\displaystyle\sum^n_{i=1}w_i}-\widehat{\beta}_{w1}\left(x_i-\frac{\displaystyle\sum^n_{i=1}w_i x_i}{\displaystyle\sum^n_{i=1}w_i}\right)\right\}=$$
$$=\sum^n_{i=1}w_iY_i-\sum^n_{i=1}w_i\frac{\displaystyle\sum^n_{i=1}w_i Y_i}{\displaystyle\sum^n_{i=1}w_i}-\widehat{\beta}_{w1}\left(\sum^n_{i=1}w_ix_i-\sum^n_{i=1}w_i\frac{\displaystyle\sum^n_{i=1}w_i x_i}{\displaystyle\sum^n_{i=1}w_i}\right)=$$
$$=\sum^n_{i=1}w_iY_i-\sum^n_{i=1}w_iY_i-\widehat{\beta}_{w1}\left(\sum^n_{i=1}w_ix_i-\sum^n_{i=1}w_ix_i\right)=0$$
$$Y_i=\beta_{w0}+\beta_{w1}X_i+\varepsilon_i=\beta_{w0}+\beta_{w1}(X_i-\overline{X})+\beta_{w1}\overline{X}+\varepsilon_i=$$
$$=(\beta_{w0}+\beta_{w1}\overline{X})+\beta_{w1}(X_i-\overline{X})+\varepsilon_i=\beta_{w0}^{*}+\beta_{w1}(X_i-\overline{X})+\varepsilon_i,$$
com $\beta_{w0}^{*}=\beta_{w0}+\beta_{w1}\overline{X}$. Assim, a reta de regressão ajustada é dada por
$$\widehat{Y}=\widehat{\beta}_{w0}^{*}+\widehat{\beta}_{w1}(X_i-\overline{X})=\widehat{\beta}_{w0}+\widehat{\beta}_{w1}\overline{X}+\widehat{\beta}_{w1}(X_i-\overline{X})=$$
$$=(\overline{Y}-\widehat{\beta}_{w1}\overline{X})+\widehat{\beta}_{w1}\overline{X}+\widehat{\beta}_{w1}(X_i-\overline{X})=\overline{Y}+\widehat{\beta}_{w1}(X_i-\overline{X}).$$
Logo, $$\widehat{Y}=\overline{Y}+\widehat{\beta}_{w1}(\overline{X}-\overline{X})=\overline{Y}$$
e portanto, temos que a reta ajustada passa por $(\overline{X},\overline{Y})$.
$$\sum\limits_{i=1}^{n}(w_i)^{1/2} x_{i}e_{i}=0;$$
$$\sum\limits_{i=1}^{n}(w_i) \widehat{Y}_{i}e_{i}=0.$$
Área | Concentração | $w_i$ | $w_i\times X_i$ | $w_i\times Y_i$ | $\widehat{Y}_i$ | $e_i$ | $w_i\times e_i$ | $w_i\times \widehat{Y}_i\times e_i$ |
0,078 | 0 | 5,446474769 | 0 | 0,424825 | 0,020397 | 0,057603 | 0,313734574 | 0,00639917 |
1,329 | 0 | 5,446474769 | 0 | 7,238365 | 0,020397 | 1,308603 | 7,12727451 | 0,145373333 |
0,483 | 0 | 5,446474769 | 0 | 2,630647 | 0,020397 | 0,462603 | 2,519556855 | 0,051390806 |
0,698 | 0 | 5,446474769 | 0 | 3,801639 | 0,020397 | 0,677603 | 3,690548931 | 0,075275254 |
0,634 | 0 | 5,446474769 | 0 | 3,453065 | 0,020397 | 0,613603 | 3,341974545 | 0,068165465 |
0,652 | 0 | 5,446474769 | 0 | 3,551102 | 0,020397 | 0,631603 | 3,440011091 | 0,070165093 |
0,071 | 0 | 5,446474769 | 0 | 0,3867 | 0,020397 | 0,050603 | 0,27560925 | 0,005621537 |
20,718 | 25 | 0,266796415 | 6,66991 | 5,527488 | 18,03862 | 2,679376 | 0,714848045 | 12,89487474 |
21,805 | 25 | 0,266796415 | 6,66991 | 5,817496 | 18,03862 | 3,766376 | 1,004855748 | 18,12621451 |
16,554 | 25 | 0,266796415 | 6,66991 | 4,416548 | 18,03862 | -1,48462 | -0,39609223 | -7,14495857 |
19,948 | 25 | 0,266796415 | 6,66991 | 5,322055 | 18,03862 | 1,909376 | 0,509414805 | 9,189141874 |
21,676 | 25 | 0,266796415 | 6,66991 | 5,783079 | 18,03862 | 3,637376 | 0,97043901 | 17,50538394 |
22,207 | 25 | 0,266796415 | 6,66991 | 5,924748 | 18,03862 | 4,168376 | 1,112107907 | 20,06089582 |
19,671 | 25 | 0,266796415 | 6,66991 | 5,248152 | 18,03862 | 1,632376 | 0,435512198 | 7,856040571 |
33,833 | 50 | 2,647451113 | 132,3726 | 89,57121 | 36,05685 | -2,22385 | -5,88753479 | -212,28596 |
34,726 | 50 | 2,647451113 | 132,3726 | 91,93539 | 36,05685 | -1,33085 | -3,52336095 | -127,041298 |
35,463 | 50 | 2,647451113 | 132,3726 | 93,88656 | 36,05685 | -0,59385 | -1,57218947 | -56,6882004 |
34,04 | 50 | 2,647451113 | 132,3726 | 90,11924 | 36,05685 | -2,01685 | -5,33951241 | -192,525999 |
34,194 | 50 | 2,647451113 | 132,3726 | 90,52694 | 36,05685 | -1,86285 | -4,93180494 | -177,825352 |
33,664 | 50 | 2,647451113 | 132,3726 | 89,12379 | 36,05685 | -2,39285 | -6,33495403 | -228,418489 |
34,517 | 50 | 2,647451113 | 132,3726 | 91,38207 | 36,05685 | -1,53985 | -4,07667823 | -146,992176 |
79,224 | 100 | 0,040140331 | 4,014033 | 3,180078 | 72,0933 | 7,130696 | 0,286228509 | 20,6351588 |
73,292 | 100 | 0,040140331 | 4,014033 | 2,941965 | 72,0933 | 1,198696 | 0,048116066 | 3,468846133 |
85,514 | 100 | 0,040140331 | 4,014033 | 3,43256 | 72,0933 | 13,4207 | 0,53871119 | 38,83746944 |
82,072 | 100 | 0,040140331 | 4,014033 | 3,294397 | 72,0933 | 9,978696 | 0,400548171 | 28,87684095 |
85,044 | 100 | 0,040140331 | 4,014033 | 3,413694 | 72,0933 | 12,9507 | 0,519845235 | 37,47736038 |
73,876 | 100 | 0,040140331 | 4,014033 | 2,965407 | 72,0933 | 1,782696 | 0,071558019 | 5,158853989 |
82,568 | 100 | 0,040140331 | 4,014033 | 3,314307 | 72,0933 | 10,4747 | 0,420457775 | 30,31219009 |
108,065 | 150 | 0,010528595 | 1,579289 | 1,137773 | 108,1298 | -0,06476 | -0,0006818 | -0,0737231 |
118,268 | 150 | 0,010528595 | 1,579289 | 1,245196 | 108,1298 | 10,13824 | 0,106741449 | 11,54192695 |
108,89 | 150 | 0,010528595 | 1,579289 | 1,146459 | 108,1298 | 0,760243 | 0,008004288 | 0,865501761 |
127,183 | 150 | 0,010528595 | 1,579289 | 1,339058 | 108,1298 | 19,05324 | 0,20060387 | 21,69124775 |
121,447 | 150 | 0,010528595 | 1,579289 | 1,278666 | 108,1298 | 13,31724 | 0,140211851 | 15,16107342 |
122,414 | 150 | 0,010528595 | 1,579289 | 1,288847 | 108,1298 | 14,28424 | 0,150393002 | 16,26195881 |
135,555 | 150 | 0,010528595 | 1,579289 | 1,427204 | 108,1298 | 27,42524 | 0,288749264 | 31,22238783 |
224,932 | 250 | 0,012536482 | 3,134121 | 2,819856 | 180,2027 | 44,72934 | 0,560748529 | 101,0483789 |
200,113 | 250 | 0,012536482 | 3,134121 | 2,508713 | 180,2027 | 19,91034 | 0,249605574 | 44,9795894 |
200,368 | 250 | 0,012536482 | 3,134121 | 2,51191 | 180,2027 | 20,16534 | 0,252802377 | 45,55566182 |
205,17 | 250 | 0,012536482 | 3,134121 | 2,57211 | 180,2027 | 24,96734 | 0,313002565 | 56,40389611 |
213,059 | 250 | 0,012536482 | 3,134121 | 2,67101 | 180,2027 | 32,85634 | 0,411902874 | 74,22599531 |
207,931 | 250 | 0,012536482 | 3,134121 | 2,606723 | 180,2027 | 27,72834 | 0,347615793 | 62,64129197 |
201,766 | 250 | 0,012536482 | 3,134121 | 2,529436 | 180,2027 | 21,56334 | 0,270328379 | 48,71389413 |
371,534 | 500 | 0,00470075 | 2,350375 | 1,746488 | 360,3849 | 11,14907 | 0,052408983 | 18,88740762 |
408,86 | 500 | 0,00470075 | 2,350375 | 1,921949 | 360,3849 | 48,47507 | 0,227869174 | 82,1206165 |
383,509 | 500 | 0,00470075 | 2,350375 | 1,80278 | 360,3849 | 23,12407 | 0,108700463 | 39,17400882 |
405,143 | 500 | 0,00470075 | 2,350375 | 1,904476 | 360,3849 | 44,75807 | 0,210396486 | 75,82372325 |
404,132 | 500 | 0,00470075 | 2,350375 | 1,899723 | 360,3849 | 43,74707 | 0,205644028 | 74,11100895 |
379,243 | 500 | 0,00470075 | 2,350375 | 1,782726 | 360,3849 | 18,85807 | 0,088647064 | 31,94706596 |
387,419 | 500 | 0,00470075 | 2,350375 | 1,82116 | 360,3849 | 27,03407 | 0,127080395 | 45,7978594 |
Soma | 59,00039919 | 1050,842 | 758,5758 | 5,84061E-13 | 2,90896E-11 | |||
Média | 17,81076 | 12,85713 | 1,19196E-14 |
Tabela 1.11.2.4: Exemplo de cálculo dos resíduos ponderados.
Voltando o exemplo 1.11.2, aplicamos os mesmos conjunto de dados para calcularmos os resíduos ponderados. Desta forma, calculamos os resíduos ponderados para primeira observação obtidas da tabela 1, os demais são calculados de forma análoga.
$$e_{1}=Y_1-\widehat{Y_1}= Y_1-\widehat{\beta_{0w}}-\widehat{\beta_{1w}}x_1=0,00154-0,000497721-0,050245873\times 0,020253=2,46498\times 10^{-5}$$
$$e_{1w}=w^{1/2}_1\times e_1= \sqrt{7,453}\times 2,46498\times 10^{-5}=6,72942\times 10^{-5}$$
Ponto | Concentração | Área | $\widehat{Y}_i$ | $e_i$ | $w_i^{1/2}e_i$ |
A | 0,020253 | 0,00154 | 0,001515 | 2,46E-05 | 6,72942E-05 |
A | 0,020713 | 0,00152 | 0,001538 | -1,8E-05 | -5,04051E-05 |
A | 0,020289 | 0,00152 | 0,001517 | 2,84E-06 | 7,75575E-06 |
B | 0,11507 | 0,00617 | 0,00628 | -0,00011 | -6,64383E-05 |
B | 0,11644 | 0,00608 | 0,006348 | -0,00027 | -0,0001628 |
B | 0,1093 | 0,00608 | 0,00599 | 9,04E-05 | 5,48462E-05 |
C | 0,23444 | 0,01234 | 0,012277 | 6,26E-05 | 1,8E-05 |
C | 0,22935 | 0,01215 | 0,012022 | 0,000128 | 3,68949E-05 |
C | 0,22946 | 0,01215 | 0,012027 | 0,000123 | 3,53066E-05 |
D | 0,35652 | 0,0185 | 0,018411 | 8,86E-05 | 1,79212E-05 |
D | 0,35304 | 0,01823 | 0,018237 | -6,5E-06 | -1,31923E-06 |
D | 0,34955 | 0,01823 | 0,018061 | 0,000169 | 3,41422E-05 |
E | 0,47907 | 0,02467 | 0,024569 | 0,000101 | 1,53167E-05 |
E | 0,48037 | 0,02431 | 0,024634 | -0,00032 | -4,91904E-05 |
E | 0,47239 | 0,02431 | 0,024233 | 7,66E-05 | 1,16225E-05 |
F | 0,60912 | 0,03084 | 0,031103 | -0,00026 | -3,12749E-05 |
F | 0,59584 | 0,03038 | 0,030436 | -5,6E-05 | -6,6733E-06 |
F | 0,58696 | 0,03038 | 0,02999 | 0,00039 | 4,6287E-05 |
G | 0,73821 | 0,03701 | 0,03759 | -0,00058 | -5,75513E-05 |
G | 0,69549 | 0,03646 | 0,035443 | 0,001017 | 0,000100939 |
G | 0,71271 | 0,03646 | 0,036308 | 0,000152 | 1,50442E-05 |
H | 0,80135 | 0,04009 | 0,040762 | -0,00067 | -6,2212E-05 |
H | 0,76376 | 0,0395 | 0,038874 | 0,000626 | 5,79772E-05 |
H | 0,77783 | 0,0395 | 0,03958 | -8E-05 | -7,44675E-06 |
$\widehat{\beta}_{1w}$ | 0,050246 | ||||
$\widehat{\beta}_{0w}$ | 0,000498 |
Tabela 1.11.2.5: Validação do cálculo dos resíduos ponderados para o exemplo 1.11.2.2.
A seguir apresentamos os resultados obtidos pelo Action Stat.
Assim como os parâmetros $\beta_{w0}$ e $\beta_{w1}$, a variância $\sigma^2_i$ dos termos do erro $\varepsilon_i$ precisa ser estimada. Isto é necessário já que inferências a respeito da função de regressão e da predição de Y requerem uma estimativa de $\sigma^2_i$. Consideremos os resíduos $\varepsilon_{i}$. Desta forma, definimos a Soma de Quadrados dos Resíduos (Erros),
$$SQE = \sum\limits_{i=1}^n w_i e_i^{2} =\sum\limits_{i=1}^n w_i(Y_i - \widehat{Y}_i)^{2}=\sum\limits_{i=1}^n w_i(Y_i - (\widehat{\beta}_{w0}+\widehat{\beta}_{w1}X_i))^{2}.$$
Não utilizamos a soma dos resíduos uma vez que em (i),
$$\sum\limits_{i=1}^{n} w_i\widehat{\varepsilon}_{i}=0.$$
Na seção "Propriedades dos Estimadores" vamos demonstrar que SQE é um estimador não viciado de $\sigma^2$, isto é,
$$\mathbb{E}(SQE)= \sigma^2_w(n-2).$$
Desta forma, um estimador não viciado para $\sigma^2_w$ é dado por
$$\widehat{\sigma}^2_w=QME_w=\dfrac{SQE}{n-2},$$
em que QME é o Quadrado Médio dos Erros (Resíduos).
Área | Concentração | 1/s² | $w_i\times e^2_i$ |
0,078 | 0 | 5,446475 | 0,018072 |
1,329 | 0 | 5,446475 | 9,326774 |
0,483 | 0 | 5,446475 | 1,165555 |
0,698 | 0 | 5,446475 | 2,500728 |
0,634 | 0 | 5,446475 | 2,050646 |
0,652 | 0 | 5,446475 | 2,172722 |
0,071 | 0 | 5,446475 | 0,013947 |
20,718 | 25 | 0,266796 | 1,915347 |
21,805 | 25 | 0,266796 | 3,784665 |
16,554 | 25 | 0,266796 | 0,588048 |
19,948 | 25 | 0,266796 | 0,972665 |
21,676 | 25 | 0,266796 | 3,529852 |
22,207 | 25 | 0,266796 | 4,635684 |
19,671 | 25 | 0,266796 | 0,71092 |
33,833 | 50 | 2,647451 | 13,093 |
34,726 | 50 | 2,647451 | 4,689066 |
35,463 | 50 | 2,647451 | 0,933645 |
34,04 | 50 | 2,647451 | 10,769 |
34,194 | 50 | 2,647451 | 9,187214 |
33,664 | 50 | 2,647451 | 15,1586 |
34,517 | 50 | 2,647451 | 6,277474 |
79,224 | 100 | 0,04014 | 2,041009 |
73,292 | 100 | 0,04014 | 0,057677 |
85,514 | 100 | 0,04014 | 7,229879 |
82,072 | 100 | 0,04014 | 3,996949 |
85,044 | 100 | 0,04014 | 6,732358 |
73,876 | 100 | 0,04014 | 0,127566 |
82,568 | 100 | 0,04014 | 4,404167 |
108,065 | 150 | 0,010529 | 4,42E-05 |
118,268 | 150 | 0,010529 | 1,082171 |
108,89 | 150 | 0,010529 | 0,006085 |
127,183 | 150 | 0,010529 | 3,822154 |
121,447 | 150 | 0,010529 | 1,867235 |
122,414 | 150 | 0,010529 | 2,14825 |
135,555 | 150 | 0,010529 | 7,919019 |
224,932 | 250 | 0,012536 | 25,08191 |
200,113 | 250 | 0,012536 | 4,969731 |
200,368 | 250 | 0,012536 | 5,097845 |
205,17 | 250 | 0,012536 | 7,81484 |
213,059 | 250 | 0,012536 | 13,53362 |
207,931 | 250 | 0,012536 | 9,638807 |
201,766 | 250 | 0,012536 | 5,829182 |
371,534 | 500 | 0,004701 | 0,584311 |
408,86 | 500 | 0,004701 | 11,04597 |
383,509 | 500 | 0,004701 | 2,513597 |
405,143 | 500 | 0,004701 | 9,41694 |
404,132 | 500 | 0,004701 | 8,996323 |
379,243 | 500 | 0,004701 | 1,671712 |
387,419 | 500 | 0,004701 | 3,4355 |
Soma | 59,0004 | 244,5585 | |
$\sqrt{\text{QME}_w}$ | 2,28109 |
A seguir apresentamos os resultados obtidos pelo Action Stat.
Voltando o exemplo 1.11.1.2, aplicamos os mesmos conjunto de dados para calcularmos o desvio-padrão dos resíduos.
Com os resíduos ponderados da tabela 1.11.2.5 calculamos a soma de quadrado dos resíduos.
$$QME = \frac{1}{n-2}\sum\limits_{i=1}^n w_i \varepsilon_i^{2} =\frac{1}{n-2}\sum\limits_{i=1}^n w_i(Y_i - \widehat{Y}_i)^{2}=3,29293\times 10^{-9} $$
O desvio-padrão dos resíduos são calculados da seguinte forma:
$$\widehat{\sigma}=\sqrt{QME} =\sqrt{3,29293\times 10^{-9}}=5,73840\times 10^{-5} $$
SQEw | 7,24444E-08 |
n-p | 22 |
QMEw | 3,29293E-09 |
$\widehat{\sigma}=\sqrt{\text{QME}_w}$ | 5,7384E-05 |
A seguir apresentamos os resultados obtidos pelo Action Stat.
O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.