2.2.1 - Decomposição da Soma de Quadrados Total

Você está aqui

Para o modelo (2.2.1) definimos a soma de quadrados da seguinte forma


$$SQT=\sum^a_{i=1}n_{i.}(\overline{y}_{i..}-\overline{y}_{...})^2+\sum^a_{i=1}\sum^{b_i}_{j=1}n_{ij}(\overline{y}_{ij.}-\overline{y}_{i..})^2+\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}(y_{ijk}-\overline{y}_{ij.})^2=$$


$$=\underbrace{\sum^a_{i=1}\frac{y^2_{i..}}{n_{i.}}-\frac{y^2_{...}}{N}}_{SQA}+\underbrace{\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{y^2_{ij.}}{n_{ij}}-\sum^a_{i=1}\frac{y^2_{i..}}{n_{i.}}}_{SQB(A)}+\underbrace{\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}y^2_{ijk}-\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{y^2_{ij.}}{n_{ij}}}_{SQE}=$$


$$=\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}y^2_{ijk}-\frac{y^2_{...}}{N}~~~~(2.2.1.1)$$

Observações:

Soma de Quadrados do fator A (SQA) é o desvio das médias estimadas em cada tratamento (nível) em torno da média geral dos dados. Representa a variabilidade devido aos diferentes níveis do fator A.
Soma de Quadrados do B hierarquizado sob o fator A (SQB(A)) é o desvio das observações em torno da média estimada do seu nível (tratamento) B hierarquizado sob nível A e as médias estimadas em cada tratamento do nível A. Representa a variabilidade do nível do fator B hierarquizado sob o nível A .
Soma de Quadrados do Erro (SQE) é o desvio das observações em torno da média estimada do seu nível (tratamento) B hierarquizado sob nível A. Representa a variabilidade da componente aleatória do erro.

Graus de liberdade e estimativas da variância

Primeiramente, as suposições do modelo (2.2.1) são


$$E(\alpha_i)=E(\beta_{j(i)})=E(\varepsilon_{k(ij)})=0,$$


$$E(\alpha^2_{i})=\sigma^2_{\alpha},~~~~~~E(\beta^2_{j(i)})=\sigma^2_{\beta},~~~~~~E(\varepsilon^2_{k(ij)})=\sigma^2_{\varepsilon}$$

Além disso, todas as covariâncias entre os elementos de uma mesma variável aleatória e qualquer par de variáveis aleatórias são iguais a zero. Agora, vamos calcular os valores esperados das somas de quadrados.


$$E(SQE)=E\left(\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}y^2_{ijk}-\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{y^2_{ij.}}{n_{ij}}\right)=\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}E(y^2_{ijk})-\sum^a_{i=1}\sum^{b_i}_{j=1}E\left(\frac{y^2_{ij.}}{n_{ij}}\right)=$$


$$=\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}E[(\mu+\alpha_i+\beta_{j(i)}+\varepsilon_{k(ij)})^2]-\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{1}{n_{ij}}E\left[\displaystyle\left(\sum^{n_{ij}}_{k=1}y_{ijk}\right)^2\right]}=$$


$$=\sum^a_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}[\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta}+\sigma^2_{\varepsilon}]-\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{1}{n_{ij}}E\left[\left(n_{ij}(\mu+\alpha_i+\beta_{j(i)})+\sum^{n_{ij}}_{k=1}\varepsilon_{k(ij)}\right)^2\right]=$$


$$=N(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta}+\sigma^2_{\varepsilon})-\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{1}{n_{ij}}[n^2_{ij}(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})+n_{ij}\sigma^2_{\varepsilon}]=$$


$$=N(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta}+\sigma^2_{\varepsilon})-\sum^a_{i=1}\sum^{b_i}_{j=1}[n_{ij}(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})+\sigma^2_{\varepsilon}]=$$


$$=N(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta}+\sigma^2_{\varepsilon})-N(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})-b_{.}\sigma^2_{\varepsilon}=$$


$$=(N-b_{.})\sigma^2_{\varepsilon}$$

Agora, calcularemos o valor esperado de $ SQA. $


$$E(SQA)=E\left(\sum^a_{i=1}\frac{y^2_{i..}}{n_{i.}}-\frac{y^2_{...}}{N}\right)=\sum^a_{i=1}\frac{1}{n_{i.}}E\left(y^2_{i..}\right)-\frac{1}{N}E\left(y^2_{...}\right)=$$


$$=\sum^a_{i=1}\frac{1}{n_{i.}}E\left[\left(n_{i.}(\mu+\alpha_i)+\sum^{b_i}_{j=1}n_{ij}\beta_{j(i)}+\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}\varepsilon_{k(ij)}\right)^2\right]-$$


$$-\frac{1}{N}E\left[\left(N\mu+\sum^{a}_{i=1}n_{i.}\alpha_i+\sum^{a}_{i=1}\sum^{b_i}_{j=1}n_{ij}\beta_{j(i)}+\sum^{a}_{i=1}\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}\varepsilon_{k(ij)}\right)^2\right]=$$


$$=\sum^a_{i=1}\frac{1}{n_{i.}}\left(n^2_{i.}(\mu^2+\sigma^2_{\alpha})+\sum^{b_i}_{j=1}n^2_{ij}\sigma^2_{\beta}+n_{i.}\sigma^2_{\varepsilon}\right)-\frac{1}{N}\left(N^2\mu^2+\sum^{a}_{i=1}n^2_{i.}\sigma^2_{\alpha}+\sum^{a}_{i=1}\sum^{b_i}_{j=1}n^2_{ij}\sigma^2_{\beta}+N\sigma^2_{\varepsilon}\right)=$$


$$=\sum^a_{i=1}\left(n_{i.}(\mu^2+\sigma^2_{\alpha})+\sum^{b_i}_{j=1}\frac{n^2_{ij}}{n_{i.}}\sigma^2_{\beta}+\sigma^2_{\varepsilon}\right)-N\mu^2+\underbrace{\sum^{a}_{i=1}\frac{n^2_{i.}}{N}}_{k_1}\sigma^2_{\alpha}-\underbrace{\sum^{a}_{i=1}\sum^{b_i}_{j=1}\frac{n^2_{ij}}{N}}_{k_3}\sigma^2_{\beta}-\sigma^2_{\varepsilon}=$$


$$=\underbrace{\sum^a_{i=1}n_{i.}}_{N}(\mu^2+\sigma^2_{\alpha})+\underbrace{\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{n^2_{ij}}{n_{i.}}}_{k_{12}}\sigma^2_{\beta}+a\sigma^2_{\varepsilon}-N\mu^2+k_1\sigma^2_{\alpha}-k_3\sigma^2_{\beta}-\sigma^2_{\varepsilon}=$$


$$=N(\mu^2+\sigma^2_{\alpha})+k_{12}\sigma^2_{\beta}+a\sigma^2_{\varepsilon}-N\mu^2+k_1\sigma^2_{\alpha}-k_3\sigma^2_{\beta}-\sigma^2_{\varepsilon}=$$


$$=(a-1)\sigma^2_{\varepsilon}+(k_{12}-k_3)\sigma^2_{\beta}+(N-k_1)\sigma^2_{\alpha}$$

Agora, calculamos o valor esperado de $ SQB(A). $


$$E(SQB(A))=E\left(\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{y^2_{ij.}}{n_{ij}}-\sum^a_{i=1}\frac{y^2_{i..}}{n_{i.}}\right)=\sum^a_{i=1}\sum^{b_i}_{j=1}E\left(\frac{y^2_{ij.}}{n_{ij}}\right)-\sum^a_{i=1}E\left(\frac{y^2_{i..}}{n_{i.}}\right)=$$


$$=\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{1}{n_{ij}}E\left[\left(n_{ij}(\mu+\alpha_i+\beta_{j(i)})+\sum^{n_{ij}}_{k=1}\varepsilon_{k(ij)}\right)^2\right]-$$


$$-\sum^a_{i=1}\frac{1}{n_{i.}}E\left[\left(n_{i.}(\mu+\alpha_i)+\sum^{b_i}_{j=1}n_{ij}\beta_{j(i)}+\sum^{b_i}_{j=1}\sum^{n_{ij}}_{k=1}\varepsilon_{k(ij)}\right)^2\right]=$$


$$=\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{1}{n_{ij}}[n^2_{ij}(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})+n_{ij}\sigma^2_{\varepsilon}]-\sum^a_{i=1}\frac{1}{n_{i.}}\left(n^2_{i.}(\mu^2+\sigma^2_{\alpha})+\sum^{b_i}_{j=1}n^2_{ij}\sigma^2_{\beta}+n_{i.}\sigma^2_{\varepsilon}\right)=$$


$$=\sum^a_{i=1}\sum^{b_i}_{j=1}[n_{ij}(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})+\sigma^2_{\varepsilon}]-\sum^a_{i=1}\left(n_{i.}(\mu^2+\sigma^2_{\alpha})+\sum^{b_i}_{j=1}\frac{n^2_{ij}}{n_{i.}}\sigma^2_{\beta}+\sigma^2_{\varepsilon}\right)=$$


$$=N(\mu^2+\sigma^2_{\alpha}+\sigma^2_{\beta})+b_{.}\sigma^2_{\varepsilon}-\underbrace{\sum^a_{i=1}n_{i.}}_{N}(\mu^2+\sigma^2_{\alpha})-\underbrace{\sum^a_{i=1}\sum^{b_i}_{j=1}\frac{n^2_{ij}}{n_{i.}}}_{k_{12}}\sigma^2_{\beta}-a\sigma^2_{\varepsilon}=$$


$$=(b_{.}-a)\sigma^2_{\varepsilon}+(N-k_{12})\sigma^2_{\beta}$$

Para o modelo (2.2.1) não existe uma única análise de variância, porém a forma calculada até aqui é chamada Soma de Quadrados do Tipo I e são definidos, estabelecendo uma analogia com os termos correspondentes para dados balanceados. Na figura 2.2.1.1 apresentamos os diferentes tipos de soma de quadrados.

Figura 2.2.1.1: Diferentes tipo de soma de quadrados.


$$E(QME)=E\left[\frac{SQE}{N-b_{.}}\right]=\frac{1}{N-b_{.}}E[SQE]=\sigma^2_{\varepsilon},$$

Portanto, como argumentamos na seção (ANOVA efeitos fixos), o QME é um bom estimador para a variância pois


$$E(QMA)=E\left[\frac{SQA}{a-1}\right]=\frac{1}{a-1}E[SQA]=\frac{1}{a-1}[(a-1)\sigma^2_{\varepsilon}+(k_{12}-k_3)\sigma^2_{\beta}+(N-k_1)\sigma^2_{\alpha}]=$$


$$=\sigma^2_{\varepsilon}+\underbrace{\frac{(k_{12}-k_3)}{a-1}}_{r_1}\sigma^2_{\beta}+\underbrace{\frac{(N-k_1)}{a-1}}_{r_2}\sigma^2_{\alpha}=$$


$$=\sigma^2_{\varepsilon}+r_1\sigma^2_{\beta}+r_2\sigma^2_{\alpha},~~~~~~\mbox{e}$$


$$E(QMB(A))=E\left[\frac{SQB(A)}{b_{.}-a}\right]=\frac{1}{b_.-a}E[SQB(A)]=\frac{1}{b_{.}-a}[(b_{.}-a)\sigma^2_{\varepsilon}+(N-k_{12})\sigma^2_{\beta}]=$$


$$=\sigma^2_{\varepsilon}+\underbrace{\frac{(N-k_{12})}{b_.-a}}_{r_3}\sigma^2_{\beta}=$$


$$=\sigma^2_{\varepsilon}+r_3\sigma^2_{\beta}$$

Assim, QMA e QMB(A) também são bons estimadores para a variância. Entretanto, se existe diferença entre as médias dos níveis, os valores esperados do quadrado médio do fator A (devido aos níveis) são maiores do que $ \sigma^{2}_{\varepsilon}. $ O mesmo valendo para o fator B.

Portanto, temos os seguintes graus de liberdade:

Soma de Quadrados Graus de Liberdade Quadrados Médios
SQA $ a-1 $ $ \cfrac{SQA}{a-1} $
SQB(A) $ b_.-a $ $ \cfrac{SQB(A)}{b_.-a} $
SQE $ N-b_. $ $ \cfrac{SQE}{N-b_.} $
SQT $ N-1 $  

Note que no caso de dados balanceados, $ b_. = ab, n_{ij}=r $ e $ N=abr $ para todo i e j, $ r_1 =r, $$ r_2=br $e $ r_3 = r. $

Agora, mostramos um breve resumo dos valores esperados dos quadrados médios.

 Fator Graus de Liberdade Quadrados Médios Valor Esperado dos Quadrados Médios
Fator A $ a-1 $ $ QMA $

 

$ E(QMA)=\sigma^2_\varepsilon+r\sigma^2_\beta+br\sigma^2_\alpha $

 

Fator B hierárquico ao fator A $ a(b-1) $ $ QMB(A) $ $ E[QMB(A)]=\sigma^2_\varepsilon+r\sigma^2_\beta $
Erro $ ab(r-1) $ $ QME $

 

$ E(QME)=\sigma^2_\varepsilon $

 

Tabela 2.2.1.1: Valores Esperados dos Quadrados Médios.

Estatística
$ QMA= $

$ br\displaystyle\sum^a_{i=1}\frac{(\overline{Y}_{i..}-\overline{Y}_{...})^2}{a-1} $

$ QMB(A) $ $ r\displaystyle\sum^a_{i=1}\sum^b_{j=1}\frac{(\overline{Y}_{ij.}-\overline{Y}_{i..})^2}{a(b-1)} $
$ QME= $

$ \displaystyle\sum^a_{i=1}\sum^b_{j=1}\sum^r_{k=1}\frac{(\overline{Y}_{ijk}-\overline{Y}_{ij.})^2}{ab(r-1)} $

$ \overline{Y}_{ij.}= $

$ \displaystyle\sum^r_{j=1}\frac{Y_{ijk}}{r} $

 

$ \overline{Y}_{i..}= $

$ \displaystyle\sum^b_{j=1}\sum^r_{k=1}\frac{Y_{ijk}}{br} $
$ \overline{Y}_{...}= $ $ \displaystyle\sum^a_{i=1}\sum^b_{j=1}\sum^r_{k=1}\frac{Y_{ijk}}{abr} $

Tabela 2.2.1.2: Resumo dos Quadrados médios e médias para o modelo (2.2.1).

Com os resultados obtidos na tabela 2.2.1.1 temos os seguintes estimadores:

Para a componente do erro temos


$$\hat{\sigma}^2_\varepsilon=QME~~~~(2.2.1.2)$$

Agora, para calcular a variabilidade para o efeito do fator B hierárquizado sob o fator A, utilizamos a equação (2.2.1.2) da seguinte forma


$$\hat{\sigma}^2_\beta=\frac{QMB(A)-\hat{\sigma}^2_\varepsilon}{r}\overset{(2.2.1.2)}{=}$$


$$=\frac{QMB(A)-QME}{r}~~~~(2.2.1.3)$$

Finalmente, para calcular a variabilidade para o efeito do fator A temos


$$\hat{\sigma}^2_\alpha=\frac{QMA-\hat{\sigma}^2_\varepsilon-\hat{\sigma}^2_\beta}{br}\overset{\mbox{(2.2.1.2) e (2.2.1.3)}}{=}$$


$$=\frac{QMA-QMB(A)}{br}$$

A tabela 2.2.1.3 representa os estimadores pontuais do modelo (2.2.1).

Representação do Modelo Estimador Pontual

$ \hat{\mu} $

      $ \overline{Y}_{...} $

  

$ \hat{\sigma}^2_\alpha $

 

$ \displaystyle\cfrac{QMA-QMB(A)}{br} $
$ \hat{\sigma}^2_\beta $ $ \displaystyle\cfrac{QMB(A)-QME}{r} $

   $ \hat{\sigma}^2_\varepsilon $

$ QME $

Tabela 2.2.1.3: Resumo dos Estimadores pontuais para o modelo (2.2.1).

 

 

 

Dúvidas sobre esse conteúdo? Comente:

ANOVA

Sobre o Portal Action

O Portal Action é mantido por Estatcamp - Consultoria Estatística e Qualidade e por DIGUP - Desenvolvimento de Sistemas e Consultoria Estatística, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  28 de Setembro,2066 - B, São Carlos - SP | CEP 13560-270
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]