Análise de tendência no estudo de estabilidade

Você está aqui

Para avaliar um estudo de estabilidade de longa duração e/ou estudo de estabilidade de acompanhamento devemos avaliar a tendência de degradação do produto interlotes, estabelecer uma estratégia para determinarmos o prazo de validade e os limites de liberação de lotes na rotina. Para isto, vamos definir um modelo de regressão apropriado denominado ANCOVA. Os modelos de regressão são a base para avaliarmos os dados dos estudos de estabilidade de longa duração e de acompanhamento. Suponha que tenhamos $ k $ lotes em análise, nos quais podemos ter lotes de longa duração ou de acompanhamento. Para acomodar a estrutura de lotes consideramos a seguinte matriz de planejamento. 

 

Para cada lote $ i $, temos $ n_i $ observações relacionadas aos tempos $ t_{ij} $ e temos as interações entre o tempo e os lotes, com $ i=1,2,...,K $ e $ j=1,...n_i $.

Com a matriz de planejamento, podemos definir o modelo estatístico

$$Y = X\beta + \varepsilon$$

Em que:

$$Y =\begin{bmatrix}y_1\\y_2\\y_3\\\vdots\\y_N\end{bmatrix}\ ;\beta=\begin{bmatrix}\beta_0\\\beta_1\\\beta_2\\\beta_3\\\vdots\\\beta_{2k-1}\end{bmatrix}\ ;\varepsilon=\begin{bmatrix}\varepsilon_1\\\varepsilon_2\\\varepsilon_3\\\vdots\\\varepsilon_N\end{bmatrix}$$

tal que $ N = \sum_{i=1}^k n_i $.
Admitimos que os erros experimentais $ \varepsilon_{ij} $  são independentes e identicamente distribuídos com  média zero e variância $ \sigma^2 $.

Então, podemos interpretar o modelo de forma separada por lote:

Lote 1: $ Y_{n_1}=\beta_0+\beta_1\ast t_{n_1}+\varepsilon_{n_1} $

Lote 2: $ Y_{n_2}=(\beta_0 + \beta_2)+(\beta_1 + \beta_{K+1})\ast t_{n_2}+\varepsilon_{n_2} $

Lote 3: $ Y_{n_2}=(\beta_0 + \beta_3)+(\beta_1 + \beta_{K+2})\ast t_{n_3}+\varepsilon_{n_3} $

$ \vdots $

Lote K: $ Y_{n_K}=(\beta_0 + \beta_K)+(\beta_1 + \beta_{2K-1})\ast t_{n_K}+\varepsilon_{n_K} $

Em que $ Y_{n_i}, t_{n_i} $ e $ \varepsilon_{n_i} $ são as partições dos vetores por lote, com $ i=1,2, ... ,K $.

$$Y =\begin{bmatrix}y_{i1}\\y_{i2}\\y_{i3}\\\vdots\\y_{i,n_i}\end{bmatrix}\ ;t_{n_i}=\begin{bmatrix}t_{i1}\\t_{i2}\\t_{i3}\\t_{i4}\\\vdots\\t_{i,n_i}\end{bmatrix}\ ;\varepsilon_{n_i}=\begin{bmatrix}\varepsilon_{i1}\\\varepsilon_{i2}\\\varepsilon_{i3}\\\vdots\\\varepsilon_{i,n_i}\end{bmatrix}$$

Considere um experimento em estudo, no qual foi medida a degradação de uma droga para 3 lotes. Para cada lote, medimos a concentração em diferentes níveis de tempo. Os níveis selecionados para o experimento foram (Tempo = 0, 3, 6, 9, 12, 18, 24 e 36 meses). 

Lotes Tempo Medições
1 0 98,4
1 3 96,1
1 6 94,2
1 9 93,5
1 12 90
1 18 89,1
1 24 89,2
1 36 87,3
2 0 99,1
2 3 97,2
2 6 96,3
2 9 95,2
2 12 93,4
2 18 91,5
2 24 90,3
3 0 104,1
3 3 102,1
3 6 99,5
3 9 98,1
3 12 95,7
3 18 94,1
3 24 94
3 36 93,5

Tabela 1: Resultados do Experimento

Então, para a estimação do modelo ANCOVA, temos a seguinte matriz $ X $:

 

A interpretação fica da seguinte forma

Intercepto Tempo Lote2 Lote3 Lote2:Tempo Lote3:Tempo
1 0 0 0 0 0
1 3 0 0 0 0
1 6 0 0 0 0
1 9 0 0 0 0
1 12 0 0 0 0
1 18 0 0 0 0
1 24 0 0 0 0
1 36 0 0 0 0
1 0 1 0 0 0
1 3 1 0 3 0
1 6 1 0 6 0
1 9 1 0 9 0
1 12 1 0 12 0
1 18 1 0 18 0
1 24 1 0 24 0
1 0 0 1 0 0
1 3 0 1 0 3
1 6 0 1 0 6
1 9 0 1 0 9
1 12 0 1 0 12
1 18 0 1 0 18
1 24 0 1 0 24
1 36 0 1 0 36

Tabela 2: Interpretação matriz X

Os parâmetros do modelo de regressão são estimados pelo método de mínimos quadrados, como podemos ver em "Estimação dos Parâmetros". Assim, a estimativa dos parâmetros do modelo completo é dada por:

$$\widehat{\beta}=\left(X^{\prime}X\right)^{-1}X^{\prime}Y=\begin{bmatrix}96,215\\-0,296\\2,29\\5,366\\-0,073\\0,003\end{bmatrix}$$

Vamos testar nas seções posteriores se podemos considerar que há igualdade nos interceptos ou nos coeficientes angulares (paralelismo).

 

Análise de Variância

Como podemos ver em "Análise de Variância", o Modelo de Regressão Linear Simples, pode ser decomposto a variabilidade total na variabilidade do modelo mais a variabilidade dos erros.

$$SQT = SQR + SQE$$

Em que

$$SQT=\sum_{i=1}^N(Y_i-\bar{Y})^{2}~~~~\mbox(é\ a\ Soma\ de\ Quadrados\ Total);$$

$$SQR=\sum_{i=1}^N(\widehat{Y}_i-\bar{Y})^2~~~~\mbox(é\ a\ Soma\ de\ Quadrados\ da\ Regressão)\ e$$

$$SQE=\sum_{i=1}^N(Y_i-\widehat{Y}_i)^2~~~~\mbox(é\ a\ Soma\ de\ Quadrados\ dos\ Erros\ (dos\ Resíduos)).$$

Com os valores da soma dos quadrados, obtemos a tabela ANOVA:

Fonte Soma de Quadrado GL Quadrado Médio Estatística F
Regressão $ SQR $ $ p $ $ QMR=\dfrac{SQR}{p} $ $ \frac{QMR}{QME} $
Erro (Resíduo) $ SQE $ $ N-p-1 $     $ QME=\dfrac{SQE}{N-p-1} $  
Total $ SQT $ $ N-1 $    

Tabela 3: Tabela da ANOVA

Então a decomposição da variabilidade total para o exemplo em estudo fica:
Em que $ p $ é a quantidade de parâmetros do modelo, no caso do modelo completo, temos $ p=2k-1 $.

$$SQR=349,76$$

$$SQE=46,128$$

$$SQT=349,76+46,128=395,89$$

Sabemos que a soma de quadrados do erro $ (SQE) $ satisfaz

$$\dfrac{SQE}{\sigma^2}\sim\chi^{2}_{N-(p+1)}$$

pelo "Teorema - Distribuição de forma quadrática". Portanto, um estimador não viciado para $  \sigma^2  $ é dado por

$$\widehat{\sigma}^2=QME=\dfrac{SQE}{N-p-1}=\frac{46,128}{23-6}=2,713.$$

Obtemos a seguinte tabela ANOVA.

Fonte Soma de Quadrado GL Quadrado Médio Estatística F
Regressão $ 349,76 $ $ 5 $ $ 69,95 $ $ 25,783 $
Erro (Resíduo) $ 46,128 $ $ 17 $  $ 2,713 $  
Total $ 395,89 $ $ 22 $    

Tabela 4: Tabela Resultado da ANOVA

ANCOVA

Fonte Soma de Quadrado GL Quadrado Médio Estatística F
Lote  $ SQR_1 $ $ k-1 $ $ QMR_1=\dfrac{SQR_1}{k-1} $ $ \frac{QMR_1}{QME} $
Tempo $ SQR_2 $ $ 1 $ $ QMR_2=\dfrac{SQR_2}{1} $ $ \frac{QMR_2}{QME} $
Lote/tempo $ SQR_3 $ $ k-1 $ $ QMR_3=\dfrac{SQR_3}{k-1} $ $ \frac{QMR_3}{QME} $
Resíduo $ SQE $ $ N-2k $ $ QME=\dfrac{SQE}{N-2k} $  
Total $ SQT $ $ N-1 $    

Tabela 5: Tabela da ANCOVA

Sendo:

  • Fonte de variação 'lote' referente aos coeficientes $ \beta_2=\beta_3=\cdots=\beta_K $, que representam como os lotes influenciam o intercepto do modelo.  Temos $ k-2 + 1= k-1 $ graus de liberdade;
  • Fonte de variação 'tempo' referente ao coeficiente $ \beta_1 $, que representa como o tempo influencia no modelo do lote 1. Temos $ 1 $ grau de liberdade;
  • Fonte de variação 'lote/tempo' referente aos coeficientes $ \beta_{K+1}=\beta_{K+2}=\cdots=\beta_{2K-1} $, que representam a influência da interação entre o tempo e lote no coeficiente angular do modelo. Temos $ (2k-1) - (k+1)+1 = k-1 $ graus de liberdade.

A soma de quadrados dos resíduos possui $ N-p-1 $ graus de liberdade. Como $ p= 2k-1 $, temos $ N-p-1 = N-(2k-1)-1 = N-2k $ graus de liberdade.

 

Teste de igualdade dos interceptos

Estamos interessados em testar se há ou não diferença entre os interceptos do modelo para cada lote. Se não houver diferença, os valores do subconjunto $ {\beta_2,\beta_3,\cdots,\beta_K} $ do vetor de parâmetros $ \beta $, correspondente aos interceptos, são nulos. Assim, estamos interessados em testar as hipóteses:

 \mbox{Pelo menos um }\beta_i \mbox{ é diferente} \end{array} \right. $$

 

Abaixo temos um exemplo ilustrativo de um caso em que rejeitaríamos $ H_{0a} $, pois os interceptos são iguais, e de um caso em que não rejeitaríamos, pois os lotes influenciam de forma significativa o intercepto de cada modelo.

No caso em estudo com 3 lotes, temos os parâmetros $ \beta_2 $ e $ \beta_3 $ correspondentes aos interceptos. As hipóteses são dadas por: 

 \mbox{Pelo menos um }\beta_i \mbox{ é diferente} \end{array} \right. $$

 

Como queremos determinar se um subconjunto de parâmetros são significantes ao modelo de regressão, precisamos utilizar o Teste F Parcial. Para isso, consideramos a seguinte partição do vetor de parâmetros $ \beta $:

$$\beta=\begin{bmatrix}\beta_{R1}\\\beta_{R1^c}\end{bmatrix}$$

Em que $ \beta_{R1^c} $ são os parâmetros em que temos interesse em testar e $ \beta_{R1} $ são os demais parâmetros do vetor $ \beta $. No caso do teste do Intercepto com $ k $ lotes temos:

$$\beta_{R1^c}=\begin{bmatrix}\beta_{2}\\\beta_{3}\\\vdots\\\beta{k}\end{bmatrix}\quad\mbox{e}\quad\beta_{R1}=\begin{bmatrix}\beta_{0}\\\beta_{1}\\\beta_{k+1}\\\beta_{k+2}\\\vdots\\\beta_{2k-1}\end{bmatrix} $$

Então, particionamos a matriz X de forma que a partição $ X_{R1} $ esteja relacionada ao subconjunto de $ \beta_{R1} $ e $ X_{R1^c} $ relacionada ao subconjunto de $ \beta_{R1^c} $

Assim, temos:

$$X=[X_{R1}\quad X_{R1^c}]$$

em que:

No exemplo, estamos testando o intercepto para 3 lotes e, então, o subconjunto de parâmetros de interesse é dado por:

$$\beta_{R1}=\begin{bmatrix}\beta_{0}\\\beta_{1}\\\beta_{4}\\\beta_{5}\end{bmatrix}\quad\mbox{e }\beta_{R1^c}=\begin{bmatrix}\beta_{2}\\\beta_{3}\end{bmatrix} $$

E a partição da matriz $ X $ fica da seguinte forma:

Estamos interessados apenas no quanto o subconjunto $ {\beta_2, \beta_3} $ influencia a regressão, ou seja, queremos testar a soma do quadrado adicional de $ \beta_{R1^c}=\begin{bmatrix}\beta_{2}\\\beta_{3}\end{bmatrix} $ no modelo que já possui $ \beta_{R1}=\begin{bmatrix}\beta_{0}\\\beta_{1}\\\beta_{4}\\\beta_{5}\end{bmatrix} $

Definimos então:

$$SQR_1= SQR(\beta_2,\beta_3|\beta_0, \beta_1, \beta_4, \beta_5)= $$

$$= SQR(\beta) - SQR(\beta_0, \beta_1, \beta_4, \beta_5)=$$

$$= SQR(\beta) - SQR(\beta_{R1})$$

Para encontrar $ SQR(\beta_{R1}) $, vamos considerar o modelo sob a hipótese nula $ H_{0a} $, assumindo os valores de $ \beta_{R1^c} $ como nulos. Chamamos esse modelo de reduzido:

$$Y = X_{R1}\beta_{R1} + \varepsilon$$

A estimativa do parâmetro $ \beta_{R1} $ fica:

$$\widehat{\beta}_{R1}=\left(X_{R1}^{\prime}X_{R1}\right)^{-1}X_{R1}^{\prime}Y =\begin{bmatrix}98,787\\-0,408 \\0,022\\0,238\end{bmatrix} $$

Calculando a soma do quadrado da regressão do modelo reduzido, temos:

$$SQR\left(\beta_{R1}\right) =\widehat{\beta}_{R1}^{\prime}X_{R1}^{\prime}Y}=302,394$$

Já a soma do quadrado da regressão do modelo completo pode ser calculada por

$$SQR\left(\beta\right) =\widehat{\beta}^{\prime}X^{\prime}Y}=349,764$$

Então, a soma de quadrados referente aos parâmetros da hipótese nula é dada por:

$$SQR_1=SQR\left(\beta_{R1^c}|\beta_{R1}\right) = SQR\left(\beta\right) - SQR\left(\beta_{R1}\right)=349,764 - 302,394 = 47,37$$

Temos que $ \beta_{R1^c} $ possui $ k-1 $ elementos e, portanto, $ SQR\left(\beta_{R1^c}|\beta_{R1}\right) $ possui $ K-1=2 $ graus de liberdade. Desta forma, podemos calcular a estatística do teste F por:

$$F_I=\frac{\frac{SQR(\beta_{R1^c}|\beta_{R1})}{K-1}}{QME}$$

$$F_I=\dfrac{\dfrac{47,37}{2}}{2,713}=8,73$$

Em que $ F_I $ possui distribuição $ F $ com $ K-1=2 $ e $ N-2K=17 $ graus de liberdade. Calculamos o P-valor do teste por:

$$P-valor = \mathbb{P}\left(F_I \textgreater F_{(2, 17)}\right)$$

Adotando o nível de significância de $ \alpha = 25\% $, temos que se:

$ P-valor \textgreater \alpha $ não rejeitamos a hipótese nula e concluímos que os interceptos são iguais para todos os lotes.

$ P-valor \leq \alpha $ rejeitamos a hipótese nula e concluímos que os interceptos não são iguais para todos os lotes.

Como o $ P-valor\approx0 $, concluímos que os interceptos não são iguais para os lotes.

Teste de igualdade dos coeficientes angulares (Paralelismo):

No próximo passo, estamos interessados em testar se há ou não diferença entre os coeficientes angulares de cada modelo, ou seja, se as retas ajustadas são ou não paralelas. Se não houver diferença significativa entre os coeficientes, os valores do subconjunto do vetor de parâmetros $ \beta $ que são correspondentes a uma alteração no coeficiente angular, ou seja, $ \beta_{K+1},\beta_{K+2},\cdots,\beta_{2K-1} $, são nulos e as retas ajustadas são paralelas. Assim, queremos testar as hipóteses:

 \mbox{Pelo menos um }\beta_i \mbox{ é diferente} \end{array} \right. $$

 

No exempo, queremos testar:

 \mbox{Pelo menos um }\beta_i \mbox{ é diferente} \end{array} \right. $$

Abaixo podemos ver um exemplo ilustrativo em que, no primeiro caso, não rejeitamos $ H_{0b} $ pois há paralelismo entre as retas ajustadas e, portanto, os coeficientes angulares são iguais e os valores de $ \beta_{K+1},\beta_{K+2},\cdots,\beta_{2K-1} $ são nulos. No segundo caso, rejeitamos $ H_{0b} $ pois concluímos que as retas ajustadas não são paralelas e, portanto, os coeficientes angulares são diferentes e os parâmetros $ \beta_{K+1},\beta_{K+2},\cdots,\beta_{2K-1} $ são significativos. 

Ao verificar essas hipóteses, estamos testando a significância de um subconjunto de parâmetros da regressão. Devemos, então, utilizar o Teste F Parcial como fizemos no teste do Intercepto. Consideramos a seguinte partição do vetor de parâmetros $ \beta $:

$$\beta=\begin{bmatrix}\beta_{0}\\\beta_{1}\\\vdots\\\beta_{2k-1}\end{bmatrix}=\begin{bmatrix}\beta_{R2}\\\beta_{R2^c}\end{bmatrix}$$

em que $ \beta_{R2^c} $ são os parâmetros em que temos interesse em testar e $ \beta_{R2} $ são os parâmetros complementares do vetor $ \beta $. No caso do teste do coeficiente angular temos:

$$\beta_{R2}=\begin{bmatrix}\beta_{0}\\\beta_{1}\\\vdots\\\beta_{k}\end{bmatrix}\quad\mbox{e}\quad\beta_{R2^c}=\begin{bmatrix}\beta_{k+1}\\\beta_{k+2}\\\vdots\\\beta_{2k-1}\end{bmatrix} $$

No experimento em estudo para $ k=3 $ lotes temos:

$$\beta_{R2}=\begin{bmatrix}\beta_{0}\\\beta_{1}\\\beta_{2}\\\beta_{3}\end{bmatrix}\quad\mbox{e}\quad\beta_{R2^c}=\begin{bmatrix}\beta_{4}\\\beta_{5}\end{bmatrix} $$

Assim, particionamos também a matriz $ X $, de forma que a partição $ X_{R2} $ esteja associada aos vetores de $ \beta_{R2} $ e $ X_{R2^c} $ aos valores de $ \beta_{R2^c} $, como a seguir:

$$X=[X_{R2}\quad X_{R2^c}]$$

em que:

Estamos interessados apenas no quanto o subconjunto $ {\beta_{K+1},\beta_{K+2},\cdots,\beta_{2K-1}} $ influencia a regressão, ou seja, queremos testar a soma do quadrado adicional de $ \beta_{R2^c}=\begin{bmatrix}\beta_{K+1}\\\beta_{K+2}\\\cdots\\\beta_{2K-1}\end{bmatrix} $ no modelo que já possui $ \beta_{R2}=\begin{bmatrix}\beta_{0}\\\beta{1}\\\cdots\\\beta_{k}\end{bmatrix} $

Definimos então:

$$SQR_3= SQR(\beta_{K+1},\beta_{K+2},\cdots,\beta_{2K-1}|\beta_{0}, \beta{1}, \cdots, \beta_{k})= $$

$$= SQR(\beta) - SQR(\beta_{0}, \beta{1}, \cdots, \beta_{k})=$$

$$= SQR(\beta) - SQR(\beta_{R2})$$

Para encontrar $ SQR(\beta_{R2}) $, vamos considerar o modelo sob a hipótese nula $ H_{0b} $, assumindo os valores de $ \beta_{R2^c} $ como nulos. Chamamos esse modelo de reduzido:

$$Y = X_{R2}\beta_{R2} + \varepsilon$$

A estimativa do parâmetro $ \beta_{R2} $ fica:

$$\widehat{\beta}_{R2}=\left(X_{R2}^{\prime}X_{R2}\right)^{-1}X_{R2}^{\prime}Y =\begin{bmatrix}96,369\\-0,307\\1,502\\5,412\end{bmatrix}$$

Calculando a soma do quadrado da regressão do modelo reduzido, temos:

$$SQR\left(\beta_{R2}\right) =\widehat{\beta}_{R2}^{\prime}X_{R2}^{\prime}Y=347,786$$

Como vimos,

$$SQR\left(\beta\right) =\widehat{\beta}^{\prime}X^{\prime}Y}=349,764$$

Então, a soma de quadrados referente aos parâmetros da hipótese nula é dada por:

$$SQR_3\left(\beta_{R2^c}|\beta_{R2}\right) = SQR\left(\beta\right) - SQR\left(\beta_{R2}\right)=349,764 - 347,786 = 1,978$$

Temos que $ \beta_{R2^c} $ possui $ k-1 $ elementos e, portanto, $ SQR\left(\beta_{R2^c}|\beta_{R2}\right) $ possui $ K-1=2 $ graus de liberdade. . Desta forma, podemos calcular a estatística do teste F por:

$$F_p=\dfrac{\dfrac{SQR\left(\beta_{R2^c}|\beta_{R2}\right)}{K-1}}{QME}\sim F_{(K-1, N-2K)}$$

$$F_p=\dfrac{\dfrac{1,978}{2}}{2,713}=0,455$$

Em que $ F_p $ possui distribuição $ F $ com $ K-1=2 $ e $ N-2K=17 $ graus de liberdade. Calculamos o P-valor do teste por:

$$P-valor = \mathbb{P}\left(F_I \textgreater F_{(2, 17)}\right)$$

Adotando o nível de significância de $ \alpha = 25\% $, temos que se:

$ P-valor \textgreater \alpha $ não rejeitamos a hipótese nula e concluímos que os coeficientes angulares são iguais.

$ P-valor \leq \alpha $ rejeitamos a hipótese nula e concluímos que os coeficientes angulares são diferentes.

Como o $ P-valor=0,699 $, concluímos que o coeficientes angulares são iguais para os lotes.

Analise e escolha do modelo estatístico

Dependendo dos resultados dos testes de comparação de curvas, temos três possíveis cenários para o ajuste do modelo: identificação de paralelismo e igualdade de interceptos (não rejeitamos $ H_{0a} $ e nem $ H_{0b} $), identificação apenas de paralelismo (rejeitamos $ H_{0a} $ e não rejeitamos $ H_{0b} $), ou não identificação de nenhuma das propriedades (rejeitamos $ H_{0a} $ e $ H_{0b} $).

  • Modelo 1

O primeiro cenário é quando não temos evidências para rejeitar nenhuma das hipóteses $ H_{0a} $ e $ H_{0b} $, ou seja, não existe diferença significativa entre os lotes ao nível de significância de 0,25. Nesse caso ajustamos somente um modelo:

$$Y=\beta_0+\beta_1*t+\varepsilon$$

Sendo $ Y $ e $ t $ os vetores de valores da concentração e do tempo. Vamos denotar este cenário por "Modelo 1" para futuras referências.

  • Modelo 2

Quando temos evidências para rejeitar a hipótese $ H_{0a} $ e não podemos rejeitar $ H_{0b} $ temos um modelo em que somente o intercepto é diferente para cada lote. Nesse caso o modelo para o lote 1 seria dado por:

$$Y_{n_1} = \beta_0 + \beta_1*t_{n_1} + \varepsilon_{n_1}$$

sendo que $ Y_{n_1}, t_{n_1} $ e $ \varepsilon_{n_1} $ são as partições dos vetores $ Y $, $ t $ e $ \varepsilon $ referente ao lote 1. Da mesma forma, para as observações do lote 2, temos o modelo

$$Y_{n_2} = (\beta_0 +\beta_2) + \beta_1*t_{n_2} + \varepsilon_{n_2}$$

sendo que $ Y_{n_2}, t_{n_2} $ e $ \varepsilon_{n_2} $ são as partições dos vetores $ Y $, $ t $ e $ \varepsilon $ referente ao lote 2. De forma geral, temos o seguinte modelo para o lote $ i $ 

$$Y_{n_i} = (\beta_0 +\beta_i )+ \beta_1*t_{n_i} + \varepsilon_{n_i}$$

sendo que $ Y_{n_i}, t_{n_i} $ e $ \varepsilon_{n_i} $ são as partições dos vetores $ Y $, $ t $ e $ \varepsilon $ referente ao lote $ i $ e $ i=1,\cdots,K $.  Ou seja, apenas os interceptos do modelo para cada lote é diferente. Vamos denotar este cenário por "Modelo 2".

  • Modelo 3

Quando temos evidências para rejeitar ambas hipóteses $ H_{0a} $ e $ H_{0b} $, temos o cenário em que um modelo diferente para cada lote precisa ser estimado. Nesse caso, se tomarmos as observações do lote 1, temos o modelo

$$Y_{n_1}=\beta_0 + \left(\beta_1\right)*t_{n_1}+\varepsilon_{n_1}$$

sendo que $ Y_{n_1}, t_{n_1} $ e $ \varepsilon_{n_1} $ são as partições dos vetores $ Y $, $ t $ e $ \varepsilon $ referente ao lote 1. Da mesma forma, para as observações do lote 2, temos o modelo

$$Y_{n_2}=\left(\beta_0+\beta_2\right)+\left(\beta_1+\beta_{K+1}\right)*t_{n_2} +\varepsilon_{n_2}$$

sendo que $ Y_{n_2}, t_{n_2} $ e $ \varepsilon_{n_2} $ são as partições dos vetores $ Y $, $ t $ e $ \varepsilon $ referente ao lote 2. De forma geral, temos o seguinte modelo para o lote $ i $ 

$$Y_{n_i}=\left(\beta_0+\beta_i\right)+\left(\beta_1+\beta_{K+i-1}\right)t_{n_i}+\varepsilon_{n_i}$$

sendo que $ Y_{n_i}, t_{n_i} $ e $ \varepsilon_{n_i} $ são as partições dos vetores $ Y $, $ t $ e $ \varepsilon $ referente ao lote $ i $ e $ i=1,\cdots,K $. Vamos denotar este cenário por "Modelo 3".

 

No experimento em estudo, como rejeitamos a hipótese de igualdade dos interceptos $ H_{0a} $ e não rejeitamos a hipótese de paralelismo, temos o cenário do Modelo 2. Assim o nosso modelo ajustado.

$$Y_i = \beta_0 + \beta_1*Tempo_i+\beta_2*Lote2_i+\beta_3*Lote3_i+\epsilon_i$$

$$Y_i = 96,369-0,307*Tempo_i+1,502*Lote2_i +5,412*Lote3_i+\epsilon_i$$

tal que $ Y_i $ representa o nível de concentração (teor, em porcentagem) estimada para $ i=1,...,n $ e $ n=23 $ o total de dados amostrados.

Podemos separar o modelo por lotes da seguinte forma:

  • Lote 1:

$$Y_i = 96,369-0,307*Tempo_i+\epsilon_i$$
  • Lote 2:

$$Y_i = 96,369-0,307*Tempo_i+1,502+\epsilon_i$$

$$Y_i = 97,871-0,307*Tempo_i+\epsilon_i$$
  • Lote 3:

$$Y_i = 96,369-0,307*Tempo_i+5,421+\epsilon_i$$

$$Y_i = 101,79-0,307*Tempo_i+\epsilon_i$$

Temos abaixo o gráfico de dispersão dos dados observados:

Obtemos, após uma análise do modelo, a seguinte tabela ANOVA:

Fonte Soma de quadrados GL Quadrado Médio Estatística F
Regressão $ 347,786 $ $ 3 $ $ 58,705 $ $ 23,1852 $
Erro (Resíduo) $ 48,106 $ $ 19 $ $ 2,532 $  
Total $ 395,89 $ $ 22 $    

Tabela 6: Tabela Resultado da ANOVA

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]