Conforme descrito na RDC 166, o efeito matriz deve ser determinado por meio da comparação entre as curvas de calibração construídas com a SQR do analito em solvente e com a amostra fortificada com a SQR do analito. As curvas devem ser estabelecidas para os mesmo níveis de concentração, utilizando no mínimo 5 concentrações diferentes e em triplicata. O Efeito Matriz segundo guia do MAPA é um estudo de seletividade que objetiva averiguar possíveis interferências causadas pelas substâncias que compõem a matriz amostral gerando, basicamente, fenômenos de diminuição ou ampliação do sinal instrumental ou resposta instrumental. O critério adotado é a avaliação do paralelismo entre as curvas relativas ao analito em solvente e a amostra foriticada com o analito.

Nesta seção, vamos usar o conceito de variável dummy para avaliar o efeito da matriz na metodologia analítica. Variável dummy representa estados ou níveis de fatores, ou seja, representa algo que não possui valores numéricos ou, caso possua, estes valores não têm realmente um significado numérico (como número de lote). A variável dummy relacionada ao efeito matriz pode ser escrita da seguinte maneira,

$$\text{Efeito Matriz}=\left\{\begin{array}{l}0,\quad \text{analito em solvente}\\1,\quad \text{amostra fortificada}\end{array}\right.$$

  A partir da variável dummy, o modelo de regressão linear completo é dado por:

$$Y_{i}=\beta_0+\beta_1~X_{i1}+\beta_2~X_{i2}+\beta_3~X_{i1}\ast X_{i2}+\varepsilon_{i},\quad i=1,\dots,n \quad (1)$$

em que

  •  $ é a variável resposta (Sinal Analítico), que se relaciona com $ p=3 $ variáveis explicativas;
  •  $ é o intercepto do modelo;
  •  $ é o coeficiente de regressão correspondente a variável explicativa Concentração;
  •  $ é a variável explicativa Concentração;
  •  $ é o coeficiente de regressão correspondente a diferença no intercepto;
  •  $ é a variável dummy (Efeito Matriz);
  •  $ é o coeficiente de regressão correspondente a diferença no coeficiente angular (paralelismo);
  •  $ representa o erro experimental.
     

Para entender os testes de comparação de curvas descrito a seguir, observe que:

$$\mathbb{E}[Y_{i}| X_{i1};X_{i2}=1]=(\widehat{\beta}_0+\widehat{\beta}_2)+(\widehat{\beta}_1+\widehat{\beta}_3)~X_{i1}\quad (2)\quad \text{e}$$

$$\mathbb{E}[Y_{i}|X_{i1};X_{i2}=0]=\widehat{\beta}_0+\widehat{\beta}_1~X_{i1}\quad (3)$$

ou seja, para $ X_{i2}=0 $ temos que 

$$Y_i=\beta_0+\beta_1~X_{i1}+\varepsilon_i\quad i=1,\dots,n$$

para $ X_{i2}=1 $

$$Y_i=(\beta_0+\beta_2)+(\beta_1+\beta_3)~X_{i1}+\varepsilon_i\quad i=1,\dots,n$$

Então, das equações (2) e (3) temos que a diferença entre as curvas pode ser estimada por:

$$\mathbb{E}[Y_{i}|X_{i1};X_{i2}=1]-\mathbb{E}[Y_{i}|X_{i1};X_{i2}=0]=\widehat{\beta}_0+\widehat{\beta}_2+\widehat{\beta}_1~X_{i1}+\widehat{\beta}_3~X_{i1}-(\widehat{\beta}_0-\widehat{\beta}_1~X_{i1})=\widehat{\beta}_2+\widehat{\beta}_3~X_{i1}\quad (4)$$

Notamos que a curva da diferença entre os sinais analíticos das concentrações quando estamos na situação "Analito em solvente" e "amostra foritificada" é representada pela equação (4). Com isso, para testarmos a igualdade do intercepto, testamos a  hipótese nula  \beta_2=0. $ Já no paralelismo é feito pelo teste  \beta_3=0. $ Se os dois coeficientes forem nulos, temos o teste de coincidência. 

Modelagem Matricial

Para a construção dos testes de Paralelismo, Igualdade de Intercepto e  Coincidência precisamos utilizar o teste F parcial. Para isso, considere o modelo de regressão linear escrito na forma matricial:

$$Y = X\beta + \varepsilon~~~~~~~~(5)$$

em que

$$Y=\left[\begin{array}{c}Y_{1}\\Y_{2}\\\vdots\\Y_{n}\\\end{array}\right];~~~~ X=\left[\begin{array}{cccc}1~~X_{11}~~X_{12} ~~X_{11}\ast X_{12} \\1~~X_{21} ~~X_{22}~~X_{21}\ast X_{22}\\\vdots\\1~~X_{n1}~~X_{n2}~~X_{n1}\ast X_{n2} \end{array}\right]=\left[\begin{array}{cccc}X_0~~X_1~~X_2~~X_3\end{array}\right];~~~~\beta=\left[\begin{array}{c}\beta_0\\\beta_1\\\beta_2\\\beta_3\end{array}\right]~~~~e~~~~\varepsilon=\left[\begin{array}{c}\varepsilon_{1}\\\varepsilon_{2}\\\vdots\\\varepsilon_{n}\\\end{array}\right]$$

observe que $ X_0, X_1, X_2 $ e $ X_3 $ são vetores referente a cada coluna da matriz $ X $. Desta forma, podemos reescrever o modelo matricial de forma particionada:

$$Y=X_0\beta_0 + X_1\beta_1 + X_2\beta_2 + X_3\beta_3 + \varepsilon .$$

Neste modelo, os estimadores de mínimos quadrado são dados por

$$\hat{\beta} = (X^\prime X)^{-1} X^\prime Y.$$

A soma de quadrados total (SQT) para o modelo matricial (5), é dada por

$$SQT=\dispalystyle\sum\limits_{i=1}^n(Y_i-\overline{Y})^2=Y^\prime Y-\dfrac{Y^\prime J Y}{n}=Y^\prime\left(I-\dfrac{J}{n}\right)Y,$$

em que 

$$J =\left[\begin{array}{cccc}1~~1~~ \ldots~~1\\1~~1~~\ldots~~1\\\vdots~~\vdots~~\ddots~~\vdots\\1~~1~~\ldots~~1\\\end{array}\right]_{n \times n}.$$

Além disso, de "Propriedades dos Estimadores" temos que a soma de quadrados dos erros (dos resíduos) é dada por 

$$SQE=Y^\prime Y-\widehat{\beta}\prime X^\prime Y=Y^\prime (I-X (X^\prime X )^{-1}X^\prime )Y=Y^\prime(I-H)Y.$$

A matriz $ I $ é a matriz identidade com dimensão n x n e a matriz $ H=X [X^\prime X]^{-1}X^\prime $ é chamada matriz chapéu que transforma o vetor de respostas Y no vetor de valores ajustados $ \widehat{Y} $.

Desta forma, obtemos que a soma de quadrados da regressão é dada por 

$$SQR=SQT-SQE=\left(Y^\prime Y-\dfrac{Y^\prime JY}{n}\right)-(Y^\prime Y-\widehat{\beta}^\prime X^\prime Y)=\widehat{\beta}^\prime X^\prime Y-\dfrac{Y^\prime JY}{n}.$$

e o quadrado médio do erro $ (QME) $ é calculado por

$$QME = \dfrac{SQE}{n-3-1}$$

.

Utilizando essas definições, podemos definir os testes para comparação das curvas. 

Teste de Igualdade do Intercepto

No teste de igualdade de intercepto, as hipóteses de interesse são:

~\beta_2\neq 0\end{array}\right.$$

Denominamos por modelo reduzido o modelo supondo que $ H_0 $ é verdadeiro. Utilizando a notação matricial particionada temos que o modelo reduzido é

$$Y=X_0\beta_0+X_1\beta_1+X_3\beta_3$$

Então, a matriz $ X $ para o modelo reduzido, denominada por $ X_R $ e o vetor de parâmetros $ \beta_R $ são dados por

$$X_R=\left[X_0~~X_1~~X_3\right]=\left[\begin{array}{ccc}1~~X_{11}~~X_{11}\ast X_{12}\\1~~X_{21}~~X_{21}\ast X_{22}\\\vdots\\1~~X_{n1}~~X_{n1}\ast X_{n2}\end{array}\right]~~~~~~~e~~~~~~~\beta_R = \left[\begin{array}{c}\beta_0\\\beta_1\\\beta_3\end{array}\right]$$

Assim, podemos calcular o $ SQR $ do modelo reduzido por

$$SQR(\beta_R)=\hat{\beta_R}^{\prime}X^{\prime}_R Y-\dfrac{Y^{\prime}JY}{n}$$

Então, a soma de quadrados de regressão de $ \beta $ dado que $ \beta_R $ ja esta no modelo é calculado por

$$SQR(\beta|\beta_R)=SQR(\beta)-SQR(\beta_R) = \hat{\beta}^{\prime}X^{\prime}Y-\dfrac{Y^{\prime}JY}{n}-(\hat{\beta}_R^{\prime}X^{\prime}_R Y-\dfrac{Y^{\prime}JY}{n}) = \hat{\beta}^{\prime}X^{\prime}Y-\hat{\beta}_R^{\prime}X^{\prime}_R Y$$

Com $ (4-(4-1))=1 $ grau de liberdade. Essa soma de quadrados da regressão parcial representa a quantidade adicional que teríamos na soma de quadrados da regressão ao adicionar 1 covariavel no modelo reduzido.

Então, podemos testar a hipótese nula  \beta_2=0 $ utilizando a estatística:

$$F_0 = \dfrac{SQR(\beta|\beta_R)/1}{QME} \sim F_{1,(n-4)}$$

Portanto, se $ F_0\textgreater F_{\alpha, 1,(n-4)} $ rejeitamos a hipótese nula, ou seja, concluímos que $ \beta_2 \not= 0 $, no qual $ \alpha $ é o nível de significância proposto. Na RDC 166 utilizamos $ \alpha=0,05 $.

 

 

O P-valor no teste do intercepto é dado por $ \mathbb{P}[F_{1,n-4} \textgreater F_0] $. Como sempre, rejeitamos $ H_0 $ se o P-valor for menor que o nível de significância proposto. Na RDC 166 utilizamos $ \alpha=0,05 $.

 

 

Teste do Paralelismo

Conforme descrito na RDC 166, o teste de paralelismo avalia o impacto da matriz na metodologia analítica. Caso as retas sejam paralelas, dizemos que o impacto é nulo e neste caso, podemos desenvolver o método em solvente. Para testarmos o paralelismo entre as retas, testamos as seguintes hipóteses: 

~\beta_3\neq 0\end{array}\right.$$

Nesse caso, o modelo reduzido supondo que $ H_0 $ é verdadeiro é dado por

$$Y=X_0\beta_0+X_1\beta1+X_2\beta_2$$

Então, a matriz regressão $ X $ para o modelo reduzido será denotada por $ X_R $ e o vetor de parâmetros será denotado $ \beta_R $ tal que

$$X_R=\left[X_0~~X_1~~X_2\right]=\left[\begin{array}{ccc}1~~X_{11}~~ X_{12}\\1~~X_{21}~~ X_{22}\\\vdots\\1~~X_{n1}~~X{n2}\end{array}\right]~~~~~~~e~~~~~~~\beta_R = \left[\begin{array}{c}\beta_0\\\beta_1\\\beta_2\end{array}\right]$$

Assim, podemos calcular o $ SQR $ do modelo reduzido por

$$SQR(\beta_R)=\hat{\beta}_R^{\prime}X^{\prime}_R Y-\dfrac{Y^{\prime}JY}{n}$$

Então, a soma de quadrados de regressão de $ \beta $ dado que $ \beta_R $ ja esta no modelo é calculado por

$$SQR(\beta|\beta_R)=SQR(\beta)-SQR(\beta_R) = \hat{\beta}^{\prime}X^{\prime}Y-\dfrac{Y^{\prime}JY}{n}-(\hat{\beta}_R^{\prime}X^{\prime}_R Y-\dfrac{Y^{\prime}JY}{n}) = \hat{\beta}^{\prime}X^{\prime}Y-\hat{\beta}_R^{\prime}X^{\prime}_R Y$$

Com $ (4-(4-1))=1 $ grau de liberdade. Essa soma de quadrados da regressão parcial representa a quantidade adicional que teríamos na soma de quadrados da regressão ao adicionar 1 covariavel no modelo reduzido.

Assim, podemos testar a hipótese nula  \beta_3=0 $ utilizando a estatística:

$$F_0 = \dfrac{SQR(\beta|\beta_R)/1}{QME} \sim F_{1,(n-4)}$$

Portanto, se $ F_0\textgreater F_{\alpha, 1,(n-4)} $ rejeitamos a hipótese nula, ou seja, concluímos que $ \beta_3 \not= 0 $, no qual $ \alpha $ é o nível de significância proposto. Na RDC 166 utilizamos $ \alpha=0,05 $.

 

 

O P-valor no teste de paralelismo é dado por $ \mathbb{P}[F_{1,n-4} \textgreater F_0] $. Como sempre, rejeitamos $ H_0 $ se o P-valor for menor que o nível de significância proposto. Na RDC 166 utilizamos $ \alpha=0,05 $

 

Teste descrito na RDC 166

A seguir, vamos mostrar que o teste descrito na RDC 166 é equivalente ao teste F-parcial descrito acima. Na RDC 166, tomamos as duas retas de forma independente. Para isto, consideramos os modelos de regressão linear simples,

$$\begin{array}{l} Y^{1}_i=\beta^{1}_{0*}+\beta_{1*}X_{1i}+\varepsilon_{i}, \quad i=1, \cdots , n_1\\ \\ Y^{2}_j=\beta^{2}_{0*}+\beta_{2*}X_{2j}+\eta_j , \quad j=1, \cdots n_2 \end{array} ~~~~~(1.1),$$

nos quais $ \varepsilon_{i} $ e $ \eta_j $ são variáveis aleatórias independentes com distribuição normal com média zero e variância $ \sigma^2 $.  O Teste de Paralelismo é equivalente a

~\beta_{1*}\neq \beta_{2*}\end{array}\right.$$

A RDC 166 propõe a estatística do teste 

$$T_0 = \frac{\hat{\beta}_{1*} - \hat{\beta}_{2*}}{s(\hat{\beta}_{1*},\hat{\beta}_{2*})},$$

no quais $ \hat{\beta}_{1*} $ é  a estimativa de mínimos quadrados de $ \beta_{1*} $ utilizando as $ n_1 $ observações da curva referente ao "analito em solvente",  $ \hat{\beta}_{2*} $ é  a estimativa de mínimos quadrados de $ \beta_{2*} $ utilizando as $ n_2 $ observações da curva referente a "amostra fortificada" com o analito.  Como a variância do erro experimental $ \varepsilon_{i} $ e a variância do erro experimental $ \eta_j $ são iguais $ (\sigma^2) $, uma estimativa para o desvio padrão da diferença $ \hat{\beta}_{1*} - \hat{\beta}_{2*} $ é dado por 

$$s(\hat{\beta}_{1*},\hat{\beta}_{2*}) =\sqrt{ s^2_p \left[\frac{1}{(n_1-1)s^2_{X_1}} + \frac{1}{(n_2-1)s^2_{X_2}}\right]},$$

nos quais $ s^2_{X_1} $ é a variância amostral de $ X_1 $$ s^2_{X_2} $ é a variância amostral de $ X_2 $. Neste caso, a variância agrupada $ s^2_p $ é dada por

$$s^2_p = \frac{(n_1 - 2) QME^{1} + (n_2 -2) QME^{2}}{n_1 + n_2 -4},$$

nos quais $ QME^{1} $ representa o quadrado médio do resíduo para o primeiro grupo e $ QME^2 $ representa o quadrado médio do resíduo para o segundo grupo. 

Como apresentado no módulo de comparação de médias, sob $ H_0 $, a estatística $ T_0 $ tem distribuição t-Student com $ n_1 + n_2 -4 $ graus de liberdade. Assim, podemos utilizar um teste t-Student de comparação de médias para avaliar o paralelismo estre as duas retas.  Por definição, sabemos que o quadrado de uma distribuição t-Student com $ \nu $ graus de liberdade é igual a uma distribuição F com $ 1 $ grau de liberdade no numerador e $ \nu $ graus de liberdade no denominador. A partir desta equivalência, concluímos que o teste F-parcial e o teste proposto na RDC 166 são equivalentes.

 

Teste de Coincidência

Para testarmos a coincidência entre as retas (teste de igualdade), testamos as seguintes hipóteses:

~\text{Pelo menos um é diferente de zero}\end{array}\right.$$

Nesse caso, sob $ H_0 $ o modelo reduzido é dado por $ Y=\beta_0X_0+\beta_1X_1 $. A matriz de regressão  $ X $ para o modelo reduzido será denotada por $ X_R $ e o vetor de parâmetros será denotado $ \beta_R $ nos quais

$$X_R=\left[X_0~~X_1\right]=\left[\begin{array}{ccc}1~~X_{11}\\1~~X_{21}\\\vdots\\1~~X_{n1}\end{array}\right]~~~~~~~e~~~~~~~\beta_R = \left[\begin{array}{c}\beta_0\\\beta_1\end{array}\right]$$

Assim, podemos calcular o $ SQR $ do modelo reduzido por

$$SQR(\beta_R)=\hat{\beta}_R^{\prime}X^{\prime}_R Y-\dfrac{Y^{\prime}JY}{n}$$

Então, a soma de quadrados de regressão de $ \beta $ dado que $ \beta_R $ ja esta no modelo é calculado por

$$SQR(\beta|\beta_R)=SQR(\beta)-SQR(\beta_R) = \hat{\beta}^{\prime}X^{\prime}Y-\dfrac{Y^{\prime}JY}{n}-(\hat{\beta}_R^{\prime}X^{\prime}_R Y-\dfrac{Y^{\prime}JY}{n}) = \hat{\beta}^{\prime}X^{\prime}Y-\hat{\beta}_R^{\prime}X^{\prime}_R Y$$

Com $ (4-(4-2))=2 $ graus de liberdade. Essa soma de quadrados da regressão parcial representa a quantidade adicional que teríamos na soma de quadrados da regressão ao adicionar 2 covariaveis no modelo reduzido.

Então, podemos testar a hipótese nula  \beta_2=\beta_3=0 $ utilizamos a estatística:

$$F_0 =\dfrac{SQR(\beta|\beta_R)/2}{QME} \sim F_{2,(n-4)}$$

Portanto, se $ F_0\textgreater F_{\alpha, 2,(n-4)} $ rejeitamos a hipótese nula, ou seja, concluímos que pelos menos um dos $ \beta_i\not= 0 $, i=2,3.

Os métodos das equações (1) e (1.1) são equivalentes, conforme cálculos descritos nesta seção e da referência Guedes et al [6].  Logo, basta aplicarmos o modelo (1) para testarmos a igualdade do intercepto, paralelismo e coincidência.  

 

 

O P-valor no teste de coincidência é dado por $ \mathbb{P}[F_{2,n-4} \textgreater F_0] $. Como sempre, rejeitamos $ H_0 $ se o P-valor for menor que o nível de significância proposto. Na RDC 166 utilizamos $ \alpha=0,05 $.

 

 

Exemplo 1.3.1:

A seguir, apresentamos os dados coletados. 

 

Concentração Efeito Matriz Área Concentração Efeito Matriz Área Concentração Efeito Matriz Área
0,794 com 723322846 0,893 sem 812652587 1,091 com 994255845
0,794 com 722919388 0,893 sem 812405048 1,091 com 995371432
0,794 com 723367802 0,893 sem 812521869 1,091 com 994974613
0,794 com 724423578 0,893 sem 810445552 1,091 sem 988750606
0,794 com 725106579 0,893 sem 810903886 1,091 sem 988060333
0,794 com 725529198 0,893 sem 810248148 1,091 sem 987646169
0,794 com 724492966 0,992 com 904384882 1,091 sem 986719093
0,794 com 724995777 0,992 com 905029511 1,091 sem 986946993
0,794 com 726126408 0,992 com 904400039 1,091 sem 986765362
0,794 sem 724264113 0,992 com 904385633 1,091 sem 991334587
0,794 sem 723751677 0,992 com 904385383 1,091 sem 992428032
0,794 sem 724153514 0,992 com 904452718 1,091 sem 991727882
0,794 sem 729347610 0,992 com 904606337 1,191 com 1071863624
0,794 sem 727573286 0,992 com 904474647 1,191 com 1072193435
0,794 sem 727410902 0,992 com 904903159 1,191 com 1072139365
0,794 sem 729886571 0,992 sem 905105673 1,191 com 1075962819
0,794 sem 729329230 0,992 sem 905674191 1,191 com 1077239618
0,794 sem 729014932 0,992 sem 925365367 1,191 com 1076029296
0,893 com 811138292 0,992 sem 925365367 1,191 com 1076435622
0,893 com 811717343 0,992 sem 911960028 1,191 com 1076578829
0,893 com 811610358 0,992 sem 905178438 1,191 com 1078667741
0,893 com 813683993 0,992 sem 903128849 1,191 sem 1077889788
0,893 com 814581003 0,992 sem 904650286 1,191 sem 1075566151
0,893 com 814323181 0,992 sem 904717291 1,191 sem 1075419943
0,893 com 812070622 1,091 com 992132794 1,191 sem 1070722561
0,893 com 813221641 1,091 com 992179006 1,191 sem 1070222746
0,893 com 812033531 1,091 com 991671498 1,191 sem 1071099130
0,893 sem 814958107 1,091 com 989291660 1,191 sem 1111016773
0,893 sem 815478417 1,091 com 988669038 1,191 sem 1059808866
0,893 sem 815697960 1,091 com 988813205 1,191 sem 1059211239

clique aqui para efetuar o download dos dados utilizados nesse exemplo

Testamos o efeito matriz através do software Action Stat  e obtemos os seguintes resultados:

1. A ferramenta no menu do Action Stat Pharma -> Validação de Métodos -> Comparação de Curvas

2. O próximo passo é selecionar os dados de entrada e clicar no botão "Ler"

3. Selecionamos as colunas do conjunto de dados referente à Variável Resposta, Variável Explicativa e Método (Efeito Matriz).

4. Em "Opções" selecionamos os testes que desejamos e a visualização das curvas através do diagrama de dispersão.

5. Selecionamos "Nova Planilha" para mostrar os resultados e clicamos em "Ok".

A seguir, mostramos alguns dos resultados do Action Stat:

Portanto, observamos que em todos dos testes de comparação de curvas possuem P-Valor maior que 0,05. Então, não detectamos diferença significativa entre as curvas referentes ao "analito em solvente" e a "amostra fortificada"  ao nível de significância de 5%. Portanto, as retas são coincidentes. 

 Para entender como executar essa função do Software Action Stat, você pode consultar o manual do usuário.

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]