Na RDC 166, o parâmetro "linearidade" é discutido entre os artigos 23 e 27. A resolução fixa que a linearidade de um método analítico deve ser demonstrada por meio da sua capacidade de obter respostas analíticas diretamente proporcionais à concentração de um analito em uma amostra. Além disso, uma relação linear deve ser avaliada em toda a faixa estabelecida para o procedimento analítico. Dentro da faixa estabelecida, o procedimento experimental deve ser conduzido via a seguinte estratégia:

  • Devemos utilizar, no mínimo, 5 (cinco) concentrações diferentes da SQR para as soluções preparadas em, no mínimo, triplicata;
  • As soluções utilizadas para avaliação da linearidade devem ser preparadas de maneira independente, podendo ser utilizadas soluções diluídas de uma mesma solução mãe da SQR;

Por preparo independente, entendemos que, para cada réplica, deve ser feita uma pesagem. Além disso, a resolução define que os cálculos realizados para a avaliação da linearidade devem ser realizados a partir dos dados de concentrações reais e respostas analíticas individuais. A partir dos dados obtidos via o experimento descrito, devem ser conduzidas algumas análises. Aqui, discutimos as análises e critérios apontados pela RDC 166. De maneira geral, podemos representar o estudo de linearidade de acordo com o seguinte fluxograma: 

Etapa 1: Nesta etapa realizamos o levantamento dos dados conforme procedimento descrito anteriormente. A modelagem dos dados da curva de calibração será realizada conforme princípio químico, em geral linear, 

$$Y_{ij} = \beta_0 + \beta_1 x_{ij} + \varepsilon_{ij}, \quad j=1, \cdots , n_i \quad \text{e} \quad i=1, \cdots k,$$

em que:

  • $  Y_{ij}  $ representa o sinal analítico;
  • $  x_{ij}  $ representa a concentração;
  • $  \beta_{0}  $ representa o coeficiente linear ou intercepto;
  • $  \beta_{1}  $ representa o coeficiente angular;
  • $  \varepsilon  $ representa o erro experimental;
  • $  n_i  $ representa o número de réplicas do ponto $  i  $ de concentração;
  • $  k  $ representa o número de pontos ou níveis.    

Neste ponto é interessante discutirmos o processo de amostragem. Em geral, os laboratórios preparam diversas soluções estoques, com pesagens independentes. A partir desta soluções, eles preparam as diluições apropriadas. Neste caso, as três ou mais diluições de cada ponto são o que os estatísticos denominam de "quase-réplicas" , pois foram preparadas (pesadas) de forma independentes. Como temos pesagens independentes, temos valores diferentes para cada diluição, mas as diluições foram obtidas da mesma solução estoque, o que nos leva ao fenômeno de quase-réplica.

Um ponto fudamental na nossa análise é o erro experimental $ \varepsilon $. Ele representa o ruído relacionado com os fenômenos que não temos total controle, como o processo de pesagem, interferência do analista, condições ambientais, vidraria, equipamento entre outros. Para realizarmos a análise estatística dos dados da curva de calibração, vamos assumir que os erros experimentais são independentes e com distribuição normal com média zero e variância constante $ \sigma^2 $.  Note que admitimos três hipóteses fundamentais para nossa análise estatística: Independência, Distribuição normal e Homocedasticidade. Obviamente que estas hipóteses devem ser checadas e tratadas de forma apropriada.

Etapa 2: Aqui, estamos interessados em estimar e avaliar a significância dos coeficientes da equação da reta de regressão linear simples de y (sinal analítico) em x (concentração). A resolução indica a estimação via o método dos mínimos quadrados. É importante ressaltarmos que as estimativas de mínimos quadrados são obtidas somente com as hipóteses de erros não correlacionados (que é mais fraca que independência) e homocedasticidade da variância dos erros. A hipótese de normalidade dos erros experimentais não é utilizada para obtermos as estimativas de mínimos quadrados. Através do método de mínimos quadrados, inicialmente proposto por Gauss em 1806, obtemos que

$$\hat{\beta}_1 = \frac{S_{xy}}{S_{xx}} \quad \text{e} \quad \hat{\beta}_0=\bar{y} - \hat{\beta}_1 \bar{x}$$

nos quais $ S_{xy} = \sum xy - n \bar{y} \bar{x} $$ S_{xx} = \sum x^2 - n (\bar{x})^2 $ e $ n $ o total de dados.

Uma vez estimados, avaliamos  a significância dos parâmetros via testes de hipóteses. Podemos avaliar a significância do coeficiente angular utilizando a tabela ANOVA.  Outra estratégia é realizarmos um teste t  para cada parâmetro. No cenário imposto para o estudo de linearidade, ambas as técnicas são equivalentes no que se diz respeito ao coeficiente angular. Através do modelo de regressão, também é possível  avaliar a associação linear entre as variáveis por meio do coeficientes de correlação (r) e de determinação (r²), que são medidas descritivas da qualidade do ajuste do modelo. Nesta etapa, os critérios definidos pela RDC são: 

  • O coeficiente angular deve ser significativo a um nível de significância de 5%;
  • O coeficiente linear (ou intercepto) não deve ser significativo a um nível de significância de 5%;
  • O coeficiente de correlação ($ r=\sqrt{r^2} $) deve estar acima de 0,990.

Um ponto crítico para a etapa 2 é a avaliação do coeficiente linear ou intercepto. Na rotina farmacêutica, as amostras são quantificadas através de um padrão único, conforme ilustrado na Figura "Problema de Gestão". 

Se a curva que representa a linearidade passa pelo zero (curva azul), podemos quantificar com padrão único na rotina, pois o segundo ponto para traçar a reta é representado pela origem $ (0,0) $. Em geral, a linearidade do método precisará ser reavaliada quando o valor do coeficiente linear for estatisticamente diferente de zero e tiver magnitude significativa para o sinal analítico na concentração de trabalho. Além disso, caso seja encontrado intercepto estatisticamente diferente de zero e com magnitude significativa frente às respostas analíticas, é recomendável que se utilize uma curva de calibração ao invés de um ponto único para padronização na rotina de análise.

Note que o fato do coeficiente linear (ou intercepto) ser significativamente diferente de zero tem como consequência uma curva de calibração que não passa pela origem. Por outro lado, ao utilizarmos padrão único na rotina, assumimos que a curva passa pela origem. Na rotina utilizamos a curva azul no gráfico "Problema de Gestão", enquanto que a curva correta seria uma das curvas vermelhas pontilhadas. Esta incoerência tem como consequência um erro de exatidão no método analítico. Na prática, podemos avaliar este erro de exatidão através da magnitude do intercepto perante o sinal analítico, conforme preconizado na guia da ANVISA. Também podemos realizar um estudo de exatidão em vários pontos de concentração para avaliarmos o impacto de quantificarmos com padrão único. 

Caso o impacto do coeficiente linear seja alto, o Guia da ANVISA sugere o uso da curva de calibração na rotina. Na nossa opinião, poderíamos substituir a origem $ (0,0) $ por qualquer outro ponto. A partir de dois pontos, derivamos a curva de calibração linear. Por exemplo, podemos utilizar os pontos de $ 90 \% $ e $ 110 \% $ para obtermos a curva de calibração. 

Etapa 3: Para os testes propostos na Etapa 2, supomos que os erros experimentais são independentes e seguem distribuição normal com média zero e variância constante. Nesta etapa, avaliaremos a suposição de que os erros experimentais seguem a distribuição normal. As demais suposições serão checadas nas etapas seguintes. Note que a suposição de normalidade  está relacionada aos erros experimentais. Infelizmente, na prática, não temos acesso a eles. O mais próximo que chegamos dos erros experimentais são os resíduos dados por

$$e_{ij} = Y_{ij} - \hat{\beta}_0 - \hat{\beta}_1 x_{ij}, \quad j=1, \cdots , n_i \quad \text{e} \quad i=1, \cdots k.$$

 Uma vez que os erros experimentais não podem ser observados, avaliamos as suposições feitas sobre eles utilizando os resíduos do modelo. A forma mais usual avaliarmos a normalidade dos resíduos é o gráfico "papel de probabilidade" ou o gráfico "QQPlot".  Os dois gráficos são similares no caso da distribuição normal. Nestes gráficos, comparamos os resíduos com a distribuição normal, quanto mais próximos os pontos estiverem da reta que representa a distribuição normal, melhor a aderência dos resíduos à distribuição normal. Na nossa opinião, a forma gráfica é a melhor maneira de avaliarmos a normalidade dos resíduos.  Conforme descrito na guia 10 da ANVISA, a análise gráfica basta para realizarmos a análise da normalidade dos resíduos.

Também podemos utilizar testes de hipóteses para checarmos a normalidade dos resíduos. Existem inúmeras estatísticas associadas à hipótese de normalidade. Por exemplo: Kolmogorov-Smirnov, Anderson-Darling, Shapiro-Wilk e Ryan-Joiner. Sabemos que os resíduos são dados por $ e = (I-H)Y $, no qual $ H $ é a matriz chapéu e $ Y $ o vetor com os sinais analíticos.  Como a matriz chapéu $ H=X(X^\prime X)^{-1} X^\prime $ é determinística obtemos que $ Var(e)=(I-H) \sigma^2 $. Desde que a matriz de projeção $ (I-H) $ não necessariamente é diagonal, temos que, em geral, os resíduos são correlacionados. Por outro lado, os testes usuais para normalidade de dados assumem a hipótese de independência, fato que não é válido para os resíduos.

Os testes de aderência à distribuição normal são utilizados para testar a hipótese nula de que os resíduos seguem uma distribuição normal versus a hipótese alternativa de que os resíduos não seguem a distribuição normal.  Em geral, os testes de normalidade não "funcionam bem" para amostras pequenas (abaixo de 30 observações) e para amostras grandes (acima de 1000 observações). Com amostras pequenas, em geral, os testes não rejeitam a hipótese de normalidade, mesmo que o gráfico de QQ Plot mostre descios com respeito a distribuição normal. Por outro lado, para amostras grandes (acima de 1000 observações)  os testes de normalidade, em geral, rejeitam a hipótese de normalidade dos dados, mesmo que o QQ Plot mostre uma boa aderência dos dados com respeito a distribuição normal.  

Etapa 4: Conforme mencionado na Etapa 3, supomos que os erros experimentais tenham variâncias iguais. Nesta etapa, estamos interessados em avaliar se essa suposição é razoável.  Esta avaliação pode ser feita de duas formas: análise visual e teste de hipótese. Na análise visual, utilizamos o gráfico de resíduos versus valores ajustados. Por outro lado, existem diversos testes para avaliar a homocedasticidade. No Action Stat, trabalhamos com os testes de Cochran, Brown-Forsythe, Breusch Pagan e Goldfeld Quandt

O teste de Cochran compara as variâncias de cada ponto da curva de calibração. Como, em geral, temos poucas réplicas de cada ponto para calcularmos as variâncias, não consideramos o teste de Cochran apropriado para avaliarmos a homocedasticidade no contexto da linearidade. Nós propomos o teste de Breuch-Pagan para avaliar a homocedasticidade em um estudo de linearidade. Neste teste, tomamos os resíduos ao quadrado

$$u_i=\frac{e_i^2}{SQE} n,$$

no qual $ SQE $ é a soma de quadrados do erro experimental. A partir dos resíduos ao quadrado, ajustamos o modelo de regressão linear entre $ u $ e os valores ajustados $ \widehat{Y} $. Se o modelo for homocedástico, então os resíduos ao quadrado $ (u) $ se comportam de forma "constante" ao longo da reta ajustada $ (\widehat{Y}) $. Neste caso o coeficiente angular deve ser igual a zero. A estatística de Breusch-Pagan $ \chi_{B P}^{2}=\frac{SQR}{2} $ tem distribuição assintótica qui-quadrado com 1 grau de liberdade, no qual $ SQR $ é a soma de quadrados da regressão. Por fim, a estatística usada no teste é a studentizada que é dada por $ \frac{\chi_{B P}^{2}}{\lambda} $, em que $ \lambda=\frac{\operatorname{Var}\left(\varepsilon^{2}\right)}{2 \operatorname{Var}(\varepsilon)^{2}} $.

O teste de Brown-Forsythe é um teste para a homocedasticidade que não utiliza a normalidade dos resíduos. Aqui, tomamos a variável $ z_{ij}= \mid e_{i,j} - me_i \mid $, nos quais $ j=1, \cdots ,n_i $$ me_i $ é a mediana dos resíduos do ponto de concentração $ i=1, \cdots k $.  A partir das observações $ z_{ij} $ realizamos o teste $ F $ da ANOVA para avaliar a homocedasticidade do modelo de regressão linear simples. Este teste é bem simples e pode ser aplicado com segurança no contexto de linearidade. 

Caso a suposição de homocedasticidade não seja válida, devemos incluir essa característica no modelo. Neste caso, o ajuste do modelo (contemplado na Etapa 2) deve ser realizado via os Estimadores de Mínimo Quadrados Ponderados. Depois do realizar o ajuste, podemos prosseguir com as análises. 

Caso a suposição de homocedasticidade seja válida, podemos prosseguir com as análises sem reajustar o modelo.

Etapa 5: Nesta etapa avaliaremos a presença de "outliers" ou "valores extremos" e de observações que causam grande impacto no modelo, denominadas por "pontos influentes".

Para avaliar se uma observação é um "outlier" (ou "valor extremo"), em geral, avaliamos algum critério relacionado com o resíduo da regressão associado a essa observação. Visando deixar todos os resíduos na mesma escala, utilizamos em seu lugar alguma padronização. As padronizações mais utilizadas são os "resíduos padronizados" e os "resíduos studentizados". Em geral, comparamos essas padronizaações com os quantis da distribuição normal padrão. Por exemplo, podemos considerar que uma observação é um "outlier" se  o resíduo padronizado, relacionado a essa observação, for menor que -3 ou maior que 3, o que corresponde a um intervalo com $ 99,73\% $ da distribuição normal padrão. 

Por outro lado, avaliamos se uma observação é um ponto de alavanca analisando alguma medida relacionada com a covariável x. Em geral, nos atentamos à diagonal da matriz chapéu (matriz hat; hat matrix; H). Os elementos da diagonal da matiz são demoninamos "leverage" de modo que o i-ésimo elemento está associado à "influência" da i-ésima observação do estudo. Nesta análise, utilizamos as seguintes medidas:

  • DFFITS: mede a influência que a observação i tem sobre seu próprio valor ajustado;
  • DFBETA:mede a influência da observação i sobre o coeficiente de Xj;
  • Distância de Cook: a distância de Cook combina as medidas DFFITS e DFBETA.

Novamente, associamos essas estatísticas com pontos de corte para arbitrar se uma observação é ou não um ponto influente.     

Etapa 6: Aqui estamos interessados em avaliar a última suposição sob os erros experimentais: independência. Utilizamos métodos gráficos e testes de hipóteses. Um gráfico apropriado para essa análise é o de "resíduos padronizados" por "ordem de coleta". Caso os pontos não apresentem nenhum padrão (por exemplo um formato de cone), temos indícios de que a suposição é satisfeita. Caso apresente, devemos investigar a(s) causa(s) desse fenômeno. Também podemos utilizar o teste de Durbin-Watson, no qual H0 é a hipótese de que as observações são independentes. 

 

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]