4 - Sistema de Medição por Atributo

Você está aqui

Definições

Um sistema de medição por atributo (exemplo: calibrador tampão), classifica a peça em defeituosa ou não. Um dos principais  objetivos da análise de sistemas de medição por atributo está na compreensão e prevenção dos erros de classificação. Para isto, propomos os seguintes passos para analisar um sistema de medição por atributo:

  1. Analisar criticamente o relatório de calibração do dispositivo de medição;
  2. Preparar uma norma interna de uso, manuseio e interpretação do dispositivo de medição. Treinar todos os usuários;
  3. Realizar a coleta de dados para análise do sistema de medição;
  4. Calcular o grau de concordância em relação ao(s); 
    •  Sistema referência: avaliar o projeto e a aplicabilidade do dispositivo;
    •  Operadores: avaliar a consistência do dispositivo e o treinamento no uso e manuseio;
  5. Taxa de erro: probabilidade do operador aprovar uma peça que não atende as especificações;
  6. Taxa de falso alarme: probabilidade do operador reprovar uma peça que atende as especificações;
  7. Método de Detecção de Sinais: calcular as regiões com maior probabilidade de falha do sistema de medição por atributo. Estimar a variabilidade do sistema de medição.

 

Coleta de dados

 

A coleta de dados e a análise do sistema de medição por atributo é conduzida conforme os passo descritos a seguir:

Passo 1: Selecionar um número suficiente de peças dentre as quais tenhamos peças defeituosas e não defeituosas. Qual a quantidade de peças que devemos utilizar para realizar o estudo de sistema de medição por atributo? Para desespero dos usuários a resposta é o "suficiente". O propósito de se estudar um sistema de medição (atributo ou variável) está em conhecer suas propriedades. Um número suficiente de amostras deve ser selecionado para cobrir uma amplitude esperada de operação. No caso de sistema por atributo, a região de interesse são as áreas cinza. Se a capacidade do processo é boa, então uma amostra pequena pode não conter muitas peças na área cinza. Isto significa que um processo com boa capacidade requer uma amostra maior.

No exemplo citado na quarta edição, para um Pp=Ppk=0,5 (no qual esperamos 13% de peças não conformes), foi selecionado 50 peças para realizar o estudo do sistema de medição por atributo.

Um alternativa para evitarmos amostras grandes, consiste em escolher as peças diretamente na área cinza para assegurar que o efeito da variabilidade do avaliador será visualizado.

Considere um sistema de medição por atributo que compara cada peça com os limites de especificação, o sistema aceita a peça se a mesma está entre as especificações e rejeita caso contrário (conhecido como sistema passa não passa). Como qualquer sistema de medição, existe uma área cinza em torno dos limites de especificação no qual o sistema de medição comete erros de classificação.

Desde que não conhecemos, a priori, a área cinza, devemos realizar estudos do sistema de medição. Entretanto, para determinarmos as áreas de risco em torno dos limites de especificação, precisamos escolher aproximadamente 25% da peças "próximas" ao limite inferior e 25% da peças "próximas" ao limite superior. Nos casos em que é difícil fazer tais peças, a equipe pode decidir utilizar uma porcentagem menor, apesar de reconhecer que esta atitude pode aumentar a variabilidade dos resultados. Se não for possível fazer peças próximas aos limites de especificação a equipe deveria reconsiderar o uso de um sistema de medição por atributos para este processo. Para cada característica, as peças devem ser medidas por um sistema de medição por variáveis com variabilidade aceitável. Quando uma característica não pode ser medida por um sistema de medição por variáveis (exemplo, visual), utilizamos outros meios, como a classificação por especialistas. 

Passo 2: Selecionar os operadores, no mínimo 2. A sugestão da quarta edição é que devemos escolher três operadores.

Passo 3: Cada operador deve medir no mínimo três vezes cada peça.

Passo 4: Para cada dupla de operadores, apresentar os dados da seguinte maneira.

  OP-B OP-B  
OP-A 1 - C 2 - NC Total
1 - C $ o_{11} $ $ o_{12} $  $ o_{1} $ 
2 - NC $ o_{21} $  $ o_{22} $  $ q_{1} $ 
Total $ o_{2} $  $ q_2 $ $ n $

Aqui, utilizamos a seguinte notação:
1 : peça classificada como aprovada;
2 : peça classificada como reprovada;

  • o11: número de classificações aprovadas para o avaliador A e aprovadas para o avaliador B;
  • o12: número de classificações aprovadas para o avaliador A e reprovadas para o avaliador B;
  • o21: número de classificações reprovadas para o avaliador A e aprovadas para o avaliador B;
  • o22: número de classificações reprovadas para o avaliador A e reprovadas para o avaliador B;
  • o1=o11+o12: total de aprovações do avaliador A;
  • q1=o21+o22: total de reprovações do avaliador A;
  • o2=o11+o21: total de aprovações do avaliador B;
  • q2=o12+o22: total de reprovações do avaliador B;
  • n : total de medições por avaliador =o1+q1=o2+q2

Passo 5: Calcular as proporções observadas

  OP-B OP-B  
OP-A 1 - C 2 - NC Total
1 - C $ P_{11}=\cfrac{o_{11}}{n} $ $ P_{12}=\cfrac{o_{12}}{n} $   $ PA_1=\cfrac{o_1}{n} $
2 - NC $ P_{21}=\cfrac{o_{11}}{n} $   $ P_{22}=\cfrac{o_{22}}{n} $ $ PA_2=\cfrac{q_1}{n} $ 
Total $ PB_1=\cfrac{o_2}{n} $  $ PB_2=\cfrac{q_2}{n} $    1

Passo 6: Calcular as proporções esperadas

  OP-B OP-B
OP-A 1 - C 2 - NC
1 - C $ E_{11}= PA_1* PB_1 $

$ E_{12}= PA_1* PB_2 $

2 - NC

$ E_{21}= PA_2* PB_1 $

$ E_{22}= PA_2* PB_2 $

Passo 7: Calcular o coeficiente Kappa


$$\mbox{Kappa}=\cfrac{(P_{11}+P_{22})-(E_{11}+E_{22})}{1-(E_{11}+E_{22})}$$

Passo 8: Critério: o coeficiente Kappa deve ser superior a 0,75. Se o Kappa for inferior a 0,75 dizemos que não existe uma boa concordância entre os avaliadores.

 

Exemplo 4.1.1

Considere um sistema de medição, no qual foram selecionadas 50 peças, 3 avaliadores com três medições por peça (cada avaliador). Os dados estão apresentados na Tabela abaixo. Aqui consideramos 0 Não Conforme e 1 Conforme. Para esta característica temos como limite inferior de engenharia 0,45 (LIE) e como limite superior de engenharia 0,55 (LSE).

Tabela 4.1.1: MSA Atributos

Peça

Operador 1

Operador 2

Operador 3 Padrão

Valor

Referência

1 1 1 1 1 0,476901
1 1 1 1 1 0,476901
1 1 1 1 1 0,476901
2 1 1 1 1 0,509015
2 1 1 1 1 0,509015
2 1 1 1 1 0,509015
3 0 0 0 0 0,576459
3 0 0 0 0 0,576459
3 0 0 0 0 0,576459
4 0 0 0 0 0,566152
4 0 0 0 0 0,566152
4 0 0 0 0 0,566152
5 0 0 0 0 0,57036
5 0 0 0 0 0,57036
5 0 0 0 0 0,57036
6 1 1 1 1 0,544951
6 1 1 0 1 0,544951
6 0 0 0 1 0,544951
7 1 1 1 1 0,465454
7 1 1 0 1 0,465454
7 1 1 1 1 0,465454
8 1 1 1 1 0,502295
8 1 1 1 1 0,502295
8 1 1 1 1 0,502295
9 0 0 0 0 0,437817
9 0 0 0 0 0,437817
9 0 0 0 0 0,437817
10 1 1 1 1 0,515573
10 1 1 1 1 0,515573
10 1 1 1 1 0,515573
11 1 1 1 1 0,488905
11 1 1 1 1 0,488905
11 1 1 1 1 0,488905
12 0 0 0 0 0,559918
12 0 0 1 0 0,559918
12 0 0 0 0 0,559918
13 1 1 1 1 0,542704
13 1 1 1 1 0,542704
13 1 1 1 1 0,542704
14 1 1 1 1 0,454518
14 1 1 0 1 0,454518
14 0 1 0 1 0,454518
15 1 1 1 1 0,517377
15 1 1 1 1 0,517377
15 1 1 1 1 0,517377
16 1 1 1 1 0,531939
16 1 1 1 1 0,531939
16 1 1 1 1 0,531939
17 1 1 1 1 0,519694
17 1 1 1 1 0,519694
17 1 1 1 1 0,519694
18 1 1 1 1 0,484167
18 1 1 1 1 0,484167
18 1 1 1 1 0,484167
19 1 1 1 1 0,520496
19 1 1 1 1 0,520496
19 1 1 1 1 0,520496
20 1 1 1 1 0,477236
20 1 1 1 1 0,477236
20 1 1 1 1 0,477236
21 1 1 0 1 0,45231
21 1 0 1 1 0,45231
21 0 1 0 1 0,45231
22 0 0 1 0 0,545604
22 0 1 1 0 0,545604
22 1 0 0 0 0,545604
23 1 1 1 1 0,529065
23 1 1 1 1 0,529065
23 1 1 1 1 0,529065
24 1 1 1 1 0,514192
24 1 1 1 1 0,514192
24 1 1 1 1 0,514192
25 0 0 0 0 0,599581
25 0 0 0 0 0,599581
25 0 0 0 0 0,599581
26 0 0 0 0 0,547204
26 1 0 0 0 0,547204
26 0 0 1 0 0,547204
27 1 1 1 1 0,502436
27 1 1 1 1 0,502436
27 1 1 1 1 0,502436
28 1 1 1 1 0,521642
28 1 1 1 1 0,521642
28 1 1 1 1 0,521642
29 1 1 1 1 0,523754
29 1 1 1 1 0,523754
29 1 1 1 1 0,523754
30 0 0 0 0 0,561457
30 0 0 0 0 0,561457
30 0 1 0 0 0,561457
31 1 1 1 1 0,503091
31 1 1 1 1 0,503091
31 1 1 1 1 0,503091
32 1 1 1 1 0,50585
32 1 1 1 1 0,50585
32 1 1 1 1 0,50585
33 1 1 1 1 0,487613
33 1 1 1 1 0,487613
33 1 1 1 1 0,487613
34 0 0 0 0 0,449696
34 0 0 1 0 0,449696
34 1 1 1 0 0,449696
35 1 1 1 1 0,498698
35 1 1 1 1 0,498698
35 1 1 1 1 0,498698
36 1 1 1 1 0,543077
36 1 1 0 1 0,543077
36 0 1 1 1 0,543077
37 0 0 0 0 0,409238
37 0 0 0 0 0,409238
37 0 0 0 0 0,409238
38 1 1 1 1 0,488184
38 1 1 1 1 0,488184
38 1 1 1 1 0,488184
39 0 0 0 0 0,427687
39 0 0 0 0 0,427687
39 0 0 0 0 0,427687
40 1 1 1 1 0,501132
40 1 1 1 1 0,501132
40 1 1 1 1 0,501132
41 1 1 1 1 0,513779
41 1 1 1 1 0,513779
41 1 1 1 1 0,513779
42 0 0 0 0 0,566575
42 0 0 0 0 0,566575
42 0 0 0 0 0,566575
43 1 1 1 1 0,46241
43 0 1 1 1 0,46241
43 1 1 0 1 0,46241
44 1 1 1 1 0,470832
44 1 1 1 1 0,470832
44 1 1 1 1 0,470832
45 0 0 0 0 0,412453
45 0 0 0 0 0,412453
45 0 0 0 0 0,412453
46 1 1 1 1 0,493441
46 1 1 1 1 0,493441
46 1 1 1 1 0,493441
47 1 1 1 1 0,486379
47 1 1 1 1 0,486379
47 1 1 1 1 0,486379
48 0 0 0 0 0,587893
48 0 0 0 0 0,587893
48 0 0 0 0 0,587893
49 1 1 1 1 0,483803
49 1 1 1 1 0,483803
49 1 1 1 1 0,483803
50 0 0 0 0 0,446697
50 0 0 0 0 0,446697
50 0 0 0 0 0,446697

clique aqui para efetuar o download dos dados utilizados nesse exemplo

 

Passo 4: Tabelas de frequências

 

Tabela 25: Tabela de frequência - A x B

  Op. B  
Op. A 1-C 2-NC Total
1-C 97 3 100
2-NC 6 44 50
Total 103 47 150

 

Tabela 26: Tabela de frequência - A x C

  Op. C  
Op. A 1-C 2-NC Total
1-C 92 8 100
2-NC 7 43 50
Total 99 51 150

 

Tabela 27: Tabela de frequência - B x C

  Op. C  
Op. B 1-C 2-NC Total
1-C 94 9 103
2-NC 5 42 47
Total 99 51 150

 

Na sequência, calculamos o coeficiente Kappa para todas as combinações de avaliadores. Inicialmente, vamos calcular as proporções observadas (Passo 5):

 

Tabela 28: Tabela de proporções observadas - A x B

  Op. B  
Op. A 1-C 2-NC Total
1-C 0,647 0,02 0,667
2-NC 0,04 0,293 0,333
Total 0,687 0,313 1

 

Tabela 29: Tabela de proporções observadas - A x C

  Op. C  
Op. A 1-C 2-NC Total
1-C 0,613 0,053 0,667
2-NC 0,0467 0,287 0,333
Total 0,66 0,34 1

 

Tabela 30: Tabela de proporções observadas - B x C

  Op. C  
Op. B 1-C 2-NC Total
1-C 0,627 0,06 0,687
2-NC 0,033 0,28 0,313
Total 0,66 0,34 1

 

A seguir, calculamos as proporções esperadas ( Passo 6 ):

Tabela 31: Tabela de proporções esperadas - A x B

  Op. B
Op. A 1-C 2-NC
1-C 0,458 0,209
2-NC 0,229 0,104

 

Tabela 32: Tabela de proporções esperadas - A x C

  Op. C
Op. A 1-C 2-NC
1-C 0,44 0,227
2-NC 0,22 0,113

 

Tabela 33: Tabela de proporções esperadas - B x C

  Op. C
Op. B 1-C 2-NC
1-C 0,453 0,233
2-NC 0,207 0,107

 

Finalmente, calculamos o Kappa entre os avaliadores (Passo 7):


$$\mbox{Kappa}_{AB}=\cfrac{(P_{11}+P_{22})-(E_{11}+E_{22})}{1-(E_{11}+E_{22})}=\cfrac{(0,647+0,293)-(0,458+0,104)}{1-(0,458+0,104)}=0,863$$

Conclusão:

Como o Kappa é maior que 0,75 (0,863) concluímos que existe concordância entre os avaliadores A e B.


$$\mbox{Kappa}_{AC}=\cfrac{(P_{11}+P_{22})-(E_{11}+E_{22})}{1-(E_{11}+E_{22})}=\cfrac{(0,613+0,287)-(0,44+0,113)}{1-(0,44+0,113)}=0,776$$

 

Conclusão:

 Como o Kappa é maior que 0,75 (0,776) concluímos que existe concordância entre os avaliadores A e C.


$$\mbox{Kappa}_{BC}=\cfrac{(P_{11}+P_{22})-(E_{11}+E_{22})}{1-(E_{11}+E_{22})}=\cfrac{(0,627+0,28)-(0,453+0,107)}{1-(0,453+0,107)}=0,788$$

 

Conclusão:

Como o Kappa é maior que 0,75 (0,788) concluímos que existe concordância entre os avaliadores B e C.

 

Calculando o coeficiente Kappa com relação ao padrão

Tabelas de frequências ( Passo 4 ):

Tabela 34: Tabela de frequência - A x Padrão

  REF  
Op. A 1-C 2-NC Total
1-C 97 3 100
2-NC 5 45 50
Total 102 48 150

Tabela 35: Tabela de frequência - B x Padrão

  REF  
Op. B 1-C 2-NC Total
1-C 100 3 103
2-NC 2 45 47
Total 102 48 150

Tabela 36: Tabela de frequência - C x Padrão

  REF  
Op. C 1-C 2-NC Total
1-C 93 6 99
2-NC 9 42 51
Total 102 48 150

Vamos calcular agora as proporções observadas ( Passo 5 ):

Tabela 37: Tabela de proporções observadas - A x Padrão

  REF  
Op. A 1-C 2-NC Total
1-C 0,647 0,02 0,667
2-NC 0,033 0,3 0,333
Total 0,68 0,32 1

Tabela 38: Tabela de proporções observadas - B x Padrão

 

  REF  
Op. B 1-C 2-NC Total
1-C 0,667 0,02 0,687
2-NC 0,013 0,3 0,313
Total 0,68 0,32 1

Tabela 39: Tabela de proporções observadas - C x Padrão

  REF  
Op. C 1-C 2-NC Total
1-C 0,62 0,04 0,66
2-NC 0,06 0,28 0,34
Total 0,68 0,32 1

Agora as proporções esperadas ( Passo 6 ):

Tabela 40: Tabela de proporções esperadas - A x Padrão

  REF
Op. A 1-C 2-NC
1-C 0,453 0,213
2-NC 0,227 0,107

Tabela 41: Tabela de proporções esperadas - B x Padrão

  REF
Op. B 1-C 2-NC
1-C 0,467 0,220
2-NC 0,213 0,1

Tabela 42: Tabela de proporções esperadas - C x Padrão

  REF
Op. C 1-C 2-NC
1-C 0,449 0,211
2-NC 0,231 0,109

Finalmente, calculamos o Kappa entre os avaliadores e o padrão (Passo 7):
Avaliador A e o padrão:


$$\mbox{Kappa}=\cfrac{(P_{11}+P_{22})-(E_{11}+E_{22})}{1-(E_{11}+E_{22})}=\cfrac{(0,647+0,3)-(0,453+0,107)}{1-(0,453+0,107)}=0,879$$

 Avaliador B e o padrão:


$$\mbox{Kappa}_{AB}=\cfrac{(P_{11}+P_{22})-(E_{11}+E_{22})}{1-(E_{11}+E_{22})}=\cfrac{(0,667+0,3)-(0,467+0,1)}{1-(0,467+0,1)}=0,923$$

 Avaliador C e o padrão:


$$\mbox{Kappa}_{AB}=\cfrac{(P_{11}+P_{22})-(E_{11}+E_{22})}{1-(E_{11}+E_{22})}=\cfrac{(0,62+0,28)-(0,449+0,109)}{1-(0,449+0,109)}=0,774$$

 

Algumas definições

Nesta Seção, vamos continuar a análise do sistema de medição. Pretendemos avaliar os erros de classificação em relação à peças conformes e não conformes. Temos

  • Taxa de erro: é a probabilidade do avaliador classificar uma peça como sendo Aprovada, quando na verdade esta peça é Reprovada;


$$P(Ap_{Aval}| Rep_{Pad})=\cfrac{P(Ap_{Aval}\cap Resp_{Pad})}{P(Rep_{Pad})}$$

 

  • Taxa de falso alarme: é a probabilidade do avaliador classificar uma peça como sendo Reprovada, quando na verdade esta peça é Aprovada.


$$P(Rep_{Aval}| Ap_{Pad})=\cfrac{P(Rep_{Aval}\cap Ap_{Pad})}{P(Ap_{Pad})}$$

 

  • Taxa de concordância: é a probabilidade do avaliador classificar uma peça conforme o sistema de referência (e ou ele mesmo).

em que:
ApAval = Medições que o avaliador considera aprovada;
RepAval= Medições que o avaliador considera reprovada;
ApPad = Medições que o sistema de referência considera aprovada;
RepPad= Medições que o sistema de referência considera reprovada.

Então:


$$P(Rep_{Pad})=\cfrac{\mbox{Total de medições que o sistema referência considera reprovada}}{\mbox{Nº total de medições}}$$


$$P(Ap_{Pad})=\cfrac{\mbox{Total de medições que o sistema referência considera aprovada}}{\mbox{Nº total de medições}}$$


$$P(Ap_{Aval}\cap Rep_{Pad})=\cfrac{\mbox{Total de medições aprovado pelo avaliador e reprovada pelo sistema}}{\mbox{Nº total de medições}}$$


$$P(Rep_{Aval}\cap Ap_{Pad})=\cfrac{\mbox{Total de medições reprovada pelo avaliador e aprovada pelo sistema}}{\mbox{Nº total de medições}}$$

 

Assim:

  • Taxa de erro:


$$P(Ap_{Aval}| Rep_{Pad})=\cfrac{P(Ap_{Aval}\cap Rep_{Pad})}{P(Rep_{Pad})}=$$


$$=\cfrac{\mbox{Total de medições aprovadas pelo avaliador e reprovada pelo sistema de referência}}{\mbox{Total de medições que o sistema de referência considera reprovada}}$$

  • Taxa de falso alarme:


$$P(Rep_{Aval}| Ap_{Pad})=\cfrac{P(Rep_{Aval}\cap Ap_{Pad})}{P(Ap_{Pad})}=$$


$$=\cfrac{\mbox{Total de medições reprovadas pelo avaliador e aprovada pelo sistema de referência}}{\mbox{Total de medições que o sistema de referência considera aprovada}}$$

 

  • Taxa de concordância:


$$P(\mbox{Concordância})=\cfrac{\mbox{Nº de medições em que não há discordância}}{\mbox{Total de medições}}$$

 

 

Passos para o cálculo

 

Para calcularmos a probabilidade de falha e a taxa de falso alarme, propomos os seguintes passos:

Passo 8: Considere a tabela de frequência observada, conforme passo 4. Porém, tomamos a tabela de frequência observada de cada operador em relação ao valor de referência, na forma

 

  Referência Referência  
Avaliador 1-C 2-NC Total
1-C o11 o12 o1
2-NC o21 o22 q1
Total o2 q2 n

Aqui, utilizamos a seguinte notação:

1 : peça classificada como aprovada;
2 : peça classificada como reprovada.

o11 : número de classificações aprovadas para o avaliador e aprovadas para a referência;
o12 : número de classificações aprovadas para o avaliador e reprovadas para a referência;
o21 : número de classificações reprovadas para o avaliador e aprovadas para a referência;
o22 : número de classificações reprovadas para o avaliador e reprovadas para a referência;
o1 = o11+o12: total de aprovações do avaliador;
q1 = o21+o22: total de reprovações do avaliador;
o2 = o11+o21: total de aprovações do a referência;
q2 = o12+o22: total de reprovações do a referência;
n : total de medições = o1 +q1 = o2 +q2

 

Passo 9: Calcular os índices:
9.1 - Taxa de falha


$$\mbox{Taxa de Falha}=\cfrac{o_{12}}{q_2}$$

9.2 - Probabilidade de falso alarme


$$\mbox{Falso Alarme}=\cfrac{o_{21}}{o_2}$$

9.3 - Concordância


$$\mbox{Concordância}=\cfrac{\mbox{Número de peças com medições concordantes com a referência}}{\mbox{Número total de peças}}$$

 

Critérios para análise

A seguir, apresentamos os critérios para análise da taxa de falha, probabilidade de falso alarme e concordância (Tabela 43).
 

Tabela 43: Critério de decisão

Decisão Sistema de Medição Concordância Taxa de Erro Taxa de Falso Alarme
Aceitável para o avaliador ≥ 90% ≤ 2% ≤ 5%
Marginal aceitável para o avaliador, pode necessitar a melhoria ≥ 80% ≤ 5% ≤ 10%
Inaceitável para o avaliador, necessita a melhoria < 80% > 5% > 10%

 

Exemplo 4.1.2

Voltando ao Exemplo 4.1.1, vamos calcular as Taxas de Erro e Falso Alarme para cada Avaliador.
Vamos construir as tabelas com o números de medições para cada operador:
Avaliador A

clique aqui para efetuar o download dos dados utilizados nesse exemplo

Tabela 44: Número de medições por referência e pelo Avaliador A

Avaliador A Referência Total
Aprova Reprova
Aprova 97 3 100
Reprova 5 45 50
Total 102 48 150

Portanto, para o avaliador A temos:

Passo 9: Calcular os índices:
9.1 - Taxa de falha


$$\mbox{Taxa de Falha}=\cfrac{o_{12}}{q_2}=\cfrac{3}{48}=0,0625~(6,25\%)$$

9.2 - Probabilidade de falso alarme


$$\mbox{Falso Alarme}=\cfrac{o_{21}}{o_2}=\cfrac{5}{102}=0,049~(4,9\%)$$

9.3 - Concordância


$$\mbox{Concordância}=\cfrac{\mbox{Número de peças com medições concordantes com a referência}}{\mbox{Número total de peças}}=\cfrac{42}{50}=0,84~(84\%)$$

Avaliador B

Tabela 45: Número de medições por referência e pelo Avaliador B

 

Avaliador B Referência Total
Aprova Reprova
Aprova 100 3 103
Reprova 2 45 47
Total 102 48 150

 

Portanto, para o avaliador B temos:

Passo 9: Calcular os índices:

9.1 - Taxa de falha


$$\mbox{Taxa de Falha}=\cfrac{o_{12}}{q_2}=\cfrac{3}{48}=0,0625~(6,25\%)$$

9.2 - Probabilidade de falso alarme


$$\mbox{Falso Alarme}=\cfrac{o_{21}}{o_2}=\cfrac{2}{102}=0,0196~(1,96\%)$$

9.3 - Concordância


$$\mbox{Concordância}=\cfrac{\mbox{Número de peças com medições concordantes com a referência}}{\mbox{Número total de peças}}=\cfrac{45}{50}=0,9~(90\%)$$

 

Avaliador C

Tabela 46: Número de medições por referência e pelo Avaliador C

Avaliador C Referência Total
Aprova Reprova
Aprova 93 6 99
Reprova 9 42 51
Total 102 48 150

 

Portanto, para o Avaliador C temos:

Passo 9: Calcular os índices:

9.1 - Taxa de falha


$$\mbox{Taxa de Falha}=\cfrac{o_{12}}{q_2}=\cfrac{6}{48}=0,0125~(12,5\%)$$

 

9.2 - Probabilidade de falso alarme


$$\mbox{Falso Alarme}=\cfrac{o_{21}}{o_2}=\cfrac{9}{102}=0,0823~(8,23\%)$$

 

9.3 - Concordância


$$\mbox{Concordância}=\cfrac{\mbox{Número de peças com medições concordantes com a referência}}{\mbox{Número total de peças}}=\cfrac{40}{50}=0,8~(80\%)$$

 

 

Exemplo 4.1.2

Tabela avaliadores

Avaliadores Concordância Taxa de Erro

Taxa de Falso Alarme

A 84% 6,3% 4,9%
B 90% 6,3% 2%
C 80% 12,5% 8,8%

 

 

 

Concordância entre os Avaliadores

Concordância entre Padrão e cada Avaliador

 

Para entender como executar essa função do Software Action, você pode consultar:

 Para entender como executar essa função do Software Action, você pode consultar o manual do usuário.

 

Conclusão:

Como todos os valores de Kappa estão acima de 0,75, concluímos que os operadores concordam entre si e com o padrão. Porém, as taxas de erro dos operadores ($ op_A=6,25\% $,$ op_B=6,25\% $, $ op_C=12,5\% $) estão acima do especificado pelo manual MSA, que é de 5%. Desta forma, temos uma oportunidade de melhoria.

 

Detecção de sinais

 

Uma alternativa para estimar a Banda Cinza (ver Figura 18), uma região no qual o  dispositivo apresenta probabilidade alta de má classificação, é usar a teoria da Detecção do Sinal.

 

Figura 18: Banda cinza.

Passos:

 

  Valor de Referência Código
  0,599581 -
0,587893 -
0,576459 -
0,57036 -
0,566575 -
$ d_{LSE} $ 0,566152 -
0,561457 x
0,559918 x
0,547204 x
0,545604 x
0,544951 x
0,543077 x
0,542704 +
  0,531939 +
0,529065 +
0,523754 +
0,521642 +
0,520496 +
0,519694 +
0,517377 +
0,515573 +
0,514192 +
0,513779 +
0,509015 +
0,50585 +
0,503091 +
0,502436 +
0,502295 +
0,501132 +
0,498698 +
0,488905 +
0,493441 +
0,488184 +
0,487613 +
0,486379 +
0,484167 +
0,483803 +
0,477236 +
0,476901 +
$ d_{LIE} $ 0,470832 +
0,465454 x
0,46241 x
0,454518 x
0,45231 x
0,449696 x
0,446697 -
  0,437817 -
0,427687 -
0,412453 -
0,409238 -

Tabela 4.1.2: Valores de Referência ordenados.

Passo 1: Determine a tolerância (limites de especificação). Por exemplo da tabela 4.1.1, temos:


 0,450$$


 0,550$$

Então, temos que a tolerância é dada por:


$$\mbox{tolerância}=LSE-LIE=0,100$$

Este é o valor a ser usado para calcular o RR.

 

Orientações:

  • Se $ ppk~\textgreater ~1 $, compare o sistema de medição com o processo;
  • Se $ ppk~\textless ~1 $, compare o sistema de medição com a tolerância.

Esta "regra" equivale a comparar o sistema de medição com o que for mais restritiva (processo ou tolerância).

No exemplo 4.1.1, o $ ppk=0,5 $. Como a variação do processo é superior à tolerância, vamos comparar a variação do sistema de medição com a tolerância.

Passo 2: Ordene os dados em ordem decrescente (maior para o menor) com base nos valores de referência das peças (veja tabela 4.1.2).

Passo 3: Identificar os pontos final e inicial das duas áreas cinza. Na tabela 4.1.2 é mostrado na coluna código.

 

Sinal Descrição
$ + $ Aceita com Concordância Total
$ - $ Rejeita com Concordância Total
$ x $ Não Concordância

Através da amplitude dos intervalos referentes às áreas cinza determinamos sua média, que será comparada com a tolerância ou 6 sigma da variação do processo (6 * desvio padrão do processo).

Passo 4: Referindo-se ao gráfico acima.

Seja

$ d_{LSE}= $ distância entre a última peça aceita por todos os avaliadores para a primeira peça rejeitada por todos. Esta distância é equivalente para a região cinza II em torno do $ LSE $ acima.

Passo 5:

Seja,

$ d_{LIE}= $ distância entre a última peça aceita por todos os avaliadores na zona III para a primeira peça rejeitada por todos os avaliadores na zona I.

$ d_i= $ distância ente a última peça aceita por todos os avaliadores para a primeira peça rejeitada por todos (para cada especificação).

Então,


$$d= \overline{d_i}$$

é uma estimativa da largura da área da região II e $ RR=6*\sigma_{RR} $

Zona I peças em concordância por todos os avaliadores a ser rejeitada
Zona III peças em concordância por todos os avaliadores a ser aceita
Zona II peças questionáveis sem ter 100% de concordância, em torno do limite de cada especificação

Voltando ao exemplo 4.1.1, usando a tolerância de 0,100, temos:


$$d_{LIE}=0,470832-0,446697=0,024135$$


$$d_{LSE}=0,566152-0,542704=0,023448$$


$$d=0,0237915$$

ou a estimativa da $ \%RR $


$$\%RR= \frac{0,0237915}{0,1} 100% = 24\%$$

.

 

Exemplo 4.1.3:

 

Considere um sistema de medição (Calibrador), no qual foram selecionadas 50 peças, 3 avaliadores com três medições por peça (cada avaliador). Os dados estão apresentados na Tabela 6.26. Faça um estudo por Atributo com o Limites de Especificação Inferior e Superior de 142,10 mm e 143,10 mm, respectivamente. Onde NC é não conforme e C é conforme.

 

Peça Operador Padrão Valor do
A B C Padrão
1 C NC NC C 143,06
1 C NC NC C 143,06
1 C NC NC C 143,06
2 C C C C 142,68
2 C C C C 142,68
2 C C C C 142,68
3 NC NC NC NC 145,28
3 NC NC NC NC 145,28
3 NC NC NC NC 145,28
4 C C C C 142,54
4 C C C C 142,54
4 C C C C 142,54
5 NC NC NC NC 143,28
5 NC NC NC NC 143,28
5 NC NC NC NC 143,28
6 C C C C 142,8
6 C C C C 142,8
6 C C C C 142,8
7 C C C C 142,28
7 C C C C 142,28
7 C C C C 142,28
8 C C C C 143
8 C C C C 143
8 C C NC C 143
9 C C C C 142,9
9 C C C C 142,9
9 C C C C 142,9
10 C C C C 142,1
10 NC C C C 142,1
10 C NC NC C 142,1
11 C C C C 142,3
11 C C C C 142,3
11 C C C C 142,3
12 NC NC NC NC 142,08
12 NC NC NC NC 142,08
12 C NC NC NC 142,08
13 NC NC NC C 142,13
13 C C NC C 142,13
13 C NC NC C 142,13
14 NC NC NC NC 143,63
14 NC NC NC NC 143,63
14 NC NC NC NC 143,63
15 NC NC NC NC 141,8
15 NC NC NC NC 141,8
15 NC NC NC NC 141,8
16 C NC NC C 143,1
16 C NC C C 143,1
16 C NC C C 143,1
17 C C C C 142,5
17 C C C C 142,5
17 C C C C 142,5
18 NC NC NC NC 143,19
18 NC NC NC NC 143,19
18 NC NC NC NC 143,19
19 C C C C 142,3
19 C C C C 142,3
19 C C C C 142,3
20 C C C C 142,75
20 C C C C 142,75
20 C C C C 142,75
21 C C C C 142,28
21 C C C C 142,28
21 C C C C 142,28
22 C C NC C 142,94
22 C C C C 142,94
22 C C NC C 142,94
23 NC NC NC NC 143,15
23 NC NC NC NC 143,15
23 NC NC NC NC 143,15
24 C NC C C 143,08
24 NC NC NC C 143,08
24 C C NC C 143,08
25 C C C C 142,11
25 C C C C 142,11
25 C NC NC C 142,11
26 C C C C 143
26 C C C C 143
26 C C NC C 143
27 NC NC NC NC 143,22
27 NC NC NC NC 143,22
27 NC NC NC NC 143,22
28 NC NC NC NC 143,5
28 NC NC NC NC 143,5
28 NC NC NC NC 143,5
29 C C C C 142,85
29 C C C C 142,85
29 C C C C 142,85
30 C C C C 142,73
30 C C C C 142,73
30 C C C C 142,73
31 C C C C 142,59
31 C C C C 142,59
31 C C C C 142,59
32 C C C C 142,89
32 C C C C 142,89
32 C C C C 142,89
33 C C NC C 143,02
33 C C C C 143,02
33 C C NC C 143,02
34 NC NC NC NC 142
34 NC NC NC NC 142
34 NC NC NC NC 142
35 C C C C 142,25
35 C C C C 142,25
35 C C C C 142,25
36 C C C C 142,33
36 C C C C 142,33
36 C C C C 142,33
37 C C NC C 143,05
37 C C C C 143,05
37 C C NC C 143,05
38 C C C C 142,82
38 C C C C 142,82
38 C C C C 142,82
39 C C C C 142,89
39 C C C C 142,89
39 C C C C 142,89
40 C C C C 142,49
40 C C C C 142,49
40 C C C C 142,49
41 NC NC NC NC 141,95
41 NC NC NC NC 141,95
41 NC NC NC NC 141,95
42 C C NC C 142,13
42 C NC NC C 142,13
42 C NC NC C 142,13
43 C C C C 142,45
43 C C C C 142,45
43 C C C C 142,45
44 C C C C 142,68
44 C C C C 142,68
44 C C C C 142,68
45 C C C C 142,26
45 C C C C 142,26
45 C C C C 142,26
46 C C C C 142,27
46 C C C C 142,27
46 C C C C 142,27
47 C C C C 142,31
47 C C C C 142,31
47 C C C C 142,31
48 C C C C 142,68
48 C C C C 142,68
48 C C C C 142,68
49 C C C C 142,59
49 C C C C 142,59
49 C C C C 142,59
50 C C C C 142,25
50 C C C C 142,25
50 C C C C 142,25

Tabela 4.1.3: tabela de dados.

clique aqui para efetuar o download dos dados utilizados nesse exemplo

Resultados obtidos pelo Software Action:

 

 

 

 

 

 

 

Para entender como executar essa função do Software Action, você pode consultar:

 

 Para entender como executar essa função do Software Action, você pode consultar o manual do usuário.

Conclusão:

Os avaliadores 1 e 2 estão com os valores de Kappa acima de 0,75, concluímos que os operadores 1 e 2 concordam entre si e com o padrão. Porém, o operador 3 tem uma concordância ruim com os outros avaliadores e o padrão e as taxas de erro dos operadores ($ op_1=3,03\% $,$ op_2=0\% $, $ op_3=0\% $) estão abaixo do especificado pelo manual MSA, que é de 5%. Desta forma, temos uma oportunidade de melhoria.

Sobre o Portal Action

O Portal Action é mantido por Estatcamp - Consultoria Estatística e Qualidade e por DIGUP - Desenvolvimento de Sistemas e Consultoria Estatística, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]