quarta-feira, 4 de março de 2009

De novo Precisão

Respondi a um e-mail de um dos visitantes deste blog. Pedaços do que escrevi e as respostas enviadas para ele sobre o termo Precisão repasso a seguir:

Desde quando comecei a trabalhar com metrologia, em 1981, aprendi e passei a
não recomendar o uso do termo precisão. O primeiro curso que fiz de
metrologia foi com um professor alemão que era enfático e contrário ao uso
do termo.

A precisão está associada a dispersão dos resultados de
uma medição. No entanto, é um termo qualitativo. Infelizmente o novo
vocabulário de Metrologia (VIM), apresenta um conceito para incerteza como sendo basicamente o desvio padrão dos resultados das medições. Creio que haja uma grande influência da área de química neste caso, pois a química sempre, em normas técnicas, defenderam e utilizaram o termo precisão dessa forma.

O termo que melhor representa a dispersão dos resultados é a incerteza de
medição, que não pode ser associada apenas ao instrumento de medição. O
correto é falarmos em incerteza do processo de calibração, que é aquela
incerteza reportada no próprio certificado de calibração do instrumento. Há
ainda a incerteza de medição do processo de medição, que são aquelas que
surgem quando empregamos um instrumento de medição para uso em uma medição.


Seguem respostas para as perguntas:

P1: Assim, se tenho uma coleção de medidas, de uma mesma grandeza efetuadas sob
as mesmas condições, com baixa dispersão, tenho uma "medida precisa" ou um
"instrumento preciso", ou ambos?

R1: O melhor é utilizar o termo medição com precisão, pois a dispersão não é
só culpa do instrumento de medição. Há uma parcela do ambiente, outra do
operador, outra da grandeza que estamos medindo que pode não ser constante
ou estável durante as medições, entre outras.


P2: Da definição acima segue que a precisão de um instrumento é habilidade de
indicar/apresentar/mostrar resultados repetidos para a medida de uma mesma
grandeza, sob as mesmas condições (?).

R2: O instrumento de medição contribui para a dispersão dos resultados. Se
você conseguir, o que é praticamente impossível, manter as demais
influências citadas acima constantes ou sem prejudicar a tua medição, você
conseguiria avaliar a incerteza do instrumento de medição. Como citado, isso
é impossível na prática. Portanto falamos em incerteza da calibração do
instrumento. Pelo novo VIM você pode determinar a precisão calculando o
desvio padrão dos resultados. Esta será uma componente para chegarmos na
incerteza da calibração.

P3: Então, Se formos medir a grandeza altura de uma lata de refrigerante com uma
régua graduada em decímetros poderíamos obter os seguintes valores:
(incerteza do instrumento 0,5 dm)

1,2 dm; 1,2 dm; 1,1 dm; 1,2 dm; 1,2 dm

Com uma régua graduada em centímetros as medidas poderiam ser: (incerteza do
instrumento 0,5 cm)

12,2 cm; 12,1 cm; 12,2 cm; 12,2 cm; 12,2 cm

E com uma régua graduada em milímetros os valores seriam: (incerteza do
instrumento 0,5 mm)

122,0 mm; 122,0 mm; 122,0 mm; 122,0 mm; 122,1 mm

Os três instrumentos forneceram medidas pouco discordantes, com baixa
dispersão. Ou seja, os três instrumentos são precisos(?). Não se pode dizer
qual é mais preciso(?), ou o mais preciso é aquele que fornece mais
algarismos significativos?

R3: Na prática o que você fez foi melhorar a resolução de medição, pois os
instrumentos tem resolução diferentes. Quanto pior a resolução (maior o seu
valor numericamente, como o caso do instrumento 1) melhor será a
repetitividade dos resultados, ou seja, a precisão. O que não significa que
o resultado da medição será melhor. Na prática, a incerteza do resultado do
instrumento 1, será maior numericamente do que a do instrumento 2 e do 3,
isto é a incerteza do resultado será pior com o instrumento 1, embora a
precião possa ser melhor. A incerteza de medição depende da resolução.
Quanto maior numericamente a resolução maior será numericamente a incerteza.
Precisão e incerteza não tem relação com algarismos significativos. A
incerteza nã deve ser expressa com mais de dois algarismos significativos.
Eu particularmente prefiro usar só um algarismo significativo.

exemplo de resultado relatado de forma inadequada: altura de uma lata de
refrigerante = (12,20 ± 0,10303030302) mm. O certo é (12,20 ± 0,10) mm, com
dois algarismo sigficativos e o número de casas após a vírgula compatíveis.

Exemplo altura de uma lata de refrigerante = (12,2 ± 0,10303030302) mm.
Neste caso a resolução do instrumento permite medir apenas uma casa após a
vírgula, então o resultado deve ser (12,2 ± 0,1) mm.


P4: Pode-se avaliar a precisão de um instrumento pelo número de alg. sig. que
ele fornece ou é necessário efetuar uma série de medições para de determinar
sua precisão?

R4: Precisão e incerteza tem relação com dispersão dos resultado e não com
alagarismos significativos.

P5: Baseado em quais critérios pode-se dizer que uma régua graduada em
milímetros é mais precisa do que outra graduada em decímetros? Ou não se
pode dizer tal coisa. Ou ainda, essa informação só pode ser fornecidade pelo
fabricante que calibrou a régua contra algum padrão? Ou mais ainda ainda,
não se pode se pode usar a palavra PRECISÃO em nenhum do casos anteriores,
ficando a mesma restrita ao sinônimo de necessidade?

R5: A graduação melhor apenas melhora a resolução, mas como a precisão não
tem relaçao com resolução, não podemos dizer que uma é mais precisa que a
outra.

P6: O que distingue esses instrumentos é a resolução, sensibilidade ou acurácia?

R6: A resolução. Procure não usar a palavra acurácia. Não está no VIM.
Sensibilidade é outra coisa e as vezes usada de forma inadequada e como
sinônimos de resolução. Mas não são iguais.

P7: Resolução: A menor diferença entre dois valores que um instrumento pode
registrar?

R7: Sim, resolução é isso.

P8: Sensibilidade: O menor valor que um instrumento pode registrar?

R8: Não.

Sensibilidade é Variação da resposta de um instrumento de medição dividida
pela correspondente variação do estímulo (veja o VIM).

P9: Acurácia: Concordância entre o valor registrado pelo instrumento e o valor
verdadeiro da grandeza ou aquele considerado como verdadeiro?

R9: Não, isso é exatidão.

P10: Considerando as medidas acima, quanto maior quantidade de algarismos
significativos que o instrumento fornece mais próximo do valor verdadeiro
estará a medida (no entanto nunca se chegará ao valor verdadeiro, de fato!)?

R10: Não. O que vai garantir que o resultado apresentado pelo isntrumento de
medição está próximo do valor verdadeiro é o erro associado a essa medição.
Quanto maior o erro de medição, mais afastado do valor verdadeiro estará o
resultado.


Esses conceitos trabalhamos na nossa revista, chamada Metrologia e
Qualidade. O CECT pode vender as edições publicadas, até agora 16, que tenho
certeza vão lhe ajudar muito.

Um comentário:

Mateus Alves Lopes disse...

Pow mew tava quase morrendo atrás de definições e umas explicações da régua e pah bah ajudou de + cara te amo s2 ^^