sábado, 24 de octubre de 2015

Incertidumbre de medición ¿de qué se trata realmente?

Por Raúl Sejzer

La incertidumbre es quizás el concepto más importante y, a la vez, el más dificil de asimilar e interpretar de la Metrología. Exige un amplio conocimiento de la medición que se está realizando, los métodos, la magnitud que está siendo analizada y las magnitudes o fenómenos que influyen sobre la calidad de la medida.

Primero veamos la definición que nos brinda el VIM:
Incertidumbre de medida / Incertidumbre: Parámetro no negativo que caracteriza la dispersión de los valores atribuidos a un mensurando, a partir de la información que se utiliza.
¿A que se refiere realmente esta definición? La incertidumbre, dicho en otras palabras, es un parámetro que representa cuantitativamente la "duda" que tenemos sobre la medición realizada. Por una cuestión práctica contamos con información limitada de lo que estamos midiendo y de todas las fuentes que pueden influir en ella y en cómo interpretamos los datos obtenidos. Los valores obtenidos en una medición poseen una componente de duda, relacionada a cuán confiable es la medición que estamos realizando.

Recordemos que existe un concepto, algo abstracto de interpretar: el valor verdadero. El valor verdadero no es más que el valor real de la magnitud objeto de medición. Es un valor que nunca lograremos conocer realmente. Podemos acercarnos, acotarlo, pero no saber exactamente su valor. Cuando obtenemos el valor de una magnitud, a través de la medición, tenemos información incompleta de la misma. Además del valor obtenido, debemos tener información cuantitativa que nos indique la calidad de la medición. Aquí aparece el concepto de incertidumbre. La incertidumbre involucra todos los factores que afectan a la confiabilidad de la medida. La dispersión que menciona la definición del VIM corresponde a la variabilidad de los valores obtenidos en sucesivas medidas de una misma magnitud. Esta variabilidad proviene de que los métodos no son perfectos, o no estamos contemplando todos los factores que influyen en cómo obtengo los valores de medición y/o cómo los interpretamos y procesamos.

Imagen de Anja Heidsiek en Pixabay 

¿Lo vemos con un ejemplo?

La mejor forma de comprender de qué se trata es siempre a través de un ejemplo. Supongamos que deseamos medir la longitud de una pieza metálica con un calibre digital. Nuestro procedimiento nos exige tomar 5 medidas sucesivas de la pieza, retirando y volviendo a colocar el calibre. Supongamos, además, que se trata de una pieza perfecta de longitud 10 mm a 20 ºC y 1013 hPa de presión atmosférica.

Las sucesivas mediciones arrojaron los siguientes valores: 

10,01
10,00
10,02
9,99
10,01

¿Por qué razón existe esta variación? ¿A qué se debe que obtengamos distintos valores si la pieza es la misma y el instrumento es el mismo? Son muchos los factores que incluyen aquí. Algunas consideraciones importantes:

  • Dijimos que el valor verdadero de la longitud de la pieza es de 10 mm. Esto significa que la longitud es 10,00... e infinitos ceros en la parte decimal. Ahora bien, si nuestro calibre sólo nos muestra dos decimales (hasta la centésima de mm) ¿cómo sabemos que los decimales que no vemos son cero?. Aquí ya perdemos parte de la valiosa información. Aparece una de las fuentes más importantes de duda de nuestra medida, la incertidumbre por resolución.
  • Por otro lado, el hecho de retirar el calibre y volverlo a colocar entre sucesivas mediciones hace que no siempre lo coloquemos de igual manera, haciendo la misma fuerza, con el mismo ángulo de apoyo del calibre sobre las caras de la pieza, etc. Por más formación que posea el operario, no siempre logrará tomar la medida de la misma forma. 
  • Es bien conocido que la temperatura posee una influencia importante sobre la longitud. El valor verdadero de la longitud de 10mm es válido sólo a las temperaturas y presión atmosférica indicadas. Si, por ejemplo, la temperatura ambiente al realizar la medición es superior, la pieza se dilata y obtendremos una longitud mayor.
Esas son sólo algunas fuentes de incertidumbre, pero existen más. Es decir, cada tipo de medida (cada método) posee numerosas componentes de incertidumbre. Si su influencia es considerable, no despreciable, se debe cuantificar.

Tenemos en general dos tipos de componentes de incertidumbre:

Tipo A: están relacionadas con la dispersión estadística de las sucesivas medidas. La distribución puede caracterizarse por desviaciones típicas. La aleatoriedad juega un papel fundamental en este tipo de componentes. Aquí aparecen los conceptos de repetibilidad y reproducibilidad que veremos más adelante en otra publicación. Tiene que ver con la imposibilidad práctica real de realizar sucesivas mediciones bajo exactas condiciones: el operador, las condiciones ambientales, la interpretación del resultado.

Tipo B: son los obtenidos de la información adicional con la que contamos. Por ejemplo, una deriva, un coeficiente de variación de la magnitud con respecto a otra, el conocimiento de la clase o exactitud del instrumento, los lìmites conocidos, etc.


¿Cómo cuantificamos la incertidumbre?

En primer lugar, es importante aclarar que la manera correcta de expresar el resultado de una medición es siempre mediante un valor de medida (el obtenido o leído) acompañado de un valor de incertidumbre que englobe todas estas componentes.

Resultado de medida = Valor medido ± Incertidumbre de medida

La incertidumbre que se expresa es una combinación ponderada de todas las componentes de incertidumbre detectadas y expresadas numéricamente.


Pasos a seguir:

  1. Para cada tipo de medición que realicemos debemos identificar todas las fuentes posibles de incertidumbre.
  2. Luego debemos identificar si son del Tipo A o del Tipo B, para poder conocer su posterior tratamiento.
  3. A continuación, tenemos que expresar cuantitativamente dichas componentes en las mismas unidades de la magnitud que se está analizando para que puedan ser intercomparables. Aquí es donde se realiza el mayor trabajo, ya que debemos conocer la naturaleza de cada componente y su distribución estadística.
  4. Por último, se realiza una tabla en donde se encuentren enumeradas todas las fuentes de incertidumbre. A esto se lo conoce como balance de incertidumbres. De aquí se obtiene una combinación de todas las componentes conocida como incertidumbre combinada. A través de un factor de confianza, y convertida en incertidumbre expandida, es la que termina acompañando al valor de medida.

La importancia del GUM


Como es de suponer, existen infinidad de métodos y magnitudes a analizar. Sería imposible generalizar las componentes de incertidumbre y su análisis de una única manera. Sin embargo, hace ya unos años se decidió redactar una Guía para la Expresión de la Incertidumbre. Conocida popularmente por su abreviatura en inglés, el GUM es el documento por excelencia que nos guía en la manera de determinar las fuentes de incertidumbre y cómo tratarlas. Además de una base téorica estadística, cuenta con muchos ejemplos que pueden asemejarse a lo que estamos buscando y darnos una noción o una ayuda en la determinación de las fuentes que precisamos para nuestro análisis. Este documento es de libre acceso y, así como el VIM, tiene como función primordial la estandarización y la difusión de buenas prácticas metrológicas. Puede ser descargado libremente en español en el siguiente link del CEM (Centro Español de Metrología):



En futuras publicaciones veremos ejemplos de aplicación del cálculo de incertidumbres en diversos instrumentos de uso habitual.

viernes, 25 de septiembre de 2015

Metrología en América

Uno de los grandes objetivos de los organismos de Metrología es asegurar la trazabilidad de las mediciones realizadas al Sistema Internacional de Unidades. 

Recordando la pirámide de trazabilidad metrológica tenemos en la cima al Sistema Internacional de Unidades (SI) representado por el Bureau Internacional de Pesas y Medidas (BIPM). Por debajo de él se encuentran los organismos nacionales de metrología. Cada país cuenta con un organismo encargado de regular la actividad metrológica. Más abajo se encuentran los laboratorios secundarios. Generalmente estos están agrupados en redes supervisadas por los organismos nacionales. También en este nivel se encuentran los organismos de Metrología Legal. En los dos niveles inferiores, bases de la pirámide, se encuentran los usuarios. El usuario puede tener, o no, su propio laboratorio de calibración y/o ensayos. 

La Organización de los Estados Americanos (OEA) propuso la formación del Sistema Interamericano de Metrología (SIM). Esta organización agrupa a los Organismos Nacionales de Metrología del continente americano, subdivididos a su vez en regiones:

  • ANDIMET (Andes)
  • CAMET (Centroamérica)
  • CARIMET (Caribe)
  • NORAMET (Norteamérica)
  • SURAMET (Sudamérica)

A continuación se detalla la conformación de cada subregión. Haciendo click en el nombre de cada país se puede acceder a la web oficial (de estar disponible) del organismo nacional correspondiente.

ANDIMET

Agrupa a los organismos nacionales de Bolivia, Colombia, Ecuador, Perú y Venezuela. Coordinado por Bolivia.

CAMET

Conformado por Belice, Costa Rica, El Salvador, Guatemala, Honduras, Nicaragua y Panamá. Coordinado por Panamá.

CARIMET

Conformado por Antigua y Barbuda, Bahamas, Barbados, Dominica, Granada, Guyana, Jamaica, Haití, República Dominicana, San Cristóbal y Nevis, San Vicente y las Granadinas, Santa Lucia, Surinam y Trinidad & Tobago. Coordinado por Trinidad & Tobago.

NORAMET

Conformado por CanadáMéxico y Estados Unidos. Coordinado por Canadá.







SURAMET

Conformado por Argentina, Brasil, Chile, Paraguay y Uruguay. Coordinado por Chile.
 SURAMET


viernes, 18 de septiembre de 2015

¿Exactitud o Precisión?

Hoy veremos otro par de términos que suelen generar confusión. Muchas veces se utilizan incorrectamente y otras veces se confunden entre sí. Estamos hablando específicamente de los términos exactitud y precisión. ¿Qué dice el VIM al respecto?:

  • Exactitud: proximidad entre un valor medido y un valor verdadero de un mensurando.
  • Precisión: proximidad entre las indicaciones o los valores medidos obtenidos en mediciones repetidas de un mismo objeto, o de objetos similares, bajo condiciones especificadas.

Antes de analizar estas definiciones, es conveniente que aclaremos a qué define como valor verdadero. El valor verdadero es el valor real de la magnitud que estamos midiendo, el que nunca podremos conocer con certeza. Sólo podremos aproximarnos todo lo posible mediante instrumentos de mejor clase. Pero, siempre habrá una incertidumbre (término que desarrollaremos en detalle más adelante). 

Imagen de 41330 en Pixabay 

Según lo dicho, la exactitud tiene que ver con la proximidad que existe entre los valores medidos y el valor verdadero. Cuanto más exacto es un instrumento las medidas obtenidas por él se encuentran más cerca del valor verdadero. La precisión, en cambio, hace referencia a que sucesivas medidas obtenidas son próximas entre sí pero no necesariamente están cerca del valor verdadero.

La forma más clara y didáctica de comprenderlo fue siempre la analogía con un blanco. En la figura, el blanco representa el valor verdadero. Volcamos también los puntos de medida, representados en color azul. Dado que la exactitud y la precisión no están relacionadas entre sí, existen 4 casos posibles. Hemos representado en la figura todas las posibilidades.



CASO 1: Preciso pero no exacto.

CASO 2: Exacto pero no preciso.

CASO 3: Ni preciso ni exacto.

CASO 4: Preciso y exacto.

sábado, 12 de septiembre de 2015

¿Calibrar, Ajustar o Verificar?


Como vimos en una publicación anterior, en metrología es fundamental el correcto uso de los términos. Por un lado nos permite unificar criterios entre usuarios, laboratorios y organismos de metrología. Por el otro, desterrar algunos términos de uso habitual en nuestra vida cotidiana que están siendo mal utilizados. Un claro ejemplo es la palabra calibrar y todos sus derivados. Hay otros: error, rango, precisión, exactitud. Pero estos serán objeto de futuras publicaciones.

Imagen de fernando zhiminaicela en Pixabay 

Hoy vamos a analizar términos que suelen confundirse entre sí con asiduidad: calibrar, ajustar y verificar.

Si tuviéramos que resumirlo:
  • Calibrar consiste sólo en la acción de medir contrastando con un patrón o material de referencia y registrar los resultados para saber con certeza qué tan cercanos son los resultados que proporciona el instrumento de medición que está siendo analizado con un valor nominalmente verdadero. Por ejemplo calibrar un manómetro es comparar su indicación con un instrumento de mejor clase metrológica, digamos un calibrador de presión patrón. Lo que se hace en este caso es variar la presión de manera controlada y leer la indicación del manómetro a calibrar y la del patrón. Ambos datos se vuelcan a una gráfica, una tabla, o ambas. Lo que sabemos en realidad luego de una calibración es cómo está funcionando nuestro instrumento metrológicamente.
  • Ajustar ya implica intervenir al instrumento. Es decir, si luego de una calibración se detecta que existe un error sistemático (que podemos acotar al menos estadísticamente) podemos hacer que la indicación del instrumento calibrado se aproxime todo lo posible a la que indica el patrón (que consideramos como verdadero). En el caso anterior del manómetro, podríamos por ejemplo mover la aguja hasta que indique lo que nosotros deseamos en base a la medida del patròn o se acerque todo lo posible. No todos los instrumentos permiten ajuste. Tampoco todos los errores sistemáticos pueden corregirse o minimizarse. Es importante saber que siempre que realizamos un ajuste posterior a una calibración se debe realizar una nueva calibración para ver el resultado del mismo. Es decir, el procedimiento habitual es calibración-ajuste-recalibración.
  • Verificar es dar evidencia objetiva de que un elemento satisface los requisitos especificados. En otras palabras es comprobar que un instrumento, por ejemplo, cumple las especificaciones de fábrica.
Recordemos que conocer estos conceptos es fundamental no solo para el mundo de la metrologìa, sino que hoy gran parte de las Normas de Calidad, Seguridad, Ambiente y otras especìficas exigen la calibración de los instrumentos utilizados en sus procesos.

jueves, 10 de septiembre de 2015

Estamos empezando...

Recién estamos comenzando con el lanzamiento de este espacio para compartir información y debatir acerca de temas relacionados a la metrología. Es fundamental que Uds como visitantes propongan algún tema que sea de interés para las futuras publicaciones. Muchas gracias y Bienvenidos!


MetroMundo

Primer paso en metrología: hablemos el mismo idioma.

Lo primero que debemos hacer antes de embarcarnos en este apasionante mundo de la Metrología es unificar criterios y definir cuáles son los términos correctos a utilizarse.

Como muchos recordarán, la Metrología no es más que la ciencia de las mediciones. Su etimología es bastante obvia: del griego μέτρον [metron] "medida" y λογία [loguía o logía] "ciencia". 

Durante muchos años no hubo control acerca de los términos específicos que debían utilizarse en esta actividad. Medida, calibración, ajuste, error (sólo por mencionar algunos) eran motivo de diferencias entre laboratorios, usuarios e inclusive entre organismos nacionales de metrología.

Surgió entonces la necesidad de estándarizar en cierta manera la terminología. El BIPM (Bureau Internacional de Pesas y Medidas) constituyó en 1997 el Comité Conjunto para las Guías en Metrología (JCGM). Se debían desarrollar unas series de guías que fuesen aceptadas internacionalmente y así unificar criterios. 

Específicamente, la terminología a utilizarse fue descripta en un documento llamado Vocabulario Internacional de Metrología (más conocido como VIM). La versión en español es emitida por el CEM (Centro Español de Metrología). El VIM en Español es hoy el referente para toda organización de habla hispana. Actualmente va por su 3ra edición (vigente desde 2012). 

Con el tiempo se han ido agregando y unificando términos específicos de ciencias puntuales como medicina y química. Es un documento gratuito, orientado principalmente a la difusión.

Pueden descargarlo gratuitamente desde la web del CEM o haciendo click en la imagen:

 VIM 3era Edición Español (2012)


Pueden utilizarlo libremente, sin violar derecho de autor, siempre y cuando se use en forma total y sin modificaciones.

•• Entrada destacada ••

Incertidumbre de medición ¿de qué se trata realmente?

Por Raúl Sejzer La incertidumbre es quizás el concepto más importante y, a la vez, el más dificil de asimilar e interpretar de la Metrol...