jueves, 18 de noviembre de 2010

¿Podemos fiarnos de nuestro instrumento?

Esta pregunta ronda siempre la cabeza de cualquiera que tiene que usar día a día instrumentos de medición, especialmente la de los responsables de laboratorios. Es una duda que se torna muy irritante cuando alguien “de fuera” pone en duda un resultado, sobre todo cuando el posible error implica perjuicios económicos.

Responder con propiedad a esta cuestión nos puede llevar, en última instancia, a los farragosos terrenos de la epistemología: ¿Qué es en realidad la realidad

Sin llegar tan lejos, nos quedaremos en el punto en que preguntamos “¿Por qué dice usted que mi instrumento está equivocado?”. O dicho de otro modo: “¿Qué razones le asisten a usted para afirmar que su valor es el correcto y que el mío está mal?”  Esto puede parecer retórico, pero es una discusión muy frecuente, que en algunas ocasiones termina en los tribunales.

La solución parece muy simple: Comparemos –usando los recursos estadísticos adecuados: ANOVA o procedimientos similares, para hacerlo con rigor- nuestros resultados contra los proporcionados por un instrumento de referencia o empleemos patrones. Lo complicado surge cuando nos preguntamos       ¿cuáles son los instrumentos    que podemos usar como    referencia –porque sus resultados son correctos- o cuáles patrones son dan un valor fiable, o sea, real?

Hay una primera vía   –la única válida cuando se trata de resolver un litigio, o sea, cuando, en última instancia, haya que argumentarlo ante un juez-: Compararemos nuestros resultados contra los proporcionados por un laboratorio acreditado o comprobaremos nuestro instrumento contra patrones certificados por una entidad acreditada.  En España, tanto para lo uno como para lo otro, quien acredita es ENAC, es decir, esta entidad es quien dice si un centro, oficial o no, tiene la competencia técnica suficiente para que la sociedad pueda fiarse siempre de sus resultados.

Normalmente es suficiente con esa primera vía. Si la diferencia entre lo que dice nuestro instrumento y el “valor oficial” es menor que lo admitido –sea por normativa, por contrato entre las partes en conflicto o, en caso de que no exista ni lo uno ni lo otro, por lo comúnmente aceptado por especialistas cuyo prestigio sea reconocido en ese entorno técnico-, los dos resultados son equivalentes, o sea, nuestro instrumento está bien. Hago notar que esa comparación habría que realizarla siguiendo procedimientos estadísticos rigurosos, si bien no se suele ser tan quisquilloso, porque generalmente la precisión de los instrumentos involucrados es suficientemente buena.  Por cierto, la diferencia entre el valor instrumental y el “real” se considera que indica la exactitud del instrumento.

Pero los que hemos estado metidos de lleno en el mundo de los laboratorios sabemos que, más frecuentemente de lo esperado, los laboratorios oficiales no siempre coinciden entre ellos al dar los resultados de muestras idénticas.  Las razones son varias. Descartando las no técnicas (errores administrativos, por ejemplo), casi siempre se deben a una desafortunada acumulación de pequeños errores. 

Para minimizar la ocurrencia de estos problemas, los laboratorios han de participar periódicamente en intercomparaciones, que suelen ser muy meticulosas y anónimas, excepto para cada uno de los afectados, los cuales pueden saber cuánto difieren sus resultados respecto a los “mejores” valores y corregir los defectos de sus recursos instrumentales.  Esos mejores valores se determinan mediante técnicas estadísticas muy eficaces, que permiten descartar los valores significativamente discordantes, denominados en este mundillo outliers.
Y entonces, ¿qué hacer si el resultado de mi instrumento no coincide con el que dan varios laboratorios y entre ellos también hay diferencias inaceptables y necesito saber el valor real para una toma de decisiones en el proceso productivo?  Si el valor es erróneo y el jefe de producción realiza una corrección basada en él o concluye, por el contrario, que no hace falta realizarla, las consecuencias económicas pueden ser desastrosas, en dependencia del valor y la cantidad del producto involucrado.  Esa es la situación más peliaguda y tiene difícil solución.

Podríamos aplicar un procedimiento similar al empleado en la búsqueda del mejor valor en una intercomparación, pero si son pocos los resultados utilizables –y eso es lo más probable- esas técnicas no son eficaces.  

Lo más pragmático será “casarnos” con uno de los laboratorios y hacer caso omiso de la información restante. Los criterios de selección deberán ser los siguientes:

  • Si, usando un patrón –certificado a partir una intercalibración seria-, ese laboratorio es el que mejor reproduce el valor de dicho patrón
  • Si sabemos que emplea los métodos oficiales y no las alternativas –más baratas y más rápidas- a dichos métodos, así como si los métodos están implementados sobre instrumentos cuya fiabilidad se reconozca consensuadamente por la comunidad
  • Si conocemos –de primera mano o mediante referencias fiables- que el equipo humano del laboratorio está bien calificado y que suele trabajar con rigor 
  • Si sabemos que el laboratorio acostumbra a participar en intercalibraciones prestigiosas y que tiene concertado el mantenimiento periódico de los instrumentos
  • Si el laboratorio está acreditado –al menos para la magnitud que nos interesa-, pues eso nos cubre, complementariamente, el aspecto legal

Si no nos fiamos de nuestro instrumento y no disponemos de tiempo ni es aconsejable gastar dinero en resultados externos, una solución temporal, de emergencia, es preparar un “patrón interno absoluto”, usando reactivos “pro analysi” y dosificándolos con el mayor esmero mediante aparatos suficientemente exactos, siempre que la técnica instrumental que estamos enjuiciando lo admita.  Como no es típico que un laboratorio de control de calidad elabore sus patrones por sistema, existe una probabilidad no despreciable de que se haga mal; es preferible que nos hagamos con un patrón comercialmente disponible, si lo hay.

Aquí cabe comentar que ciertos instrumentos, como los analizadores basados en la espectroscopía infrarroja asistida por algoritmos quimiométricos, en la mayoría de los casos, no pueden comprobarse usando patrones sintéticos, o sea, diferentes en naturaleza a las muestras que se emplearon para elaborar el modelo predictivo quimiométrico. Más adelante, en otras entradas, abordaré este tema en detalle.

Siempre he aconsejado a los responsables de laboratorio que, en coherencia con las “buenas prácticas”, comprueben si cada instrumento o montaje analítico del laboratorio se mantiene funcionando correctamente, o sea, dando resultados exactos, a lo largo del tiempo. Para ello lo más simple es disponer de un patrón –comprado o preparado, pero que se sepa que es estable durante el período de uso- y medirlo con el instrumento cuestionado, con una regularidad que dependerá de cada tipo de instrumento.  Generalmente, una vez a la semana suele ser suficiente. Los resultados se pueden anotar en el mismo registro (log) donde se registren las calibraciones.

Obviamente, ante una diferencia importante entre dos resultados sucesivos o del último respecto a la media, lo procedente es, primero, comprobar si el instrumento no está averiado –o sea, que haga falta la intervención del servicio técnico para reemplazar piezas o reparar la avería-. 

En ausencia de avería, hay dos posibles razones para las diferencias:

  • Una moderada deriva “natural” –debida tal vez a desgastes o deformaciones inherentes al envejecimiento del instrumento, pero que no sean lo suficientemente importantes como para reemplazar partes, o quizás a variaciones del ambiente- que puede y debe corregirse mediante una oportuna recalibración.
  • Una alteración en la composición o las propiedades físicas del patrón usado. Es fácil de detectar si previamente se almacenaron en condiciones óptimas algunas réplicas de dicho patrón o si se usa un patrón preparado ad hoc independientemente.  Al repetir la medición con patrones “frescos” se puede saber si el que estábamos usando ya no es apto.

La ventaja del registro de comprobaciones, además de constatar la estabilidad en el tiempo del instrumento para tranquilidad propia, es un excelente argumento para probar, ante los que nos acusan de que nuestros resultados son discordantes con los suyos, que ponemos un cuidado meticuloso en controlar nuestro laboratorio y que, por ello, es bastante improbable que nuestro resultado sea el erróneo.

La Repetibilidad

Este concepto merece una sección aparte.  Es un número que indica cuánto varían los resultados de una serie de mediciones razonablemente próximas en el tiempo, casi siempre tomadas una tras otra.  Es bastante común tomar la desviación típica (σ) de la serie como valor de la repetibilidad, ya que este número es una medida de la dispersión de los valores en torno a uno central.  El modo más rápido y cómodo de calcularla, a mi juicio, es mediante la función DESVEST de Excel.

Si la distribución es gaussiana, –también llamada normal, que suele gobernar la inmensa mayoría de los experimentos físicos y químicos-  aproximadamente el 95% de los valores de la serie estarán dentro del intervalo  -2 σ  a  2 σ  respecto al valor central, el cual será igual a la media de los valores. 

La precisión de un instrumento, que es una indicación más rigurosa de la repetibilidad, se suele dar como ±2 σ, es decir, si decimos que el instrumento tiene una precisión de ±2.5 unidades, estamos afirmando que la mayoría de las veces que lo utilicemos –o sea, el 95% de las veces- obtendremos valores que se alejan de la media hacia ambos lados, como mucho, 2.5 unidades.  Y lo más importante: si la dispersión de resultados que vemos cumple esa regla, el instrumento está funcionando correctamente, al menos tan correctamente como lo considera quien nos afirmó que su precisión es de ±2.5 unidades.  Asimismo, es razonable o “normal” que un 5% de los valores se salgan de ese intervalo. Normalmente dicha información la proporciona el fabricante, pero todos podemos determinarla fácilmente por nuestra cuenta.

Recomiendo, siempre que se pueda por razones prácticas o económicas, junto con la comprobación de la exactitud, hacer un test de repetibilidad con un mínimo de 5 mediciones sucesivas –hacer más de 20 no mejora sustancialmente la calidad del resultado- y constatar que la precisión está en el rango admitido por el fabricante como bueno.   Una mala repetibilidad –digamos que más de 1.5 veces la habitual del instrumento- es una clara indicación de un mal funcionamiento. Si un instrumento repite mal no tiene sentido que nos preocupemos por su exactitud, o sea, no vale la pena intentar recalibrarlo.   Sólo procede, en estos casos, avisar al servicio técnico.

Seguir disciplinadamente lo aquí recomendado es la única garantía de que podamos fiarnos siempre del instrumento. En el peor de los casos, sus errores nunca serán culpa nuestra.


No hay comentarios:

Publicar un comentario