lunes, 22 de noviembre de 2010

La quimiometría: el arte de leer lo que nos intentan decir los espectros entre líneas

La quimiometría es una disciplina que, principalmente mediante la estadística avanzada, permite extraer información analíticamente útil de los datos experimentales.  Aunque la quimiometría, hoy en día, engloba una gran variedad de técnicas y es aplicable a muchos tipos de datos, mi explicación estará enfocada hacia uno de sus usos más populares: el procesamiento de datos espectroscópicos, sobre todo los obtenidos mediante espectroscopía infrarroja. 

Como hay infinidad de sitios en Internet en los que se explican exhaustivamente los detalles de esta técnica, aquí tocaré sólo algunos aspectos muy conceptuales, de base, para que el neófito tenga un punto de partida “amigable”.   En entregas posteriores daré explicaciones más concretas y enlaces a páginas donde ampliar la información.

Lo que hace un algoritmo quimiométrico, en esencia, es poner de manifiesto, evidenciar, algunas tendencias ocultas que no se pueden apreciar mediante el estudio directo de los datos “en bruto”.  La intención es, casi siempre, que el sistema instrumento + software quimiométrico nos de un resultado numérico, por ejemplo, la concentración de un analito o una propiedad física de la muestra.  En otras ocasiones, lo que interesa no es un modelo que entregue resultados cuantitativos, sino que sea capaz de clasificar las muestras desconocidas en grupos predefinidos acorde a una propiedad cualitativa; en tales casos se habla de modelos discriminantes o de análisis clasificatorio.

Para usar las herramientas quimiométricas de manera óptima, normalmente hay que organizar el trabajo en dos fases: la primera, la de entrenamiento (training) y luego la de predicción.  

El objetivo de la primera es obtener el “modelo”, que explicado de manera muy simple, es como una fórmula matemática.  Dicha “fórmula” siempre se elabora mediante un software específico que, en muchas ocasiones, es lo suficientemente friendly como para que lo pueda usar un no especialista en estadística.  Lo importante, de cara al usuario de un sistema quimiométrico, es que para completar esta fase de entrenamiento, es necesario disponer de una colección de datos experimentales de partida, tomados sobre muestras reales –no síntéticas, en muchos casos-, como por ejemplo, un conjunto de decenas o centenares de espectros de infrarrojo y de los correspondientes valores reales –determinados por técnicas tradicionales- de la magnitud que se desea modelar.   La calidad y utilidad del modelo que consigamos hacer siempre dependerá de la calidad y de la naturaleza de los datos experimentales que hayamos empleado para elaborarlo.

La fase de predicción es en la que, usando el modelo que hemos elaborado, conseguimos conocer el valor de la magnitud modelada en muestras “problema”, es decir, es la fase útil, en la que hacemos el trabajo de rutina.  También en ésta es imprescindible la asistencia de un programa informático que gestione el procesamiento del espectro de la muestra problema, en base al modelo que hicimos en la fase previa.  Generalmente se trata de un módulo que complementa al software de modelado.  En muchos casos el paquete informático viene asociado al instrumento de medición y es capaz, además, de gestionar el funcionamiento del instrumento.

La idea central en la que se sustenta la quimiometría es que, aunque la forma de los espectros es una consecuencia directa de la composición química y de algunas propiedades físicas de las muestras, esa influencia no se manifiesta de manera simple, ya que las contribuciones de cada uno de los factores que aportan variabilidad espectral se superponen de manera compleja y, por ello, esa razón hay que tratar y “reorganizar” la información ostensible.  Eso se consigue mediante procedimientos estadísticos, que se apoyan en técnicas de álgebra lineal, implementados sobre en una plataforma informática.

Un ejemplo, para aclarar el galimatías: Supongamos que usted tiene un espectrofotómetro NIR y quiere usarlo para determinar el grado alcohólico de muestras de vinos.  Si pretendiera buscar un punto de los espectros en el que el valor de la absorbancia esté en relación con el grado, sin que el resto de las sustancias presentes en el vino influyan, no conseguiría encontrarlo.  Ha de hacer un modelo quimiométrico que sea capaz de encontrar esa relación oculta, tomando en cuenta todas las absorbancias. 

Para ello seleccionará un centenar de muestras de distintos vinos –tintos, blancos, rosados, jóvenes, de crianza, de varias denominaciones de origen y con el mayor rango de grados posible-, conseguirá los valores reales del grado de cada una –mediante técnicas tradicionales, como la destilación + densimetría- y las pasará, una a una, por el instrumento, a fin de disponer de cada uno de los espectros.  Hasta aquí todo es puramente instrumental.

Ahora entra en juego la quimiometría.  Usando un software adecuado –algunas veces viene con el propio instrumento-, relacionará cada espectro con el valor real del grado y pedirá al programa que elabore un modelo que sea capaz de expresar la relación entre las absorbancias y los valores del grado, si tal relación existe.  En la mayoría de los programas comerciales ese proceso es semiautomático, o sea, hay que guiar al programa en cada uno de los puntos de decisión, pero el trabajo sucio –los cálculos- lo realiza el software por su cuenta.  Claro está, la habilidad del que use el programa es muy importante para conseguir un modelo realmente bueno, fiable ante cualquier muestra problema en el futuro.  De un modelo así, se dice que es “robusto”.  En este punto ya usted tiene el modelo, o sea, “la fórmula”, que en realidad casi nunca verá con sus propios ojos, ya que no es propiamente una fórmula, sino una sucesión de operaciones con matrices multidimensionales.

Ha llegado ahora el momento de sacar provecho práctico del trabajo realizado: Estamos en la fase de predicción.  Si queremos saber el grado de una muestra de vino cualquiera, de la que no tengamos información previa alguna, bastará con pasarla por el espectrofotómetro, a fin  de obtener su espectro, y luego someter dicho espectro a la rutina del modelo.  Esto suele ser casi instantáneo y automático si se usa el programa que acompaña al instrumento.  El resultado de las operaciones estará muy próximo al grado real, si nuestro modelo está bien hecho, el instrumento funciona correctamente y la muestra no es demasiado “rara”… 

Y este es el único punto verdaderamente problemático de la quimiometría.  Las muestras problema han de ser de la misma naturaleza que las que se emplearon en la elaboración del modelo.  En caso de que no ocurra así, habrá siempre un resultado, pero seguramente será inaceptablemente erróneo; es lo que se conoce como “efecto matriz”.  Dicho de otro modo, si en vez de vino pasamos una muestra de cerveza de, digamos, 4.5 %VOL, tal vez obtengamos un valor de 3 o de 6 %VOL, o incluso peor. 

Aún con esta limitación, la espectroscopía asistida con recursos quimiométricos hoy en día es el paradigma de la economía y la rapidez en los análisis de control de calidad in-line, on-line y at-line, y se ha convertido en un recurso imprescindible para muchas empresas e instituciones de algunos sectores críticos, como el farmacéutico, el agroalimentario y el petroquímico.

Me gusta ilustrar las posibilidades de la quimiometría con el siguiente escenario virtual: Imaginemos que deseamos ver lo que hay dentro de una habitación a través de una ventana, estando nosotros fuera.  En este escenario, considerado desde el punto de vista de la quimiometría aplicada a la espectroscopía, la habitación es el conjunto de espectros –o datos multivariantes experimentales-, la ventana es el instrumento de medición, los objetos de la habitación constituyen la información a la deseamos acceder –o sea, propiedades químicas o físicas- y nosotros somos el modelo quimiométrico. 

Para ver lo que hay dentro hemos de colocarnos en algún lugar óptimo, generalmente frente a la ventana y cerca de ella, para tener un ángulo mayor.  Cada sitio en que nos pongamos nos permitirá ver una colección distinta de objetos; en dependencia de cómo estén distribuidos los objetos, tal vez nunca consigamos ver algunos.  Está claro que nunca podremos ver, desde ciertas posiciones, aquellos objetos que estén detrás de los que ocupan las primeras filas. Y también es evidente que cuanto más ancha sea la ventana y más transparente el vidrio, más y mejor veremos lo que hay dentro.  Esto último equivale a tener un instrumento con mayor rango y menos ruido, respectivamente.  Asimismo, si tenemos algún modo de encender la luz del interior o de limpiar la ventana por ambos lados -lo cual equivaldría a realizar pretratamientos de los datos-, mejoraremos la calidad de lo que vemos. 

Eso sí, nos pongamos donde nos pongamos, por intensa que sea la luz, por amplia que sea la ventana y por limpio que esté el vidrio, nunca conseguiremos ver los objetos que no estén, ni aquellos tan pequeños que se escapen a la resolución de nuestros ojos, ni los que estén guardados, contenidos, dentro de otros objetos. 

En otras palabras, aunque la quimiometría es una herramienta poderosísima y gratamente sorprendente, hay cosas que no puede hacer: Puede revelar información oculta, pero nunca aquella que no esté.  Si la señal que queremos identificar es muy pequeña, no mucho mayor que el ruido experimental, tampoco sacaremos nada en claro.  Y los resultados dependerán mucho de la calidad del modelo –o sea, de la habilidad que tengamos para colocarnos en el sitio idóneo en la fase de entrenamiento-.  De hecho, es probable que necesitemos varios modelos distintos a fin de cubrir eficientemente toda la variabilidad posible que encontraremos en la fase de predicción. 

Como dije antes, conseguir un buen modelo depende de muchos factores, lo que convierte esta labor en un quehacer casi artístico, que ha de realizarse con rigor, buenas dosis de intuición y mucha paciencia.  Es un acto, en cierto modo, creativo.  Cada modelo es, en sí mismo, un pequeño proyecto de I+D.



viernes, 19 de noviembre de 2010

¿Cuál microcontrolador elegir?

Normalmente, el núcleo de un sistema mecatrónico es un procesador (CPU), o sea, un ente que contenga el software que gestionará la información recibida del exterior –vía sensores, instrumentos o interfaces de usuario- a fin de elaborar automáticamente las respuestas o actuaciones consecuentes hacia el mundo exterior. 

Hoy en día hay muchas opciones para que el desarrollador elija el procesador adecuado. Los criterios de selección, por lo tanto, tienen que responder a una filosofía definida, si se quiere que la elección sea la óptima. Y óptima significa, en última instancia, la más fiable y económica.

Hubo una época, en la prehistoria, hace 40 años, en que la electrónica era sinónimo de avería, la era de las conexiones cableadas –falsos contactos, soldaduras frías, cables partidos e interferencias por inducción-, en las que muchas veces la mejor solución era la menos elegante: dar unos cuantos golpes en el sitio preciso.  Hoy en día, la fiabilidad de cualquier circuito más o menos bien diseñado y elaborado –incluso la de los que no lo son- es muy satisfactoria y no debe causar demasiada preocupación.  Tan sólo hay que cuidar un aspecto crítico: la simplicidad.

Y digo esto porque hay una tendencia –reforzada por una competencia de carácter endogámico entre los diseñadores- que consiste en complicar innecesariamente los diseños, con dos intenciones totalmente injustificadas: corregir o evitar problemas que jamás ocurrirán en el tiempo de vida esperado, por un lado, o intentar impresionar al jefe de proyecto o al cliente para justificar el trabajo, por el otro.  En tecnología hay dos principios básicos que hay que respetar a rajatabla: Si funciona, no lo toque, y todo intento de mejorar el diseño más allá de lo estrictamente necesario, reportará sólo problemas.

Mi filosofía de selección presta especial atención al aspecto económico, pero tomando en cuenta no sólo el precio del componente que alberga la unidad de control, sino algo que suele incidir mucho más de lo imaginado en el coste total de un proyecto o en su repercusión sobre cada unidad, en caso de que se fabriquen varias. 

De hecho, casi siempre, tendemos a preferir diseños minimalistas, ajustados, funcionalmente óptimos, que van muy bien para un concurso de robótica, pero que nos obliga a dedicar muchísimas horas de trabajo en el diseño, la programación y la solución de fallos.  Creemos que el diseño es económicamente viable porque hemos usado tan sólo un chip de 8 patas, de 1 €, capaz de comunicarse con una pantalla LCD y un PC, posicionar un servo y atender un teclado matricial, y todo eso programado desde cero en ensamblador mediante elegantes rutinas de diseño propio, totalmente libres de error. Luego nos sorprende que hayamos tardado varias semanas más en terminar el proyecto, respecto a lo habríamos tardado si hubiésemos usado otro de 28 patas, programable en alto nivel sobre una plataforma pródiga en rutinas preprogramadas y probadas por otros, que nos ha costado tal vez 10 €.  La manía de hacer diseños “de diseño” nos la meten en la cabeza los profesores; pero es que la mayoría de ellos jamás han tenido que diseñar para un mercado, en tanto que casi todos nosotros sí.

Una vez expuestos estos principios y para definirlos de un modo práctico, permítanme llamar su atención hacia una familia de microcontroladores que tengo en especial estima: la del ZX24 y similares, de la firma Elba Corp.  La firma nos vende un ATmega (de Atmel) preparado para aceptar programas escritos un lenguaje de alto nivel, una variante ligera del Visual Basic, el ZBasic.  Y es en ello en lo que, a mi juicio, radica el principal appeal de estos micros.


El ZBasic, es prácticamente igual al VB 6.0, al menos, en todo lo que atañe a un microcontrolador.  ¡La plataforma es como un pequeño sistema operativo que hasta permite hacer programas multitarea!  Eso significa, amigo programador, que el diseño que usted haga puede atender, simultáneamente –o casi, como ya se imagina-, en lazos infinitos independientes, varias entradas desvinculadas entre sí, con poquísimas líneas de código y gestión semiautomática del uso de la memoria de la pila.  Por otro lado, admite matemáticas en coma flotante, algo todavía no muy frecuente en este mundillo: cualquier diseño mecatrónico que pretenda objetivos algo más elaborados que manejar un ascensor o abrir y cerrar las válvulas en una empacadora, o sea, un proyecto que realmente incorpore inteligencia, no puede hacerse con matemáticas de enteros.

El IDE, incluido el compilador, es gratis.  La noticia es que se trata de uno de los pocos entornos de programación –al menos en Basic- que están bien documentados, libre de bugs importantes y con una suficiente cantidad de rutinas listas para su uso, tanto dentro del propio paquete como en las notas de aplicación.  Hay muchos usuarios habituales de estos micros, que participan en un foro serio y oportunamente atendido por los ingenieros del fabricante, con lo que resulta muy fácil encontrar una solución para nuestro problema en pocos minutos, tan sólo leyendo los posts afines.

Y aquí quiero romper todas mis lanzas a favor del Basic: Es, con diferencia, el entorno de programación con la mejor curva de aprendizaje y, en sus versiones más elaboradas –como ésta, el ZBasic- es más que suficiente para programar casi cualquier cosa.  Todos mis programas, con fines profesionales o no, los he hecho en este lenguaje y funcionan perfectamente bien.  Es el lenguaje ideal para quien usa la programación como una herramienta más en sus diseños y que, por lo tanto, no quiere perder tiempo en hacerse especialista en programación y pelearse con el árido ensamblador o con el poco simpático C. 

Tal vez valga la pena decir ahora que hay procesadores como los Arduino, con posibilidades y precios en el rango del ZX, pero por el momento, no puede programarse en Visual Basic. A mi juicio, es una seria desventaja para la gente como yo.

En ZX24 tiene unos 4 kBy de memoria RAM –a repartir entre las variables y la pila-, que permiten programar con mucha comodidad, incluso si fuera necesario emplear muchos arrays de decenas de elementos, sin preocuparnos demasiado por quedarnos sin memoria operativa.  Los 32 kBy para el código son más que suficientes para programas bastante pesados.  Y podemos guardar en variables persistentes los datos pseudo-constantes, para lo cual tiene algo de EEPROM disponible.

Ah, por cierto, se programa vía RS232 desde un PC –convertidor USB-Serie mediante, si hiciera falta-.  El ZX24 admite niveles no TTL, o sea, directo del PC.  Otros, como el ZX328, requieren que suministremos una simple interfaz de conversión.

Algo que conviene tener en cuenta: Estos micros son la última, la más reciente, etapa histórica de una saga de microcontroladores que, desde hace aproximadamente un decenio tuvieron, cada uno en su momento, gran éxito en el mercado de la robótica profesional y amateur: El BasicATOM, el Basic Stamp y el BasicX.   Los primeros estaban muy limitados, tanto en RAM como en las posibilidades de su lenguaje Basic; su principal mérito fue establecer y popularizar el concepto de una CPU pequeñita, “all-in-one”, insertable en un zócalo convencional, “interfaceable” directamente con una electrónica TTL y programable vía RS232 en un lenguaje que se aprende en un día.  El BasicX, a mi juicio, introdujo algunos cambios revolucionarios: una variante del Basic más cómoda, casi igual al Visual Basic, la multitarea y matemáticas en coma flotante.  Fue y sigue siendo el más popular y prueba de ello es la ingente cantidad de ejemplos de aplicaciones y soluciones que podemos encontrar en la web. 

Pero sigo prefiriendo los de Elba Corp. pues, a la vez que pueden usar directamente los programas escritos para BasicX  -o sea, tenemos a nuestra disposición toda la base de conocimiento disponible en BasicX-, el entorno ZBasic está mucho más refinado, especialmente lo relacionado con la multitarea, tiene más y mejores funciones, está mejor documentado y los chips tienen muchísima más memoria RAM.

Respecto al precio, para unas pocas unidades, el ZX24 cuesta unos 35 €.  Con la mitad de RAM (2 kBy) y suministrando nosotros el cristal oscilador y la interfaz RS232 PC->TTL, el ZX328 nos cuesta sólo unos 7 € y es capaz de manejar las mismas aplicaciones que podemos gestionar con el ZX24. 

Yo sugiero empezar con el ZX328, si nos preocupa el coste por unidad y vamos a desarrollar varios proyectos con este tipo de controladores; añadir la interfaz RS232 y el oscilador no complica sustancialmente el diseño y el límite de 2 kBy de RAM es bastante amplio para la mayoría de los algoritmos.  Si, por el contrario, se prevé que los programas usarán arreglos (arrays) extensos, o sea, que la cantidad de RAM necesaria será alta, o deseamos comenzar cuanto antes, sin complicarnos demasiado, tal vez partiendo de un diseño pensado para el BX24, y el proyecto admite el precio del ZX24, entonces éste es la elección adecuada.

Se que algunos me podrán decir que el mismo ATmega 328 de Atmel, que cuesta unos 3 € o menos, programado con BASCOM, es una solución equivalente y más barata.  Pues no.  El BASCOM está a kilómetros del ZBasic en cuanto a posibilidades y no es gratis.  

Otros podrán argumentar que hoy en día hay opciones más potentes, como los “embedded PC”, que también pueden programarse en Visual Basic, ya que admiten auténticos sistemas operativos,  que se comportan como ordenadores “normales” a los efectos de un usuario y que, por el otro extremo, sus interfaces están diseñadas para la conexión directa con la electrónica digital del “mundo real”. Vale, lo acepto.  Pero muchas de las aplicaciones mecatrónicas o instrumáticas no precisan de tanto poder.  Sería matar moscas a cañonazos, en la mayoría de los casos, y estos cañones cuestan por encima de los 100 €.

El mundo de los microcontroladores está en constante evolución. Hoy en día hay mucha competencia –eso es bueno para todos- y resulta difícil hacer una elección atinada.  En tales casos lo aconsejable es “casarse” con un tipo de micro que sea razonablemente versátil, de precio medio, del cual sea fácil migrar a otros similares si el fabricante deja de producirlos, con un entorno de programación bien documentado, pleno de funciones preprogramadas y fácil de aprender, con muchos seguidores en la comunidad, lo suficientemente simple y accesible como para usarlo en proyectos amateur pero que se pueda integrar fácilmente en un diseño con fines comerciales.  Por el momento, la familia ZX reúne todas esas condiciones.

La luz al final del túnel: la revolución LED en el alumbrado público

El tema de este artículo no está totalmente enmarcado en la instrumática o la mecatrónica.  Lo incluyo aquí porque es netamente tecnológico y fue un resultado directo de uno de mis trabajos como ingeniero de I+D, dentro del cual había algunos elementos "mecatrónicos".  Lo escribimos hace un par de años, cuando estábamos totalmente involucrados en un proyecto de iluminación de exteriores mediante lámparas LED y alimentación fotovoltaica,  el cual incorporaba sistemas de control inteligente.  La intención  del artículo, en aquellos momentos, era la de apoyar la comercialización de la farola fotovoltaica que habíamos diseñado; hoy en día considero que conserva su actualidad y supongo que pueda resultar de interés.

Las noches del futuro serán blancas.  El triste tono amarillo que hasta ahora ha predominado en la iluminación de las ciudades  será cada vez más raro gracias a la rápida maduración tecnológica que están experimentando los LEDs blancos de alta luminosidad y a la clara apuesta de políticos y ciudadanos por un alumbrado más ecológico, a la larga más económico y definitivamente de mejor calidad.
El diodo emisor de luz (Light Emitting Diode, simplificado como LED) fue,  hace unos 40 años, unas de las primeras contribuciones prácticas de las investigaciones en la física del estado sólido.   Desde entonces, los LEDs han jugado un importante papel en casi todos los dispositivos electrónicos cumpliendo infinidad de funciones: desde su modesto uso como indicadores hasta  su insustituible papel en las comunicaciones por fibra óptica o en el almacenamiento de información (CDROMs y DVDs) en su variante láser.  
Los primeros LEDs emitían en el infrarrojo.  Poco tiempo después se consiguió fabricar el primer LED visible, de color rojo.  Transcurrió un tiempo mayor hasta que pudo desarrollarse uno verde y no fue hasta la década de los 90 que se inventó el primer LED azul.  Esto significó una auténtica revolución, pues por primera vez se pudo generar luz blanca con un dispositivo de estado sólido, gracias a la combinación de esos tres colores.  El desarrollo en la búsqueda de emisiones en longitudes de onda cada vez más cortas continúa: ya se han conseguido LEDs comercializables que emiten en el ultravioleta profundo.
La aplicación de los LEDs al alumbrado exterior es bastante reciente y fue posible cuando se consiguió desarrollar un dispositivo que combinaba un LED azul de alta potencia con un recubrimiento de fósforos fluorescentes.  Con este montaje, parte del azul es reconvertida en  otros colores gracias a la intervención de los fósforos.  El efecto conjunto es un haz de una excelente luz blanca. 
Esta luz tiene una composición espectral densa y continua, o sea, en ella están presentes todos los colores y en proporciones próximas a los de la luz natural diurna, por lo que su calidad cromática es superior a la de cualquier otra lámpara de las desarrolladas hasta el presente.  Aún más, su eficiencia energética –mayor de 130  lm/W en sistemas comerciales y más de 200 lm/W en laboratorio-  es superior a la de cualquier otro tipo de lámpara empleada en la actualidad en el alumbrado público.
En los últimos decenios se ha venido empleando casi únicamente lámparas de descarga gaseosa para aplicaciones de alumbrado de exteriores, repartidas esencialmente en dos tipos: las de vapor de mercurio –de luz blanca, pero con pobre calidad cromática, poco eficientes y muy contaminantes a causa del mercurio que incorporan- y las de vapor de sodio –las de mayor eficiencia, pero cuya calidad cromática deja mucho que desear, sobre todo por el tono amarillento de su luz, que confiere al entorno iluminado una apariencia mortecina e irreal. 
Hace algún tiempo, los fabricantes de lámparas de descarga gaseosa, en un esfuerzo tecnológico para extraer  los últimos beneficios de un mercado sólidamente establecido, han conseguido una solución de compromiso para mejorar la calidad cromática de las de vapor de mercurio: añadir halogenuros metálicos y rediseñar el tubo de descarga, haciéndolo de un material cerámico que permite trabajar a temperaturas muy elevadas.  La luz emitida es sustancialmente más blanca y más cercana a la natural, pero la eficiencia es inferior a la de vapor de sodio o la de los nuevos LEDs, la probabilidad de fallos prematuros no es despreciable, contienen sustancias perjudiciales para el medio ambiente y su precio es  significativamente alto respecto a la de los dispositivos alternativos homólogos. 

Pero hay un problema añadido cuando se emplean lámparas de descarga: sus prestaciones dependen críticamente de la luminaria que las albergue, tanto en eficiencia como en uniformidad; una luminaria barata e inadecuada puede dar al traste con las aparentes ventajas de sustituir las lámparas de vapor de sodio tradicionales con estas nuevas lámparas de halogenuros metálicos.
Y es que frente a las lámparas de descarga gaseosa, los LEDs compiten con unas cuantas ventajas decisivas añadidas a la excelente calidad de su luz:
ü      Son lámparas muy robustas –no están hechas de vidrio-
ü      Trabajan a muy baja tensión y  una temperatura próxima a la del ambiente
ü      Tienen un tiempo de vida útil radicalmente superior al de las otras: Más de 50000 mil horas, o sea, unos 13 años, tras los cuales continúan emitiendo, a diferencia de las de descarga, que suelen morir catastróficamente y mucho antes (12000 horas en el mejor de los casos)
ü      Son absolutamente “dimables”, esto es, su emisividad puede ajustarse continuamente desde 0 al 100%, a fin de generar justo la luz que se necesita en cada caso y momento concretos, con el consecuente ahorro energético
ü      Suelen llevar óptica refractiva incorporada, por lo que no precisan de luminaria alguna y, gracias a dicha óptica, la uniformidad de la zona iluminada es máxima, lo cual se traduce directamente en confort y economía
ü      No contienen materiales o compuestos contaminantes
ü      Su tecnología está experimentando un progreso vertiginoso y es accesible a pequeñas y medianas empresas tecnológicas. Las comunidades que apuesten por la iluminación LED lo están haciendo también por un reparto más equitativo de las oportunidades de negocio
¿Tal vez sea por esa razón que los ayuntamientos de algunas importantes ciudades hayan decidido definitivamente romper con la tradición de instalar lámparas de descarga gaseosa y anuncien oficialmente el reemplazo del parque existente por lámparas LEDs?
En efecto, el ayuntamiento de Dusseldorf comunicó en fecha reciente que se reemplazarán unos 10000 puntos de luz ya existentes con lámparas LED.  El pasado año, el expresidente Clinton  -en el contexto del Programa de Alumbrado Exterior de la Iniciativa Climática Clinton-  y el alcalde de Los Ángeles, anunciaron que durante los próximos años se sustituirán en dicha ciudad 140000 puntos de luz por lámparas LED, como la mejor solución posible para reducir la emisiones  de CO2 y, a la vez, mejorar la apariencia nocturna de una de las ciudades más grandes y prósperas del planeta. 
Shuji Nakamura –el investigador que inventó el LED azul, punto de partida del desarrollo de los actuales LEDs blancos de alta luminosidad-  fue galardonado por ello en 2008  con el Premio Príncipe de Asturias.  Paradójicamente, en España, las administraciones locales no parecen estar al día de la “revolución LED” y las pocas manifestaciones al respecto han sido tímidas y poco difundidas.  Tal vez sea debido a que las empresas españolas que decidimos involucrarnos en esta novedosa tecnología no hemos aprendido aún utilizar eficazmente nuestros argumentos para catalizar el inevitable cambio.
Por lo pronto, el reto de los LEDs a las lámparas de descarga ya está planteado.  Por encima de todas sus ventajas, lo más significativo es que los LEDs traen la vitalidad de lo nuevo.  El advenimiento de los LEDs simboliza el claro propósito de mantener y mejorar las elevadísimas cotas de confort que hemos conseguido en unos pocos milenios de civilización, y ello sin comprometer la estabilidad del ecosistema global.

Espectros de distintas fuentes de luz.  Nótese que el del LED tiene un perfil similar al de la fuente de máxima eficiencia  teórica y contiene todos los colores.




jueves, 18 de noviembre de 2010

¿Podemos fiarnos de nuestro instrumento?

Esta pregunta ronda siempre la cabeza de cualquiera que tiene que usar día a día instrumentos de medición, especialmente la de los responsables de laboratorios. Es una duda que se torna muy irritante cuando alguien “de fuera” pone en duda un resultado, sobre todo cuando el posible error implica perjuicios económicos.

Responder con propiedad a esta cuestión nos puede llevar, en última instancia, a los farragosos terrenos de la epistemología: ¿Qué es en realidad la realidad

Sin llegar tan lejos, nos quedaremos en el punto en que preguntamos “¿Por qué dice usted que mi instrumento está equivocado?”. O dicho de otro modo: “¿Qué razones le asisten a usted para afirmar que su valor es el correcto y que el mío está mal?”  Esto puede parecer retórico, pero es una discusión muy frecuente, que en algunas ocasiones termina en los tribunales.

La solución parece muy simple: Comparemos –usando los recursos estadísticos adecuados: ANOVA o procedimientos similares, para hacerlo con rigor- nuestros resultados contra los proporcionados por un instrumento de referencia o empleemos patrones. Lo complicado surge cuando nos preguntamos       ¿cuáles son los instrumentos    que podemos usar como    referencia –porque sus resultados son correctos- o cuáles patrones son dan un valor fiable, o sea, real?

Hay una primera vía   –la única válida cuando se trata de resolver un litigio, o sea, cuando, en última instancia, haya que argumentarlo ante un juez-: Compararemos nuestros resultados contra los proporcionados por un laboratorio acreditado o comprobaremos nuestro instrumento contra patrones certificados por una entidad acreditada.  En España, tanto para lo uno como para lo otro, quien acredita es ENAC, es decir, esta entidad es quien dice si un centro, oficial o no, tiene la competencia técnica suficiente para que la sociedad pueda fiarse siempre de sus resultados.

Normalmente es suficiente con esa primera vía. Si la diferencia entre lo que dice nuestro instrumento y el “valor oficial” es menor que lo admitido –sea por normativa, por contrato entre las partes en conflicto o, en caso de que no exista ni lo uno ni lo otro, por lo comúnmente aceptado por especialistas cuyo prestigio sea reconocido en ese entorno técnico-, los dos resultados son equivalentes, o sea, nuestro instrumento está bien. Hago notar que esa comparación habría que realizarla siguiendo procedimientos estadísticos rigurosos, si bien no se suele ser tan quisquilloso, porque generalmente la precisión de los instrumentos involucrados es suficientemente buena.  Por cierto, la diferencia entre el valor instrumental y el “real” se considera que indica la exactitud del instrumento.

Pero los que hemos estado metidos de lleno en el mundo de los laboratorios sabemos que, más frecuentemente de lo esperado, los laboratorios oficiales no siempre coinciden entre ellos al dar los resultados de muestras idénticas.  Las razones son varias. Descartando las no técnicas (errores administrativos, por ejemplo), casi siempre se deben a una desafortunada acumulación de pequeños errores. 

Para minimizar la ocurrencia de estos problemas, los laboratorios han de participar periódicamente en intercomparaciones, que suelen ser muy meticulosas y anónimas, excepto para cada uno de los afectados, los cuales pueden saber cuánto difieren sus resultados respecto a los “mejores” valores y corregir los defectos de sus recursos instrumentales.  Esos mejores valores se determinan mediante técnicas estadísticas muy eficaces, que permiten descartar los valores significativamente discordantes, denominados en este mundillo outliers.
Y entonces, ¿qué hacer si el resultado de mi instrumento no coincide con el que dan varios laboratorios y entre ellos también hay diferencias inaceptables y necesito saber el valor real para una toma de decisiones en el proceso productivo?  Si el valor es erróneo y el jefe de producción realiza una corrección basada en él o concluye, por el contrario, que no hace falta realizarla, las consecuencias económicas pueden ser desastrosas, en dependencia del valor y la cantidad del producto involucrado.  Esa es la situación más peliaguda y tiene difícil solución.

Podríamos aplicar un procedimiento similar al empleado en la búsqueda del mejor valor en una intercomparación, pero si son pocos los resultados utilizables –y eso es lo más probable- esas técnicas no son eficaces.  

Lo más pragmático será “casarnos” con uno de los laboratorios y hacer caso omiso de la información restante. Los criterios de selección deberán ser los siguientes:

  • Si, usando un patrón –certificado a partir una intercalibración seria-, ese laboratorio es el que mejor reproduce el valor de dicho patrón
  • Si sabemos que emplea los métodos oficiales y no las alternativas –más baratas y más rápidas- a dichos métodos, así como si los métodos están implementados sobre instrumentos cuya fiabilidad se reconozca consensuadamente por la comunidad
  • Si conocemos –de primera mano o mediante referencias fiables- que el equipo humano del laboratorio está bien calificado y que suele trabajar con rigor 
  • Si sabemos que el laboratorio acostumbra a participar en intercalibraciones prestigiosas y que tiene concertado el mantenimiento periódico de los instrumentos
  • Si el laboratorio está acreditado –al menos para la magnitud que nos interesa-, pues eso nos cubre, complementariamente, el aspecto legal

Si no nos fiamos de nuestro instrumento y no disponemos de tiempo ni es aconsejable gastar dinero en resultados externos, una solución temporal, de emergencia, es preparar un “patrón interno absoluto”, usando reactivos “pro analysi” y dosificándolos con el mayor esmero mediante aparatos suficientemente exactos, siempre que la técnica instrumental que estamos enjuiciando lo admita.  Como no es típico que un laboratorio de control de calidad elabore sus patrones por sistema, existe una probabilidad no despreciable de que se haga mal; es preferible que nos hagamos con un patrón comercialmente disponible, si lo hay.

Aquí cabe comentar que ciertos instrumentos, como los analizadores basados en la espectroscopía infrarroja asistida por algoritmos quimiométricos, en la mayoría de los casos, no pueden comprobarse usando patrones sintéticos, o sea, diferentes en naturaleza a las muestras que se emplearon para elaborar el modelo predictivo quimiométrico. Más adelante, en otras entradas, abordaré este tema en detalle.

Siempre he aconsejado a los responsables de laboratorio que, en coherencia con las “buenas prácticas”, comprueben si cada instrumento o montaje analítico del laboratorio se mantiene funcionando correctamente, o sea, dando resultados exactos, a lo largo del tiempo. Para ello lo más simple es disponer de un patrón –comprado o preparado, pero que se sepa que es estable durante el período de uso- y medirlo con el instrumento cuestionado, con una regularidad que dependerá de cada tipo de instrumento.  Generalmente, una vez a la semana suele ser suficiente. Los resultados se pueden anotar en el mismo registro (log) donde se registren las calibraciones.

Obviamente, ante una diferencia importante entre dos resultados sucesivos o del último respecto a la media, lo procedente es, primero, comprobar si el instrumento no está averiado –o sea, que haga falta la intervención del servicio técnico para reemplazar piezas o reparar la avería-. 

En ausencia de avería, hay dos posibles razones para las diferencias:

  • Una moderada deriva “natural” –debida tal vez a desgastes o deformaciones inherentes al envejecimiento del instrumento, pero que no sean lo suficientemente importantes como para reemplazar partes, o quizás a variaciones del ambiente- que puede y debe corregirse mediante una oportuna recalibración.
  • Una alteración en la composición o las propiedades físicas del patrón usado. Es fácil de detectar si previamente se almacenaron en condiciones óptimas algunas réplicas de dicho patrón o si se usa un patrón preparado ad hoc independientemente.  Al repetir la medición con patrones “frescos” se puede saber si el que estábamos usando ya no es apto.

La ventaja del registro de comprobaciones, además de constatar la estabilidad en el tiempo del instrumento para tranquilidad propia, es un excelente argumento para probar, ante los que nos acusan de que nuestros resultados son discordantes con los suyos, que ponemos un cuidado meticuloso en controlar nuestro laboratorio y que, por ello, es bastante improbable que nuestro resultado sea el erróneo.

La Repetibilidad

Este concepto merece una sección aparte.  Es un número que indica cuánto varían los resultados de una serie de mediciones razonablemente próximas en el tiempo, casi siempre tomadas una tras otra.  Es bastante común tomar la desviación típica (σ) de la serie como valor de la repetibilidad, ya que este número es una medida de la dispersión de los valores en torno a uno central.  El modo más rápido y cómodo de calcularla, a mi juicio, es mediante la función DESVEST de Excel.

Si la distribución es gaussiana, –también llamada normal, que suele gobernar la inmensa mayoría de los experimentos físicos y químicos-  aproximadamente el 95% de los valores de la serie estarán dentro del intervalo  -2 σ  a  2 σ  respecto al valor central, el cual será igual a la media de los valores. 

La precisión de un instrumento, que es una indicación más rigurosa de la repetibilidad, se suele dar como ±2 σ, es decir, si decimos que el instrumento tiene una precisión de ±2.5 unidades, estamos afirmando que la mayoría de las veces que lo utilicemos –o sea, el 95% de las veces- obtendremos valores que se alejan de la media hacia ambos lados, como mucho, 2.5 unidades.  Y lo más importante: si la dispersión de resultados que vemos cumple esa regla, el instrumento está funcionando correctamente, al menos tan correctamente como lo considera quien nos afirmó que su precisión es de ±2.5 unidades.  Asimismo, es razonable o “normal” que un 5% de los valores se salgan de ese intervalo. Normalmente dicha información la proporciona el fabricante, pero todos podemos determinarla fácilmente por nuestra cuenta.

Recomiendo, siempre que se pueda por razones prácticas o económicas, junto con la comprobación de la exactitud, hacer un test de repetibilidad con un mínimo de 5 mediciones sucesivas –hacer más de 20 no mejora sustancialmente la calidad del resultado- y constatar que la precisión está en el rango admitido por el fabricante como bueno.   Una mala repetibilidad –digamos que más de 1.5 veces la habitual del instrumento- es una clara indicación de un mal funcionamiento. Si un instrumento repite mal no tiene sentido que nos preocupemos por su exactitud, o sea, no vale la pena intentar recalibrarlo.   Sólo procede, en estos casos, avisar al servicio técnico.

Seguir disciplinadamente lo aquí recomendado es la única garantía de que podamos fiarnos siempre del instrumento. En el peor de los casos, sus errores nunca serán culpa nuestra.


miércoles, 17 de noviembre de 2010

Una breve introducción

La instrumática, en el contexto de este blog, es el conjunto de conocimientos y recursos para el diseño y la explotación de instrumentos de medición. Ciertamente, no es un término que al autor le conste que haya sido previamente definido o que se emplee cotidianamente en los entornos tecnológicos, pero lo real es que, en torno a los instrumentos de medición, existe hoy en día una industria próspera y muy definida, cuya  influencia alcanza de lleno a sectores críticos como el farmacéutico y el de la alimentación y sin la cual sería totalmente imposible la investigación científica actual.

El término mecatrónica, sin embargo, está popularmente aceptado, al menos en los ambientes afines a la robótica y ya en Wikipedia existe una entrada suficientemente explicativa, donde la definen como “diseño y construcción de sistemas mecánicos inteligentes”. La idea esencial en torno a la mecatrónica es la acción automática              –principalmente sobre entes industriales-, con el fin de conseguir un propósito concreto y a partir del procesamiento inteligente de los datos proporcionados por sensores o instrumentos de medición.

En ambas disciplinas hay tanto aspectos comunes como complementarios y por ello aparecen unidas como temática de este blog.  No pretendo hacer un site exhaustivo y estructurado; sería pretencioso en exceso y, además, inútil.  Tan sólo deseo transmitir parte de mi experiencia, que si algo tiene de valioso no es por ser dilatada, sino por ser sufrida. Y, de paso, espero suscitar debates y comentarios que nos hagan a todos un poco más listos y útiles.

Tocaré, en las sucesivas entradas, entre otros, temas como los siguientes:

  • el significado práctico, real, de conceptos tan importantes y tan poco comprendidos como son la precisión, la exactitud, la resolución, la calibración, los outliers, en fin, la gestión de los errores experimentales…
  • recursos matemáticos muy prácticos y casi imprescindibles, como por ejemplo, la incorporación en los programas de los microcontroladores de tablas empíricas en forma de fórmulas de regresión, sin los cuales el control de ciertos procesos sería imposible o rudimentario…
  • el estado de la técnica en la espectroscopía de infrarrojos, analizado con sentido crítico y prestando especial atención a los últimos avances que permiten incorporarla al control industrial a bajo coste y con elevada fiabilidad gracias al advenimiento de la tecnología MEMS…
  • ¿qué es la quimiometría? ¿cómo implementarla, invirtiendo un mínimo de recursos para extraer información de los datos experimentales? ¿qué no podemos pedirle?...
  • mi experiencia y consejos en el uso de herramientas de diseño profesionales con curvas de aprendizaje muy cortas y resultados inmediatos, como son el software de diseño de circuitos impresos Eagle o el programa de diseño mecánico en 3D Solid Works…
 Gracias por vuestra compañía.