Preguntas frecuentes (FAQs)

¿Cómo medir la actividad del agua (aw)?

La medición de la actividad del agua o la humedad relativa de equilibrio (ERH) es un parámetro clave en el control de calidad de productos o materiales sensibles a la humedad. La actividad del agua nos informa de la vida útil del producto y su estado.

Los instrumentos miden la humedad en equilibrio de un producto que viene determinada por la presión parcial del vapor de agua en su superficie.

Es importante no confundir la actividad del agua con el contenido de agua, ya que este último se emplea para controlar la cantidad de agua presente en un producto por razones cuantitativas. Sin embargo, la actividad del agua es de elección para mantener una estabilidad microbiológica y enzimática.

Los microorganismos necesitan disponer de una cantidad de agua para crecer y llevar a cabo sus funciones metabólicas. Por ello, es necesario medir la actividad de agua (aw) mediante un tipo de higrómetros preparados para tal fin, pudiendo determinar la disponibilidad de agua, un factor que posibilitará o dificultará el crecimiento microbiano en los alimentos.

El valor aw depende de la composición, la temperatura y el contenido en agua del producto. Este valor incide sobre las características de calidad: sabor, color, textura, valor nutricional y tiempo de conservación. La aw de un alimento se puede reducir aumentando la concentración de solutos en la fase acuosa de los alimentos mediante la extracción del agua o mediante la adición de solutos (azúcares, sales, alcoholes, etc.).

Por ejemplo, una actividad de agua con valor aw de 0.80 significa que la presión de vapor es 80% de la del agua pura. Un valor inferior a 0.75 inhibe el crecimiento bacteriano, pero pueden crecer algunas levaduras y mohos. Si el valor es inferior a 0.6 aw, todo el crecimiento se inhibe.

Estos instrumentos tienen una escala de medida entre 0,03 - 1.00 a 0.0300 - 1.0000 aw. Algunos están termostatizados, ya que es conveniente medir a temperatura sobre los 25ºC, y si no disponen de esta se deben de medir a la misma temperatura muestra y equipo. 

Más información sobre instrumentos para medir la actividad del agua

Información sobre medidores de actividad de agua

Existen medidores con principio de medida diferente, por ejemplo, los que se basan en los higrómetros de capacitancia. Utilizan dos placas cargadas, separadas por un dieléctrico de membrana polimérica, que a medida que la membrana adsorbe agua, aumenta su capacidad para mantener la carga y medir la capacitancia. Este valor es aproximadamente proporcional a la actividad del agua según lo determinado por una calibración específica del sensor.

Este tipo de medidores tienen algunas ventajas: no se ven afectados por la mayoría de los productos químicos volátiles, pueden ser mucho más pequeños que otros sensores alternativos y no requieren limpieza. Sin embargo, son menos precisos que los higrómetros de punto de rocío (± 0.015)

Otro sistema es el de los equipos que funcionan mediante la determinación del punto de rocío (espejo frío).

Los higrómetros de punto de rocío funcionan al colocar un espejo sobre una cámara de muestra cerrada. El espejo se enfría hasta la temperatura del punto de rocío y se mide por medio de un sensor óptico. La temperatura obtenida se utiliza posteriormente para encontrar la humedad relativa de la cámara mediante el uso de tablas psicométricas. Se trata, teóricamente, del método más preciso: ±0.003 aw, aunque no es recomendado para productos volátiles.

Más información sobre instrumentos para medir la actividad del agua

Calibración de los medidores de actividad de agua “aw”

Los medidores de actividad de agua, así como los higrómetros tradicionales, se calibran utilizando diversas sales patrón como cloruro sódico, nitrato potásico o sulfato potásico, con valores conocidos de aw a 25°C (valores de aw de 0.758 a 0.969).

Para determinar la aw, se requiere un tiempo para alcanzar el equilibrio del vapor de agua en el espacio donde se encuentra la muestra y a temperatura controlada. Una ligera variación de la temperatura sobre la muestra, por ejemplo 0,1ºC, puede dar una diferencia aproximada de 0,005 aw. Si es de 1ºC, la diferencia seria de 0.05 aw, suficiente para que algunos microrganismos puedan desarrollarse. Por ello, se debe controlar cuidadosamente la temperatura o utilizar un sistema termostático.

Más información sobre instrumentos para medir la actividad del agua

Regulaciones de los medidores de actividad de agua “aw”

Si la actividad del agua de los alimentos es inferior a 0.85 en el producto terminado, no está sujeto a las regulaciones de 21 CFR Partes 108, 113 y 114. En caso contrario, esta regulación establece que la esterilidad comercial debe determinarse mediante el control de la actividad del agua.

Regulaciones CFR sobre protección de productos controlados por aw

  • 21 CFR 113.10 - Asistencia a una escuela aprobada que instruye sobre la tecnología de preservación involucrada
  • 21 CFR 113.40(i) - Equipos y procedimientos para el procesamiento térmico de alimentos donde se utilizan factores críticos como la actividad del agua
  • 21 CFR 113.81(f) - Factores adicionales a controlar para prevenir el crecimiento de microorganismos no destruidos por el proceso térmico
  • 21 CFR 113.100(a) (6) - Requisitos de mantenimiento de registros para determinaciones de aw
  • ISO 21807 - Microbiology of food and animal feeding stuffs. Determination of water activity

Más información sobre instrumentos para medir la actividad del agua

La actividad del agua (aw) de ciertos alimentos

  1. Las carnes y pescados frescos, las frutas, las hortalizas y las verduras frescas, la leche, las hortalizas en salmuera enlatadas y las frutas enlatadas en jarabes diluidos tienen un aw de 0,98 o superior. En alimentos con alto contenido en agua -los que presentan un 3,5% de NaCl o un 26% de sacarosa en la fase acuosa-, en este rango de aw crecen sin impedimento todos los microorganismos causantes de toxiinfecciones alimentarias y los que habitualmente dan lugar a alteraciones, excepto los xerófilos y halófilos extremos.
  2. La leche concentrada por evaporación, el concentrado de tomate, los productos cárnicos y de pescado ligeramente salados, las carnes curadas enlatadas, los embutidos fermentados y cocidos (no secos), los quesos de maduración corta y los de pasta semidura, las frutas enlatadas en almíbar, el pan y las ciruelas con un alto contenido en agua tienen un aw entre 0,98 y 0,93. La concentración máxima de sal o sacarosa en la fase acuosa de estos alimentos está entre el 10% y 50%, respectivamente. Todos los microorganismos conocidos causantes de toxiinfecciones alimentarias pueden multiplicarse, por lo menos, a los valores más altos de aw comprendidos en este intervalo.
  3. Los embutidos fermentados y madurados, el queso Cheddar salado, el jamón serrano y la leche condensada azucarada tienen un aw entre 0,93 y 0,85. A este grupo de alimentos pertenecen aquellos con un contenido en sal superior al 17% y los que contienen concentraciones de sacarosa a saturación en la fase acuosa. Entre las bacterias conocidas, solo una -Staphylococcus aureus- es capaz de producir intoxicación alimentaria a estos niveles de aw, pero pueden crecer muchos mohos productores de micotoxinas.
  4. Los alimentos de humedad intermedia, las frutas secas, la harina, los cereales, las confituras y mermeladas, las melazas, el pescado muy salado, los extractos de carne, algunos quesos muy madurados y las nueces tienen un aw entre 0,85 y 0,60. Las bacterias patógenas no crecen en este intervalo de aw. Cuando ocurre una alteración se debe a microorganismos xerófilos, osmófilos o halófilos.
  5. Los dulces, el chocolate, la miel, los fideos, las galletas, las patatas fritas, las verduras secas, los huevos y la leche en polvo tienen un aw inferior a 0,60.

Los microorganismos no se multiplican por debajo de una aw de 0,60 pero pueden permanecer latentes durante largos períodos de tiempo.

Más información sobre instrumentos para medir la actividad del agua

¿La temperatura cambia la actividad del agua de un material?

Es difícil conocer qué productos son sensibles a la temperatura, por ejemplo, los productos cárnicos son bastante estables, azucares y determinados polvos se afectan más, solo la experiencia o medir a diferentes temperaturas nos dará información.

Más información sobre instrumentos para medir la actividad del agua

¿Congelar un producto aumenta su actividad de agua?

La actividad del agua no se puede medir en un producto congelado y al descongelar hemos de hacerlo de forma que las células no se rompan, ya que entonces la actividad del agua puede cambiar.

Más información sobre instrumentos para medir la actividad del agua

 

 

¿Qué equipo es necesario para medir la conductividad?

En LabProcess contamos con un amplio catálogo de instrumentos con la mejor tecnología, diseñados para trabajar sobre el terreno. Estos equipos versátiles y robustos permiten trabajar con diferentes células de conductividad para la mayoría de las soluciones a medir. Nuestros productos cuentan con un extenso programa de disoluciones patrón de conductividad para poder efectuar las calibraciones, así como testers (equipos de bolsillo).

Productos de laboratorio para medir la conductividad:

Más información sobre conductividad

¿Cuáles son las unidades de conductividad?

La Conductividad, en medios líquidos se mide con conductímetros o conductivímetros, materiales de laboratorio especiales para conocer los niveles de conductividad eléctrica. La medida se efectúa mediante un conductímetro con una célula de medida de conductividad, formada por un par de electrodos (polos) a los que se aplica un voltaje. El medidor mide la corriente de flujo y calcula la conductividad.

Medidas que se obtienen de la Conductividad

Medir la conductividad es muy útil para el trabajo en diferentes industrias, como pueden ser: la farmacéutica, la agricultura y la química, entre otras, así como de gran importancia para el control de todo tipo de aguas: puras, naturales, de pozo, potables, marinas, residuales, etc. Su unidad de medición es el Siemens/cm (S/cm); si lo aplicamos a una magnitud de 10 elevado a -6 obtenemos un valor en microSiemens (µS/cm); y si lo medimos en 10 elevado a -3, estamos hablando de miliSiemens (mS/cm).

Cuando se están calculando los niveles de conductividad eléctrica en soluciones acuosas, estos valores son directamente proporcionales a la concentración de sólidos disueltos en el líquido. Así, cuanto más alto sea su volumen de concentración, mayores serán los valores de conductividad. Por ejemplo, cuando se mide la conductividad del agua los resultados que deben obtenerse son los siguientes en unidades de conductividad:

  • Agua pura: 0.055 µS/cm
  • Agua destilada: 0.5 a 2.0 µS/cm
  • Agua de montaña: >1.0 µS/cm
  • Agua para uso doméstico: 400 a 800 µS/cm
  • Niveles máximos de conductividad en agua potable: 1500 µS/cm
  • Agua de mar: ≈52 mS/cm

Más información sobre conductividad

¿Cómo medir la conductividad eléctrica?

La conductividad eléctrica de una solución de un electrolito se mide determinando la resistencia de la solución entre dos electrodos planos o cilíndricos separados por una distancia fija. Se utiliza una tensión alterna para evitar la electrólisis.

Cuando se están calculando los niveles de conductividad eléctrica en soluciones acuosas, estos valores son directamente proporcionales a la concentración de sólidos disueltos en el líquido. Así, cuanto más alto sea su volumen de concentración, mayores serán los valores de conductividad. Por ejemplo, cuando se mide la conductividad del agua los resultados que deben obtenerse son los siguientes en unidades de conductividad:

  • Agua pura: 0.055 µS/cm
  • Agua destilada: 0.5 a 2.0 µS/cm
  • Agua de montaña: >1.0 µS/cm
  • Agua para uso doméstico: 400 a 800 µS/cm
  • Niveles máximos de conductividad en agua potable: 1500 µS/cm
  • Agua de mar: ≈52 mS/cm

Más información sobre conductividad

Guía para el uso del conductímetro

El uso del conductímetro según el tipo de medidor de conductividad:

Medidores de Conductividad: Conductímetros Portátiles

Conductímetros portátiles de última generación, con pantallas digitales a color que facilitan las mediciones, informan del estado de la célula, guían la calibración, y también la auto-detección del patrón de conductividad y dureza.

Los conductímetros portátiles, pueden ser complementados con diferentes tipos de célula de conductividad con sensor de temperatura integrado, capaces de medir la conductividad, salinidad y TDS (Total de Sólidos Disueltos en líquidos). También modelos que incluyen el Software GLP DataLink, datalogger y la función CAL TIMER (temporizador de calibración).

Medidores de Conductividad: Conductímetros de Sobremesa

Los Conductímetros de Sobremesa con pantallas digitales a color que facilitan las mediciones, informan del estado de la célula, guían la calibración, y también la auto-detección del patrón de conductividad y dureza. Incluyen el software Datalogger, GLP DataLink, la función CAL TIMER (temporizador de calibración) salidas para PC e impresora y la posibilidad de poder conectar un teclado mediante un puerto USB. Pueden ampliarse las funcionalidades de estos instrumentos de laboratorio complementándolos con accesorios como: diferentes células de conductividad, agitador magnético, soporte con brazo articulado con base, o impresora, entre otros.

En LabProcess disponemos de las principales marcas del sector con los mejores productos de laboratorio para realizar mediciones de conductividad y resistividad. Nuestro catálogo ofrece instrumentos con una gran pantalla desde la que se puede ver toda la información de las mediciones: Temperatura, Salinidad y TDS, con un rango de hasta 500 g/l (ppt).

Medidores de Conductividad: Conductímetros de Bolsillo

Para aquellas mediciones que requieran de un trabajo de campo, en LabProcess contamos con un catálogo de Conductímetros de Bolsillo con pantalla digital, que hacen calibraciones a 2 puntos y dan información de los patrones calibrados y realizan la compensación de temperatura a 25ºC. Este tipo de conductivímetros son de elección para el trabajo en industrias como: agricultura, piscinas, Spas, jardinería hidropónica, entre otras, para realizar mediciones de conductividad, salinidad y TDS de forma rápida y sencilla.

Más información sobre conductividad

¿Cómo platinar los electrodos de una célula de conductividad?

Esta es una solución para las células de conductividad más empleadas, que son de vidrio y placas de platino. El platino a fin de que sea más efectivo tiene un tratamiento electroquímico mediante deposición electrolítica del metal a partir de una solución de platinización, que deposita en su superficie una capa de lo que se denomina “negro de platino” muy esponjosa, pero que con el uso se va deteriorando, mermando las especificaciones de la célula.

Antes de realizar el proceso de platinización, se han de limpiar los polos de la célula de la siguiente manera: durante unos minutos con HCl concentrado para asegurar una correcta limpieza y adherencia del nuevo revestimiento de platino. Luego enjuagar a fondo con agua destilada.

Preparar la disolución de platinización como sigue: 25 ml al 5% en peso de ácido cloroplatínico, con 1 cristal de acetato de plomo (exactamente 3 g de ácido cloroplatínico (IV) hexahidratado H2 [PtCl6] x 6 H2O y 30 mg de plomo acetato en 100 ml de agua destilada).

A continuación, se sumerge la célula en esta disolución y conectar a la célula una fuente de alimentación, basta con 1 pila de 9 volts y aplicando corriente alternativa a los electrodos (a los conectores del cable) cada 15 segundos, hasta deposito completo de negro de platino sobre las superficies, (la polaridad es indiferente ya que se debe invertir la polaridad durante el proceso de platinización) Luego enjuague bien con agua destilada.

Más información sobre conductividad

¿Qué es el coeficiente de temperatura TC en un instrumento de medida de conductividad?

Las medidas de conductividad dependen fuertemente de la temperatura, cuando la temperatura de una muestra aumenta, la conductividad también aumenta.

Esto es debido a que la viscosidad de la muestra disminuye, lo que conduce a una mayor movilidad de los iones, aunque la concentración de estos se mantiene constante.

Por lo tanto, cada resultado de una medida de conductividad debe referirse necesariamente a la temperatura que se ha realizado.

Por esta razón, las lecturas se refieren a una temperatura de referencia TC, lo que hace que los resultados sean comparables.

La temperatura de referencia es de 25°C mayoritariamente, aunque a veces también se usa a 20°C.

Corrección de temperatura Lineal

Como ajustar la temperatura de las muestras a la temperatura de referencia es un procedimiento lento y costoso, los medidores de conductividad convierten el valor medido a una temperatura x, como si esta fuera a 25ºC.

Esta función se realiza gracias a la introducción de un factor que llamamos TC, “Coeficiente de temperatura”, seleccionable a la temperatura de referencia deseada por el usuario.

El coeficiente de temperatura TC, expresa la variación en %/ °C de la conductividad de una disolución determinada, normalmente en disoluciones acuosas este valor se sitúa alrededor de 2, que significa que, por cada grado de aumento de la temperatura, el valor de la conductividad aumenta un 2%.

Ejemplo:

Si se desconoce el valor del TC, para su determinación primero hemos de introducir en el instrumento un TC=0, a continuación, se realizan dos mediciones, una a la temperatura de referencia T1, por ejemplo, a 25ºC y una segunda a una temperatura T2 diferente, por ejemplo, a 35ºC de una disolución 0.01 Molar de KCl.

Medida 1= 1413 µS/cm a 25ºC

Medida 2= 1698 µS/cm a 35ºC

Y aplicamos la formula

         (1698 µS/cm-1413 µS/cm) x 100%

ą= ----------------------------------------------      = 2.017%/ºC

          (35ºC – 25ºC) x 1413 µS/cm

Por lo tanto, en este caso el TC es de 2.017 %/ºC

Nota:

Las medidas obviamente siempre se realizan con sensor de temperatura integrado en la célula de conductividad.

Para aguas puras, normalmente no se emplea el TC, o sea TC=0, se calibra el equipo a los valores de la tabla conductividad/temperatura que aparece en los patrones de agua pura y posteriormente se efectúa la medición a la misma temperatura que el patrón empleado, con cuidado de mantener la temperatura constante y evitando una sobreexposición al aire del agua, para evitar contaminación debida al CO2 del aire.

Más información sobre conductividad

¿Qué es la conductividad o conductividad eléctrica?

La conductividad o conductividad eléctrica es la propiedad de todo elemento que tiene la facultad de conducir la electricidad. Esta propiedad física se basa en la capacidad de los elementos de conducir la corriente eléctrica a través de ellos mismos.

Ésta depende de la forma en que esté compuesta una sustancia o material, así como de la estructura molecular del material o de su estructura atómica.

Los elementos se clasifican, según su propiedad de conductividad o resistencia eléctrica en: dieléctricos, semiconductores y superconductores. Asimismo, cuando el cuerpo de un material o de una sustancia es resistente a la conductividad entonces hablamos de conductancia. La Conductancia es la facilidad que presenta un conductor al paso de la corriente eléctrica, o sea la inversa a la resistencia eléctrica, su símbolo es G y su unidad es el Siemens.

Más información sobre conductividad

Usos de la medida de conductividad

Medir la conductividad es muy útil para el trabajo en diferentes industrias, como pueden ser: la farmacéutica, la agricultura y la química, entre otras, así como de gran importancia para el control de todo tipo de aguas: puras, naturales, de pozo, potables, marinas, residuales, etc.

Su unidad de medición es el Siemens/cm (S/cm); si lo aplicamos a una magnitud de 10 elevado a -6 obtenemos un valor en micro Siemens (µS/cm); y si lo medimos en 10 elevado a -3, estamos hablando de mili Siemens (mS/cm).

Cuando se mide la conductividad eléctrica en soluciones acuosas, estos valores son directamente proporcionales a la concentración de sólidos disueltos en el líquido. Así, cuanto más alto sea su volumen de concentración, mayores serán los valores de conductividad.

Por ejemplo, cuando se mide la conductividad del agua los resultados que deben obtenerse son los siguientes en unidades de conductividad:

  • Agua pura: 0.055 µS/cm
  • Agua destilada: 0.5 a 2.0 µS/cm
  • Agua de montaña: >1.0 µS/cm
  • Agua para uso doméstico: 400 a 800 µS/cm
  • Niveles máximos de conductividad en agua potable: 1500 µS/cm
  • Agua de mar: ≈52 mS/cm

Más información sobre conductividad

Información sobre conductímetros portátiles

Es imprescindible que los conductímetros portátiles sean robustos y resistentes al agua, que dispongan de compensación de temperatura tanto automática como manual, función de coeficiente de temperatura y temperatura de referencia. La calibración manual o automática debe ser de, al menos de 3 o 4 puntos y con posibilidad de conectar células de varias constantes (por ejemplo, de 0.1, 1 y 10), que tengan integrada la sonda de temperatura, para poder efectuar la compensación.

La función lineal es la utilizada para medida en la mayoría de aguas o soluciones acuosas y la NLF (no lineal sg. EN 27888 y DIN 38404) adecuada para las aguas sin tratar. También se suelen utilizar para controlar procesos de alta exigencia.

Como funciones adicionales, algunos equipos permiten también salinidad y TDS, así como control de fecha, hora, datos de calibración y temporización de calibración para cumplir las GLP.

Hemos de destacar los equipos que permiten la conexión de células del tipo Memosens, como los Knick de Labprocess, que son resistentes a la humedad y pueden medir incluso bajo el agua gracias a su conexión inductiva, resisten la corrosión y además de asegurar datos sin perturbaciones, no requieren calibración in situ ya que permiten pre calibrar en taller o laboratorio, y reconocen el sensor calibrado.

Los sensores Memosens son Plug & Play y supervisan continuamente estos factores:

  • Tiempo de respuesta
  • Historial de calibración (con datos de calibración)
  • Documentación del ciclo de vida: horas de funcionamiento, etc.
  • Exportación de datos a MS Excel®, HTML

Por sus especificaciones los conductímetros Knick son únicos para medir aguas puras, principalmente en la industria farmacéutica:

  • WFI (agua para inyección)
  • Bulk Water (para agua purificada, condensados, vapor puro, etc.)
  • Packaged Water (para agua altamente purificada, estéril, para inyectables, etc.)

Y disponen de una función específica para aguas ultra puras con trazas de: NaCl, HCl, NH3 y NaOH.

Más información sobre conductividad

Información sobre conductímetros de sobremesa

Hoy los conductímetros de sobremesa serían de elección los que disponen de pantalla digital (preferible a color), así facilitan las mediciones, informan del estado de la célula, guían la calibración, y también la auto-detección del patrón de conductividad. Algunos incluyen funciones como temporizador de calibración (Cal Timer), datalogger, salidas para PC e impresora y la posibilidad de poder conectar un teclado mediante un puerto USB, además de cumplir la GLP (Good Laboratory Practice).

Pueden ampliarse las funcionalidades complementándolos con accesorios como: diferentes células de conductividad, agitador magnético, soporte con brazo articulado con base, o impresora, entre otros.

Nuestro catálogo ofrece instrumentos con una gran pantalla desde la que se puede ver toda la información de las mediciones: Temperatura, Salinidad y TDS, con un rango de hasta 500 g/l (ppt).

Más información sobre conductividad

Información sobre conductímetros de bolsillo o testers

Para aquellas mediciones que requieran de un trabajo de campo, son útiles los conductímetros de bolsillo. Con pantalla digital y calibran en 1 o 2 puntos. Los más avanzados dan información de los patrones calibrados y realizan la compensación de temperatura a 25ºC y además de medir la conductividad permiten realizar mediciones de salinidad y TDS de forma rápida y sencilla. Este tipo de testers son de elección para agricultura, piscinas, Spas, jardinería hidropónica, acuarios, etc.

Más información sobre conductividad

¿Cómo se mide la conductividad?

La conductividad (o conductancia específica) de una solución de electrolito es una medida de su capacidad para conducir la electricidad. La unidad SI de conductividad es el siemens por metro (S/m).

Las medidas de conductividad se utilizan de forma rutinaria en muchas aplicaciones industriales y medioambientales como un modo rápido, barato y fiable de medir el contenido iónico en una solución.

Productos de laboratorio para medir la Conductividad

En LabProcess contamos con un amplio catálogo de instrumentos con la mejor tecnología, diseñados para trabajar sobre el terreno. Estos equipos versátiles y robustos permiten trabajar con diferentes células de conductividad para la mayoría de las soluciones a medir. Nuestros productos cuentan con un extenso programa de disoluciones patrón de conductividad para poder efectuar las calibraciones, así como testers (equipos de bolsillo).

Medidores de Conductividad: Conductímetros Portátiles

Conductímetros portátiles de última generación, con pantallas digitales a color que facilitan las mediciones, informan del estado de la célula, guían la calibración, y también la auto-detección del patrón de conductividad y dureza.

Los conductímetros portátiles, pueden ser complementados con diferentes tipos de célula de conductividad con sensor de temperatura integrado, capaces de medir la conductividad, salinidad y TDS (Total de Sólidos Disueltos en líquidos). También modelos que incluyen el Software GLP DataLink, datalogger y la función CAL TIMER (temporizador de calibración).

Medidores de Conductividad: Conductímetros de Sobremesa

Los Conductímetros de Sobremesa con pantallas digitales a color que facilitan las mediciones, informan del estado de la célula, guían la calibración, y también la auto-detección del patrón de conductividad y dureza. Incluyen el software Datalogger, GLP DataLink, la función CAL TIMER (temporizador de calibración) salidas para PC e impresora y la posibilidad de poder conectar un teclado mediante un puerto USB. Pueden ampliarse las funcionalidades de estos instrumentos de laboratorio complementándolos con accesorios como: diferentes células de conductividad, agitador magnético, soporte con brazo articulado con base, o impresora, entre otros.

En LabProcess disponemos de las principales marcas del sector con los mejores productos de laboratorio para realizar mediciones de conductividad y resistividad. Nuestro catálogo ofrece instrumentos con una gran pantalla desde la que se puede ver toda la información de las mediciones: Temperatura, Salinidad y TDS, con un rango de hasta 500 g/l (ppt).

Medidores de Conductividad: Conductímetros de Bolsillo

Para aquellas mediciones que requieran de un trabajo de campo, en LabProcess contamos con un catálogo de Conductímetros de Bolsillo con pantalla digital, que hacen calibraciones a 2 puntos y dan información de los patrones calibrados y realizan la compensación de temperatura a 25ºC. Este tipo de conductivímetros son de elección para el trabajo en industrias como: agricultura, piscinas, Spas, jardinería hidropónica, entre otras, para realizar mediciones de conductividad, salinidad y TDS de forma rápida y sencilla.

 

Más información sobre conductividad

 

¿Qué es agua WFI (también conocida como API)?

El agua WFI, en inglés “Water For Injection” o en español API (agua para inyectables) es el agua utilizada como disolvente en la fabricación de productos inyectables. También podemos encontrar estas otras denominaciones Bulk Water (para agua purificada, condensados, vapor puro, etc.) y Packaged Water (para agua altamente purificada, estéril, para inyectables, etc.)

Según la USP 645 o bien la europea Pharmacopeia, este tipo de agua, con una conductividad extremamente baja, casi con ausencia de iones, obliga a que la calibración o medida de su conductividad deba de efectuarse sin contacto con el medio ambiente, ya que el propio CO2 atmosférico u otros posibles contaminantes presentes en el aire, pueden llegar a contaminarla, por lo que su control debe de ser muy exigente para evitar sobrepasar los umbrales definidos y prohíbe el uso de los métodos de corrección de la temperatura.

Las medidas se pueden efectuar tanto en línea (con conductímetros y células montadas in-line) o también fuera de línea, mediante instrumentos portátiles. Los equipos portátiles además de las medidas como tal, también se utilizan para calibrar equipos in-line, por su facilidad en el uso con los patrones certificados, que difícilmente se pueden usar con los instrumentos in-line.

Para la medida se debe de utilizar una célula de constante baja de K=0.100 cm-1 ±2% y un instrumento que cumpla con los requisitos de calibración electrónica (0,1 mS/cm utilizando una resistencia rastreable al 0,1 %) según la norma.

Para ello recomendamos la utilización de los instrumentos y células Knick, como es el modelo Portavo con la célula tipo SE202, así como el patrón de conductividad de valor 1,3 uS/cm, certificado DFM, reconocido ENAC.

El método correspondiente a la USP 645, consiste en tres etapas de diferentes medidas. Si las tres etapas fallan, el agua no cumple con la citada norma USP 645.

Nivel 1

Medir la conductividad sin compensación de temperatura. IMPORTANTE: desconectar la corrección de temperatura.

La medición se puede realizar en línea (con celda de flujo) o con botella para muestra.

Redondee la temperatura al siguiente intervalo más bajo de 5°C.

Busque el límite de la Etapa 1 para esa temperatura (ver tabla). Si la conductividad medida no es superior al límite en la tabla, el agua cumple con la USP <645>

Si el valor es más alto que el de la tabla, proceda con la Etapa 2.

Requerimientos para conductividad sin compensación de temp.
ºC K máx µS/cm ºC K máx µS/cm
5 0.8 55 2.1
10 0.9 60 2.2
15 1.0 65 2.4
20 1.1 70 2.5
25 1.3 75 2.7
30 1.4 80 2.7
35 1.5 85 2.7
40 1.7 90 2.7
45 1.8 95 2.9
50 1.9 100 3.1

Etapa 2

Ajuste la temperatura de la muestra a 25ºC ±1°C y agite hasta que la conductividad deja de subir y se equilibra con el aire ambiente. La lectura no debe exceder de 2.1 μS/cm.

Etapa 3

Agregue una solución saturada de KCL

(0,3 ml/100 ml) a la muestra de la etapa 2 y

medir el valor de pH.

La lectura de conductividad de la etapa 2 no debe exceder la conductividad permitida para ese pH

pH Cond. Máx. pH Cnd. Máx.
5.0 4.7 6.0 2.4
5.1 4.1 6.1 2.4
5.2 3.6 6.2 2.5
5.3 3.3 6.3 2.4
5.4 3.0 6.4 2.3
5.5 2.8 6.5 2.2
5.6 2.6 6.6 2.1
5.7 2.5 6.7 2.6
5.8 2.4 6.8 3.1
5.9 2.4 6.9 3.8
6.0 2.4 7.0 4.6

En caso donde las muestras no circulen por un sistema in-line, y se utilice una celda offline, se pueden utilizar bombas tipo peristáltica o de membrana (completamente selladas) para evitar contaminaciones.

Más información sobre conductividad

¿Cuál es la función del pHmetro?

El pH es la unidad universal con la que medir el nivel de acidez o de alcalinidad de una solución. Los valores que comprenden esta medición son parte de una escala simplificada en la que el pH sirve para medir la acidez, de la misma forma que el litro hace referencia al volumen, el metro a la longitud y el kilo al peso. Con un pHmetro se puede saber medir el pH en aguas, el pH en la alimentación, el pH de la tierra para la agricultura, entre otras muchas aplicaciones.

Los valores que conforman la escala del pH miden cuál es la cantidad de iones de hidrógeno que forman parte de la solución que se ha analizado. Este nivel de análisis varía entre los valores de 1 y 14; entendiendo 1 como “muy ácido” y 14 como “muy alcalino”. Sin embargo, existe un nivel de equilibrio en esta tabla, el valor de pH 7 y, cuando éste se da, decimos que ese elemento tiene un pH neutro.

Más información sobre pHmetro

¿Cuál es el precio de pHmetro?

El precio del medidor de pH depende de encontrar el más adecuado para cada tipo de análisis:

Para más información, puede contactar con nuestro equipo de profesionales, quiénes le asesorarán para encontrar el instrumento de laboratorio más adecuado a sus necesidades

Guía del proceso de calibración de pHmetro

Se habla de calibrar un pHmetro cuando en realidad lo que calibramos es el electrodo que tenemos conectado al pHmetro. La razón es que el elemento que se descalibra es el electrodo de pH, no el instrumento, que al ser un aparato electrónico viene calibrado de fabrica y no se descalibra casi nunca.

El electrodo de pH varia su respuesta durante toda su vida, y esta tiene que ver con las condiciones de la medida, por ejemplo, a mayor temperatura se descalibra más rápido y también se acorta su vida (un electrodo a 90ºC suele durar unos 3 o 4 meses, mientras que a la temperatura ambiente suele durar entre uno a dos años).

¿En qué consiste la calibración?

En ajustar los valores de pH mostrados por el instrumento a los valores de las disoluciones tampón o patrones de pH. Estas disoluciones patrón siempre indican en su envase la tabla de valores pH verdaderos a diferentes temperaturas.

Así se compensan las desviaciones del potencial de asimetría (valor 0) y pendiente que el electrodo experimenta en el tiempo.

Para la calibración de pHmetro es importante tener en cuenta:

Los equipos patrones deberán de encontrarse dentro del periodo de validez de calibración, en el caso de que no estén disponibles, se sustituirán por otros de similar incertidumbre.

En este caso se trabajará con sustancia tampón que deberán encontrarse dentro del periodo anterior a la fecha de caducidad. Estas deben ser de muy alta calidad, estables y frescas. Una disolución tampón que ha permanecido al aire durante más de una hora no debe ser utilizada.

Usar buena práctica en la utilización de las sustancias tampón: evitar al máximo la contaminación una vez abierta la botella, no efectuar las medidas directamente de la botella, no devolver nunca a la botella la fracción de disolución sobrante utilizada en cada proceso de puesta a punto de electrodos y peachimetro. Mantener en lugar fresco y poco iluminado las sustancias tampón.

Tener en cuenta las indicaciones del fabricante para cuando se realicen medidas de pH en los extremos de la escala.

Realizar una limpieza general y efectuar una inspección visual sobre la legibilidad del marcado de las escalas, clavijas, bornes, etc.

Limpiar concienzudamente los contactos de los bornes de los electrodos para eliminar falsos contactos.

Observar para los electrodos todos los cuidados indicados por los fabricantes sumergirlos en las soluciones tampón o solución problema de forma que al menos toda la membrana quede sumergida en la disolución.

DESCRIPCIÓN DEL MÉTODO DE CALIBRACIÓN DE PHMETRO

Se realizará en su lugar habitual de trabajo y dentro de los márgenes de temperatura adecuados.

Primero se realizará su puesta a punto habitual o diaria utilizando las disoluciones tampón al efecto de que dispone el usuario. Para ello se seguirá el siguiente proceso:

1. El sistema de medida del pH debe estar funcionando durante al menos 30 minutos antes de iniciar el proceso de calibración.

2. Ajuste de la compensación manual de temperatura en el valor al cual será realizada la puesta a punto de las soluciones tampón. Este valor se determina midiendo con el termómetro la temperatura de las soluciones tampón.

3. Examinar el electrodo para comprobar que no existe defecto alguno o presencia de burbujas de aire en su interior, en el caso de que las hubiere sacudir el electrodo de forma similar a los termómetros clínicos para bajar la temperatura.

4. Limpiar el electrodo exteriormente con abundante agua destilada.

5. Sumergir el electrodo (o electrodos si no son combinados) en la solución tampón a temperatura controlada. La solución utilizada debe ser la de pH más próximo al pH interno del electrodo de vidrio, que suele ser pH 7.

6. Esperar el equilibrio térmico durante aproximadamente 1 minuto. Una vez estabilizada la lectura, accionar el mando de punto neutro calibración-estandarización-asimetría hasta conseguir una indicación del pH de la solución tampón.

7. Retirar el electrodo/s de la disolución y lavarlo/s con abundante agua destilada o con la solución tampón que será utilizada a continuación. Pueden secarse los electrodos sin frotar.

8. Sumergir el electrodo en otro vaso que contenga otra disolución tampón de pH diferente a la anterior (suele utilizarse pH 4).

9. Esperar el equilibrio térmico durante aproximadamente 1 minuto. Una vez estabilizada la lectura, accionar el mando de pendiente-escala para ajustar la indicación al valor de pH de la solución tampón utilizada.

De esta forma el aparato queda ajustado en toda su escala y listo para realizar medidas de pH sobre sustancias de pH desconocido. La escala ha quedado ajustada en dos puntos de la recta que relaciona los potenciales (mV) generados por el electrodo en función del pH de las disoluciones en que se sumerge.

Si se requiriese el ajuste empleando además otro punto de calibración (por ejemplo, pH 9) deberán repetirse los puntos de 7 a 9.

Más información sobre pHmetro

¿Cuántos puntos de calibración de pH se deben utilizar en la calibración?

Mínimamente se debe calibrar en el punto neutro que es pH 7, justo en medio de la escala de pH. Pero lo más habitual es la calibración en dos puntos, recomendando como primer tampón el de pH 7 y como segundo tampón puede utilizarse el de pH 4 o 10 según se vaya a trabajar en la zona ácida o alcalina.

Calibrando con dos tampones se compensa, además del potencial de asimetría, la pendiente o la pérdida de sensibilidad del electrodo. La mayoría de pHmetros permiten calibrar hasta en 3 puntos, aunque algunos permiten más puntos.

La calibración en 3 puntos se aconseja cuando habitualmente se mide en toda la escala de pH o cuando se requiere mucha precisión en una determinada zona.

Como primer punto se aconseja el pH 7. Como segundo y tercer punto, normalmente se utilizan el pH 4 y el pH 10.

Calibrando en tres puntos se compensa la asimetría del electrodo y su sensibilidad tanto en la zona ácida como en la alcalina.

Más información sobre pHmetro

¿Cuál es la frecuencia de calibración del electrodo de pH?

Depende de la precisión exigida y del efecto que las muestras tengan sobre el electrodo. Habitualmente se recomienda una calibración diaria, pero deberá ser el usuario quien, con su propia experiencia, decida el tiempo adecuado.

Más información sobre pHmetro

¿Cuál es el rango de pHmetro?

La calibración es similar a la puesta a punto. En el caso de un instrumento científico, debe estar correctamente calibrado para obtener resultados precisos en las pruebas que se realicen con él.

La única manera segura de determinar si un medidor de pH se calibra adecuadamente es comparándolo con un punto de referencia de laboratorio con certificación estándar, conocido más comúnmente como una "solución calibradora”. Las soluciones calibradoras suelen ser líquidas, pero también se pueden comprar en forma de polvo y mezclar con agua destilada o desionizada.

Cualquier instrumento científico se debe calibrar lo más cerca posible al nivel que se pondrá a prueba. Si la prueba de un rango, el medidor debe ser calibrado en el medio de ese rango. Por ejemplo, si la prueba de una solución ácida, un medidor de pH se debe calibrar a pH 4,0 para alcanzar los resultados más precisos. La mayoría de las aguas caen en el rango de pH 6,0 a pH 8,0. Por lo tanto, para probar el pH del agua, la calibración del medidor de pH 7,0 es suficiente. Los tres niveles de pH más comunes para la calibración son 4.01, 7.01 y 10.01. Estos puntos cubren el rango de pH de 0 a 14, pero los valores están disponibles.

Más información sobre pHmetro

¿Cuáles son los mejores medidores de pH y cloro?

En los siguientes enlaces, puede encontrar los mejores instrumentos de laboratorio del mercado y todas las soluciones para el control de procesos. Todos los productos de laboratorio relacionados con medidores de pH y con la fotometría y la clorimetría.

Si necesita más información, puede contactar con nuestro equipo de profesionales, quiénes le asesorarán para encontrar el instrumento de laboratorio más adecuado a sus necesidades.

¿Cuál es la fórmula del pH?

En el ámbito científico, el pH es la medida de los iones dentro de una solución. Es posible que tenga que calcular el pH con base en la concentración.

Calcule el pH usando la ecuación del pH: pH = -log[H3O+].

Más información sobre pHmetro

¿Para qué sirve el pH?

El pH es la unidad universal con la que medir el nivel de acidez o de alcalinidad de una solución. Los valores que comprenden esta medición son parte de una escala simplificada en la que el pH sirve para medir la acidez, de la misma forma que el litro hace referencia al volumen, el metro a la longitud y el kilo al peso. Con un pHmetro se puede saber medir el pH en aguas, el pH en la alimentación, el pH de la tierra para la agricultura, entre otras muchas aplicaciones.

Los valores que conforman la escala del pH miden cuál es la cantidad de iones de hidrógeno que forman parte de la solución que se ha analizado. Este nivel de análisis varía entre los valores de 1 y 14; entendiendo 1 como “muy ácido” y 14 como “muy alcalino”. Sin embargo, existe un nivel de equilibrio en esta tabla, el valor de pH 7 y, cuando éste se da, decimos que ese elemento tiene un pH neutro.

Más información sobre pHmetro

¿Puedo medir redox (ORP o potencial redox) con un pHmetro?

La mayoría de pHmetros lo permite, para asegurarse, verifique en sus especificaciones si dispone de lecturas de mV que es la unidad utilizada. Este valor de mV tanto puede ser negativo como positivo y su escala esta entre ±1500 mV o ±2000 mV (según el modelo de instrumento).

Más información sobre pHmetro

¿Qué tipo de electrodo de pH utilizar en procesos con presión negativa (vacío)?

Para trabajar en vacío se recomienda utilizar un electrodo que internamente tenga la solución electrolítica en forma de polímero, como los electrodos de Labprocess: Polilyte, Polymer o similar.

También dependerá de la temperatura de trabajo, ya que también está relacionada con la presión. Los de electrolito gel no son apropiados y algunos de electrolito liquido pueden servir, pero deben de rellenarse frecuentemente ya que con el vacío se consume el electrolito rápidamente.

Más información sobre pHmetro

¿Cómo medir el pH del agua?

Utilizar un pHmetro, ya sea portátil o fijo. Si vamos a utilizar el pHmetro en el exterior, por ejemplo, en campo, ríos, fuentes, etc. se aconseja utilizar uno de tipo portátil o bien uno de bolsillo o tester, más baratos, pero menos precisos, generalmente.

Si en cambio su uso es en laboratorio o fijo, mejor escoger uno de mesa.

No todas las aguas se comportan igual, así un agua destilada, agua pura o agua de manantial un electrodo de pH adecuado a esta medida, un Flushtrode de Hamilton o un Flowtrode de XS, ambos de Labprocess, y lo mismo sucede con aguas muy contaminadas, sucias o residuales, que precisa también del mismo tipo de electrodo. En cambio, para aguas potables o normales el pHmetro con el electrodo en su versión estándar será suficiente.

A tener en cuenta también la temperatura, si es la temperatura ambiente no se requerirá un sensor de temperatura, pero si fueran aguas o muy frías o muy calientes (termales, por ejemplo) necesitaremos incluir un sensor de temperatura o escoger un electrodo que la lleve incorporada.

Otros métodos menos precisos es el uso de papel indicador de pH.

Más información sobre pHmetro

¿Cómo medir pH en aguas contaminadas por vertidos industriales?

Utilizar un pHmetro portátil XS con un electrodo de pH adecuado a esta medida, como el Polyplast o el Filltrode de Hamilton. Dado, que en ríos y lagos los niveles de pH son más bajos de lo común por la acción de los ácidos vertidos o incluso por la propia acidificación del CO2, estas variaciones afectan de forma muy directa a la vida de la flora y fauna acuática, por esta razón el control y la medición del pH en estas zonas se convierte en una tarea muy importante para la salud y el medio ambiente.

Más información sobre pHmetro

¿Cómo medir pH en acuarios?

En espacios como los acuarios, se requiere un buen control del pH porque la mayoría de los peces domésticos requieren de un nivel de pH que oscila entre 6,8 y 7,2 pH. Pocas especies soportan unos valores por encima o por debajo de dichos niveles de pH del agua. Para su medida basta disponer de un pHmetro sencillo, tipo Tester, como los XS, G-PHT1 o el G-PHT5.

Más información sobre pHmetro

¿Cuál es el valor del pH óptimo en piscinas?

El pH óptimo en piscinas debe de estar entre un valor de pH de 7,2 a 7,8 pH, ya que en estos valores es cuando los desinfectantes, especialmente el cloro, presentan una mayor efectividad. Cuando nos encontramos ante un agua que tiene un nivel de acidez elevado (pH inferior a 7,0) empieza a producirse una corrosión en aquellos accesorios que forman parte del recinto de la piscina y que están en contacto con su agua; por contra, un agua con un valor de pH demasiado alcalino (> pH 7,8) favorecerá que se formen incrustaciones calcáreas y el cloro perderá efecto desinfectante sobre el agua. Para su medida basta disponer de un pHmetro sencillo, tipo Tester, como los XS, G-PHT1 o el G-PHT5.

Más información sobre pHmetro

Selección de un pHmetro (instrumento de medida de pH)

Es imprescindible conocer nuestras necesidades de medida para escoger el tipo o modelo de pHmetro que mejor se adapta a las necesidades que debemos cubrir: tipo de muestra, la temperatura, la viscosidad, donde se efectúa la medida y la velocidad en que queremos hacer la medida del pH.

Estas y otras muchas variables son las que en Labprocess vamos a tener en cuenta para ayudarte a elegir un pHmetro (tester de bolsillo, portátil o de sobremesa), pues también serán claves para determinar el tipo de electrodo que se requiere para realizar la medida.

Más información sobre pHmetro

pH: Qué es, su escala o rango y cómo medirlo con materiales de laboratorio

El pH es la unidad universal con la que medir el nivel de acidez o de alcalinidad de una solución. Los valores que comprenden esta escala varían entre los valores de 0 y 14, entendiendo valores por debajo de pH 7 “ácidos” y “alcalinos” por encima de 7. Cuanto más bajo sea el valor de pH 7, mayor será su acidez y lo mismo con la alcalinidad, a mayor valor de pH 7, mayor alcalinidad.

Cuando existe un nivel de equilibrio, un valor aproximado a pH 7, decimos que la disolución tiene un pH neutro.

Los valores que conforman la escala de pH miden cuál es la cantidad de iones de hidrógeno que forman parte de la solución que se ha analizado.

Estos valores de pH los podemos medir con un pHmetro XS ya sea de bolsillo, portátil o de sobremesa, que escogeremos según la aplicación a la que se destine, así como la precisión requerida. Un método muy económico, aunque no tan preciso, es el uso de papel indicar de pH, que una vez sumergido en la disolución a medir, por medio de comparación de colores frente a una tabla de colores, nos indica el pH aproximado.

Más información sobre pHmetro

Medidor de pH portátil

Los pHmetros o medidores de pH portátiles, pueden tener muchas funciones, pero lo más importante a tener en cuenta es que deben ser instrumentos que sean muy robustos, ya que su función es medir en campo, y además que sean precisos y obtengan lecturas rápidas para optimizar las medidas.

Labprocess dispone de modelos de pHmetros portátiles, algunos incluso cumplen las GLP e incorporan además de fecha y hora, memoria de datos (datalogger) que permite que las medidas que se realicen queden siempre guardadas, y puedan ser recuperadas y tratadas de forma muy fácil en el momento en que se conecta el pHmetro en el PC, mediante nuestro software gratuito.

Nuestros pHmetros permiten la conexión indistinta de un electrodo digital DHS o de un electrodo analógico, pues queremos que nuestros instrumentos sean lo más compatibles posibles con todos los electrodos de pH. Por esta razón los pHmetros XS Instruments cuentan con una tecnología que les permite auto-detectar si están trabajando con un electrodo digital DHS o con uno analógico convencional.

Más información sobre pHmetro

Medidor de pH: pHmetro de sobremesa

Los instrumentos de sobremesa para la medición del pH son los que ofrecen mayor número de prestaciones, en cuanto a los diferentes medidores de pHmetros como los portátiles o los testers, en cuanto electroquímica se refiere.

Dentro del catálogo de medidores de pH de sobremesa de Labprocess encontramos, desde los más básicos sin agitación o con agitador externo, hasta algunos que incorporan un agitador magnético integrado con brazo articulado, otros que tienen una salida directa para impresora y PC, o instrumentos que tienen una entrada USB para conectar un teclado, de forma que se puedan introducir así valores como el nombre del usuario, el nombre o referencia de la muestra de la que se vaya a medir el pH, etc. e información completa en la pantalla: la calibración y su estado, el estado del electrodo de pH, nombre de la muestra, usuario, fecha y hora, memoria con registro de datos, etc.

Algunos de los pHmetros de sobremesa de Labprocess cuentan con el software GLP DataLink, el cual cumple con la normativa GLP (Good Laboratory Practice) y que permite tener un control exhaustivo de todas las calibraciones y de las mediciones de pH.

Todos los instrumentos de medición de pH XS, disponen de detección automática de electrodos de pH digitales DHS o analógicos y cuentan con una entrada para una sonda o sensor de temperatura, pues la temperatura es una variable clave en el momento de medir el pH en cualquier muestra, ya sea en una medición del pH en el agua, medición del pH de la tierra, en la alimentación o en cualquier otra industria.

Algunos electrodos de pH incorporan una sonda de temperatura integrada para la compensación automática de temperatura al medir el pH. En Labprocess recomendamos, siempre que sea posible, que el sensor de temperatura sea una sonda independiente para disminuir el tiempo de estabilización del pH y así poder ahorrar costes a nuestros clientes.

Más información sobre pHmetro

Medidores de bolsillo (tester) para pH, redox, conductividad, TDS y salinidad

Los medidores de bolsillo o testers tienen la ventaja de que son equipos pequeños y económicos con la precisión suficiente para medir diversos parámetros como el pH, redox, conductividad, TDS o salinidad, e incluso algunos combinan varias medidas simultáneamente. Son de elección para medir en los ámbitos como la agricultura, jardinería, growshop, acuicultura, hidropónica, piscinas y spas e incluso en algunos ámbitos de la alimentación.

Su excelente relación precio / precisión, los ha convertido en una solución muy popular.

Más información sobre pHmetro

Medida de pH en carnes y embutidos (como longanizas, jamones, chorizo y morcillas)

El valor del pH debería encontrarse entre 5.4 y 7.0 pH e indicar los valores de una correcta preservación de la carne. A medida que va pasando el tiempo desde el momento en que se obtuvo la pieza, el valor del pH tiende a ir disminuyendo. Es conocido el cambio del valor de pH en la carne tras unas horas después del sacrificio de los animales.

El valor de pH del músculo (vivo) alcanza un valor aproximadamente de pH 7,0. Durante los primeros estadios del periodo post-mortem el pH muscular cae de valores entre los 7,0 – 7,2 en los animales vivos a 5,3 – 6,5 en la carne. Este descenso se debe a la formación de ácido láctico en el músculo, producto de la obtención de energía por la vía anaeróbica del glicólisis. Este proceso de reducción termina aprox. 24 horas después de la matanza.

La velocidad de la reducción del valor de pH y el valor final pH (se denomina valor de pH24) difiere según de que animal se trate e influye sobre todo en la calidad de la carne.

El pH también es un importante nivel indicador de las condiciones alimentarias y de salud del animal en el momento en el que ha sido sacrificado.

En el caso de los cerdos, numerosos estudios demuestran que según el valor de pH obtenido tras 24 horas después del sacrificio, nos permite clasificar las carnes según su calidad, y nos indica si el animal ha estado sometido a estrés.

Este aspecto es muy importante para valorizar el jamón ibérico o serrano, etc. donde el valor de pH para este tipo de jamón debería situarse entre 5,8 a 6.3 pH.

Tipos de carnes:

Carne PSE (Pale = pálido / Soft = tierno / Exudative = acuoso)

45 minutos después de la matanza el valor de pH de carne ya se sitúa por debajo de 5,8. La carne PSE no aparece uniformemente por todo el cuerpo del animal, sino que se puede encontrar más frecuentemente (25…32%) en chuletas y en la capa superior.

La contractura muscular aparece mucho más rápida.

Desventajas de carne PSE:

La pérdida de peso (a causa de colgar la carne) es dos veces mayor que en carne normal. La superficie húmeda activa un aumento fuerte de gérmenes.

Carne PSE no es adecuada para:

  •  jamón en lata (formación alta de jalea)
  •  jamón asalmonado (pérdida enorme de peso, consistencia y mal color)
  • embutido crudo (consistencia mala, plegamiento)
  • embutido cocido con caldo

Carne DFD (Dark = oscuro / Firm = firme / Dry = seca)

45 minutos después de la matanza el valor de pH de carne DFD aún se eleva a más de 6,3. La carne DFD es seca, fila y pegajosa y tiene un color rojo oscuro.

Desventajas de la carne DFD:

Debido a su elevado pH, la falta de acidificación favorece un aumento de microorganismos indeseables. En vez de madurar la carne se pudre y su conservación es muy reducida. La pérdida de peso mientras cuelga la carne también es más elevada que en el caso de carne normal.

Por estos motivos la carne DFD no es adecuada para: embalaje en plástico de una pieza o en porciones y fiambres, o embutidos crudos y carne salada, ya que en poco tiempo comienza la putrefacción.

Más información sobre pHmetro

El pH en la agricultura

Las cosechas pueden verse gravemente afectadas si el pH del medio de cultivo no es el adecuado, pudiendo encontrar suelos alcalinos, con niveles de pH más altos de lo recomendable, o suelos ácidos, donde el pH es más bajo.

Si los valores del pH del entorno del cultivo son superiores a 6.5 pH, estos pueden llegar a dar problemas respecto a la solubilidad de algunos micronutrientes y nutrientes; si esta situación es continua durante el período de varias semanas y/o meses de cultivo, los canales de riego pueden llegar a padecer obturaciones.

Por ejemplo, en el cultivo del tomate el nivel de acidez del tomate debe fluctuar entre 4.2 y 4.4 pH, de esta forma se puede llegar a asegurar una estabilidad microbiológica; pero en ningún caso debe superarse un pH de 4.6 pH.

Más información sobre pHmetro

Valores de pH en fruta fresca y verdura

Estos alimentos deben de tener valores de pH entre 2.5 y 5.5. Si este es el caso, el alimento conservará sus características y frescor, y se contribuirá a la inhibición de la reproducción de microorganismos.

Para las verduras, el nivel óptimo de pH se sitúa entre un intervalo de 4.6 y 6.4 pH.

Más información sobre pHmetro

El valor de pH en la industria láctea

El pH de la leche es un indicador de los buenos niveles de conservación a lo largo de todo su proceso, desde que se obtiene del animal hasta que se llega a la entrega al consumidor final. El valor de pH de la leche no debe ser menor a 6.8 pH, si éste es más bajo podría llegar a darse una posible infección.

En muchos casos los camiones de recogida de la leche a los ganaderos van equipados con pHmetros, como los portátiles XS con el electrodo FOOD adecuado a esta medida, ya que es resistente a las proteínas y resiste bajas temperaturas.

En la producción de quesos, la medida óptima del pH de la leche que se utiliza para producirlos se encuentra entre 6.1…6.5 pH y 4.1…5.3 pH (dependiendo según el tipo de queso que se quiera producir), siendo estos niveles más bajos los óptimos para la elaboración de quesos frescos.

De esta misma forma, poder tener un control de los valores de pH durante los procesos de producción de yogur y de mantequilla es también muy importante, pues debe poder asegurarse la buena refrigeración de los productos para la incubación de los fermentos, la cual únicamente puede comenzar cuando el valor del pH logra alcanzar valores alrededor de 4.4 a 4.6 pH.

Más información sobre pHmetro

El valor de pH en pan y pastas

El pan puede alargar su tiempo de conservación si su pH se encuentra comprendido entre los valores de 4.0 y 5.8 pH; las pastas, por contrario, al contener huevo en su elaboración necesitan tener un pH ácido para su conservación, de forma que se evita la reproducción de microorganismos patógenos.

Más información sobre pHmetro

El valor de pH en mermeladas, jarabes y productos caramelizados

Los valores de pH del producto final influyen en el tiempo de conservación que se aplica; en mermeladas y jarabes los niveles de pH están en torno a 3.5 pH; en productos caramelizados estos están entre 4.5 y 5.0 pH.

Más información sobre pHmetro

Los valores de pH

La escala de pH se usa solamente en disoluciones acuosas, varía usualmente entre 0 y 14. El pH de una disolución neutra, por ejemplo, agua pura pH 7. Por debajo de este valor, tenemos una disolución ácida y por encima, básica o alcalina.

Este valor se puede comprender teniendo en cuenta que el agua está ionizada, es decir, descompuesta en los iones H+ o protones, aunque más correctamente deberíamos hablar de iones hidronio H3O+- e hidroxilo OH.

Hoy su control es imprescindible en todos los sectores: alimentación, textil, papel, medio ambiente, química en general, etc.

Más información sobre pHmetro

¿Qué es la compensación automática de la temperatura?

En una medición correcta de pH, los resultados deben expresarse siempre acompañados del valor de la temperatura a la cual se realiza la lectura.

Ejemplo: la propia disolución tampón de pH 7 es de 7.00 a 25ºC y de 6.97 a 50ºC.

Efectos de la temperatura en la medida de pH:

a) Sobre el electrodo

La pendiente del electrodo varía con la temperatura de forma conocida, según la ley de Nernst.

Los pH-metros compensan automáticamente este efecto, con la llamada Compensación Automática de la Temperatura.

Para ello, el instrumento debe ser informado de la temperatura de la muestra de la siguiente forma:

• Conectar al pH-metro un sensor de temperatura, además del electrodo.

• Utilizar un electrodo con sensor de temperatura incorporado cuya ventaja es que facilita la manipulación.

• Introducir la temperatura manualmente.

Hay aplicaciones donde no se requiere la medida de la temperatura, bien porque ésta es constante o bien porque se acepta una tolerancia amplia en el valor de pH, etc. En estos casos, la temperatura de la muestra se puede introducir manualmente mediante el teclado del instrumento.

b) Sobre las disoluciones tampón

Cada disolución tiene un comportamiento específico frente a la temperatura.

Hoy todos los pH-metros tienen memorizada la tabla de valores de pH de las disoluciones tampón a distintas temperaturas, para poder realizar una correcta calibración a cualquier temperatura.

c) Sobre una determinada muestra

Cada producto varía de un modo distinto su pH con la temperatura y por lo tanto el instrumento no puede compensar esta variación. De ahí la necesidad de expresar siempre juntos los valores de pH y temperatura a la cual ha sido realizada la medida.

¿Cuándo es necesaria la medida de pH junto a un compensador de temperatura?

En la medida de pH es necesario utilizar un electrodo junto a un compensador de temperatura cuando:

  • Hay que cumplir las normas GLP
  • Se exige una alta exactitud en la medida
  • Se mide a diferentes temperaturas
  • El valor de pH de la solución a medir varía considerablemente con la temperatura

Más información sobre pHmetro

¿Cuál es el efecto de la agitación sobre la medida de pH?

La utilización de un agitador mejora la calidad de las medidas, aumentando la rapidez de respuesta y la reproducibilidad de las mismas.

La velocidad de agitación debe ser moderada e idéntica para tampones y muestras.

Más información sobre pHmetro

Los valores de pH en el control del agua

El pH del agua afecta la vida terrestre y acuática. El agua de los lagos, lagunas y ríos sanos generalmente tiene un pH entre 6 y 8. La mayoría de los peces tolera el agua con pH entre 6 y 9, fuera de estos límites pueden acarrear su muerte. Los anfibios son más sensibles al pH que muchos peces. Sapos, ranas y otros anfibios ponen sus huevos y crías en el agua, donde se desarrollan y son beneficiosos al ser humano porque comen mosquitos e insectos.

Más información sobre pHmetro

El pH de la piel

Cada vez más, los productos o cosméticos para la piel incluyen en sus etiquetas el término pH, ya que un pH ácido (4,5 u 5,99 es beneficioso para la piel).

Jabones y geles que encontramos en los supermercados, parafarmacias, etc. suelen tener un pH alcalino, por lo que si son utilizados en forma habitual destruyen la barrera ácida que protege de gérmenes, polvo y contaminación y alterar el manto graso, que nutre e hidrata la piel, además de proteger del medio externo.

Es importante la protección de la piel, pero también es importante proteger la zona intima de las mujeres, de ahí la importancia de conocer los niveles de pH con los que trabaja nuestro organismo, y evitar sustancias que pueden alterar su buen estado.

Más información sobre pHmetro

Fórmula del pH

Hoy todo el mundo tiene una noción de lo que significa ácido. La mayoría sabrán también que básico o alcalino es el concepto opuesto. Neutro, ácido o alcalino, son terminologías relacionadas con el pH, y que nos encontramos día a día, en cualquier producto cotidiano, crema de manos, champús, bebidas, etc.

Fue Peter Lauritz Sorensen el químico que ideó el concepto de pH.

En 1901, Sorensen, director del Departamento de Química del Laboratorio Carlsberg de Copenhague. dedicándose a métodos de análisis y la influencia de la concentración de protones en las proteínas creyó conveniente idear una manera de expresar la concentración de protones. En 1909 introdujo el concepto de pH como sistema fácil de expresar este valor. Lo definió como el logaritmo cambiado de signo de la concentración de protones, es decir, pH = -log[H+]

Más información sobre pHmetro

Limpieza mediante baños por ultrasonidos

El uso de los baños por ultrasonidos garantiza la limpieza más a fondo, eficaz, ecológica y cuidadosa de materiales y objetos de todo tipo. El efecto se consigue mediante vibraciones de alta frecuencia en el agua, se eliminan hasta las partículas más pequeñas en lugares de difícil acceso.

Más información sobre baños para laboratorios

¿Qué son los ultrasonidos?

Los ultrasonidos son las vibraciones con frecuencias por encima del rango audible (más de 20 kHz). En líquidos el ultrasonido genera burbujas microscópicas de vacío que generan fuertes impulsos de presión. Se producen fuerzas muy potentes que llevan a la generación de microondas de choque y micro-corrientes.

Cabe destacar que, para un tiempo breve, se producen corrientes de líquido con velocidades de hasta 400 km/h, a este proceso físico se le denomina cavitación. La cavitación logra alcanzar una limpieza intensa y cuidadosa en todos los lugares a los que llega el líquido.

Más información sobre baños ultrasónicos

Principio de funcionamiento de un baño ultrasónico

La limpieza con baños ultrasónicos es hoy en día el procedimiento más moderno y se encuentra entre los más efectivos. Las ventajas destacadas son la limpieza máxima de las piezas en el menos tiempo y sin trabajo manual.

Los baños ultrasónicos se emplean siempre que se requiere una limpieza a fondo y cuidadosa, la gama varía desde modelos de poco más de 100 ml de volumen para laboratorios o hogares privados hasta modelos de varios cientos de litros que se utilizan para la limpieza de bloques y piezas mayores.

La limpieza ultrasónica parte del principio de la cavitación, procedimiento que lleva a cabo la generación y la disolución de burbujas de vapor en líquidos. En una pérdida de presión, el líquido se evapora y genera burbujas que ocupan un volumen mucho mayor con respecto al líquido, cuando la presión vuelve a subir, el gas dentro de la burbuja condensa y la burbuja lleva a cabo su misión.

El espacio creado se llena con el líquido, lo cual lleva a fuertes impulsos de presión en el orden de varios 100 MPa.

Más información sobre baños ultrasónicos

¿Qué ventajas ofrecen los baños ultrasónicos?

Las ventajas que ofrecen los baños ultrasónicos son, en primer lugar, la limpieza a fondo e intensa de estructuras complejas. También es importante señalar que la limpieza se lleva a cabo sin dañar la superficie y con ninguna o muy bajas cargas químicas. Por tanto, esta metodología se traduce en la reducción de costes por ahorro de tiempo. Además, los baños ultrasónicos ofrecen un manejo sencillo y seguro también para personas principiantes.

Más información sobre baños ultrasónicos

Usos de los baños de ultrasonidos

En el laboratorio, el baño de ultrasonidos se puede utilizar para acelerar la disolución de sólidos, al romper las interacciones intermoleculares. Es especialmente útil cuando no es posible mezclar la muestra, al igual que con los tubos de RMN, también se aplica para eliminar los gases disueltos en líquidos (desgasificación) y en aplicaciones biológicas, pueden interrumpir o desactivar un material biológico.

Por ejemplo, a menudo se utilizan para romper las membranas celulares y conseguir la liberación del contenido celular, este proceso se llama sonoporación. En función de la frecuencia, intensidad y energía aplicada se pueden llegar a destruir incluso las estructuras subcelulares o hacer solubles los complejos proteicos. La sonicación también se usa para fragmentar moléculas de ADN.

Otra aplicación médica reciente utiliza la rotura de las membranas de los adipocitos como técnica de reducción de celulitis y bolsas localizadas de tejido graso.

La sonicación se utiliza de modo habitual en nanotecnología para dispersar uniformemente las nanopartículas en los líquidos.

La sonicación también se puede utilizar para iniciar procesos de cristalización e incluso para controlar cristalizaciones polimórficas. Se utiliza para intervenir en las precipitaciones anti-disolvente (cristalización), para ayudar en procesos de mezcla y para aislar pequeños cristales.

Aparte de los usos en laboratorios, se utilizan para limpiar objetos como gafas y joyas, así como en paleontología se utiliza para extraer microfósiles de la roca.

Más información sobre baños ultrasónicos

El baño ultrasónico más adecuado en cada caso

El baño ultrasónico que escojamos dependerá fundamentalmente del tamaño y del peso del objeto a limpiar. En la elección del baño de ultrasonido adecuado, las dimensiones de la cesta son el factor más importante. Estas se deben elegir con un poco de margen hacia arriba, para evitar una sobrecarga del baño de ultrasonido.

Más información sobre baños para laboratorios

¿Qué líquidos son aptos para el uso en los baños de ultrasonido?

Dado que el agua solo es apta hasta cierto punto, se recomienda el empleo de concentrados de limpieza. Estos detergentes han sido desarrollados especialmente para el uso en baños de ultrasonido y garantizan un resultado óptimo. Existen concentrados de limpieza en muchas versiones, desde muy alcalinos hasta muy ácidos. Siempre y cuando sea posible, en la práctica se recomienda el empleo de concentrados de limpieza suaves.

El mejor detergente depende de los factores: material del producto a limpiar, tipo de suciedad y la intensidad de la suciedad.

Atención evitar líquidos inflamables o potencialmente explosivos. Así como los corrosivos.

Más información sobre baños para laboratorios

¿Qué es "desgasificación" y para qué sirve?

Desgasificación es el proceso de eliminación de gases disueltos en un líquido. Mediante un baño de ultrasonidos, cuando una onda de alta presión golpea la pared de una burbuja, esta explota, y la energía que se libera ayuda a romper los lazos entre las partículas y elimina el gas ocluido en la disolución.

Se aplica en multitud de disoluciones que después deben de proceder a medirse con instrumentos que la presencia de micro burbujas o gases disueltos, es un inconveniente.

Más información sobre baños para laboratorios

¿Qué es limpieza "directa" e "indirecta" en un baño de ultrasonidos?

Cuando se sumergen las piezas a limpiar (en un cestillo) directamente al baño con una disolución limpiadora, se llama "limpieza directa".

Pero en casos donde se debe de limpiar la pieza o piezas con una disolución agresiva, que pueda dañar al material del baño, se usa un contenedor estanco en cuyo interior hemos colocado las piezas a limpiar y la disolución limpiadora en un contenedor cerrado de plástico o vidrio, teniendo en cuenta que el nivel sea por debajo del límite. Este contenedor debe de apoyarse en el cestillo del baño. Este método se llama limpieza indirecta.

Más información sobre baños para laboratorios

¿Para qué mantener la cantidad de solución en el nivel marcado?

Cada vez antes de empezar el proceso asegúrese de que la cantidad de solución está en el nivel indicado. Este se indica con la canasta y/o bandeja adentro. De lo contrario pueden alterarse las características del proceso de limpieza - su frecuencia, efectividad, provocarse daños en el baño. Un nivel adecuado de líquido garantiza buena circulación de solución alrededor del objeto, protege los calentadores y transformadores del dispositivo de recalentamiento y golpes.

Más información sobre baños para laboratorios

¿Cuánto dura el proceso de limpieza de un baño por ultrasonidos?

El tiempo de limpieza depende de varias condiciones: solución, tipo de suciedad, temperatura, nivel de limpieza, etc. Normalmente se fija un tiempo aproximado y, dependiendo de los resultados obtenidos en cada caso particular, se toma la decisión de parar o seguir. Y así, probando diferentes combinaciones de temperatura, solución utilizada, tipo de objetos y clase de suciedad, el operador adquiere la experiencia necesaria y calcula el tiempo óptimo.

Más información sobre baños para laboratorios

¿Cuál es la temperatura recomendada para el proceso de limpieza de un baño por ultrasonidos?

El calentamiento de la disolución de limpieza hace que el proceso sea más rápido y eficiente.

Más información sobre baños para laboratorios

¿Es necesario lavar las piezas después de limpiarlas en un baño ultrasónico?

Para retirar los residuos contenidos en la solución se recomienda lavar los objetos después de finalizar el proceso y se recomienda usar agua limpia, mejor incluso destilada.

Más información sobre baños para laboratorios

¿El proceso de limpieza mediante baños ultrasónicos puede dañar los objetos?

La limpieza por ultrasonidos es un procedimiento seguro, pero no se recomienda para limpiar objetos como algunas piedras: esmeralda, malaquita, perlas, turquesa, ópalo, corales, lapislázuli. Siempre que sea posible, efectuar antes una prueba.

Más información sobre baños para laboratorios

¿Qué no se debe hacer con un baño de ultrasonidos?

Nunca ubique los objetos directamente sobre el fondo del tanque, ya que la energía del ultrasonido puede causar daños a los transformadores, e inutilizar el baño. Siempre utilice la bandeja o canasta, asegurando un 30 mm de distancia entre el fondo del tanque.

Nunca encienda el baño sin líquido en el tanque.

Por razones de seguridad nunca utilice los líquidos inflamables: gasolina, benceno, acetona, etc… ni a elevada temperaturas de ambiente durante mucho tiempo.

Nunca intente limpiar objetos explosivos, municiones, granadas, minas, etc.

Nunca ponga dentro del baño seres vivos.

Más información sobre baños para laboratorios

Información sobre certificado de calibración

Todos los instrumentos tienen un error de medida, es decir, hay una pequeña variación entre lo que el equipo nos mide y la medida real.

La calibración de un equipo es el cálculo de esa variación.

Los fabricantes de instrumentos siempre informan en las especificaciones del instrumento, cuál es ese error.

En otras palabras, para mantener la exactitud de la calibración se debe comparar periódicamente a un patrón de mayor exactitud. Del mismo modo este patrón debe compararse con otro y así sucesivamente hasta que finalmente se hace una comparación a un laboratorio que cuente con una acreditación internacional. Esta cadena de comparaciones es conocida como trazabilidad.

Certificado de calibración de fabricante: en algunos casos, los fabricantes suelen emitir un certificado de calibración del equipo (no es obligatorio) En este debe de aparecer la incertidumbre de medida del equipo, así como con que patrones se ha calibrado y qué tipo de certificado tienen esos patrones. Normalmente con este certificado suele ser suficiente si el equipo es nuevo, pero es recomendable que se realice una comprobación inicial al equipo.

Certificado de fábrica: certificado donde el fabricante asegura que el equipo se ha fabricado bajo unas determinadas normas (no es el cálculo de error de medida).

Certificado acreditado ENAC: la Entidad Nacional de Acreditación ENAC (ENTE NACIONAL DE ACREDITACIÓN) es la entidad designada por el Gobierno, para operar en España como el único Organismo Nacional de Acreditación, en aplicación del Reglamento (CE) nº 765/2008 que regula el funcionamiento de la acreditación en Europa, que se asienta en cinco principios fundamentales: ausencia de ánimo de lucro, independencia, no competencia, evaluación internacional y reconocimiento mutuo o de laboratorios extranjeros reconocidos ENAC.

(Ver validez en España de certificados expedidos por entidades extranjeras en la web www.enac.es)

Certificado trazable a ENAC: significa que la calibración realizada a los equipos se ha realizado con patrones de medida calibrados por un laboratorio acreditado ENAC.

Certificado trazable a NIST: significa que la calibración realizada a los equipos se ha realizado con patrones trazables a ENAC.

Más información sobre certificados

¿Cada cuánto tiempo se deben de calibrar los instrumentos de medida?

La cadencia viene marcada por el procedimiento interno realizado por el responsable de calidad de la empresa, según su frecuencia de utilización, donde se vaya a utilizar (en producción o en laboratorio etc.) y en qué condiciones.

Los auditores seguirán lo que el procedimiento interno marca, eso sí, en los propios procedimientos deberemos de anotar el motivo de porqué se ha decidido una cadencia determinada a cada uno de los equipos.

Más información sobre certificados

Validez en España de certificados expedidos en otros países

Existe un acuerdo denominado “Acuerdo Multilateral de Reconocimiento” entre diferentes países, en los que los Certificados de Calibración emitidos por los laboratorios nacionales de acreditación respectivos (por ejemplo DaKKs (Alemania), DFM (Dinamarca), ACCREDIA (Italia) etc. son válidos para cualquier país miembro firmante de dicho acuerdo (ver www.enac.es).

Más información sobre certificados

Información sobre la incertidumbre los certificados de análisis de tampones y patrones de pH y conductividad

La información sobre incertidumbre está disponible para las disoluciones certificadas ENAC (equivalentes a DAkkS en el caso de pH y DMF en el caso de Conductividad). En el caso de nuestra marca XS, corresponde a las disoluciones XS Professional (p/n 513 ...), y está en conformidad con ISO Guide 35 y ISO / IEC Guide 98-3: 2008. Así pues, los tampones XS Professional se pueden usar para la calibración de pH / conductividad de acuerdo con ISO 17025 de Accreditated Laboratories y disponen de la información de incertidumbre.

Para las disoluciones trazables NIST, en el caso de XS Basic Buffers (511 ...), emitimos un certificado de análisis con trazabilidad a estándares de NIST/PTB, sin una declaración de incertidumbre. Estas soluciones no están destinadas a calibraciones (por Accreditated Laboratories), solo para verificación y controles de calidad.

Más información sobre certificados

Información sobre dataloggers o registradores de temperatura, humedad, etc.

El datalogger o registrador de datos es un instrumento utilizado para almacenar datos en una memoria interna de manera que sean posteriormente descargables, mediante un determinado programa del fabricante.

Estos datos se adquieren mediante sondas conectadas al datalogger, por ejemplo: temperatura, humedad, velocidad, CO2, vibraciones, aceleración, etc.

Son imprescindibles en las industrias que deben mantener una regulación en su proceso de producción, la temperatura, humedad, peso etc. y cuyas cualidades deben ser controladas y para ello se necesitan estos equipos que lo hacen con precisión.

La administración obliga a disponer de un sistema de control de temperaturas en la cadena de frio (transporte, alimentación e industria farmacéutica)

Elección de un datalogger o registrador de datos y usos

La elección del datalogger dependerá de las condiciones de trabajo:

  • Portátiles o fijos
  • Estancos o no
  • Mayor o menor autonomía (según la capacidad de la batería)
  • Capacidades de memoria y velocidad de muestreo
  • Número de canales
  • Tipo de sondas conectables
  • Inalámbricos con envío de datos en tiempo real, mediante interfaz de comunicación (USB, WIFI, Radio, Bluetooth)

Los usos de los dataloggers o registradores de datos son infinitos, aunque mayoritariamente son usados en control de temperatura en:

  • Alimentación: almacenes, neveras, etc.
  • Transporte: alimentación y farmacéutico
  • Laboratorios: frigoríficos, ultra congeladores, autoclaves, etc.
  • Meteorología
  • Medio ambiente
  • Agricultura
  • Sector industrial

Más información sobre el datalogger

Dataloggers en el sector de la alimentación y en industria farmacéutica

Una de las aplicaciones más importantes del sistema de registro de temperaturas es en la industria alimenticia y la farmacéutica.

Las temperaturas a la que se deben mantener los productos durante las diversas etapas productivas y hasta la puesta a disposición de los consumidores, es un elemento clave. Un control ineficaz o una medición incorrecta de la temperatura puede conllevar un riesgo para la salud, debido a los peligros biológicos, así como una pérdida de calidad y una reducción de vida útil.

Los operadores alimentarios deben aplicar programas de autocontrol en materia de seguridad alimentaria basados en el sistema de análisis de peligros y puntos de control crítico (APPCC). Los autocontroles deben tener en cuenta las comprobaciones de las temperaturas y los registros correspondientes, así como las actividades de verificación de los instrumentos empleados para asegurar que funcionan eficazmente.

Para su control deben de cumplir diversos reglamentos, donde se informa que los controles se efectuarán, mediante métodos y técnicas como el control, la vigilancia, la verificación, la auditoría, la inspección, el muestreo y los análisis.

Así para el almacenamiento frigorífico de alimentos (cadena de frio) se aplica el reglamento (CE) donde se indica que los establecimientos alimentarios, deben ofrecer unas condiciones adecuadas de almacenamiento a temperatura regulada para poder mantener los productos alimenticios a una temperatura apropiada que se pueda comprobar y, si es necesario, registrar. Además, el reglamento indica que los locales de depósito y almacenamiento de los alimentos ultra-congelados deben disponer de instrumentos de grabación adecuados (según normas EN 12830, 13485 y 13486) para controlar, a intervalos regulares y frecuentes, la temperatura del aire a que estén sometidos los alimentos ultra-congelados.

Las empresas alimentarias deben además guardar las temperaturas registradas durante un año o un periodo más largo, dependiendo de la naturaleza o del periodo de conservación de los alimentos.

También la regulación alcanza a los vehículos de transporte a temperatura regulada, donde los reglamentos obligan a que los vehículos deben estar equipados con un dispositivo de medida y registro de la temperatura en el interior de la caja.

Más información sobre el datalogger

¿Qué miden los espectrofotómetros?

Los espectrofotómetros permiten medir cuánta luz absorbe una sustancia química, y cada sustancia química absorbe la luz de una manera diferente, que depende de la estructura de sus moléculas.

El principio utilizado es la medición de la intensidad de la luz, cuando un haz luminoso pasa a través de una muestra y se basa en la ley de Beer-Lambert, que dice que la cantidad de luz absorbida por un cuerpo depende de la concentración en la solución. Así, la energía que produce una fuente luminosa sobre una superficie es directamente proporcional a la intensidad de la fuente y al coseno del ángulo que forma la normal a la superficie con la dirección de los rayos de luz, y es inversamente proporcional al cuadrado de la distancia a dicha fuente.

La energía de las ondas electromagnéticas está relacionada con sus longitudes de onda; cuanto más corta es la longitud de onda, mayor es la energía. Así, la luz violeta tiene una longitud de onda más corta que la luz roja y, por lo tanto, un nivel de energía más alta, mientras que la infrarroja tiene menos energía que la luz visible debido a su mayor longitud de onda.

Se aprovecha la absorción de radiación electromagnética en la zona del ultravioleta de 180 a 380 nm y visible de 380 a 800 nm del espectro (se denomina espectro a todos los componentes de todas las longitudes de onda). La muestra absorbe parte de la radiación incidente en este espectro y promueve la transición del analito hacia un estado excitado, transmitiendo un haz de menor energía radiante.

Transmitancia y absorbancia en espectrofotometría

La intensidad de la luz transmitida a través de la solución es atenuada debido a la absorción de luz, y su valor es más bajo que la intensidad original I0 en la fuente de luz. La relación entre las dos intensidades It / I0 se define como la transmitancia T, que es el valor determinado principal y su unidad se expresa en %.

Otra forma de expresar el resultado es la absorbancia, que se define como A = −log (T), es decir, el logaritmo negativo del valor de transmitancia. La absorbancia “A”, no tiene ninguna unidad de medida (es un valor adimensional) y se conoce como “UA” (unidades de absorbancia).

Aplicaciones de la espectrofotometría

La espectrofotometría tiene múltiples aplicaciones, y es imprescindible en tareas de control de calidad, investigación y producción de infinidad de productos alimentarios y farmacéuticos, entre otros.

En química analítica, la medición de la intensidad de la luz con espectrofotómetros permite determinar concentraciones de compuestos –ya sean moléculas orgánicas o iones inorgánicos–, constantes de disociación de indicadores ácido-base, identificar unidades estructurales específicas, calcular el punto de fusión de proteínas y ácidos nucleicos, determinar el coeficiente de extinción de una muestra, efectuar medidas cinéticas (velocidades de reacción) e, incluso, analizar materiales sólidos, como films o partes de vidrio.

Más información sobre espectrofotómetros

Medir muestras sólidas mediante espectrofotómetros

Productos traslucidos tales como vidrios o metacrilatos, mediante el soporte adecuado se pueden realizar medidas directamente con nuestros espectrofotómetros ONDA y el soporte para muestras sólidas G-11000422, sin necesidad de cubetas. Se utiliza para medir la capacidad de un material para absorber la radiación, por ejemplo, vidrio oscuro de botella para vino o aceite de oliva para evitar la oxidación del contenido, o para gafas de sol, etc.

Tipos de lámparas para espectrofotómetro

Para llevar a cabo una espectrofotometría, se necesita una fuente de luz, que iluminará la muestra y que debe ser estable y direccionable, con distribución de energía espectral continua y larga vida.

Existen 4 tipos de lámparas diferentes que se utilizan con espectrofotómetros:

  1. Wolframio, también denominadas de tungsteno
  2. Arco de xenón
  3. Deuterio
  4. LED

Partes de un espectrofotómetro

-El monocromador es una lente que se utiliza para que el haz de luz entrante pase a través de un prisma, que separa todas las longitudes de onda de ese haz. Un colimador, situado entre las rendijas de entrada y salida del haz de luz, obtiene un "haz" paralelo (o luz colimada), que aísla las radiaciones de onda deseadas.

Existen diversas variaciones del sistema monocromador, según cada fabricante de espectrofotómetros.

  • Compartimento para la medida, en este espacio de los espectrofotómetros se insertan las cubetas de medida, donde tiene lugar la interacción con la muestra a analizar. Es importante que dicha interacción se produzca en un entorno sin absorción ni dispersión de las longitudes de onda. Los fotodetectores captan las radiaciones de todo el espectro y transmiten la señal para su determinación.
  • Celdas, en estos recipientes se depositan las muestras líquidas a analizar. Las celdas de los espectrofotómetros disponen de 2 paredes, correspondiente a los lados ópticos por donde atraviesa el haz de luz. Normalmente, para medidas en el espectro visible, se utilizan celdas de vidrio o incluso de plástico, mientras que, para el espectro ultravioleta, éstas deben ser de cuarzo. Asimismo, existen celdas especiales para micromuestras o para materiales sólidos tipo óptico.

Más información sobre espectrofotómetros

¿Cómo medir cuánta luz absorbe una sustancia con espectrofotómetros?

En primer lugar, hemos de efectuar un llamado “blanco”. En el sector químico, un blanco es el resultado de la medición del solvente a utilizar con el producto, que se introduce en la cubeta de medición.

¿Cómo determinar una muestra con espectrofotómetros?

  • Se disuelve una muestra en el solvente y se agrega a la cubeta
  • El haz de luz emitido pasa a través de la cubeta con la muestra, y la luz es parcialmente absorbida por las moléculas de la muestra en la solución
  • El detector mide la luz transmitida
  • El cambio de intensidad de luz en diferentes longitudes de onda se calcula dividiendo la intensidad transmitida de la solución de muestra por los valores correspondientes del blanco. Finalmente, esta relación queda almacenada

Más información sobre espectrofotómetros

Tipos de espectrofotómetros

A continuación, te explicamos las principales diferencias entre los espectrofotómetros de barrido, de matriz y los de haz simple o doble.

-Espectrofotómetros de barrido

En un espectrofotómetro de barrido o escáner, la luz dispersada en longitudes de onda individuales se selecciona mediante una rejilla, que gira mecánicamente y mide la transmitancia individual de cada longitud de onda a través de la cubeta. De este modo, se obtiene todo el espectro de forma continua.

En algunos casos, el escaneo con espectrofotómetros de barrido puede producir una disminución en la precisión y reproducibilidad de la selección de longitud de onda.

  • Espectrofotómetros de matriz (array)

Aquí la muestra está iluminada por un haz de luz UV/VIS, que contiene todo el espectro. De esta forma, la muestra absorbe simultáneamente las diferentes longitudes de onda de luz. La luz transmitida es difractada por una rejilla de reflexión, situada después de la cubeta.  A continuación, la luz es dirigida a un detector, compuesto por diversos materiales fotosensibles, lo que permite la medición simultánea de todas las longitudes de onda. Al sistema de espectrofotómetros de matriz también se le conoce como "óptica inversa" y tiene la ventaja que no dispone de partes móviles y la medida es más rápida y fiable.

  • Espectrofotómetros UV/VIS de haz simple o doble

En espectrofotómetros de haz simple, el haz de luz originado en la lámpara se guía directamente a través de la cubeta de muestra hasta el detector.

En cambio, en la configuración de espectrofotómetros de doble haz, el haz de luz de la lámpara se divide en dos haces de intensidades iguales: un haz de referencia y un haz de muestra. Cada haz pasa por una cubeta diferente, la de referencia (con el solvente) y la de muestra, de forma simultánea.

Las intensidades de ambos haces se miden al mismo tiempo mediante dos detectores (o fotodiodos). En otros instrumentos, los dos haces pasan a través de un bloqueador que impide el paso de un haz. El detector alterna entre la medida del haz de muestra y la de referencia.

En mediciones por debajo de 300 nm, hay que tener en cuenta el valor de absorbancia de los solventes, que puede ser alta. Esto puede originar errores, puesto que la absorción debida a la muestra es pequeña en comparación con la absorción total.

Más información sobre espectrofotómetros

Termómetros, tipos y sondas

Los termómetros se usan para medir la temperatura y posiblemente sea el instrumento más utilizado en la actualidad, difícilmente encontraremos una actividad, doméstica o industrial: sanidad, química, alimentaria y de bebidas, ciencias de la vida, materias primas y metalúrgica, sector energético, agrícola, meteorología, almacenes... que no lo utilicen.

Los más antiguos, aún utilizados hoy, aunque en decadencia, son los termómetros de vidrio donde lo que se mide es la expansión del líquido que tienen en su interior

Existen tantos tipos de termómetros como aplicaciones.

Según la actividad, podemos utilizar termómetros portátiles o fijos, termómetros industriales que automatizan procesos, termómetros anti explosión para zonas peligrosas, etc.

Hoy la mayoría de los termómetros son electrónicos y utilizan sondas de temperatura ligadas a estos, que ofrecen gran precisión, según el tipo de sensor que utilice el instrumento.

Los sensores se presentan en la mayoría de casos encapsulados con vainas de diferentes formas (para uso en carnes, frutas, pescados, líquidos, gases, etc.) y con cables de longitudes y grosor de acuerdo a su uso.

Actualmente, los sensores más utilizados son:

  • Termopar

Thomas J. Seebeck demostró que cuando dos extremidades de metales distintos se unen a temperaturas diferentes, se crea un voltaje. Esta relación permite llevar a cabo una conversión directa de la diferencia de temperatura a voltaje eléctrico, creando el efecto termopar. En función de los metales empleados (tipo K, J, P, etc.) se aplican a mediciones de altas temperaturas.

Por su parte, el físico francés Jean Peltier descubrió que este efecto puede funcionar en sentido contrario y, en consecuencia, utilizarse para enfriar.

Termo resistencias de platino (RTD)

Las termo resistencias generan una variación de la resistencia eléctrica a causa de una variación de temperatura (a mayor temperatura mayor resistencia). Fue C.H. Meyers en 1932 que observo midiendo la resistencia eléctrica de un hilo de platino que ofrecía una medición más precisa.

Hoy en día, los sensores de platino Pt100 (resistencia de 100Ω a 0ºC y un coeficiente de temperatura fijo α=0,003851 °C-1) y el Pt1000 (resistencia de 1000Ω a 0ºC) y hoy se utilizan para mediciones de alta precisión en temperaturas medias.

Este tipo de sensores han evolucionado de forma considerable y pueden encontrarse en multitud de versiones: cerámicos, de película, etc.

  • Termistores (NTC)

Son sensores resistivos de temperatura. Su funcionamiento se basa en la variación de la resistividad que presenta un semiconductor con la temperatura. Tiene buena precisión, pero una escala corta de medición, normalmente entre -50 a 150ºC.

  • Infrarrojos

Los termómetros IR permiten medir la temperatura sin contacto. Son de elección cuando no se pueden usar termómetros convencionales. Por ejemplo, para medir la temperatura de objetos en movimiento (rodillos, maquinaria en movimiento, cinta transportadora, etc.), o a distancia, o a temperaturas demasiado altas. También cuando se necesitan una alta velocidad de medida, aunque no se disponga de tanta precisión como un termómetro con sonda, ya que la respuesta es normalmente de milisegundos, perfecta para en el control de la cadena de frío.

Estos utilizan una lente que permite enfocar los rayos infrarrojos de energía, convirtiéndola en una señal eléctrica que se puede mostrar en unidades de temperatura (tras ser compensada por la variación de la temperatura ambiente).

Para medir con termómetros infrarrojos hemos de tener en cuenta el tamaño del objetivo y la distancia, así como el tipo de superficie a medir. Para ello, hay que considerar su emisividad, que es la relación de la energía radiada por un objeto a una temperatura dada, a la energía emitida por un radiador perfecto, o de cuerpo negro, a la misma temperatura.

La emisividad (que tiene un valor de entre 0,0 y 1,0) de un cuerpo negro es de 1,0.

En general, cuanto mayor es la emisividad de un objeto, más fácil es obtener una medición precisa de la temperatura. Los objetos con emisividad muy baja (por debajo de 0,2) pueden ser aplicaciones difíciles. Asimismo, las superficies pulidas y los metales brillantes, como el aluminio, son tan reflectantes que las mediciones con termómetros infrarrojos no siempre son posibles.

Más información sobre instrumentos de laboratorio para medir la temperatura

¿Cómo se calibran los termómetros?

La calibración de termómetros consiste en la comparación con otro equipo más preciso denominado patrón, para estimar su exactitud (corrección) y precisión (incertidumbre).  

Como patrón se utiliza un termómetro de resolución adecuada y calibrado con referencia a la Escala Internacional de Temperatura de 1990, EIT-90, acompañado de un certificado de calibración expedido por un laboratorio acreditado o un ente nacional de metrología, debiendo constar en el certificado la trazabilidad a patrón de referencia, la incertidumbre expandida y el factor (o probabilidad) de cobertura que se ha utilizado en el cálculo de incertidumbre expandida.

Se recomienda realizar calibraciones a intervalos definidos para garantizar la seguridad de los procesos productivos.

Para la calibración se usan varios sistemas dependiendo de las precisiones necesarias y del tipo de sensores, utilizándose diferentes baños (portátiles o fijos) con líquidos, normalmente aceites especiales, así como el sistema de bloque seco.

El tipo de bloque seco permite la calibración sin líquidos mediante unos orificios para introducir las sondas a calibrar. Para obtener un buen acoplamiento a la temperatura entre bloque y sonda, el agujero debe de tener un diámetro muy similar a la sonda.

Términos utilizados en las calibraciones realizando un número finito de mediciones:

  • Error máximo permitido: Valor extremo de un error permitido por especificaciones, reglamentos, etc. para un instrumento de medida.
  • Error sistemático: Media entre un número infinito de medidas del mismo mesurando realizadas bajo condiciones de repetibilidad, menos un valor verdadero del mesurando.
  • Exactitud: Capacidad de un instrumento para dar respuestas cercanas a un valor verdadero.
  • Imprecisión: Coeficiente de variación de un conjunto de resultados obtenidos al medir repetidamente un mesurando con un mismo procedimiento de medida.
  • Incertidumbre de medida: Dispersión de los valores al efectuar una medición, atribuidos al mesurando.
  • Patrón: Material de referencia o instrumento de medida destinado a definir y reproducir uno o varios valores de una magnitud, como referencia.
  • Resolución: La menor diferencia de indicación de un dispositivo visualizador que puede captar significativamente.
  • Trazabilidad: Resultado de una medida o un patrón que pueda relacionarse con referencias a patrones nacionales o internacionales, teniendo en cuenta todas las incertidumbres.
  • Valor verdadero: Valor atribuido a una magnitud determinada y aceptado por convenio.

Más información sobre instrumentos de laboratorio para medir la temperatura

Unidades de medición de la temperatura

En el sistema internacional de unidades, la unidad de temperatura es el Kelvin (K), y el punto de inicio de la escala Kelvin (y también para la escala de Rankine) es el cero absoluto correspondiente a -273,15°C (grados Celsius o centígrados) igual a 0°K (grados Kelvin), o bien -459,67°F (grados Fahrenheit) que es la temperatura más baja posible que puede existir.

La escala más utilizada es la escala Celsius que mide en grados centígrados, aunque en Estados Unidos se utiliza preferentemente la escala Fahrenheit.

Más información sobre instrumentos de laboratorio para medir la temperatura

¿Cómo se mide la temperatura?

A día de hoy, la temperatura se describe como una magnitud relacionada con la energía interna de un sistema termodinámico, definida por el principio cero de la termodinámica, y relacionada de forma directa con la parte de la energía interna conocida como cinética.

La energía cinética es la energía asociada a los movimientos de las partículas del sistema, ya sea en un sentido traslacional, rotacional o en forma de vibraciones. Cuanto mayor sea la energía cinética de un sistema, mayor será su temperatura. En el caso de un elemento sólido, los movimientos en cuestión son las vibraciones de las partículas que lo conforman. En el caso de un gas ideal monoatómico, se trata de los movimientos traslacionales de sus partículas (en gases multiatómicos, también deben tenerse en cuenta los movimientos rotacional y vibracional).

Asimismo, existen otros modos de medir la temperatura, como, por ejemplo, los papeles sensibles a la temperatura que cambian de color según la temperatura medida.

Más información sobre instrumentos de laboratorio para medir la temperatura

Historia del termómetro

El ser humano siempre ha conocido las sensaciones de calor y frío, pero la medida de ambas sensaciones era desconocida. Desconocemos si en civilizaciones antiguas la temperatura se llegó a medir de alguna forma, pero no fue hasta el Renacimiento cuando Galileo Galilei construyó un dispositivo que usaba la contracción del aire en un recipiente para mover una columna de agua, que a su vez se utilizaba para indicar la intensidad del enfriamiento, pero debido a su imprecisión dado que este sistema se veía afectado por la presión del aire, terminó abandonándose.

Veinte años después, el médico italiano Santorio, introdujo un líquido dentro de un tubo de vidrio, lo selló y observó cómo el líquido se movía hacia arriba mientras se expandía. Una escala en el tubo facilitaba la visualización de los cambios, pero todavía no se contaba con unidades de temperatura precisas.

Los primeros termómetros, un tubo sellado de vidrio en cuyo interior se utilizaban líquidos como alcohol o mercurio que, al cambiar su volumen con la temperatura, permitía mediante el marcado en la superficie del vidrio, determinar la temperatura. Fueron inventados por Ole Christensen Romer y Daniel Gabriel Fahrenheit. Este diseño fue por primera vez el más eficaz, dada su respuesta lineal a los cambios de temperatura.

Hoy los de mercurio debido a su toxicidad están prohibidos y se utilizan otros líquidos.

Entonces la necesidad fue la de dar un valor numérico a lo que se consideraba “frío” o “caliente” y permitió conocer las propiedades de las sustancias que, en función de la temperatura, varían su volumen y solubilidad, así como su estado (sólido, líquido, gaseoso, o plasma).

Más tarde en el siglo XIX se inventa el sensor de temperatura bimetálico, que emplea la diferencia en la expansión de dos placas de metal unidas para activar termostatos o similares, era barato de fabricar además de robusto, lo que favoreció su aplicación y difundió la aplicación del control de la temperatura.

En 1821, Thomas Johann Seebeck descubrió el efecto termopar. El físico estonio-alemán demostró que cuando dos extremidades de metales distintos se unen a temperaturas diferentes, se crea un voltaje. Esta relación permite llevar a cabo una conversión directa de la diferencia de temperatura a voltaje eléctrico. Por su parte, el físico francés Jean Peltier descubrió que este efecto puede funcionar en sentido contrario y, en consecuencia, utilizarse para enfriar.

Más de un siglo después, en 1932, C.H. Meyers midió la resistencia eléctrica de un hilo de platino y observó que ofrecía una medición más precisa. Hoy en día, los sensores de platino Pt100 (resistencia de 100Ω a 0ºC y un coeficiente de temperatura fijo α=0,003851 °C-1) y el Pt1000 (resistencia de 1000Ω a 0ºC) son de los más utilizados. Este tipo de sensores han evolucionado de forma considerable y pueden encontrarse en multitud de versiones: cerámicos, de película, etc.

Más información sobre instrumentos de laboratorio para medir la temperatura

Estufas de laboratorio

Las estufas son esenciales para todo tipo de preparación y análisis de muestra, que permiten analizar o efectuar pruebas de resistencia a la temperatura para la fabricación y transformación de diferentes materiales, como: metal, plástico, goma, madera, entre otros, pues se necesita de calor para poder evaluar estos productos en diferentes niveles y procesos: para cocer, secar, fundir, dilatar, desgasificar.

En general la mayoría de los modelos de estufas para laboratorio alcanzan entre los 200 y 300ºC.

Además, en todas las estufas de laboratorio hemos incorporado una muy importante característica a destacar la clase de seguridad 3.1, según la norma estándar DIN 12880. Esta normativa nos indica que para la clase 3.1. es necesario un segundo nivel de seguridad con control independiente al que regula la temperatura de la estufa. Esto implica el uso de dos sondas de temperatura independientes controladas mediante dos sistemas, también independientes. Uno para regular la temperatura de trabajo y otro para caso de accidente o incendio.

La funcionalidad de este sistema de seguridad se basa en un sistema físico que lleva a desconectar de forma mecánica el instrumento de la corriente, si se da un caso de sobre-temperatura.

Las estufas en los laboratorios son muy útiles no solo para el tratamiento de muestras o materiales, sino también para la eliminar cualquier posibilidad de tener actividad biológica. Además, gracias a las estufas comercializadas por LabProcess, y gracias a la alta calidad de las resistencias y su colocación en las estufas, así como el riguroso control realizado constantemente por el microprocesador, se puede contar con la máxima seguridad y precisión en el tratamiento de estos materiales especialmente delicados.

Más información sobre estufas de laboratorio

Diferencias entre estufas, incubadoras y cámaras climáticas

Cada uno de estos elementos de un laboratorio: estufas, incubadoras o cámaras climáticas, tienen unas diferencias técnicas únicas y óptimas para los materiales que se quieren medir, procesar y/o analizar.

Las estufas sólo calientan, pudiendo llegar hasta los 300ºC (de forma estándar en nuestro catálogo); las incubadoras normalmente calientan desde temperatura ambiente hasta 80ºC, niveles de temperatura que se conocen como biológicas, haciendo que éstas sirvan para hacer ensayos dentro de los campos de la microbiología, la biología y la biología celular, entre otros. Estas suelen tener una puerta interior de vidrio para poder visualizar las muestras sin alterar la temperatura interior.

En este sentido, las incubadoras refrigeradas se utilizan para el mismo sector, y se utilizan cuando es necesario trabajar a temperaturas similares o inferiores a la temperatura ambiente. Para lograr una buena estabilidad de temperatura, es necesario sistema de frío que mantenga temperaturas por debajo temperatura ambiente de una forma estable. En nuestro catálogo existe un modelo de incubadora refrigerada de 150litros.

Por su parte, las cámaras climáticas se parecen a las incubadoras refrigerantes en el sentido de la funcionalidad principal, pero estas últimas también regulan la humedad interior, elemento con el que las otras no cuentan.

Más información sobre estufas de laboratorio

¿Por qué medir oxígeno disuelto?

El oxígeno elemental se produce por cianobacterias, algas y plantas y todas las formas complejas de vida lo usan para su respiración celular.

Un total de las tres cuartas partes del oxígeno de la tierra es producido por el fitoplancton en los océanos. Dado que el oxígeno es fácilmente soluble en agua, lo encontramos en ríos, lagos y mares, y es que las aguas están continuamente expuestas al aire atmosférico.

Para conocer el estado de la contaminación en estos sistemas y asegurar la buena conservación del medio ambiente, es indispensable conocer la cantidad de oxígeno disuelto en el agua, y el método de elección por su rapidez y precisión es la medida mediante oxímetros.

Más información sobre instrumentos para medir oxígeno disuelto

Tipos de sensores para la medida de oxígeno disuelto y sus diferencias

Los electrodos de oxígeno disuelto hasta hace pocos años eran del tipo amperométrico o galvánico. Estos requieren un mantenimiento periódico, como el cambio de membrana y electrolito, limpieza del ánodo y cátodo, necesitando por ello calibrarlos frecuentemente. Son sensibles al flujo y a algunas disoluciones, como la presencia de H2S, CO2.

En cambio, la nueva tecnología del electrodo óptico, en comparación con los anteriores, ofrece al usuario considerables ventajas:

1. Menor mantenimiento, ya que no necesitan electrolito, cambio de membranas, ni limpieza de ánodo y cátodo. Basta cambiar la capsula sensor cada uno o dos años, a un coste bajo.

2. Insensibles a la contaminación ya que no se consume oxígeno.

3. Son insensibles al flujo, por lo que no necesitan agitación, ya que este sistema no implica consumo de oxígeno.

4. Mejor precisión.

5. Calibraciones muy dilatadas en el tiempo.

6. Tiempo de medida muy rápidos, ya que solo requiere que las moléculas de oxígeno estén en contacto con el luminóforo; por lo tanto, los tiempos de respuesta del método se expresan en segundos.

7. Excelente sensibilidad a concentraciones de oxígeno bajas.

Si bien los electrodos de oxígeno disuelto del tipo amperométrico o galvánico son más baratos, tienen el inconveniente de un mayor mantenimiento (cambio regular de membranas, electrolito y de limpieza del ánodo-cátodo), necesitan de calibraciones periódicas y otro inconveniente es que para una lectura fiable necesita medir en flujo y que algunas sustancias envenenan el sistema.

Más información sobre instrumentos para medir oxígeno disuelto

¿Cómo miden los electrodos de oxígeno disuelto?

El método óptico mide la concentración de oxígeno en base a una medida de tiempo sin deriva. Todo desgaste o decoloración del luminóforo sobre la cápsula del sensor influye en la intensidad, que no a la duración, de la luz roja emitida, la cual depende exclusivamente de la concentración de oxígeno de la muestra. Antes de cada medición, los componentes ópticos son ajustados con referencia a un pulso de luz del LED rojo, que es transmitido exactamente por el mismo camino que la luminiscencia emitida.

Los electrodos amperométricos o galvánicos funcionan determinando la corriente o la tensión resultantes de la reducción del oxígeno a iones hidróxido en el cátodo. Para compensar este “consumo de oxígeno”, las moléculas de oxígeno deben difundirse continuamente en el electrolito. El empobrecimiento de las moléculas de oxígeno muy cerca del sensor solamente puede impedirse agitando la muestra en la proximidad del sensor, pero la conversión de oxígeno está limitada con el tiempo debido a que el ensuciamiento de la membrana impide la difusión y se obtendrán resultados de medida bajos.

Más información sobre instrumentos para medir oxígeno disuelto

Impacto medio ambiental del O2 y control mediante oxímetros

Biológicamente el oxígeno disuelto es absolutamente esencial para la supervivencia de todos los organismos acuáticos (no sólo peces, también invertebrados como cangrejos, almejas, zooplancton, etc.).

Si los niveles de O2 en el agua bajan de 5.0 mg/l, la vida acuática peligra y si los niveles llegan a valores de 1-2 mg/l, en unas pocas horas podemos encontrar grandes cantidades de peces muertos.

Por todo ello el valor de O2, el cual determinamos a partir de los oxímetros, es un excelente indicador de la calidad ambiental, ya que afecta además a otros factores como los bioquímicos y también estéticos como el olor, claridad del agua, y sabor.

Más información sobre instrumentos para medir oxígeno disuelto

Afectaciones en el agua debidas a la concentración sobre el oxígeno disuelto

A mayor temperatura, el oxígeno disuelto es menos soluble en agua. Esto significa que cuando el agua está demasiado caliente no habrá suficiente oxígeno en el agua. También cuando hay muchas bacterias o minerales acuáticos en el agua, forman una sobrepoblación, consumiendo el oxígeno disuelto en grandes cantidades.

Los niveles de oxígeno también pueden ser reducidos a través de la sobre-fertilización (altos contenidos de nitratos y fosfatos) por la fuga desde los campos de cultivos. Bajo de estas condiciones, el número y el tamaño de las plantas acuáticas aumenta en gran cantidad, enturbiando el agua y las plantas utilizaran todo el oxígeno disuelto disponible para respirar, causando la muerte de la fauna (peces, etc.).

Cuando las plantas mueran, llegarán a ser comida para las bacterias, las cuales tendrán alta multiplicación y usarán a su vez grandes cantidades de oxígeno, causando la muerte del medio acuático. Para evitarlo es imprescindible controlarlo en diferentes procesos, no solo agrícolas, siendo uno de los más importantes en el tratamiento de las aguas residuales, donde el oxígeno se utiliza para descomponer las sustancias orgánicas (degradación del carbono, la nitrificación y la desnitrificación en el tanque de aireación en las depuradoras) y el control preciso del aporte de oxígeno supone un ahorro muy importante y este análisis se lleva a cabo mediante oxímetros.

Otro uso es el control del contenido de oxígeno en los sistemas de agua de alimentación, que deben mantener niveles de oxígeno lo más bajo posible, a fin de minimizar el peligro de corrosión en calderas y tuberías.

Más información sobre instrumentos para medir oxígeno disuelto

Aplicaciones mediante el control de oxígeno disuelto

En piscicultura es necesario medir la cantidad de oxígeno disuelto en el agua, que dependerá de la especie, de su estado físico, la temperatura del agua (los peces son animales de sangre fría, por lo que ellos utilizan más oxígeno a temperaturas altas, cuando su velocidad metabólica aumenta), los contaminantes presentes, y más.

Consecuentemente por esto es imposible predecir con precisión el mínimo nivel de oxígeno disuelto en el agua para peces específicos y animales acuáticos. Por ejemplo, a 5oC, la trucha usa sobre 50-60 miligramos (mg) de oxígeno por hora, a 25oC, deberían necesitar cinco o seis veces esa cantidad. 

La cantidad mínima estimada de oxígeno disuelto, controlada con oxímetros portátiles, que soportara una gran y diversa población de peces, es de 4 a 5 partes por millón (ppm). El nivel de oxígeno disuelto en las buenas aguas de pesca generalmente tiene una media de 9.0 partes por millón (ppm).

En la elaboración de cerveza, los niveles correctos de oxígeno disuelto deberían ser menores a 100 ppb (partes por billón), dependiendo en gran medida de la cantidad de oxígeno disponible durante el proceso de fermentación, estos valores son los adecuados para obtener una cerveza con el color, turbidez, aroma y sabor adecuados. También se obtiene de esta manera, una vida útil más alta. La cerveza fabricada está sujeta a la oxidación y es importante evitar que entre en contacto con el oxígeno en el momento de embotellarla, ya que produciría un cambio en su sabor (producido por la reacción de los polifenoles) e incluso en su color.

El oxígeno interviene de forma crucial en el proceso enológico completo, desde la recogida de la uva hasta el embotellado del vino y define las características sensoriales finales de los vinos. Para producir vinos de calidad, es recomendable la oxigenación controlada de mostos y vinos durante su procesamiento, obteniendo beneficios como la estabilización del color, la reducción de la astringencia y el amargor y el empleo de menores dosis de sulfuroso. Se mide el oxígeno disuelto en el vino con oxímetros portátiles en barricas, depósitos y en botellas (en el espacio de cabeza de la botella e incluso el que entra a través del tapón) y dado que se conoce que cada mg de O2 disuelto es capaz de consumir 4 mg de SO2 libre, nos da la pauta para el ahorro en la adición del SO2, importante para mantener el sabor y aroma adecuado.

Más información sobre instrumentos para medir oxígeno disuelto

 

 

Funcionalidad de los termohigrómetros

Los termohigrómetros son instrumentos que miden la temperatura y humedad relativa o “RH”. Miden la cantidad de agua en el aire en forma de vapor, comparándolo con la cantidad máxima de agua que puede ser mantenida a una temperatura concreta.

La humedad relativa es la relación entre la humedad absoluta y el vapor de saturación, expresada en %. La humedad relativa (HR) de una mezcla de aire y agua se define como la relación de la presión parcial de vapor de agua (PH2O) en la mezcla a la presión de vapor de equilibrio del agua (P*H2O) sobre una superficie plana de agua pura a una temperatura concreta.

Para calcular el HR, se emplea la siguiente fórmula matemática: HR= (PH2O) / (P*H2O).

Por tanto, por ejemplo, si la humedad es del 50% a 23°C, esto indica que el aire contiene el 50% del nivel máximo de vapor de agua que podría mantener a esa temperatura. En cambio, si midiera 100% de humedad relativa, indicaría que el aire está en su máxima saturación.  

La humedad relativa depende fuertemente de la temperatura. También la presión cambia la humedad relativa: si ésta se duplica (a temperatura constante), la humedad relativa aumentará en un factor de dos.

La humedad relativa influye tanto en las personas como en objetos, materiales o productos, por lo que es de suma importancia tener un control sobre ella y en muchos casos los termohigrómetros son de uso obligado para cumplir la normativa (GMP, Good Manufacturing Process) marcada por las autoridades reguladoras sobre el buen estado de conservación de productos en múltiples campos como el sector alimentario y farmacéutico, entre otros.

Punto de rocío

Cuando el aire húmedo entra en contacto con una superficie o aire más frío, el vapor de agua condensa y produce gotas de agua, un fenómeno que se conoce como 'punto de rocío'.

Aplicaciones de los termohigrómetros

Los termohigrómetros tienen múltiples aplicaciones en sectores muy diversos como pueden ser:

  • Museos: controlan la humedad relativa de las diferentes salas con el objetivo de evitar el deterioro de las obras de arte.
  • Bibliotecas: en estos edificios es indispensable controlar la humedad relativa para asegurarse tanto de la conservación de los libros y otros materiales como del adecuado manteniendo de la calidad del aire para los usuarios.
  • Hospitales y edificios públicos: para garantizar una excelente ratio entre temperatura y humedad y mantener la calidad del aire interior, ya que la humedad relativa afecta también a las personas.
  • Invernaderos: a fin de disponer las condiciones óptimas para el crecimiento de las plantas.
  • Centro de datos: los equipos informáticos necesitan unas condiciones específicas de temperatura y humedad, por lo que es imprescindible su control.
  • Almacenes: puertos y aeropuertos, fábricas, laboratorios, grandes superficies, etc.
  • Laboratorios

Más información sobre los termohigrómetros

Tipos de termohigrómetros

La gran mayoría de los termohigrómetros que encontramos hoy en día en el mercado son portátiles, por su facilidad de transporte y la posibilidad de efectuar mediciones en diferentes localizaciones, mapeos de almacenes, etc.  La elección de un modelo u otro dependerá básicamente de la aplicación, teniendo en cuenta el tipo y forma de la sonda: formas planas para la medida en papel o cartón, forma de punta para medida en granos, etc.

Asimismo, gran parte de los termohigrómetros cuentan también con un registro de datos (datalogger), que además de efectuar la medición, permiten guardar lecturas con información de fecha y hora y, posteriormente, descargar los datos en el ordenador para obtener hojas de cálculo, u otros formatos.

Este tipo de termohigrómetros incluyen:

  • Cálculo del punto de rocío
  • Temperatura máxima y mínima
  • Cálculo de valores medios
  • Alarmas acústicas y ópticas en caso de exceder valores límites
  • Conexión con ordenador

Más información sobre los termohigrómetros

Información sobre la turbidez y los turbidímetros

Esta medida es una de las más utilizadas porque no necesita de reactivos, es decir, las mediciones son inmediatas y su manejo es sencillo, por lo que se ha convertido en imprescindible en el monitoreo general de la calidad del agua y se emplea tanto en el control en laboratorios (permite evaluar la calidad de las aguas y determinar el nivel de la transparencia de diferentes líquidos, como vinos o colutorios bucales, entre otros muchos) como en el control de procesos mediante medidas on-line en potabilización de aguas, aguas residuales, acuicultura, monitoreo ambiental, piscinas y spas, entre otros.

En la actualidad, el método más utilizado es la medida mediante turbidímetros, entre otras cosas por su facilidad de uso y su alta precisión y repetitividad, son los turbidímetros, instrumentos electrónicos que utilizan celdas fotoeléctricas que miden la luz dispersada a 90º (medición nefelométrica). Los turbidímetros no requieren tiempo de calentamiento y proporcionan un rendimiento a largo plazo sin necesidad de reemplazar la lámpara.

La escala de longitudes de onda utilizada en la medición de turbidez se sitúa en la zona visible mediante una fuente de luz: una lámpara de tungsteno (400 y 600 nm) - según la norma EPA 180.1 8- o un infrarrojo cercano (NIR) 860 nm, si se mide con instrumentos según el método ISO 7027. Para valores de turbidez por encima de 40 NTU, es muy importante efectuar calibraciones con patrones adecuados a los rangos de medida.

El método de la lámpara de tungsteno puede verse afectado por la absorción de luz visible por la muestra, en cambio no afecta al sistema de luz infrarroja, por este motivo este sistema infrarrojo se utiliza en todo tipo de líquidos incluso coloreados, como vinos, etc.

Más información sobre la turbidez

¿Qué es la turbidez?

La turbidez es la medida de las propiedades de dispersión de la luz del agua y depende de la cantidad, el tamaño y la composición de la materia suspendida, como arcilla, limo, partículas coloidales, plancton y otros organismos microscópicos.

En líquidos, la turbidez es la opacidad de éstos y se debe al efecto Tyndall, científico irlandés que estudió este objeto y definió que las partículas coloidales en una disolución son visibles al dispersar la luz, es decir, que las disoluciones sin partículas en suspensión son transparentes, ya que prácticamente no dispersan la luz. Esta diferencia permite distinguir a aquellas mezclas heterogéneas que son suspensiones.

Más información sobre la turbidez

¿Cómo medir la turbidez?

La turbidez se mide mediante instrumentos llamados turbidímetros. Los turbidímetros convencionales atraviesan con luz una sección de agua y detectan la cantidad de luz dispersada por las partículas del agua en un ángulo de 90 grados con respecto a la fuente de luz. Este tipo de medición de la dispersión de la luz se denomina nefelometría. Estos turbidímetros están diseñados para mediciones de campo o de laboratorio, así como para la monitorización ininterrumpida mediante la configuración de una alarma que se activa cuando los niveles de turbidez alcanzan niveles no seguros.

La turbidez también puede estimarse con instrumentos como el colorímetro o el espectrofotómetro, que miden la disminución de la luz transmitida debido al bloqueo causado por partículas. Estos instrumentos se utilizan a veces para detectar cambios significativos en la turbidez de un sistema de aguas o para el control de procesos.

Más información sobre la turbidez

Factores que afectan a la turbidez

  1. Tamaño: la dispersión de la luz depende en gran medida de la relación entre el tamaño de partícula y la longitud de onda de la luz incidente
  2. Forma: especialmente para partículas más grandes
  3. Naturaleza reflectante de la partícula: algunas partículas, como el carbón activado, también pueden absorber la luz
  4. Movimiento de partículas suspendidas de material inorgánico (limo, arena), material orgánico y microorganismos (seres vivos)

La luz que viaja a través del líquido choca con las partículas en suspensión y se refleja en todas las direcciones, lo que lleva a la percepción de turbidez u opacidad. Esta dispersión dependerá de la forma de la partícula (redonda, plana, irregular…), de su naturaleza reflectante (opacas o reflectantes), así como de su tamaño, con relación a la longitud de onda de la luz incidente.

Más información sobre la turbidez

¿Cuáles son las unidades de la turbidez?

La unidad de turbiedad fue definida “como la obstrucción óptica de la luz, causada por un millón de sílice en agua destilada”Existen diferentes unidades para expresar la turbidez: NTU, FNU, FAU y JTU.

  • Unidad de Turbidez Nefelométrica (NTU): solo se usa cuando los resultados se determinan mediante el método de dispersión a 90° y la EPA especifica el uso de esta unidad para el método 180.1. Es la unidad más común en uso y generalmente se aplica a todos los instrumentos, como los turbidímetros.
  • Unidad de Turbidez de Formacina (FTU): es la segunda unidad más común en uso y nuevamente define una dispersión nefelométrica del método EPA o ISO.
  • Unidad Nefelométrica de Formacina (FNU): define técnicamente la medición con el detector de 90° y se aplica más correctamente a los instrumentos que utilizan el método ISO 7027.

Las unidades anteriores son equivalentes, es decir, no hay factor de conversión entre las dos.

  • Unidad de Turbidez de Jackson (JTU): derivada del uso de Jackson Candle 40 JTU es aproximadamente equivalente a 40 NTU, pero la correlación con otros valores está abierta a debate.
  • Unidad de Atenuación de Formacina (FAU): define una medición realizada con un instrumento ISO 7027 a 0° en lugar de 90°. Si el instrumento en cuestión es un dispositivo del método EPA, las unidades se acortan a AU (Unidades de atenuación).

Otras unidades más abstractas de uso inusual incluyen FNRU (Unidad de Relación Nefelométrica de Formacina) para sistemas que utilizan la dispersión de 90° más detectores adicionales, FBU (Unidad de Dispersión Inversa de Formacina) para sistemas que usan un detector de retro dispersión de 30° y FNMU (Unidad Multiespuma Nefelométrica de Formacina) para sistemas nefelométricos y utilizando varios otros ángulos de detección.

Más información sobre la turbidez

Métodos para medir la turbidez

Para medir la turbidez, se mide tanto la luz dispersada en un ángulo no lineal (normalmente 90°) como en dirección recta. Existen varios métodos para medir la turbidez:

  • Visuales (Disco Secchi, los turbidímetros de Jackson Candle o tubos de turbidez): dependen totalmente de la "medición" de dirección hacia adelante para ver el oscurecimiento de una forma definida
  • Con instrumentos equipados con celdas fotoeléctricas: los turbidímetros miden la luz dispersada en un ángulo no lineal a 90º.

Más información sobre la turbidez

Métodos visuales para medir la turbidez

Los primeros métodos para medir la turbidez como indicador de la calidad del agua eran visuales.  Hemos de considerar que estos métodos son aproximativos. Uno de los primeros fueron los turbidímetros de Jackson Candle, un sistema desarrollado a principios del siglo XX, que consiste en un tubo de vidrio calibrado, una vela estándar y un soporte que alinea la vela y el tubo de vidrio. 

La turbidez se mide determinando el punto en el que la llama de la vela desaparece cuando se ve desde la parte superior del tubo de vidrio. Cuanto mayor sea la longitud de la muestra a la que desaparece la llama, mayor será la turbidez. Para su calibración se utilizaban suspensiones de arcilla en agua expresadas en JTU (unidades de turbidez Jackson) o mg/l de SiO2. Se trata de un sistema que se encuentra ya en desuso.

El otro método visual es el método disco Secchi, cuyo principio implica el oscurecimiento de un patrón estándar en un disco. Generalmente se usa para la medición de la turbidez de las aguas superficiales, como lagos y ríos. El disco se baja a la muestra hasta que ya no se puede visualizar el patrón marcado en el disco y tras medir la longitud de la cadena hasta alcanzar la profundidad donde desaparece la marca del disco, nos indica la profundidad de Secchi. Para una mayor precisión, se eleva nuevamente la cadena para ver de nuevo el patrón, se vuelve a medir la longitud de la cadena y se toma el valor promedio.

En el manual de calidad del agua de la OMS e ISO 7027, se hace referencia al método del Tubo de turbidez, que consiste en apoyar un tubo de tamaño pequeño en el fondo, donde existe una marca definida (cruz o círculo generalmente). Se vierte agua en el tubo y mirando directamente hacia abajo del tubo desde arriba, se continúa vertiendo la muestra hasta que la marca definida ya no sea visible. Para conocer el valor de turbidez, hay que visualizar el dato situado en el lado del tubo.

Más información sobre la turbidez

Patrones de turbidez de calibración primarios

El patrón de referencia es la formacina, la cual es relativamente inestable, sobre todo a bajas concentraciones, por lo que se debe preparar siempre para su inmediato uso, normalmente a partir de una solución de reactivos puros (hexametilentetramina C6H12N4 y sulfato de hidracina N2H6SO4) y diluida para producir los patrones de calibración primarios.

La formacina sigue siendo el único método verdadero para comparar los valores de turbidez de la plataforma de medición a la plataforma de medición. Sin embargo, debido a su inestabilidad y que uno de sus componentes -el sulfato de hidracina- es venenoso y carcinógeno, en la actualidad se utiliza el SDVB, que es un material de calibración primario alternativo.

El SDVB (suspensiones esféricas de copolímeros de estireno-di-vinil-benceno) para uso de la calibración se ha aprobado recientemente como material de calibración más estable, dado los problemas de uso de la formacina.

Debe tener en cuenta que las soluciones SDVB no son transferibles entre diferentes fabricantes o modelos, ya que se fabrican ajustándolas para proporcionar una dispersión de luz equivalente a los detectores del instrumento y para que coincida con los valores de la formacina en toda la escala para cada modelo de turbidímetro específico.

Con el tiempo, el SDVB se degrada potencialmente hasta en un 10% durante 12 meses. Las tolerancias nominales detalladas en los estándares SDVB definen esta disminución en el rendimiento a lo largo del tiempo, por lo que se recomienda su reemplazo cada año. La única preocupación de uso es evitar que los patrones se congelen. Es importante tener en cuenta este detalle a fin de conservarlas o transportarlas adecuadamente.  (Las SDVB son fabricadas por AMCO en los EE. UU)

Otros materiales de calibración que se emplean para validar que la calibración sigue siendo correcta, no como patrones, pueden ser de base gel que contienen óxidos metálicos o materiales de látex, así como materiales sólidos que proporcionan una trayectoria de dispersión estándar, como acrílicos y filtros de densidad neutra. Hay que tener cuidado con el manejo y el funcionamiento, verificando periódicamente con los patrones de calibración primarios.

Más información sobre la turbidez

Aplicaciones de los turbidímetros

El monitoreo del agua potable, ya sea en el agua cruda, en la clarificación o el agua final, es el uso más común de la medida de la turbidez ya que es el parámetro clave indicador de la calidad del agua.

Hoy en día, la producción de agua potable municipal obtiene un agua de muy baja turbidez (> 0.1 NTU), por lo que la medición se vuelve cada vez más dependiente de la técnica del operador y las especificaciones del turbidímetro. Los niveles pueden variar significativamente, por ejemplo:

  • 5 NTU: Límite máximo recomendado por la OMS para el agua potable, aunque recomienda por debajo de 1 NTU (0.5 NTU para filtración directa o convencional)
  • 4 NTU: Nivel mínimo capaz de percepción visual, aceptable para el agua del grifo
  • 3 NTU: Estándar chino para determinadas aplicaciones
  • 1 NTU: El nivel máximo obtenido mediante un tratamiento moderno
  • 0.1…0.2 NTU: Por debajo de estos niveles para la industria farmacéutica

Más información sobre la turbidez

Aplicaciones en procesos

Control de filtración, control de clarificación en vinos, estudios de sedimentación, control del medio ambiente acuícola, acuicultura, control de lavados, refrigeración, etc.

Aguas superficiales

La medida y control de las aguas superficiales (arroyos, ríos, lagos, océanos) también es importante debido a los efectos de la turbidez en los ecosistemas acuáticos. Hay que tener en cuenta que, debido a las variaciones en un mismo ecosistema, ya sean ríos, lagos, etc. pueden cambiar según la estación del año, los fenómenos atmosféricos, etc. variando enormemente los niveles de turbidez, siendo difícil su cuantificación, lo que obliga en algunos casos a una monitorización continua del sistema.

Aguas residuales

Medición en todas las etapas de tratamiento de los procesos en aguas residuales, aunque una de las más usuales es la medida de sólidos suspendidos totales.

Más información sobre la turbidez

Turbidez y Sólidos Suspendidos Totales

No hay que confundir turbidez con los Sólidos Suspendidos Totales (SST), ya que este último no guarda equivalencia directa con el contenido en sólidos en suspensión, aunque sean términos que estén relacionados. No obstante, para cada caso concreto, existe la posibilidad de proceder a su correlación, que normalmente es buena para un mismo punto de un río o arroyo, ya que la materia en suspensión -sólidos orgánicos (algas, zooplancton y detritos) e inorgánicos (arcilla, lodo y arena)- es una característica intrínseca de cada cuenca.

La razón por la que se mide la turbidez, que es un procedimiento indirecto, se debe a la imposibilidad de determinar en continuo los sólidos en suspensión, que se presentan en cada una de las operaciones que se realizan en las plantas de tratamiento de aguas residuales y en las de potabilización de agua para abastecimiento urbano. La misma argumentación es válida para el caso particular de una instalación de recarga artificial de acuíferos.

Y es que la medida de los sólidos en suspensión SST es una medida del peso en seco de los sólidos no disueltos suspendidos en el agua y su determinación se realiza por el método gravimétrico (secado a la estufa a 105°C y pesado). Se mide como la cantidad de sólidos suspendidos por unidad de volumen de agua y se expresa en mg/l. El inconveniente de este método es que es un método lento (el análisis dura varias horas) y requiere efectuarlo en un laboratorio.

Por otra parte, se ha demostrado tras innumerables estudios que es posible definir una correlación entre los sólidos suspendidos totales (SST) y la medición óptica de la turbidez, lo que proporciona la utilidad de medir SST mediante turbidímetros con un buen sistema óptico para medir de forma efectiva toda la luz dispersa y así obtener una medida inmediata como una herramienta adicional al método gravimétrico.

Se debe tener cuidado al adoptar este enfoque para garantizar que se considere lo siguiente: las correlaciones entre ambos métodos pueden ser específicas del sitio o de la muestra y deben demostrarse antes de ser utilizadas. Cambios grandes en las condiciones de la muestra pueden requerir que se ajuste la correlación y, por lo tanto, se recomienda una verificación frecuente.

La relación entre turbidez y sólidos suspendidos totales suele ser una línea recta con el formato de y = mx + c, donde y es el total de sólidos suspendidos, m es la pendiente y c es la intersección.

La relación entre TSS y turbidez es exclusiva de un lugar, sitio o muestra específica y, por lo tanto, requiere la validación tanto de la naturaleza lineal como de la pendiente y el desplazamiento necesario para la implementación. El rango de los factores de pendiente informados es de 1.0 a 2.5, con compensaciones que dependen del rango de medición y los requisitos de linealidad. Hay que tener en cuenta la dispersión a concentraciones más altas.

Más información sobre la turbidez

Comparar resultados entre diferentes turbidímetros

Siempre se deben considerar tres factores clave cuando se trabaja con muestras con valores de 0.1 NTU o menos:

  1. Debe de observarse el más alto cuidado al manipular cubetas o muestras para garantizar que se pueda obtener una medición precisa. Es imprescindible indexar las cubetas de muestra (posición óptima del tubo de muestra).
  2. Los instrumentos en línea no suelen tener cubetas de muestra y algunos incluyen pretratamiento de muestra para eliminar los gases arrastrados, lo que dificulta la comparación de resultados con los instrumentos portátiles (que no disponen de desgasificación).

El uso de diferentes instrumentos de mesa y turbidímetros portátiles también puede diferir ligeramente con los resultados, sobre todo a causa del tiempo entre mediciones, ya que las partículas en las muestras se han asentado. Si se ha agitado una muestra, se debe dejar reposar durante 10 minutos antes de medirla, para que las partículas puedan depositarse. Los resultados que varían en menos de 0.05 NTU cuando los valores están por debajo de 0.1 NTU deben descartarse como variaciones instrumentales o como resultado de la técnica.

Más información sobre la turbidez

¿Cuáles son las características principales del agitador?

Los agitadores de laboratorio o mezcladores crean un movimiento entre líquidos o entre líquidos y sólidos con el fin de alcanzar procesos de mezcla, suspensión, dispersión, homogenización, transferencia de calor, etc. En la actualidad, se emplean sistemas de agitación (agitadores) en todos los laboratorios, ya sean de química, biología, etc.

Un agitador típico dispone de una placa o superficie donde se colocan vasos, tubos o matraces Erlenmeyer con los líquidos que van a ser agitados. La agitación se efectúa de diferentes formas, en función del tipo de agitador que se emplee.

Más información sobre agitador de laboratorio

Guía del agitador: qué es, funciones y características

Los agitadores de laboratorio o mezcladores crean un movimiento entre líquidos o entre líquidos y sólidos con el fin de alcanzar procesos de mezcla, suspensión, dispersión, homogenización, transferencia de calor, etc. En la actualidad, se emplean sistemas de agitación (agitadores) en todos los laboratorios, ya sean de química, biología, etc.

Un agitador típico dispone de una placa o superficie donde se colocan vasos, tubos o matraces Erlenmeyer con los líquidos que van a ser agitados. La agitación se efectúa de diferentes formas, en función del tipo de agitador que se emplee.

Tipos de agitadores de laboratorio

Si estás pensando en qué tipo de agitador necesitas para tu laboratorio, a continuación, encontrarás un listado con todos los que están actualmente disponibles en el mercado, para que puedas elegir el que mejor se adapta a tu tipología de trabajo.

  • Agitadores magnéticos: son los más utilizados en laboratorios y los más seguros, porque utilizan barras agitadoras que pueden desinfectarse. Este tipo de mezcladores están compuestos por una placa con un magneto o una serie de electro magnetos, dispuestos en su inferior en forma circular, que crean un campo magnético rotatorio que actúa mediante un motor eléctrico comandado por un dispositivo electrónico.
  • La barra (magnética) de agitación, normalmente revestida de un film inerte como el Teflón, se coloca dentro del recipiente y el vaso o contenedor se pone encima de la placa. Una vez en marcha, la barra agitadora comienza a rotar, propulsada por el motor eléctrico que mueve los magnetos. El tamaño y la forma de la barra magnética determinan la efectividad del proceso de agitación, considerando una velocidad constante. Algunos modelos de agitadores magnéticos también disponen de un sistema de calefacción –algunos llegan hasta 300ºC- para calentar las muestras al mismo tiempo que se agitan.
  • Agitadores de varilla o verticales: están diseñados con un motor eléctrico soportado por una barra sujeta a una base sólida.  Este sistema permite montar una varilla al motor, que dispone de una mordaza universal para acoplamiento rápido de varillas de diferentes diámetros. La velocidad del agitador de varilla se controla mediante una regulación electrónica, con una velocidad variable a diferentes r.p.m. (revoluciones por minuto).
  • Agitadores de vórtice (Vortex): se utilizan para agitar tubos de ensayo o similares en laboratorios de ciencias biológicas (microbiología, bioquímica, etc.). Este tipo de mezcladores están compuestos por un motor eléctrico con el eje de transmisión orientado verticalmente y unido a un trozo de goma o caucho en forma de copa, ligeramente excéntrico donde se apoya el tubo a agitar. Asimismo, poseen unos pies de ventosa en su base para evitar desplazamientos. La velocidad de agitación se puede regular. A medida que el motor gira, la pieza de caucho oscila rápidamente con un movimiento circular, facilitando la agitación del tubo. Existen diferentes modelos de agitadores de vórtice, por ejemplo, para una velocidad continua o para que funcione sólo cuando una débil presión se aplica a la goma.
  • Agitadores de bandeja: ejercen un movimiento circular mediante un motor -a veces puede ser también vibratorio o de balanceo- a una bandeja donde se sitúan los contenedores. Algunos modelos también incluyen un sistema de control de temperatura.
  • Agitadores orbitales: son similares a los agitadores de bandeja, pero en este caso la bandeja está dotada con un movimiento orbital excéntrico.
  • Agitadores de rodillos: su estructura dispone de una serie de rodillos muy próximos entre sí, que giran horizontalmente, de manera que los tubos, convenientemente cerrados, se colocan sobre los rodillos y el líquido se desliza sobre sus paredes.
  • Agitadores de noria: su superficie gira en un plano vertical, como una noria, y los tubos se enganchan mediante un soporte para evitar su caída.

Más información sobre agitador de laboratorio

¿Cuál es el uso de la balanza de laboratorio?

Las balanzas de laboratorio son instrumentos de pesaje de funcionamiento no automático que utilizan la acción de la gravedad para determinar la masa. Se compone de un único receptor de carga (plato) donde se deposita el objeto para medir.

Más información sobre la balanza de laboratorio

¿Cuál es el precio de la balanza de laboratorio?

Las balanzas de laboratorio son equipos imprescindibles en operaciones químicas, analíticas y de formulación en industrias y en laboratorios de calidad. En cuanto a su exactitud y precisión es necesario calibrar balanza de laboratorio para trabajar conforme a un sistema de calidad. Es recomendable que la calibración de balanza de laboratorio sea realizada por laboratorios de calibración acreditados por ENAC. Estos dos parámetros son fundamentales para un buen control de la calidad de los productos. En el proceso de medición no es tan importante la precisión de la medida sino la fiabilidad del resultado y que el técnico conozca bien los distintos conceptos estadísticos y metrológicos.

Para más información, puede contactar con nuestro equipo de profesionales, quiénes le asesorarán para encontrar el instrumento de laboratorio más adecuado a sus necesidades.

Medir en productos terminados, como pastillas o tabletas

Si la tableta no tiene recubrimiento, se puede medir directamente (no influye desmenuzarla), en cambio si está recubierta, tritúrela para exponer el interior.

Más información sobre instrumentos de analítica

Medir en medios volátiles

Productos volátiles como, por ejemplo, alcoholes suelen dar problemas en instrumentos con tecnología de punto de rocío (espejo refrigerado) que afectan al valor y a la velocidad de las lecturas, en todos los sensores, incluso usando filtros, dando errores de lectura del 0,5% al 2 o 3%.

En ocasiones, la situación puede ser incluso peor en el caso de los filtros. Ya que estos filtros, que protegen a los sensores electrolíticos y capacitivos, al medir se comportan como una esponja. Es decir, se producen procesos de sorción y desorción del vapor de agua de la muestra. Y cuando absorben compuestos volátiles, pueden cambiar el valor de actividad de agua obtenido por el sensor. Además, en algunas ocasiones, los filtros pueden dañar los sensores.

Más información sobre instrumentos de analítica

Medir en productos cárnicos grasos, aceites o postres grasos

Los aceites y las grasas forman en una barrera contra la humedad, es imprescindible su preparación tal como indicamos en el punto 2.

Más información sobre instrumentos de analítica

Medir en productos grandes y de constitución densa

Dado el volumen o densidad de la muestra, hay que triturarlas como indicamos en el punto 2. De esta manera, se medirá la actividad del agua en el centro del producto y no solo en la parte externa.

Más información sobre instrumentos de analítica

Medir en productos higroscópicos

Debe de colocar el medidor de actividad del agua y la muestra en condiciones controladas de humedad. Por ejemplo, en un recipiente cerrado y trabajando rápidamente para evitar que la muestra absorba más humedad.

Más información sobre instrumentos de analítica

Importancia del ajuste de temperatura

 

La siguiente tabla muestra los errores de medición debidos a una diferencia de temperatura entre el instrumento de medida y el material que se está midiendo:

 

10ºC

20ºC 30ºC
0.1 aw ± 0.007 aw ± 0.006 aw ± 0.006 aw
0.5 aw ± 0.035 aw ± 0.032 aw ± 0.03 aw
0.9 aw ± 0.063 aw ± 0.057 aw ± 0.054 aw

A temperatura ambiente (20°C) y una actividad de agua supuesta de 0.5, una diferencia de temperatura entre el sensor y el material de 1°C causa un error de medición de 0.032 aw. Una diferencia de temperatura de 3°C causaría un error de medición de más de 0.1 aw.

Más información sobre instrumentos de analítica