S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 13 min 47 sec

El ultraprocesado es malo hasta que yo lo hago

jeu, 2019/05/30 - 11:59

Si preguntamos si son más saludables los alimentos elaborados en casa o los elaborados por la industria, la mayoría responderá que son más saludables los alimentos caseros [1]. Incluso con alimentos ultraprocesados insanos, como galletas o bizcochos, también existe la creencia de que los elaborados en casa son más saludables que los que nos ofrece la industria.

La lectura que podemos hacer de estas creencias es que muchas personas creen que los alimentos preparados por la industria alimentaria se elaboran con ingredientes de peor calidad que los que uno mismo escogería, incluso sin ser experto en materia alimentaria. También indica que existe desconfianza sobre los procesos industriales que se emplean para preparar estos alimentos, o un exceso de confianza sobre las preparaciones caseras.

Otra lectura es que los alimentos insanos llegan a parecer menos insanos, o incluso saludables, si son caseros. Mientras que los alimentos industriales que podrían catalogarse como sanos, llegan a parecer menos saludables, o insanos, por el hecho de ser industriales.

  • ¿Qué es un ultraprocesado?

El sistema actual más utilizado para clasificar los alimentos según su grado de procesamiento es el sistema NOVA [2]. Este sistema fue creado en 2010 por la Escuela de Salud Pública de la Universidad de Sao Paulo y es el sistema que aceptan autoridades como la OMS y la FAO [3].

La clasificación más reciente del sistema NOVA establece cuatro grupos:

El grupo 1 es el de alimentos sin procesar o mínimamente procesados (pasteurizado, congelado, tostado, desecado…). Aquí encontramos a los alimentos frescos como frutas, verduras, cereales, carnes, legumbres, huevos, leche y a algunos de sus derivados inmediatos, como la pasta, los zumos o los yogures sin azúcares añadidos.

En el grupo 2 encontramos comestibles que nos ayudan a cocinar y sazonar los alimentos del grupo 1 y que no es común comerlos de forma aislada. Por ejemplo la sal, el azúcar, los aceites y las mantequillas.

En el grupo 3 encontramos alimentos preparados con dos o tres ingredientes de los grupos 1 y 2. Pueden contener aditivos alimentarios que garanticen su seguridad y conservación. Por ejemplo, las legumbres en conserva, los pescados en conserva, las carnes en salazón, curados y ahumados, las frutas en almíbar, los frutos secos salados, el pan y los quesos. También se incluyen en este grupo las bebidas alcohólicas de baja graduación derivadas de la fermentación de los alimentos del grupo 1, como la cerveza, el vino y la sidra.

El grupo 4 es el denominado grupo de los ultraprocesados. Son alimentos que contienen más de 5 ingredientes. Aunque pueden contener ingredientes del primer grupo, sin procesar, la mayoría son ingredientes procesados. Entre ellos es frecuente encontrar ingredientes como almidón, lecitina, potenciadores del sabor o aromas que, aunque son sustancias que de forma natural componen alimentos del primer grupo, difícilmente podríamos encontrarlas de forma aislada en un supermercado. Son ultraprocesados las galletas, los bizcochos, los chocolates, los snacks, los refrescos, las varitas de pescado, los nuggets de pollo, etc.

  • Consumo de alimentos utraprocesados y su relación con la salud.

Los autores del sistema NOVA aconsejan priorizar el consumo de alimentos del grupo 1. Es decir, una dieta saludable estará constituida principalmente por alimentos del grupo 1, con una cantidad reducida del grupo 2, y por un consumo eventual de alimentos del grupo 3. Los alimentos del grupo 4 no pueden formar parte de una dieta saludable.

Este consejo se fundamenta en el resultado de varios estudios científicos que relacionan el consumo de ultraprocesados con un mayor riesgo de mortalidad [4][5][6].

La Organización Mundial de la Salud define «salud» como un estado de completo bienestar físico, mental y social, y no solamente la ausencia de afecciones o enfermedades [7]. Cuando en dietética se habla de «dieta saludable» las recomendaciones quedan restringidas a la dieta exclusivamente. Desde el punto de vista dietético, ni una galleta ni una crema de chocolate, son saludables. Lo mismo ocurre con las bebidas alcohólicas, que no son saludables a ninguna dosis desde un punto de vista dietético, tampoco médico [8].

Sin embargo, si nos referimos a la salud de forma tan amplia como la que define la OMS, el consumo esporádico de alimentos ultraprocesados podría contemplarse dentro de la definición de salud. Aunque el placer no tiene por qué estar reñido con una dieta saludable, en algunos casos lo está: la copa de vino que los viernes te tomas con tus amigos, el chocolate que tomas de postre el domingo, el pastel típico de tu pueblo. Esos placeres proporcionan bienestar social y mental, sí son saludables aunque no formen parte de la definición de «dieta saludable».

Esta última aclaración parece obvia, pero es el núcleo de muchas discusiones entre lo que es saludable y lo que no. El origen de muchas discusiones está en la demarcación del problema, en qué se entiende por salud, en si se habla de «dieta saludable» o de la amplia y compleja definición de «salud».

Fuente: rawpixel
  • El ultraprocesado casero no es más sano que el industrial.

Una galleta es un ultraprocesado. Una crema de cacao también. Un bizcocho también. Incluidos los hechos en casa.

Es cierto que con los alimentos caseros somos nosotros los que escogemos los ingredientes y, por lo tanto, podemos hacer una elección más saludable. Por ejemplo, es más saludable la harina integral que la refinada y la fruta que el azúcar, y con eso podemos hacer un bizcocho más saludable que el bizcocho tradicional. También la industria puede hacerlo de este modo y de hecho lo hace.

Dentro de los ultraprocesados industriales también existen opciones mejores y peores. De la misma manera que dentro de los ultraprocesados caseros, también existen opciones mejores y peores. Unas galletas caseras hechas con 280 g de harina refinada, 100 g de azúcar, un huevo y 125 g de mantequilla, en poco o nada se diferencian de cualquier galleta industrial. El horno de nuestra casa no tiene unas propiedades mágicas que insuflan salud a los alimentos. Ni siquiera la fuerza de nuestro amor es capaz de convertir a unas galletas en un alimento propio de una dieta saludable.

Es más saludable un bizcocho sin azúcar hecho con dátiles —que difícilmente encontraremos como producto industrial— que un bizcocho tradicional. Esta afirmación es análoga a las siguientes: es más saludable un vaso de sidra que un cubata; es más saludable un zumo exprimido con su pulpa [9] que un refresco de naranja. Un error común es asumir que la sidra es saludable, que el zumo es saludable, o que el bizcocho de dátiles es saludable. Son opciones mejores, pero no son intrínsecamente saludables.

En algunos casos el alimento casero es menos saludable que su análogo industrial. Una parte importante de la salubridad de un alimento se refiere a la seguridad alimentaria, y en esto sale ganando por goleada la industria alimentaria. Por muy pulcros que seamos en nuestras cocinas, la mayoría no superaríamos los estrictos controles sanitarios que hay en la industria.

Otra parte se refiere a la optimización de procesos. En la industria se controlan las temperaturas y los tiempos con precisión. Se detectan y miden los subproductos indeseados que se pueden formar consecuencia del cocinado. Es algo que no podemos hacer en casa. Por ejemplo, las patatas fritas de bolsa, las industriales, son más saludables que las patatas fritas caseras [10] principalmente porque en la industria se controla y se minimiza la producción de acrilamida.

  • Reflexiones finales

La creencia de que los alimentos caseros son más saludables que los industriales es una creencia errónea. Una de las consecuencias de esta creencia es que los alimentos ultraprocesados insanos, aquellos que no pueden formar parte de lo que entendemos como dieta saludable, se perciben como saludables solo por ser caseros. Un ultraprocesado insano seguirá siendo insano, tanto si se hace en casa como si se hace en la industria.

Esta creencia es el origen del uso de la denominación «casero» como reclamo, ya que es bien conocido que muchos lo interpretarán como sinónimo de «saludable». El flan casero no es saludable. Ni siquiera el de tu abuela que te quiere muchísimo.

Sobre esto puede hacerse una lectura más profunda. Creer que lo casero es más saludable implica que la imagen de la industria alimentaria está dañada. Tanto es así, que las primeras imágenes que vienen a la mente cuando se menciona a la industria alimentaria son las de la comida rápida o los utraprocesados. En primera instancia no vienen a la mente las legumbres en conserva, los yogures o la bolsa de canónigos. Y eso también es industria alimentaria.

Podemos quedarnos en la superficie, en la manida historia de héroes o villanos. Tu madre haciendo croquetas de madre en su casa, y Darth Vader haciendo croquetas del infierno en la industria. Como siempre, estas historias tienen sus aristas, generalmente con más enjundia que la historieta en sí, y su popularización tiene unas implicaciones sociológicas preocupantes. La divulgación nos permite hacer una transferencia de información, y un ciudadano informado será un ciudadano más libre. A veces es así. La divulgación no está exenta de populismos.

Esa imagen dañada de la industria alimentaria se ha convertido en una oportunidad de negocio, también para los oportunistas [12]. Aquellos cuya reflexión se limita a perseguir los errores de la industria alimentaria. Porque alimentando un prejuicio nos haremos más libres y tal. Aquellos que contando los terrones de azúcar de un tigretón te enseñan lo mala que es tu dieta y lo perversa que es la industria. Aquellos que popularizan dietas que se han llegado a convertir en ideologías en contra de todo un sector. Héroes de la obviedad que no son capaces de hacer un análisis más profundo de nada.

Fuentes:

[1] Encuesta realizada en Twitter con la participación de 1.072 votantes. El 85% opina que son más saludables los alimentos caseros.

¿Son más saludables los alimentos elaborados en casa o los elaborados por la industria?
A continuación os pongo una hilo-encuesta con alimentos concretos para que me digáis.
¡Gracias!

— Deborah García Bello (@deborahciencia) May 27, 2019

[2] Monteiro et al (2016) NOVA. The star shines bright World Nutrition Volume 7, Number 1-3, January-March

[3] FAO (2015) Guidelines on the collection of information on food processing through food consumption surveys

[4] Rico-Campà et al (2018) Ultra-Processed Food Consumption and All-Cause Mortality: The University of Navarra Follow-Up (SUN) Cohort Preprints with The Lancet

[5] Moubarac et al (2013). Consumption of ultra-processed foods and likely impact on human health. Evidence from Canada. Public Health Nutrition, 16(12), 2240-2248. doi: 10.1017/S1368980012005009

[6] Rauber, F. et al. (2015) Consumption of ultra-processed food products and its effects on children’s lipid profiles: A longitudinal study Nutrition, Metabolism and Cardiovascular Diseases , Volume 25 , Issue 1 , 116 – 122 doi: 10.1016/j.numecd.2014.08.001

[7] OMS (2019) Preguntas más frecuentes

[8] García Bello (2017) «Una copita de vino es buena para el corazón». Claro que sí, guapi Cuaderno de Cultura Científica

[9] Basulto (2017) El zumo de fruta no es “fruta”, ni siquiera si es casero El País

[11] García Bello (2015) Patatas fritas sin cáncer, gracias Dimetilsulfuro

[12] García Bello (2019) Humildemente, el mundo es mejor gracias a mí

Otras lecturas recomendadas:

Revenga (2018) Cómo distinguir los buenos procesados de los ultraprocesados insanos El comidista

Jiménez (2017) ¿Qué alimentos se consideran procesados y ultraprocesados? Lo que dice la ciencia para adelgazar

del Caño (2018) ¿Se nos está yendo REALmente la pinza con la FOOD? Farmagemma

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo El ultraprocesado es malo hasta que yo lo hago se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. No todo ha sido malo este año: la ciencia nos dejó algunas buenas noticias
  2. Del cerdo, hasta la hidroxiapatita
  3. El azúcar oculto en los alimentos
Catégories: Zientzia

Multiplicar con las manos

mer, 2019/05/29 - 11:59

Con motivo de mi charla “Las matemáticas en tus manos (una perspectiva cultural desde Bilbao La Vieja y San Francisco)”, dentro del ciclo Zientziaz Blai empápate de ciencia!), que organiza la asociación Logos Elkartea en los barrios bilbaínos de San Francisco, Bilbao La Vieja y Zaballa, en la que hablaba de diferentes métodos de contar con los dedos de las manos, de los cuales ya he hablado en el Cuaderno de Cultura Científica en las entradas «Y tú, ¿cómo cuentas con los dedos? (1 y 2)» y Contar hasta un millón con los dedos de las manos, me preguntaron si existía algún método que generalizara la forma de memorizar la tabla del nueve con los dedos de las manos.

Recordemos que este método consiste en extender los diez dedos de nuestras dos manos, con las palmas mirando hacia nosotros, y bajar el dedo de la posición, empezando por la izquierda, que queremos multiplicar por 9 (recordemos que estamos hablando de la tabla de multiplicar por 9), así si queremos multiplicar 3 por 9 bajaremos el tercer dedo por la izquierda, es decir, el dedo corazón de la mano izquierda, de forma que las decenas del resultado es la cantidad de dedos que queda a la izquierda del dedo bajado y las unidades la cantidad que queda a la derecha, en nuestro caso, 2 y 7, que nos confirman que 3 x 9 = 27.

Mi respuesta fue que existía un sistema para multiplicar con los dedos de las manos, que no era exactamente lo mismo, pero que nos permitía realizar algunas multiplicaciones sencillas a partir de otras básicas, como multiplicar dos números entre el 6 y el 10, conociendo las pequeñas tablas de multiplicar de los cinco primeros números, desde 1 x 1 hasta 5 x 5. En esta entrada del Cuaderno de Cultura Científica explicaré este conocido método, que dejé sin explicación en mi charla.

Según he leído, esta práctica se utilizaba ampliamente en la Edad Media, y pudo tener su origen en la Antigua Roma. Su uso se ha mantenido hasta época reciente en diferentes lugares del mundo. Por ejemplo, por los campesinos franceses (de ahí el nombre de multiplicación de los campesinos franceses), rumanos o rusos, pero también en lugares más alejados, como Palestina o Siria. En Estados Unidos se la conoce como multiplicación cajún, cuyo nombre deriva de los cajunes, un grupo étnico de Luisiana, descendientes de franceses, formado por más de un millón de personas, con su propia lengua y cultura, y que utilizaban este sistema de multiplicación digital.

Este método permite realizar multiplicaciones de números comprendidos entre el 6 y el 10. Veamos un ejemplo, la multiplicación 7 x 9. En la mano izquierda se representa el primer número, bajando tantos dedos como indique el número, a partir de 5, en este caso, se bajan 2 dedos (5 + 2 = 7) y se quedan 3 levantados. En la mano derecha se representa el segundo, se bajan 4 dedos (5 + 4 = 9) y 1 queda levantado. Ahora, se suman los dedos bajados, 2 + 4, y se multiplica su resultado por diez, (2 + 4) x 10 = 60, y se le suma la multiplicación de los dedos levantados, 3 x 1. Así,

7 x 9 = (2 + 4) x 10 + 3 x 1 = 63.

La justificación matemática de este sistema de multiplicación con las manos es sencilla. Si llamamos a y b a los dedos bajados y c y d a los dedos que quedan levantados, entonces la multiplicación que se realiza de esta forma no es otra que (5 + a) x (5 + b) y el método que hemos utilizado para obtenerla viene dado por la expresión 10 x (a + b) + (c x d). Teniendo en cuenta que c = 5 – a y d = 5 – b, las dos expresiones matemáticas son la misma: 5 x 5 + 5 x a + 5 x b + a x b.

Veamos otro sencillo ejemplo, 6 x 8.

De forma similar, se pueden multiplicar números entre 11 y 15. Por ejemplo, para obtener el resultado de la multiplicación 12 x 12, en la mano izquierda se bajan 2 dedos (10 + 2 = 12) y en la derecha otros 2 dedos. Ahora, se suman los dedos bajados (2 + 2) y el resultado se multiplica por 15, se le suma la multiplicación de los dedos levantados (3 x 3) y finalmente se suma una cantidad fija, 75, obteniéndose el resultado

12 x 12 = (2 + 2) x 15 + (3 x 3) + 75 = 144.

Si se multiplica un número de cada zona, por ejemplo, 8 x 13, se puede reducir a dos multiplicaciones de las anteriores, 8 x 13 = (8 x 7) + (8 x 6).

En general, se pueden multiplicar números de zonas con cinco números más grandes y métodos similares a los descritos.

zona 6 – 10: 10 x (a + b) + (c x d)

zona 11 – 15: 15 x (a + b) + (c x d) + 75

zona 16 – 20: 20 x (a + b) + (c x d) + 200

zona 21 – 25: 25 x (a + b) + (c x d) + 375

zona 26 – 30: 30 x (a + b) + (c x d) + 600

en general,

zona (5 n + 1) – (5 n + 5): (5 n + 5) x (a + b) + (c x d) + 52 x (n2 – 1),

donde a y b son los dedos bajados y c y d los que quedan levantados, a partir del número anterior a la zona de cómputo.

«Manos del apóstol» (1508), o manos que oran, de Alberto Durero (1471-1528). Imagen de Wikimedia Commons

 

Bibliografía

1.- Georges Ifrah, Historia Universal de las cifras, Espasa, quinta edición, 2002.

2.- Édouard Lucas, Recreaciones Matemáticas, vol. 1 – 4, Nivola, 2007, 2008.

3.- Leon J. Richardson, Digital reckoning among the ancients, The American Mathematical Monthly, vol. 23, no. 1, pp. 7-13, 1916.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Multiplicar con las manos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Multiplicar no es difícil: de los egipcios a los campesinos rusos
  2. Contar hasta un millón con los dedos de las manos
  3. Y tú, ¿cómo cuentas con los dedos? (1)
Catégories: Zientzia

Las partículas de los rayos catódicos

mar, 2019/05/28 - 11:59

Decíamos que en 1897 J.J. Thomson, jefe del famoso Laboratorio Cavendish en la Universidad de Cambridge, realizó una serie de experimentos que convencieron a los físicos de que los rayos catódicos son partículas cargadas negativamente.

Esquema del tubo de Crookes que J.J. Thomson empleó en sus experimentos, en los que un campo eléctrico (en amarillo) modificaba la trayectoria de las partículas de los rayos catódicos. Fuente: Wikimedia Commons

Para entonces era bien sabido que las trayectorias de las partículas cargadas se ven afectadas tanto por los campos magnéticos como por los eléctricos. Suponiendo que los rayos catódicos eran partículas cargadas negativamente, Thomson podía predecir qué sucedería cuando atravesasen estos campos. Por ejemplo, un campo eléctrico de la magnitud y dirección correctas debería equilibrar exactamente la desviación producida en un haz de rayos catódicos por un campo magnético. Thomson pudo comprobar que las predicciones eran correctas. De aquí, por tanto, pudo concluir que los rayos catódicos estaban hechos de partículas cargadas negativamente.

 

Experiemento de Thomson. Fuente: Pontificia Universidad Católica de Chile.

A partir de los datos experimentales podía calcular la relación entre la carga de una partícula y su masa. Esta relación la podemos representar como q / m, donde q es la carga y m es la masa de la partícula. Thomson descubrió que los rayos provenientes de cátodos hechos de diferentes materiales tenían el mismo valor de q / m: 1,76·1011 C / kg (culombios por kilo). Por lo tanto, estaba claro que los rayos catódicos debían estar hechos de algo que todos los materiales tienen en común.

El valor de q / m para las partículas de rayos catódicos resultó ser aproximadamente 1800 veces mayor que el valor de q / m para los átomos de hidrógeno cargados (iones), que se sabía que era 9,6 ·107 C / kg por experimentos de electrólisis química . De aquí se deducía que o la carga de las partículas de rayos catódicos es mucho mayor que la del ion de hidrógeno, o que la masa de las partículas de rayos catódicos es mucho menor que la masa del ion de hidrógeno.

Para decidir entre las dos posibilidades Thomson también midió la carga q en las partículas con carga negativa en los rayos catódicos con métodos distintos a la desviación por campos eléctricos y magnéticos. Sus experimentos no fueron muy precisos, pero fueron lo suficientemente buenos como para indicar que la magnitud de la carga negativa de una partícula de rayos catódicos era la misma o no muy diferente de la magnitud de la carga del ion hidrógeno positivo en la electrólisis. En vista del gran valor de q / m para las partículas de rayos catódicos, Thomson concluyó que la masa m de las partículas de rayos catódicos es mucho menor que la masa de iones de hidrógeno.

En resumen Thomson había descubierto que las partículas de rayos catódicos tienen tres propiedades importantes:

1. Los mismos tipos de partículas se emitiden por una amplia variedad de cátodos de diferentes materiales.

2. Eran mucho más pequeñas en masa que el átomo de hidrógeno, el átomo que tiene la masa más pequeña.

3. Tenían la misma magnitud de carga que la carga en el ion de hidrógeno.

A la vista de estos hechos Thomson no podía sino concluir que las partículas de rayos catódicos deben ser un componente hasta ahora no observado de toda la materia [1]. Dado que transporta carga eléctrica, la partícula de rayos catódicos se identificaría con un nombre inventado mucho antes, electrón. Tiene una carga negativa de -1,6·10-19 C. La magnitud [2] de la carga de electrones recibe el símbolo e, donde e =1,6·10-19 C.

El hallazgo de Thomson significó que el átomo no era el límite máximo para la subdivisión de la materia. Más bien, el electrón parecía ser parte de ciertos átomos, quizás incluso podría ser un componente básico de todos los átomos. [3]

Notas:

[1] Puedes deducir con estos datos que es parte de la materia, no parte de los átomos, ya que con el conocimiento de la época nada impedía que los electrones fuesen algo independiente de los átomos.

[2] La magnitud no incluye el signo.

[3]El electrón, cuya existencia Thomson probó por primera vez mediante un experimento cuantitativo, es una de las partículas fundamentales o «elementales» de las que está hecha toda la materia. ¿Pero cómo sabemos que es elemental y que es constituyente de todos los átomos?

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Las partículas de los rayos catódicos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los fascinantes rayos catódicos
  2. El tubo de rayos catódicos, auge y caída de una pieza clave del siglo XX
  3. Del electrón (I)
Catégories: Zientzia

Cómo entrenar a tu gato: cuatro experimentos para saber cuánto te quiere o si pasa de ti

lun, 2019/05/27 - 11:59
Imagen: Unsplash

Creo firmemente que en algunas cuestiones la equidistancia está infravalorada. Obviamente no es el caso cuando hablamos de derechos humanos y la violación de los mismos, por ejemplo, pero sí en otras cuestiones, como si es mejor la tortilla de patata con cebolla o sin cebolla (por qué elegir entre dos cosas que están buenísimas si puedes disfrutar de ambas) o en si son mejores mascotas los perros o los gatos. Como alguien que ha tenido ambos, perros y gatos son alternativas diferentes pero igualmente amorosas. Desde aquí me declaro partidaria de ambos, sin elegir.

¿A qué este rollo, se preguntarán? Bien, pues a que, aunque perros y gatos son para mí mascotas perfectas, una pega habitual que se pone a los felinos es su absoluto pasotismo: su relación con su dueño suele ser, por norma general, más distante que las de los perros.

Imagen: Pixabay

Amor perruno, amor gatuno

Sí, sé que hay gatos cariñosos y entrañables, pero rara vez pueden alcanzar las muestras de cariño de las que un can sabe hacer gala: impetuosos recibimientos al llegar a casa cada tarde, como si hiciese una eternidad que no te ve; acudir inmediatamente a tu llamada con la cola en modo limpiaparabrisas de la alegría de ser llamado; aprender a seguir órdenes más o menos complejas solo por la recompensa de tu amor (y de alguna chuchería, claro…).

La mayoría de los dueños de un gato nunca recibirán esas respuestas. En su mayor parte, tampoco las esperan ni las quieren, ya que van acompañadas de una dependencia mucho mayor que su gato no impone: son capaces de pasar más horas solos, no se mueren de pena ante una ausencia más prolongada de lo normal y lo de los dos o tres paseos diarios no es una obligación impepinable. Claramente, la cosa tiene sus ventajas.

Pero eso no quiere decir que no pueda haber entre gato y dueño una relación especial, un entendimiento mutuo que forje entre ellos un vínculo similar al que ostentan los perros con sus amos. Los gatos son animales muy inteligentes y con una personalidad muy rica, capaces de percibir muchos detalles de su entorno y de las personas con las que viven y de reaccionar a esos detalles. Cuando quieren, claro.

Kristy Vitale es investigadora postdoctoral en la Universidad Estatal de Oregón y su trabajo se centra en estudiar la mente felina. En un artículo publicado recientemente en la web de Science cuenta que justo en mitad de su investigación adoptó a un gatito llamado Carl que se encontró en el arcén de la carretera un día cualquiera. El suyo fue un encuentro muy beneficioso para ambos en más de un sentido. No solo habían encontrado a un compañero de vida: Carl se iba a convertir en el objeto de una serie de experimentos para medir la inteligencia social de los gatos, ese campo de las habilidades cognitivas en el que solemos dar la ventaja sin dudar a los perros.

Imagen: Pixabay

Cuatro experimentos para hacer con tu gato

¿En qué consisten esos experimentos y qué es lo que sus resultados le dicen a los dueños de los gatetes puestos a prueba? Estos son algunos de ellos.

1. ¿Sabe tu gato cuál es su nombre? Para poner a prueba este punto, elige cuatro palabras que tengan la misma longitud y acentuación que su nombre, y pronúncialas seguidas dejando un intervalo de unos 15 segundos entre ellas. Pronuncia su nombre en quinto lugar, manteniendo el mismo tono y volumen. Si tu gato hace gradualmente menos caso a cada palabra pero reacciona cuando dices su nombre, ya sea girando la cabeza, enfocando las orejas o moviendo la cola, es probable que sea porque lo ha reconocido.

2. ¿Reconoce y reacciona a tus emociones? Coge a tu gato y entra con él en una habitación donde haya un objeto que no haya visto nunca pero pueda causarle nervios o miedo, como una aspiradora, por ejemplo. Suéltale (mejor con la puerta cerrada para que no se escape) y acércate a la aspiradora, tócala y habla en un tono calmado y amigable. Si al principio se aleja pero después de tu reconocimiento del objeto termina acercándose y olisqueándolo o tocándolo, es probable que se deba a que ha reconocido tus emociones y haya reaccionado ante ellas. Esto puede ser muy útil en situaciones de estrés para tu gatete, como por ejemplo cuando pases la dichosa aspiradora o en una visita al veterinario.

3. ¿Cómo de independiente es tu gato? Todos los dueños de gatos saben que no todos son igual de pasotas. Para medir la atención del tuyo, prueba a sentarte tranquilamente en la misma habitación que esté él pero sin hacerle caso, dedicando un par de minutos a leer o a mirar tu móvil. Después deja el libro y llámale. Si acude, acaríciale y háblale con cariño. Lo gatos más socializados se acercarán a su dueño en cuanto este les llame, mientras que los más independientes probablemente le recompensarán con una mirada o un giro de orejas, y gracias.

4. ¿Tu gato te quiere más a ti o a su comida? Coge unos cuantas chucherías, alguno de sus juguetes y colócalos por la habitación. Siéntate tú también en la misma habitación. Observa hacia donde se dirige tu felino. Repítelo en distintos momentos y situaciones para asegurarte que no le hayas pillado justo con hambre.

Son cuatro pruebas sencillas y básicas que pueden darte una idea del nivel de inteligencia social de tu gato. Pero incluso aunque obtengas resultados desmoralizantes en lo que al pasotismo de tu felino se refiere, eso no quiere decir que no sean capaces de cumplirlos. Los gatos domésticos, como especie, han evolucionado a lo largo de los siglos para comunicarse y entenderse con los humanos.

Imagen: Unsplash

Los gatos que miraban a las personas

En 2015, una investigación realizada por científicos italianos fue la primera que demostró que los gatos, igual que los perros, pueden modificar su comportamiento en base a las emociones de sus dueños humanos, algo que los dueños de gatos siempre han sospechado pero que estaba aun por probar. Lo hicieron con un experimento en el que se coloca un ventilador con cintas blancas y negras enganchadas a las aspas y se hace funcionar, el gato se queda cerca de su dueño, a veces detrás de él, y le mira entre asustado e intrigado, esperando una señal sobre si fiarse o no del ruidoso cacharro. Cuando su dueño se acerca calmadamente al ventilador y habla al gato amistosamente mientras lo toca, el gato es capaz de acercarse e incluso tumbarse junto a él.

Otro experimento< posterior fue un poco más allá y en ellos el dueño no se acerca o señala al objeto, simplemente lo mira. Según sus resultados, los gatos siguieron la mirada de sus dueños en un 70% de los casos, un porcentaje similar al de los perros.

La mayoría de los animales no suelen mirarse directamente a los ojos, y cuando lo hacen a menudo es una señal de hostilidad. Así que ver a los gatos utilizando una mirada directa de forma similar a como lo hacen los humanos, para compartir información e indicar órdenes, es muy sorprendente, y otra prueba de que los gatos han evolucionado de forma que son capaces de comunicarse de forma compleja con las personas.

De forma que si tu gato no responde a su nombre o no acude cuando le llamas, lo más probable es que no sea una cuestión de capacidad. Poder, puede hacerlo. Pero no quiere. Y ese también es uno de los atractivos de los gatos. Después de todo, ¿quién no tiene alguna habilidad especial pero pasa de enseñarla solo porque los demás se la piden?

Referencias:

Cats rival dogs on many tests of social smarts. But is anyone brave enough to study them? – Science

Social referencing and cat–human communication – Animal Cognition

Cats (Felis silvestris catus) read human gaze for referential information – Intelligence

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Cómo entrenar a tu gato: cuatro experimentos para saber cuánto te quiere o si pasa de ti se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Experimentos que te cambian la vida (para mal)
  2. ¿Quién quiere vivir para siempre?
  3. Un gato de Cheshire cuántico
Catégories: Zientzia

Historia grabada en hielo

dim, 2019/05/26 - 11:59
Anverso y reverso de un penique acuñado en Melle alrededor del 660 e.c. Fuente: Loveluck et al (2018)

El hielo que se ha acumulado durante centenares y miles de años guarda en su seno información valiosa sobre la historia natural y las condiciones ambientales del momento en que se depositó. Cualquiera de las grandes masas heladas del planeta es, de hecho, un fenomenal repositorio histórico. El problema estriba, claro está, en asignar esa información a cada periodo.

Pero hay técnicas que permiten hacer ese análisis con gran precisión. En un estudio realizado en el glaciar suizo Colle Gnifetti los investigadores han establecido la cronología de las capas de hielo que se habían ido depositando año tras año mediante conteo de muy alta resolución (utilizando láser). La estimación es muy precisa pues se pudo calibrar con referencias de fecha conocida, como el rastro químico que dejaron en el hielo ciertas erupciones volcánicas, por ejemplo.

Midieron también la concentración de plomo en las capas de hielo del siglo VII de nuestra era, para lo que utilizaron una técnica espectrométrica muy sofisticada. Los investigadores estaban interesados en las actividades de extracción y fundición de plata, y utilizaron como indicador el plomo que, procedente de la atmósfera, había quedado atrapado en el hielo. La plata se obtenía de galena (sulfuro de plomo), mineral en el que puede alcanzar una concentración en torno al 1%, y su minería y fundición provocaban la liberación a la atmósfera de importantes cantidades de plomo, parte del cual acababa en las sucesivas capas de hielo.

Además, modelaron matemáticamente la circulación atmosférica al objeto de aproximar la localización de las minas de las que procedía el plomo. Lo más probable es que fuesen las de Melle, en Francia, algo al norte del río Charente, al oeste del glaciar. Los datos obtenidos los combinaron con registros ambientales recogidos de la cata de hielo, además de información numismática, arqueológica y de fuentes escritas.

A lo largo del siglo VII se transformó el sistema monetario en el centro y noroeste de Europa. En la segunda mitad del siglo las monedas pasaron de ser de oro a ser de plata, y gracias a los datos extraídos del glaciar suizo esa transición está ahora mucho más clara. El cambio se produjo en dos fases. La primera, ya conocida, ocurrió hacia el año 640; en esa época el contenido en oro de las monedas se redujo en los reinos merovingios de un 92-94% a valores de entre el 30 y el 60%. La producción de la plata necesaria para la transformación dejó rastro en forma de plomo en el glaciar de Colle Gnifetti.

De acuerdo con los datos procedentes del hielo, la segunda fase se produjo alrededor de 660, cuando las monedas pasaron a estar acuñadas solo en plata. Antes se pensaba que ese cambio se había producido en 675-680, ya que la primera referencia escrita de las monedas de plata data de 682. Sin embargo, el plomo en el registro helado del glaciar indica que ocurrió unos veinte años antes.

Después de dos siglos de declive tras la caída del Imperio Romano, hacia 680 ya se habían consolidado importantes puertos marítimos en las dos orillas del Canal de la Mancha. Pues bien, la nueva cronología de la transformación del sistema monetario sugiere que el aumento del tráfico marítimo en el Canal y Mar del Norte, y la pujanza de los puertos de Lundenwic (Londres) y Quentovic pudieron haber sido impulsados, precisamente, por la mayor cantidad de monedas que empezó a circular veinte años antes. Una vez más, las fronteras entre las disciplinas se difuminan y permiten ahora iluminar uno de los periodos más oscuros de la historia de Occidente.

Fuente: Christopher P. Loveluck et al (2018): Alpine ice-core evidence for the transformation of the European monetary system, AD 640–670. Antiquity 92 (366): 1571-1585.

——————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Historia grabada en hielo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. En Groenlandia el hielo recupera el agua que pierde por sublimación
  2. Hielo cuadrado por doquier
  3. Cómo fabricar hielo extraterrestre y verlo molécula a molécula
Catégories: Zientzia

¿Qué pasa cuando un avión pierde presión en la cabina?

sam, 2019/05/25 - 11:59

Imagina que vas de viaje en un avión a 35.000 pies de altura, es decir, a 10.668 metros. El avión en el que viajas está diseñado para mantener la misma presión en cabina que la que hay a unos 8.000 pies de altura (2.438,4 metros). Pero, ¿sabes por qué? Porque si mantuviese la presión del suelo sometería a la estructura del avión a muchísimo esfuerzo y …, eso, no te gustaría demasiado.

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

 

 

El artículo ¿Qué pasa cuando un avión pierde presión en la cabina? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué pasa en tu cuerpo cuando te enamoras?
  2. ¿Qué pasa en tu cerebro cuando duermes?
  3. #Naukas16 ¿Por qué vuela un avión? (y el método científico)
Catégories: Zientzia

El futuro del vehículo eléctrico

ven, 2019/05/24 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

Al hablar del vehículo eléctrico surgen siempre las siguientes preguntas. ¿Puede el vehículo eléctrico satisfacer las necesidades de la sociedad en un corto periodo de tiempo? ¿Cuáles son los retos a los que se enfrenta?

La necesidad de eliminar las emisiones de efecto invernadero, el alcance del trucaje de los motores diésel, el incremento del precio de los carburantes, las exigencias de las normativas anticontaminación cada vez más restrictivas y los avances tecnológicos han fortalecido el mercado del vehículo eléctrico en los últimos años. Las empresas del automóvil se están replanteando el futuro del diésel. Por el contrario, el número de vehículos eléctricos estimado en siete millones para el año 2020 aumentará significativamente en los años siguientes.

El transporte eléctrico se puede considerar como una de las revoluciones tecnológicas más importantes después de internet y del teléfono móvil. En los vehículos eléctricos que utilizan baterías para el almacenamiento de energía, los tres principales retos son: i) reducción de costes, ii) eliminar la dependencia de materiales críticos como el cobalto y iii) desarrollo de baterías seguras con tiempos de carga inferiores a 15 minutos.

En las baterías la energía eléctrica es almacenada mediante la conversión de energía química a través de reacciones redox entre los electrodos, ánodo y cátodo, (ver Figura 1). Las baterías más utilizadas son las de ion litio ya que presentan mayor densidad energética y ofrecen actualmente las mejores prestaciones.

Figura 1. Bateria (izquierda) y supercondensador de doble capa (derecha). Fuente: US Department of Energy

Sin embargo, la demanda de este metal se está incrementando significativamente y en 2025 será 11 veces mayor que la actual hasta alcanzar las 300.000 toneladas (un 33% del consumo total en la industria). Esto ha dado lugar a un aumento importante de los precios que en algunos mercados se han incrementado más de un 200 % en pocos meses. Los países productores son fundamentalmente Chile y Argentina y recientemente se han encontrado reservas en Bolivia y Afganistán países que, junto con el riesgo de suministro, pueden alterar significativamente el precio del litio en los mercados. Asimismo, otro de los componentes de estas baterías es el cobalto que representa hasta el 20 % del peso del cátodo. Este metal es toxico, escaso y caro siendo la Republica Democrática del Congo el único país productor lo cual condiciona significativamente su uso. Por tanto, es importante desarrollar una política o estrategia estándar en materia de reciclaje de baterías para disminuir el coste de los vehículos. Actualmente se está desarrollando una intensa actividad en la búsqueda de otro tipo de baterías alternativas a las de litio ion con mejores prestaciones y costes más reducidos.

Respecto a la seguridad de las baterías es importante recordar que los electrolitos son materiales orgánicos inflamables que pueden dar lugar a incendios de las propias baterías. En este sentido, las compañías automovilísticas están invirtiendo cantidades importantes para la búsqueda de baterías con todos sus componentes sólidos.

Hoy día hay una gran actividad en las compañías automovilísticas para desarrollar en sus factorías el coche eléctrico. Tesla ha puesto en el mercado varios modelos con diferentes precios. El modelo ultralujo S con un coste de 95.000 dólares con autonomía de más de 500 km y el nuevo Modelo 3 por 37.500 dólares (Figura 2). La empresa Volvo sacará al mercado a partir de 2019 todos sus vehículos (cinco modelos entre 2019-2021) con motor eléctrico. La empresa Volkswagen ha desarrollado el e-Golf 100 % eléctrico con una autonomía de 300 km con un tiempo de carga combinada de 30 minutos a un precio de 36.850 €. Nissan ha puesto en el mercado el Nissan Leaf 3.Zero con 270 km de autonomía siendo el coche más vendido en Europa en 2018 con un precio desde 32.000 €. Opel/Vauxhall del Grupo PSA tendrá una versión 100 % eléctrica adaptando en breve su línea de producción en Figueruelas (Zaragoza). Finalmente, comentar que la UE financiará un proyecto estratégico (Battery 2030) con 1 billón de euros en los próximos 10 años para garantizar la competitividad de Europa en la tecnología de baterías frente a los países asiáticos que gozan actualmente del predominio en esta tecnología.

Figura 2. Coches eléctricos de Tesla enchufados a postes de carga. Fuente: Tesla

La escasez de puntos de carga (electrolineras) es hoy día uno de los principales desafíos a los que se enfrenta el vehículo eléctrico. La electrificación es urgente y necesaria. No obstante, para paliar en parte este tema los fabricantes de vehículos están creando su particular red de distribución nacional instalando en sus concesionarios postes de suministro rápido.

Cuando nos referimos al vehículo eléctrico no solo hablamos del coche eléctrico sino también vehículos de mayor tamaño tales como autobuses, camiones, tranvías, etc. En este sentido, estos vehículos utilizan en algunos casos supercondensadores como sistemas de almacenamiento de energía eléctrica la cual es almacenada físicamente en la interfase electrodo electrolito con altas densidades de potencia, con rápida autodescarga y largos ciclos de vida (ver Figura 1). En un símil deportista se podrían considerar a las baterías como corredores de maratón (energía) y a los supercondensadores como esprínteres o corredores de cien metros lisos (potencia). En la ciudad de Shanghái (China) toda la flota de autobuses utiliza supercondensadores como sistema de almacenamiento energético. La rápida respuesta de carga y descarga del orden de 20 ó 30 segundos es suficiente para permitir su recarga en las paradas mientras acceden los viajeros al vehículo. La empresa CAF utiliza sistemas basados en combinación hibrida de supercondesadores y baterías de ion litio en sus tranvías que permiten la circulación sin catenaria en diversas ciudades como las de Sevilla y Zaragoza. Almacenan la energía cinética liberada en la frenada para ser utilizada posteriormente mejorando así la eficiencia energética del vehículo (Figura 3).

Figura 3. Tranvías de CAF. Fuente: CAF

La empresa Mazda ha desarrollado el i-ELOOP (Intelligent Energy Loop) que recupera la energía cinética en el momento que el conductor levanta el pedal del acelerador y el vehículo comienza a desacelerar mejorando la economía de combustible en aproximadamente un 10 % en condiciones de conducción reales. La versión Euro VI del modelo Citaro de Mercedes Benz permite ahorrar entre un 3 y un 5 % de combustible, aproximadamente 1.000 litros por año o 2,6 toneladas de CO2 año en condiciones normales de uso.

Para el futuro del vehículo eléctrico la mejor opción puede ser la combinación de baterías y supercondensadores diseñados para altas densidades de energía, larga duración de los sistemas y bajo coste. Además, pueden permitir el uso de baterías de alta densidad energética con insuficiente potencia para ser utilizadas estas individualmente.

Otro tipo de vehículos eléctricos funcionan con pilas de combustible que son dispositivos de conversión directa de energía, capaz de transformar en energía eléctrica la energía química de un combustible que debe ser suministrado constantemente (ver figura 4). Se podría decir que en vez de recargar a través del enchufe como en el caso de las baterías lo hace mediante la reacción de hidrógeno comprimido, que se recarga a través de una manguera y se aloja en un tanque de almacenamiento, con oxígeno. Su principal ventaja es que esta recarga se lleva a cabo en un par de minutos permitiendo autonomías de 600-700 km y un recorrido de más de 250.000 km. Es, pues, un coche que se puede usar tanto en trayectos diarios como de larga distancia.

Figura 4. Pila de combustible. Fuente: ISMN-UCM

Existen distintos tipos de pilas de combustible, pero las generalmente utilizadas en el vehículo eléctrico son conocidas como pilas de combustible de membrana polimérica (PEM-FC) que utilizan como combustible hidrógeno. Estos dispositivos tienen densidades de energía cinco veces superior a las baterías de ion litio. Los principales inconvenientes de estos sistemas para su implantación en el mercado son el coste de los materiales, fundamentalmente los catalizadores, y la infraestructura integral de hidrógeno (producción, almacenamiento y transporte) así como la falta de hidrogeneras que podría suponer una inversión inicial de más de tres mil millones de euros, muy superior al coste de la infraestructura de carga para baterías. Ambas tecnologías no tienen por qué ser competidoras sino más bien complementarias. Las baterías son más adecuadas para rangos más cortos y vehículos más pequeños. Por el contrario, las pilas de combustible probablemente ofrecerán mejores prestaciones para vehículos grandes y de largo alcance.

Existen tres compañías de automóviles Hyundai, Toyota y Honda que ya disponen de vehículos de pilas de combustible fabricados en serie. Hyundai ha sido la primera compañía en matricular un coche en España de pilas de combustible (Figura 5a) con cero emisiones que funciona con hidrógeno y cuenta con una autonomía de 666 kilómetros siendo su tiempo de carga de solo cinco minutos. Esta compañía ha anunciado su plan ‘FCEV Vision 2030que se desarrollará a largo plazo, reafirmando así su compromiso por acelerar el desarrollo de la sociedad del hidrógeno.

Figura 5. De izquierda a derecha: Nexo (Hyundai), Toyota Mirai y Honda Clarity Fuel Cell. Fuentes: Hyundai, Toyota y Honda.

Toyota ha sacado al mercado el modelo Mirai (que significa futuro en japonés) y consta de un motor eléctrico, dos depósitos de hidrogeno, una pila de combustible y una batería de níquel metal hidruro que tiene como misión almacenar los excedentes de energía producidos por la pila de combustible o por la energía generada en la frenada. Este vehículo tiene una autonomía homologada de 483 km y con un tiempo de recarga entre 3 y 5 minutos. Aún no se comercializa en España y tiene un precio superior a 70.000 €. La compañía Honda ha sacado el Honda Clarity Fuel Cell que es el primer coche de pila de combustible con cinco plazas y funciona con hidrogeno, se recarga en dos minutos y tiene una autonomía de 650 km. En el mercado japonés tiene un precio en torno a 57.000€ y no se comercializa aún en Europa. General Motors (GM) ha presentado el modelo Cadillac Provoq que combina la quinta generación de pila de combustible con autonomía de 483 km y con una batería de litio ion que puede almacenar hasta 9 kilovatios por hora de electricidad y proporcionar un pico máximo de 60 kilovatios. General Motors y Honda han acordado formar la primera empresa conjunta de fabricación de la industria del automóvil (Fuel Cell System Manufacturing) para producir en masa un sistema avanzado de pila de combustible de hidrógeno que se utilizará en los futuros automóviles de cada compañía.

Respecto a camiones con pilas de combustible se pueden mencionar el Class 8 de Toyota con 500 km de autonomía, el Maxity Electrique de Renault con una autonomía de 200 km y el nuevo camión eléctrico de Hyundai del que se desconoce actualmente el nombre y las especificaciones técnicas. Scania pondrá en funcionamiento su primer camión de basura de pila de combustible a finales de 2019, principios de 2020 para el tratamiento de residuos en las grandes ciudades.

La pregunta más inmediata que surge es ¿Será capaz de introducirse en el mercado el vehículo eléctrico de pilas de combustible en competición con el de baterías y/o supercondensadores?

Uno de los principales problemas para el desarrollo comercial de los vehículos de pilas de combustible es la falta de una red solida de estaciones de hidrogeno (Hidrogeneras). En Europa esta infraestructura es muy modesta y junto con su complejidad y elevado coste el progreso de incorporación de este tipo de vehículos en los próximos años será lento. No obstante, la Asociación del Hidrogeno de España considera que a pesar de que actualmente hay únicamente seis estaciones de servicio, que obtienen su combustible a través de electrolisis, en doce años habrá circulando más de 140.000 vehículos en este país.

Sobre el autor: Teófilo Rojo es catedrático en el Departamento de Química Inorgánica de la Facultad de Ciencia y Tecnología de la UPV/EHU.

El artículo El futuro del vehículo eléctrico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La parábola del coche eléctrico
  2. La diferencia de potencial eléctrico
  3. La ambulancia como vehículo de infecciones
Catégories: Zientzia

Cómo descubrimos tres libros venenosos en la biblioteca de nuestra universidad

ven, 2019/05/24 - 08:00

Jakob Povl Holck y Kaare Lund Rasmussen

File 20180706 122271 1703qi.jpg?ixlib=rb 1.1Raman Saurei / Shutterstock

Algunas personas recordarán el libro mortífero de Aristóteles que constituye un elemento fundamental en la trama de El nombre de la rosa, la novela de Umberto Eco publicada en 1980. El ejemplar, envenenado por un monje benedictino loco, causa estragos en un monasterio italiano del siglo XIV, pues mata a todos aquellos que, al leerlo, se lamen la yema del dedo para pasar las páginas envenenadas. ¿Podría ocurrir algo así en la vida real? ¿Envenenamiento por un libro?

Los estudios que hemos llevado a cabo recientemente indican que es posible. Gracias a ellos, descubrimos en la colección de la biblioteca de la Universidad del Sur de Dinamarca tres libros raros sobre diversos temas históricos que contienen altas concentraciones de arsénico en la cubierta. Los libros datan de los siglos XVI y XVII.

Las propiedades tóxicas de estos volúmenes se detectaron al realizar varios análisis de fluorescencia de rayos X (micro-XRF). Esta tecnología permite conocer el espectro químico de un material mediante un análisis de la radiación “secundaria” característica que emite el material al ser sometido a un bombardeo de rayos X de alta energía. El uso de la tecnología micro-XRF está muy extendido en los ámbitos de la arqueología y el arte, por ejemplo, para investigar los elementos químicos de la cerámica y la pintura.

Uno de los libros venenosos.
Imagen: SDU

Verde brillante

La razón por la que nos llevamos los tres libros raros al laboratorio de rayos X fue porque, previamente, la biblioteca había descubierto que para las tapas se habían usado fragmentos de manuscritos medievales, como, por ejemplo, copias de Derecho romano y Derecho canónico. Como sabemos por la abundante documentación disponible, los encuadernadores europeos de los siglos XVI y XVII reciclaban pergaminos más antiguos.

Así pues, intentamos averiguar cuáles eran los textos latinos utilizados, o al menos leer parte de su contenido. Sin embargo, nos encontramos con que resultaba difícil interpretar los textos latinos de las cubiertas de los tres volúmenes porque contenían una extensa capa de pintura verde que oscurecía las viejas letras manuscritas. De modo que los llevamos al laboratorio con la intención de observar a través de la capa de pintura con la tecnología micro XRF y centrarnos en los elementos químicos de la tinta que estaba debajo, por ejemplo, en el hierro y el calcio, esperando conseguir que las letras resultaran más legibles para los investigadores de la universidad.

Pero el análisis de fluorescencia de rayos X reveló que la capa de pigmento verde era arsénico. Este elemento químico es una de las sustancias más tóxicas del mundo, y la exposición puede causar diversos síntomas de envenenamiento, el desarrollo de cáncer e incluso la muerte.

Accidentes provocados por el uso de arsénico verde, 1859.
© Wellcome Collection, CC BY-SA

El arsénico (As) es un metaloide que está presente en el entorno de forma natural. En la naturaleza, el arsénico normalmente se combina con otros elementos, como el carbono y el hidrógeno, y en este caso se conoce como arsénico orgánico. El arsénico inorgánico, que puede presentarse tanto en forma metálica pura como en compuestos, es una variante más nociva. Las propiedades tóxicas del arsénico no se debilitan con el tiempo.

En función del tipo y la duración de la exposición, pueden darse diversos síntomas de envenenamiento por arsénico, como irritación del estómago y el intestino, náuseas, diarrea, alteraciones de la piel e irritación de los pulmones.

Verde París.
Chris Goulet/Wikimedia Commons, CC BY-SA

Se cree que el pigmento verde portador de arsénico encontrado en las cubiertas de los libros puede ser verde de París, triarsenito acetato de cobre (II) o acetoarsenito de cobre (II) Cu(C₂H₃O₂)₂ ·3Cu(AsO₂)₂. También se conoce como “verde esmeralda”, por sus llamativos tonos verdes, parecidos a los de la popular piedra preciosa.

El pigmento de arsénico es un polvo cristalino fácil de elaborar y se ha utilizado profusamente con diversos fines, en especial en el siglo XIX. El tamaño de los granos de polvo influye en la tonalidad del color, como se aprecia en las pinturas al óleo y los barnices. Los granos de mayor tamaño producen un marcado color verde oscuro, mientras que los granos más pequeños generan un verde más claro. El pigmento se conoce especialmente por la intensidad de su color y por su resistencia a la decoloración.

Pigmento del pasado

La producción industrial del verde de París se inició en Europa a principios del siglo XIX. Los pintores impresionistas y posimpresionistas usaban diferentes versiones del pigmento para crear sus obras maestras de intensos colores, lo que implica que hoy en día muchas piezas de museo contienen veneno. En su apogeo, se pudo haber recubierto de verde de París toda clase de materiales, incluso tapas de libros y prendas de ropa, por razones estéticas. Lógicamente, el contacto continuo de la piel con esa sustancia conllevaba la aparición de síntomas de la exposición.

Sin embargo, hacia la segunda mitad del siglo XIX ya se conocían mejor los efectos tóxicos de la sustancia; la variante con arsénico dejó de usarse como pigmento y pasó a emplearse sobre todo como pesticida en tierras de cultivo. Se descubrieron otros pigmentos que sustituyeron el verde de París en la pintura, el sector textil y otros ámbitos, y a mediados del siglo XX también se descartó su uso en las tierras de cultivo.

‘The Arsenic Waltz’.
© Wellcome Collection, CC BY-SA

En el caso de nuestros libros, el pigmento no se usó con fines estéticos, sino que formaba una capa inferior de la cubierta. Una explicación posible de la aplicación –posiblemente en el siglo XIX– del verde de París en los libros antiguos es la intención de protegerlos contra insectos y parásitos.

En determinadas circunstancias, los compuestos de arsénico, como el arseniato y el arsenito, pueden transformarse en arsina (AsH₃) –un gas altamente tóxico con un característico olor a ajo– por acción de microorganismos. Se sabe que las terribles historias del papel pintado verde de la época victoriana que arrebataba la vida de los niños en sus dormitorios son reales.

Actualmente, la biblioteca conserva nuestros tres volúmenes venenosos en cajas de cartón separadas y con etiquetas de seguridad en un armario ventilado. También tenemos previsto digitalizarlos para reducir al mínimo la manipulación física. Uno nunca se imagina que un libro pueda contener una sustancia venenosa. Sin embargo, podría ocurrir.

Sobre los autores: Jakob Povl Holck es bibliotecario investigador  y Kaare Lund Rasmussen profesor titular de Física, Química y Farmacia en la Universidad del Sur de Dinamarca

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Cómo descubrimos tres libros venenosos en la biblioteca de nuestra universidad se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¡Explora! Libros de divulgación científica para niños
  2. ¿Cómo llegó el darwinismo a España? 08. Los detractores – Gobierno y Universidad
  3. El problema de los tres caballeros y los tres criados
Catégories: Zientzia

Doce reglas para una mala gráfica

jeu, 2019/05/23 - 11:59
«Gráfica figurativa de las sucesivas pérdidas de hombres del Ejército Francés en la campaña de Rusia 1812-1813». Este gráfico elaborado por Charles Joseph Minard en 1869 es considerado por Edward Tufte como el mejor gráfico estadístico jamás dibujado, y es un ejemplo habitual de precisión, claridad y elocuencia en la representación. Incluye el movimiento de las tropas, las pérdidas de vidas humanas y la temperatura ambiente durante la invasión de Rusia por Napoleón y la posterior retirada.

El propósito de una buena gráfica es mostrar datos de manera precisa y clara. En el popular artículo de 1984 How to Display Data Badly, Howard Wainer toma esta definición como punto de partida para desgranar, no sin cierta sorna, los principales métodos para hacer malas representaciones de datos. Obviamente, las doce reglas de Wainer no deben tomarse al pie de la letra, en el sentido de que cumplir alguna de ellas no necesariamente invalida una gráfica, pero sí representan un compendio de problemas típicos sobre los que es bueno reflexionar a la hora de producir o analizar una visualización de datos. Además, es conveniente incorporar a la reflexión un aspecto no tenido en cuenta por Wainer, como es el soporte de la visualización: no tiene las mismas posibilidades y restricciones una gráfica impresa que una visualización interactiva en la web, o algo que va a salir apenas unos pocos segundos en televisión.

Las dos primeras reglas de Wainer para representar datos mal se derivan precisamente de la primera parte de la definición: mostrar los datos. En sus famosos libros sobre visualización de datos, Edward Tufte concibe dos métricas que hacen referencia a la eficiencia en la representación. Por un lado, define el índice de densidad de datos, que se mediría como “la cantidad de números representados por unidad de área”, y que nos lleva a la primera regla de las malas gráficas: muestra tan pocos datos como sea posible, es decir, minimiza la densidad de datos. Efectivamente, es común lanzarse a hacer gráficos coloristas incluso cuando la cantidad de información a transmitir es realmente pequeña. Pensemos, por ejemplo, en el típico gráfico de tarta con dos porcentajes. En casos como este, hay que preguntarse si realmente aporta algo el gráfico o es suficiente con dar el dato, o hacer una pequeña tabla, cuando el soporte lo permite.

Adicionalmente, una segunda técnica infalible consiste en esconder los datos que se muestran. Esto tiene que ver con lo que Tufte definió como la ratio datos-tinta: minimizar la cantidad de datos representados en relación a la tinta empleada añade ruido, elementos que no expresan nada y distraen de lo verdaderamente informativo. Esto se hace de diversas maneras, siendo las más habituales las manipulaciones torticeras de la escala, así como la especie de horror vacui que parecen destilar los creadores de algunos engendros.

Las siguientes tres reglas de Wainer tienen que ver con la segunda parte de la definición: la precisión en los datos. Ignorar la metáfora visual es probablemente uno de los errores más graves que se pueden cometer. Y aquí, no solo nos referimos a utilizar elementos perceptivamente adecuados, sino a utilizar el elemento visual que mejor se ajusta a la relación que hay en los datos. Por ejemplo, las barras facilitan la comparación entre magnitudes, y una línea evoca una evolución en los valores que une. Por tanto, si utilizamos una línea para unir datos que no tienen una relación de evolución (temporal, por ejemplo), estamos dificultando la lectura en el mejor de los casos, o más probablemente transmitiendo el mensaje equivocado.

La cuarta regla, “solo importa el orden”, hace referencia al truco de usar la longitud como metáfora visual para codificar valores cuando lo que se percibe es el área, pero sirve en general para cualquier versión de pares de elementos gráficos. Quizás la versión moderna más popular de esta regla sea la gráfica de tarta en 3D, donde el elemento visual utilizado es el ángulo, pero lo que se percibe es un volumen completamente distorsionado por la perspectiva.

Y llegamos a otra de las reglas a las que más atención hay que prestar para asegurar el fracaso: se trata de mostrar los datos fuera de contexto. Esta es una de las prácticas más habituales entre aquellos que nos aseguran que el paro ha subido o ha bajado en el último mes o en lo que va de año, y de esta manera ocultan el contexto de la serie de datos extendida a varios años, que suele mostrar estacionalidad (mismos patrones que se repiten en los mismos meses del año, como que el paro baja en época de turismo) y tendencias a mayor escala.

Después, se dedican unas cuantas reglas a la idea de la claridad en la representación, aspectos que tienen que ver con detalles más técnicos como cambios de escala a mitad de eje, la enfatización de lo trivial desviando la atención de lo importante, los juegos con el origen (me vienen a la cabeza esas gráficas de barras cortadas, que no empiezan en cero, y por tanto que transmiten una idea de proporción completamente errónea), etiquetado incorrecto, parcial o ambiguo, también enturbiar la gráfica con más elementos de los necesarios, o la regla llamada “¡Austria primero!” (por la costumbre de ordenar países por orden alfabético), que hace referencia a ordenaciones categóricas completamente inútiles por no estar basadas en ningún aspecto de los datos.

Finalmente, Wainer reta al lector: si se ha hecho bien en el pasado, piensa en otra manera de hacerlo. Ciertamente, algunas veces la creatividad da lugar a nuevas visualizaciones que son especialmente buenas para unos datos en particular (véase el ejemplo de Minard que encabeza este artículo), o incluso crean nuevas tendencias y tipos de gráficas. Pero como en todas las disciplinas, si esa creatividad no se sustenta en una dilatada experiencia, habitualmente falla catastróficamente. Y finaliza:

“Por tanto, las reglas para una buena representación son bastante sencillas. Examina los datos de forma suficientemente cuidadosa como para saber qué tienen que decir, y deja que lo digan con el mínimo adorno”.

Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute.

 

El artículo Doce reglas para una mala gráfica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las reglas de una buena melodía
  2. Gráficas para la ciencia y ciencia para las gráficas
  3. La Gran Muerte y la mala suerte
Catégories: Zientzia

Una mesa olímpica

mer, 2019/05/22 - 11:59

Una reflexión previa

No soy demasiado aficionada a las Olimpiadas Matemáticas y los concursos de este tipo. Según se explica en el reglamento de las Olimpiadas Internacionales, estas competiciones son «concursos entre jóvenes estudiantes, cuyo objetivo primordial es estimular el estudio de las matemáticas y el desarrollo de jóvenes talentos en esta ciencia». Me pregunto si no existe otra manera de despertar el interés de niñas y niños por esta disciplina. Me incomoda, en parte, la tensión que puedan sentir las personas que se presentan. Y más aún porque esta presión parece no ser la misma para las chicas y los chicos (ver, por ejemplo, El desempeño de chicas y chicos en entornos competitivos). Las chicas se presentan menos a estas competiciones y parece que rinden menos. Y me pregunto de nuevo, con este tipo de concursos ¿no se está quizás dejando de lado el “talento matemático femenino”? Porque lo hay, sin duda.

Un problema olímpico

A pesar de todo lo anterior… me gustan los problemas que se plantean en las Olimpiadas. No son nada sencillos y requieren, además de conocimientos matemáticos, de estrategias especiales que cualquiera no domina.

El siguiente es un problema de la Olimpiada Matemática de Estonia (curso 1996-1997) extraído de la referencia [1]:

Disponemos de una mesa cuadrada de 3n unidades de lado. Cada cuadrado unitario que la forma es o bien rojo o bien azul. Los cuadrados se encuentran distribuidos de la siguiente manera:

  1. cada cuadrado rojo que no se encuentra en el borde de la mesa tiene exactamente cinco cuadrados azules entre sus ocho vecinos, y

  2. cada cuadrado azul que no se encuentra en el borde de la mesa tiene exactamente cuatro cuadrados rojos entre sus ocho vecinos.

La pregunta que se plantea es: ¿cuántos cuadrados de cada color posee la mesa?

Si quieres intentar responder a esta pregunta, no leas lo que viene debajo. Piensa un poco, trata de hacerlo, y mira después si te apetece comprobar si tu solución es correcta.

La solución

La respuesta se da en la referencia [2, páginas 31-32], y afirma que hay exactamente 5n2 cuadrados azules y 4n2 rojos.

Para probarlo, la estrategia que propone este artículo es la de dividir la mesa en n2 cuadrados de tamaño 3×3. En cada uno de esos cuadrados formado por 9 cuadrados unidad, teniendo en cuenta el enunciado dado, se observa lo siguiente:

  1. Si el cuadrado unidad central es rojo, entonces hay exactamente 5 cuadrados azules y 3 rojos en el borde del cuadrado 3×3, y

  2. si el cuadrado unidad central es azul, entonces hay exactamente 4 cuadrados azules y 4 rojos rodeando al cuadrado interior.

Figura 1. Dos posibles configuraciones dependiendo del color del cuadrado central.

Así, en cualquiera de los posibles casos, hay 5 cuadrados azules y 4 cuadrados rojos en cada cuadrado de tamaño 3×3. Por lo tanto en la mesa completa (que, recordemos, medía 3n×3n unidades) habrá 5n2 cuadrados azules y 4n2 rojos.

Para finalizar la demostración falta comprobar que un tal coloreado es posible: el argumento anterior solo ha contado el número de cuadrados de cada color suponiendo que el problema planteado tiene solución. Pero la tiene. Basta con tomar n2 cuadrados de tamaño 3×3 como se muestra en la imagen de debajo.

Figura 2. El cuadrado ‘modelo’.

 

Y en tal caso, la mesa de tamaño 3n×3n puede cubrirse, por ejemplo, de esta manera:

Figura 3. Un ejemplo de mesa ‘olímpica’ para n=3.

Referencias

[1] Red and blue, Futility Closet, 12 mayo 2019

[2] R. E. Woodrow, The Olympiad Corner: No. 227, Crux Mathematicorum vol. 29, no. 1, febrero 2003

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Una mesa olímpica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Habibi y los cuadrados mágicos II
  2. The grid (Habibi y los cuadrados mágicos: un estrambote)
  3. Curso de verano “Las dos culturas y más allá”: Primera mesa redonda
Catégories: Zientzia

Los fascinantes rayos catódicos

mar, 2019/05/21 - 11:59

En 1855, Heinrich Geissler inventó una potente bomba de vacío. Esta bomba podía extraer el aire de un tubo de vidrio lo suficientemente resistente como para reducir la presión al 0,01% de la presión atmosférica. Fue la primera mejora importante en las bombas de vacío después de que Guericke inventase la bomba de aire, dos siglos antes. El uso de la nueva bomba de Geissler hizo posible la bombilla eléctrica y una multitud de inventos de una importancia tecnológica enorme en los siguientes 50 años. También abrió nuevos campos a la investigación científica pura.

A un amigo de Geissler, Julius Plücker, se le ocurrió conectar uno de los tubos en los que había hecho el vacío usando la bomba Geissler a una batería. Se sorprendió al descubrir que, a pesar de la muy baja presión obtenida con la bomba de Geissler, la electricidad seguía fluyendo a través del tubo. Plücker usó un aparato similar al de la Figura 1a. Selló un cable en cada extremo de un tubo de vidrio resistente. Dentro del tubo, cada cable terminaba en una placa de metal llamada electrodo. Fuera del tubo, cada cable estaba conecatdo a una fuente de alto voltaje. La placa negativa dentro del tubo se llama cátodo, y la placa positiva se llama ánodo. Un medidor indicaba la corriente que pasaba por el tubo.

Figura 1. Fuente: Cassidy Physics Library

Plücker y su alumno Johann Hittorf notaron que cuando una corriente eléctrica pasaba a través del gas a baja presión en un tubo, el tubo mismo brillaba con un color verde pálido. Otros investigadores observaron también este efecto, pero tuvieron que pasar dos décadas antes de que alguien realizara un estudio a fondo de estos tubos luminosos.

Para 1875, William Crookes había diseñado nuevos tubos para estudiar el fenómeno. Cuando usó un tubo doblado, notó que el verde más intenso aparecía en la parte del tubo que estaba directamente enfrente del cátodo (el punto g de la Figura 1b). Esto sugería que el brillo verde se produce por algo que sale del cátodo y se desplaza por el tubo hasta que choca con el vidrio. Otro físico, Eugen Goldstein, que también estaba estudiando los efectos de pasar una corriente eléctrica a través de un gas a baja presión, acuñó un término para lo que fuese que parecía provenir del cátodo, rayos catódicos. ¿Pero qué podrían ser?

Para estudiar la naturaleza de los rayos, Crookes hizo algunos experimentos muy creativos. Razonó que si los rayos catódicos pudieran interceptarse antes de llegar al final del tubo, el intenso brillo verde desaparecería. Para comprobarlo introdujo distintas barreras, la más famosa de ellas una cruz de Malta metálica. La sombra creada por la barrera aparecía en medio del resplandor verde al final del tubo (Figura 1c). El cátodo, por tanto, parecía actuar como una fuente que irradia una especie de luz; a todos los efectos, la cruz actuaba como una barrera que bloqueaba la luz. La sombra, la cruz y el cátodo aparecían a lo largo de una línea recta. Por lo tanto, concluyó Crookes, los rayos catódicos, fuesen lo que fuesen, como los rayos de luz, viajan en línea recta. Crookes hizo todos los experiemntos que se le ocurrieron pero uno de ellos resultaría ser muy significativo: al mover un imán cerca del tubo y la sombra se desplazaba. Crookes había descubierto que los campos magnéticos desvían los rayos catódicos, algo que no ocurre con la luz.

Tras muchos experimentos, Crookes encontró las siguientes propiedades de rayos catódicos:

• No importa de qué metal esté hecho el cátodo, siempre produce rayos con las mismas propiedades.

• En ausencia de un campo magnético, los rayos viajan en línea recta perpendicular a la superficie del cátodo que los emite.

• Un campo magnético desvía la trayectoria de los rayos catódicos.

• Los rayos pueden producir algunas reacciones químicas similares a las reacciones que produce la luz. Por ejemplo, ciertas sales de plata (como las usadas en fotografía) cambian de color cuando inciden rayos catódicos sobre ellas.

• Además, Crookes sospechó (pero no logró demostrar concluyentemente) que los objetos cargados eléctricamente desvían la trayectoria de los rayos catódicos.

Los rayos catódicos fascinaron a los físicos de la época. Algunos pensaron que los rayos debían ser una forma de luz. Después de todo, tienen muchas de las propiedades de la luz: viajan en línea recta y producen cambios químicos y resplandores fluorescentes, al igual que la luz. Según la teoría de Maxwell la luz consiste en ondas electromagnéticas. Por lo tanto, los rayos catódicos podían ser, por ejemplo, ondas electromagnéticas de frecuencia mucho más alta que las de la luz visible.

Sin embargo, los campos magnéticos no modifican la trayectoria la luz pero sí la de los rayos catódicos. Sabemos que los campos magnéticos ejercen fuerzas sobre las corrientes, es decir, sobre las cargas eléctricas en movimiento. Un campo magnético desvía los rayos catódicos de la misma manera que desvía las cargas negativas. De aquí que algunos físicos creyesen que los rayos catódicos consistían en partículas cargadas negativamente.

El debate sobre si los rayos catódicos son una forma de ondas electromagnéticas o una corriente de partículas cargadas continuó durante 25 años. Finalmente, en 1897, J.J. Thomson, jefe del famoso Laboratorio Cavendish en la Universidad de Cambridge, realizó una serie de experimentos que convencieron a los físicos de que los rayos catódicos son partículas cargadas negativamente.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los fascinantes rayos catódicos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El tubo de rayos catódicos, auge y caída de una pieza clave del siglo XX
  2. Rayos X y gamma
  3. La luz se propaga en línea recta pero los rayos de luz no existen
Catégories: Zientzia

Digestión simbiótica: los rumiantes

lun, 2019/05/20 - 11:59

La fermentación simbiótica está muy extendida en el reino animal y casi todos los vertebrados, en especial los herbívoros y omnívoros, tienen alguna forma de simbiosis digestiva de ese tipo. La que ha alcanzado en estos un mayor grado de sofisticación es la de los rumiantes. Pero no es la única. De hecho, y aunque los casos en los que aparecen estructuras especializadas como el rumen han sido los más estudiados, durante los últimos años la microbiota intestinal de otros mamíferos y, muy en especial, la humana han recibido una gran atención. Aquí, no obstante, nos limitaremos a repasar de forma somera aquellos casos en los que la fermentación simbiótica se produce en estructuras especializadas o implica comportamientos alimenticios específicos.

Cuando utilizamos el término fermentación en este contexto nos referimos a un conjunto de reacciones enzimáticas que tienen lugar en entornos carentes de oxígeno y que dan lugar a la ruptura de compuestos orgánicos que rinden moléculas energéticas que pueden ser utilizadas en el metabolismo del animal hospedador.

Las estructuras especializadas que albergan microbios suelen ser cámaras en las que el flujo de materiales a su interior propicia un ambiente adecuado (húmedo o semilíquido, cálido y no excesivamente ácido) para el crecimiento microbiano. En algunas especies esas cámaras se encuentran en el sistema digestivo anterior, la parte comprendida por el esófago y el estómago; a esas especies se las denomina fermentadoras pregástricas. Los más conocidos son los mamíferos rumiantes. También hay fermentadores posgástricos y, en algunos invertebrados, otras modalidades de simbiosis digestiva.

De acuerdo con los modelos matemáticos que se utilizan para simular el funcionamiento de los sistemas digestivos, la ruptura de las moléculas de alimento mediante fermentación microbiana es más efectiva cuando el material recién ingerido se mezcla con alimento ingerido antes, ya colonizado por bacterias y parcialmente digerido. Por el contrario, la digestión enzimática del alimento –la realizada por las enzimas producidas por el propio animal- es más efectiva cuando las enzimas se añaden a un material que no se ha mezclado aún con otro sometido previamente a digestión enzimática. A esa diferencia entre las eficiencias de un tipo y otro de digestión parece obedecer el hecho de que las cámaras especializadas para la fermentación microbiana sean amplias y tengan forma de tina o barril, mientras que el intestino es tubular, como en el resto de mamíferos.

Los rumiantes reciben su nombre del acto de rumiar (o rumia), que consiste en masticar la comida durante periodos prolongados de tiempo. Puede tratarse de alimento recién ingerido o de material regurgitado para someterlo a un segundo tratamiento en la boca. Los rumiantes han desarrollado un estómago de gran tamaño y motilidad, que les permite albergar grandes poblaciones microbianas que se ocupan de digerir celulosa y otros carbohidratos complejos, rindiendo productos finales útiles para el hospedador. La rumia ha sido un hallazgo impresionante, gracias al cual los animales que la han desarrollado han alcanzado un gran éxito evolutivo.

Los verdaderos rumiantes son los bovinos, ovinos, caprinos, cérvidos, jirafas y antílopes. Su estómago, que ocupa tres cuartas partes de la cavidad abdominal, está dividido en cuatro compartimentos: rumen (también llamado panza o herbario), que es el más espacioso; retículo (redecilla o bonete); omaso (libro o librillo); y abomaso (cuajar). Los tres primeros constituyen lo que se denomina estómago anterior o región pregástrica. Y el abomaso sería el verdadero estómago. Los pseudorrumiantes carecen de omaso; en este grupo se encuentran hipopótamos y camélidos. Los perezosos, canguros, monos colobos (mamíferos) y el hoazín (ave de las selvas americanas) también son fermentadores pregástricos, pero no son rumiantes.

Los tres compartimentos pregástricos conducen y almacenan alimento. El rumen y el retículo, además, también absorben nutrientes y moléculas pequeñas. El grueso de la fermentación simbiótica ocurre en esos dos compartimentos, y en ellos se mantienen las condiciones de temperatura, pH y motilidad idóneas para poder mantener las poblaciones microbianas que se ocupan de ella.

La cavidad del rumen está dividida en compartimentos internos –los sacos dorsal y ventral- mediante estructuras longitudinales denominadas pilares. Cuando se contraen, esas estructuras facilitan la mezcla de sus contenidos. Y también contribuyen a estabilizarlos limitando sus movimientos y evitando desplazamientos importantes de volúmenes relativamente grandes. Unas proyecciones de aspecto digital denominadas papilas recubren el interior del rumen, y le proporcionan una mayor área superficial, lo que facilita la absorción de nutrientes. Aunque el rumen y el retículo se encuentran parcialmente separados por el pliegue ruminorreticular, ambas cavidades no se diferencian demasiado y hay bastante intercambio de productos digestivos entre ellas.

El esófago termina en el cardia, donde retículo y rumen se conectan. La superficie interna del retículo se encuentra recubierta por crestas o rugosidades, de las que se cree realizan una cierta selección de las partículas que pasan cerca del orificio que une el retículo al omaso. Este conecta el retículo con el estómago glandular (abomaso) y en su pared interior hay unas estructuras similares a hojas por donde se produce absorción de agua y nutrientes, y que impiden el paso al abomaso de partículas de tamaño excesivamente grande. El orificio omasoabomasal conecta ambas cámaras; carece de esfínter que evite el retroceso de los contenidos digestivos. El abomaso es muy similar al estómago de los no rumiantes. Es donde ocurre la parte más importante de la digestión de proteínas y la lisis de las bacterias procedentes del rumen.

Los nervios vago (sistema parasimpático) y esplácnico (sistema simpático) –del sistema autónomo– inervan el estómago de los rumiantes. Las fibras motoras del nervio vago procedentes de los centros gástricos de la médula oblonga del tronco encefálico pueden provocar una mayor frecuencia de contracciones del retículo-rumen. Eso ocurre a la vista de alimento, al masticar o al rumiarlo. Los aumentos de la distensión del retículo-rumen también provocan un aumento de la velocidad a la que se contrae. Por el contrario, el efecto de la división simpática (nervio esplácnico) es inhibidor. La distensión del abomaso disminuye la tasa de contracción del retículo-rumen.

La rumia consiste en la regurgitación, remasticación y reingestión del alimento. El alimento nuevo se mezcla con saliva y es masticado en la cavidad bucal, de donde pasa, a través del esófago, a la cavidad retículo-rumen. Allí es degradado, mediante procesos de fermentación, por los microorganismos que contiene. La fracción más líquida y en la que se encuentran las partículas de menor tamaño sigue su curso a través del resto de estructuras del sistema digestivo. Pero el bolo, formado por los fragmentos más sólidos, es regurgitado a la boca donde vuelve a ser masticado dando lugar a un material más finamente triturado y, por lo tanto, con una mayor área superficial, lo que facilitará la digestión a cargo de los microbios cuando vuelve a ser ingerido y conducido de nuevo al retículo-rumen.

Bacterias, principalmente (se han identificado más de 200 especies), pero también algunos protozoos, arqueas y hongos degradan la celulosa y hemicelulosa, mediante celulasas, produciendo ácidos grasos de cadena corta. Las proteínas y los carbohidratos no estructurales (pectina, almidones y azúcares) también sufren la fermentación. La mayor parte de los carbohidratos simples que resultan de estas fermentaciones son utilizados por los microorganismos, aunque algunos pueden escapar del rumen y ser absorbidos después por el animal. En este proceso la saliva es muy importante, porque proporciona el medio líquido adecuado para que se desarrollen florecientes poblaciones microbianas, además actúa como tampón del pH del rumen, gracias a su contenido en bicarbonatos y fosfatos.

La degradación de los carbohidratos complejos por los microorganismos da lugar, a través de la glucolisis, a fosfoenol piruvato (PEP), del que se produce metano, CO2, acetato y algo de butirato. O también puede ser metabolizado a piruvato que, en última instancia, conduce a la formación de propionato y butirato. Bajo condiciones normales, el rumen contiene un 60-70% de acetato, un 14-20% de propionato y un 10-14% de ácido butírico. Estos ácidos de cadena corta son muy importantes para el animal. El propionato es el único que puede utilizar para sintetizar glucosa y glucógeno; bajo condiciones normales, el 70% de la glucosa de un rumiante proviene del ácido propiónico. Los otros ácidos grasos volátiles se incorporan al ciclo de Krebs como acetil CoA, y si hay excedentes, se acumulan en forma de grasas. Estos ácidos se absorben de forma pasiva a través de la pared ruminal.

Los microbios simbiontes hidrolizan las proteínas contenidas en el alimento y como consecuencia de esa hidrólisis se producen polipéptidos y aminoácidos que utilizan para su propio crecimiento. Casi todas las proteasas bacterianas se encuentran en su interior (el de las bacterias), pero algunas las liberan al exterior (a la luz del rumen) y actúan allí. En cualquier caso, los oligopéptidos de hasta 6 átomos de carbono son absorbidos por las bacterias y sometidos a ulteriores degradaciones hasta rendir aminoácidos o, incluso, amonio (por desaminación de aquellos). Las paredes del rumen pueden absorber con facilidad los aminoácidos y el amonio que no es utilizado por los propios microorganismos.

La mayor parte del amonio, así como algunos aminoácidos y oligopéptidos, son utilizados por los microorganismos para elaborar sus propias proteínas. Y una vez que llegan al abomaso, esas bacterias son atacadas y sus proteínas digeridas por los jugos estomacales. Los aminoácidos resultantes son absorbidos en el intestino delgado.

El poco amonio que no es reutilizado por las bacterias del retículo-rumen se absorbe y es convertido en urea1 en el hígado del rumiante, y parte de esa urea, junto con la que procede de la degradación de proteínas propia de los tejidos del animal, es transportada de nuevo al rumen, directamente a través de su pared o por las glándulas salivares. La alta actividad ureasa propia de la pared del rumen garantiza una rápida conversión de la misma en amonio para su utilización por la microbiota ruminal. Aquí radica gran parte de la importancia de la rumia y la fermentación pregástrica: además de facilitar el aprovechamiento de carbohidratos complejos, permite utilizar las proteínas de los alimentos con una eficiencia enorme, dado que solo una pequeña parte del nitrógeno ingerido se acaba evacuando en forma de urea.

Por último, conviene destacar que, como consecuencia de la fermentación, los microorganismos ruminales también producen todas las vitaminas B, incluido el complejo B12 si hay suficiente cobalto.

Nota:

1 A la urea, junto con las otras formas moleculares de excreción de nitrógeno nos referimos aquí.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Digestión simbiótica: los rumiantes se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Digestión estomacal (y II): regulación
  2. Digestión estomacal (I): el papel de las glándulas gástricas
  3. La boca
Catégories: Zientzia

La tabla periódica en el arte: Mercurio

dim, 2019/05/19 - 11:59

El mercurio ejerce un efecto hipnótico que nos invita a acercarnos como al arroyo en el que se ahogó Narciso. Su atractivo brillo y el hecho de que sea el único metal líquido a temperatura ambiente lo convierten en un elemento fascinante. Su propio símbolo químico delata esas dos propiedades: Hg, del latín, hydrargirum, tomado del griego hydrargyros. Este vocablo está formado por el nombre de otras dos substancias: agua y plata. Más explícito imposible. ¿Y por qué demonios se llama mercurio entonces? Si a alguien se le atragantó este elemento al estudiar la tabla periódica, siempre puede echar la culpa a los alquimistas. Fueron ellos quienes le dieron el nombre actual, puesto que su movilidad se asociaba con el planeta más rápido y con el mensajero de los dioses romanos.

Pero ¿cómo se encuentra el mercurio en la naturaleza? ¿Existen acaso lagos plateados de líquido metal? Lo cierto es que, pese a que el mercurio metálico existe, los depósitos más importantes se encuentran en forma de cinabrio (HgS), un mineral que surge de la combinación con azufre y que ha jugado un rol vital como pigmento debido a su atractivo color rojo.

Imagen 1. Cinabrio con algunas gotas de mercurio nativo. Fuente: Robert M. Lavinsky / Wikimedia Commons

Bermellón: el rojo a lo largo de la historia

El cinabrio ha sido la fuente de uno de los pigmentos rojos más importantes de la historia: el bermellón. Resulta curioso que el nombre derive de otra substancia de color rojo: el carmín. Kermes era el nombre dado a los insectos de los que se extraía un colorante rojizo. Esta palabra derivó en carmín para nombrar al tinte y en vermilion (de vermes) para el pigmento que se lograba moliendo cinabrio.

En china se empleaba el bermellón dos mil años antes de que Octavio Augusto se convirtiese en el primer emperador, pero lo cierto es que debemos a los romanos la expansión del pigmento que nos ocupa. La mina más importante de cinabrio la tenían en Hispania, en la localidad que hoy conocemos como Almadén (Ciudad Real), nombre que le pusieron los árabes cuando continuaron con la explotación del mineral y que significa: “la mina” (al-ma’ dín). De hecho, la mina de Almadén era la más importante del mundo con mucha diferencia. Se estima que un tercio del mercurio empleado en el planeta proviene de este lugar y no hay ningún otro yacimiento del que se haya extraído ni la mitad de este elemento. Desde 2011 las minas están cerradas, pero afortunadamente han sido declaradas Patrimonio de la Humanidad por la UNESCO, lo que ayudará a que perdure este enclave tan importante desde el punto de vista histórico y geológico.

Imagen 2. Minas de Almadén. Fuente: Ayuntamiento de Almadén

Pese a que el bermellón se puede obtener de forma natural, desde hace siglos existen dos métodos de síntesis (el seco y el húmedo) en los que se emplean mercurio y una fuente de azufre. Bien se lograse de forma natural o sintética lo cierto es que el bermellón está presente en una infinidad de obras emblemáticas: luce en los frescos de La villa de los misterios de Pompeya, tiñe la tumba maya de la Reina Roja de Palenque, se pliega en los mantos de La Asunción de Tiziano, brilla en los labios de La joven de la perla, arde en el crepúsculo de El grito y afila los vértices de Las señoritas de Avignon.

Imagen 3. El bermellón en diferentes culturas, épocas y técnicas pictóricas. Fuente: Composición a partir de Wikimedia Commons y National Geographic

Mercurio y oro: un matrimonio de varios siglos

Teniendo en cuenta las propiedades del protagonista de esta entrada es comprensible que los alquimistas lo considerasen un metal sin par. Estaban convencidos de que trascendía la tierra y el paraíso o la vida y la muerte al igual que trascendía los estados de la materia. Además, era una substancia que tenía una capacidad única: podía disolver el oro que tanto ansiaban conseguir. Efectivamente, el mercurio crea aleaciones líquidas con el más preciado de los metales, formando lo que se conoce como amalgama. Desde la época de los antiguos romanos se ha empleado dicha propiedad para purificar o extraer oro de la minas, ya que sumergiendo en mercurio el material obtenido de una mena se podían separar las impurezas. Después sólo había que recuperar el oro evaporando el mercurio que pasa a fase gaseosa a una temperatura relativamente baja. Gracias a ese proceso se han extraído muchos metales preciosos a lo largo y ancho del planeta, pero todavía estamos pagando el precio en forma de contaminación ambiental.

La capacidad que posee el mercurio para disolver el oro también ha sido de gran utilidad para dorar obras de arte. El dorado es una técnica que se emplea para cubrir un material menos noble con una película de oro. De esta forma el material resulta más atractivo sin tener que invertir una fortuna empleando oro macizo. Así, la mayoría de las piezas que observamos con ese peculiar brillo amarillo son en realidad madera, bronce u otros materiales recubiertos de oro. Pero, ¿cómo se realiza ese proceso? Si bien es cierto que existen numerosas técnicas, en el caso de los metales, una de las más empleadas hasta el s. XIX fue el dorado por amalgama de mercurio, también conocido como dorado al fuego.

Imagen 4. Las puertas del Baptisterio de Florencia de Ghiberti fueron doradas mediante amalgama de mercurio. Fuente: Wikimedia Commons

En el dorado mediante amalgama se emplea un proceso similar al que acabamos de conocer para la extracción de oro. El primer paso consistiría en mezclar mercurio con oro en forma de virutas o limaduras para formar la amalgama. Esta mezcla se depositaría sobre la superficie que se quiere dorar y se calentaría a temperaturas alrededor de 300 ⁰C para que el mercurio se evaporase y el oro quedase adherido a la superficie. De ahí lo de dorado al fuego. Dado que la evaporación del mercurio provoca que la capa formada sea muy porosa, el procedimiento finaliza con una etapa de bruñido para obtener una superficie lisa y resplandeciente. Como os podéis imaginar, la exposición a los vapores mercuriosos durante el proceso es muy perjudicial, ya que el mercurio (especialmente sus compuestos organometálicos) provoca un gran número de enfermedades. Así, ser dorador no era la profesión con la mayor esperanza de vida. Tampoco lo era, a modo de curiosidad, la de sombrerero, oficio en el que se empleaba mercurio para tratar las pieles y que provocaba graves daños neuronales. De ahí los desórdenes que mostraba el famoso sombrerero de Alicia en el País de las Maravillas.

Simplemente mercurio

El mercurio es por sí mismo una obra de arte. Un metal que ha atraído al ser humano desde los albores de la civilización. Por lo tanto, no es de extrañar que se haya empleado en ciertas manifestaciones artísticas, especialmente por artistas contemporáneos que experimentan con nuevos materiales. Hoy en día la legislación impide el uso de mercurio en piezas expuestas al público, lo que ha supuesto un desafío interesante a la hora de buscar alternativas para reemplazar la presencia del metal. Y no sólo porque conseguir un sustituto que se acerque a su comportamiento es complicado, sino porque hay que velar porque se mantenga la concepción original de la obra y respetar los derechos del artista, un aspecto fundamental en la conservación y restauración de obras contemporáneas.

Un caso paradigmático de esta situación es la escultura Para la mente creada por Eva Lootz en 1992 y en propiedad del Artium de Vitoria-Gasteiz. Esta obra formaba parte de una instalación titulada Ellas, en la que la artista le otorgaba un valor simbólico al mercurio. Para la mente es una figura de alabastro con pequeños cuencos en los que se coloca mercurio. El metal se adapta al recipiente y adquiere forma redondeada, dotando a la creación artística de un aspecto muy sugerente. La tensión superficial aplicada al arte. El problema llegó cuando la legislación vigente obligó al museo alavés a retirar el mercurio. Tras una cuidadosa investigación llegaron a desarrollar un proceso en el que, mediante moldes, obtuvieron piezas que emulaban el aspecto plateado, el brillo y el reflejo del mercurio. Las formas obtenidas daban el pego. Mientras no se tocasen, claro. Esto fue posible gracias al uso de diferentes materiales: aluminio, una aleación de estaño y bismuto, acero inoxidable y plata con baño de rodio. Por supuesto, en la decisión final colaboró la propia artista que, pese a la oposición inicial, dio el visto bueno al uso de réplicas de gotas de mercurio.

Imagen 5. Para la mente, de Eva Lootz (1992). Fuente: Museo Artium

Un caso más célebre a nivel internacional es Fuente de Mercurio de Alexander Carter. Esta obra compartió protagonismo con el Guernica de Picasso en el Pabellón de la República Española de la Exposición Internacional de Paris de 1937. Por una parte hace referencia a Almadén, la gran mina de cinabrio de donde tanto mercurio se logró; por otra, representa una versión moderna de las fuentes de mercurio que según la tradición existieron en palacios de la Córdoba musulmana. Cuenta la leyenda que Abderramán recurría a una de estas fuentes para dictar justicia: el supuesto criminal debía de arrojar una piedra al mercurio y si ésta flotaba era culpable. Conociendo las propiedades del mercurio os podéis imaginar el destino que les esperaba a los acusados.

Imagen 6. Fuente de mercurio de Alexander Carter (1937). Fuente: Fundació Joan Miró

Para saber más

M. Spring y R. Grout. The Blackening of Vermillion: An Analytical Study of the Process in Paintings. National Gallery Technical Bulletin 23 (2002).

E. Mello. The gilding of Lorenzo Ghiberti’s ‘Doors of Paradise’. Gold Bulletin. 19 (4) (1986) 123-126.

M. Martiñón-Torres y Lois Ladra. Orígenes del dorado por amalgama: aportaciones desde la orfebrería protohistórica del noroeste de la Península Ibérica. Trabajos de Prehistoria 68 (1) (2011) 187-198.

E. Ruiz de Arcaute Martínez et al. Estrategias para la mente. Alternativas para problemas de manipulación y toxicidad en una obra de Eva Lootz del ARTIUM. 13ª Jornada Conservación de Arte Contemporáneo (2012) 225-234.

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo La tabla periódica en el arte: Mercurio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: ¿Qué átomos hay en una obra?
  2. La tabla periódica en el arte: Cobre
  3. La tabla periódica en el arte: Plomo
Catégories: Zientzia

¿Cómo ven las galaxias los astrofísicos?

sam, 2019/05/18 - 12:00

¿Te has preguntado alguna vez cómo se detectan, ven y descubren los pormenores de las galaxias? La astrofísica se sirve de técnicas como los rayos X, la luz ultravioleta, la infrarroja o de las ondas de radio para descubrir los misterios del cosmos.

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

El artículo ¿Cómo ven las galaxias los astrofísicos? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Cómo demonios funcionan las copas musicales?
  2. ¿Qué pasa en tu cuerpo cuando te enamoras?
  3. ¿Qué tienen en común Einstein y una zanahoria?
Catégories: Zientzia

¿Puede la física resolver problemas en medicina?

ven, 2019/05/17 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

La física y la medicina son dos actividades científicas que parecen estar muy alejadas una de la otra. Sin embargo, el listado de los premios Nobel de medicina, nos enseña que hay varios galardones concedidos a Físicos, o en base a una metodología Física. De hecho, el primer galardonado de este tipo, el sueco Allver Gullstrand, recibió en 1911 el Premio Nobel de Medicina y fue nominado al Nobel de Física tanto en 1910 como en 1911. En 1911, el Comité Nobel de Física, del cual Gullstrand era miembro, sugirió que el premio Nobel había de ser para él. Al mismo tiempo el Comité Nobel de Medicina estaba considerando su nombre para el Nobel. Gullstrand declinó el Premio Nobel en Física a favor del Nobel de Medicina [1]. Gullstrand es la única persona que ha declinado un Premio Nobel y ha aceptado otro. Sin contarle a él, son solo tres personas las que no han aceptado un Nobel: los de literatura de 1958 y 1964 por los escritores, ruso Boris L. Pasternak y francés Jean-Paul Sartre, respectivamente, y el Nobel de la Paz por el Vietnamita Le Duc Tho en 1973.

Imagen 1. Allver Gullstrand, premio Nobel en 1911. Fuente: Wikimedia Commons

Es interesante reseñar que Gullstrand tenía una fuerte personalidad y como miembro de la Real Academia de Ciencias Sueca formo parte en 1921 del Comité que se opuso a que Albert Einstein recibiese el Nobel de Física en 1921 por la teoría de la relatividad general, que Gundstrand consideraba equivocada [1].

Allver Gullstrand fue galardonado en 1911 con el premio Nobel en Medicina por sus investigaciones sobre la refracción de la luz a través del medio trasparente del ojo vivo. Si esto no es una metodología Física, que me digan qué es!!! Tres años después de recibir el premio Nobel abandonó la cirugía oftalmológica para dedicarse completamente a la investigación sobre instrumentos ópticos y diseño de instrumentación y técnicas quirúrgicas. La lámpara de hendidura, presente hoy en día en la mayoría de las mesas de los oculistas es una de sus invenciones.

Imagen 2. Lámpara de hendidura. Fuente: Wikimedia Commons

Hubo que esperar 11 años hasta que una metodología Física recogiera otro Premio Nobel de Medicina. El inglés, Licenciado en Matemáticas, Archibald Vivian Hill recibió el Premio Nobel de Medicina de 1922 por la investigación relativa al cambio de temperatura que se produce al poner a trabajar los músculos. Su trabajo sobre la función muscular, especialmente la observación y medida de los cambios de temperatura asociados con el funcionamiento de los músculos, se extendió posteriormente a estudios similares sobre el mecanismo del paso de los impulsos nerviosos. Se desarrollaron técnicas muy sensibles, capaces de medir cambios de temperatura del orden de 0,003 °C en periodos de solo centésimas de segundo. Estas investigaciones dieron un gran impulso a la biofísica y se dice que el gran interés por la misma se debe a sus aportaciones.

En 1924 el médico holandés Willen Einthoven fue galardonado con el premio Nobel de Medicina por el descubrimiento del mecanismo del electrocardiograma. El electrocardiograma es la representación gráfica de la actividad eléctrica del corazón en función del tiempo. Actualmente tiene una función relevante en cribado y diagnóstico de enfermedades cardiovasculares y alteraciones metabólicas. Como es bien conocido, el electrocardiograma se obtiene colocando sobre la zona del pecho 10 electrodos sujetos con cinta de velcro que se conectan mediante cables al aparato para medir los voltajes entre los electrodos (derivaciones, 12 en total). Podemos decir en forma figurada que cada derivación es una “fotografía” de la actividad eléctrica del corazón, tomada desde un ángulo diferente.

Imagen 3. Obtención de electrocardiograma y “fotografías” de la actividad eléctrica del corazón. Fuente: Wikimedia Commons

Los Premios Nobel de Medicina relacionados con la Física presentados hasta ahora se produjeron en las áreas de óptica, termodinámica y señales eléctricas. Sin embargo, el de 1946 (al igual que los dos siguientes) estuvo relacionado con los rayos X. Al genetista estadounidense Hermann Joseph Muller se le galardonó con el Premio Nobel por el descubrimiento de la producción de mutaciones mediante la irradiación con rayos X.

En el Premio Nobel de Medicina de 1962 también se utilizaron los rayos X, pero en este caso para realizar análisis estructurales mediante difracción de los mismos. La química inglesa Rosalind Elsie Franklin trabajando junto al físico neozelandes Maurice Wilkins sobre la difracción de rayos X de la molécula de ADN, describen la estructura de doble hélice del Ácido Desoxidorribonucleico, el ADN, que posteriormente servirá de base para la descripción de dicha estructura por el biólogo estadounidense James Dewey Watson y el físico inglés Francis Harry Compton Crick. La estructura de la molécula de doble hélice que es el ADN dio al mundo la llave para entender todos los secretos de la vida. Toda la vida en la tierra, desde la bacteria más pequeña hasta el ser humano, existe gracias al ADN. Este descubrimiento les valió el premio Nobel de Medicina de 1962 a 3 de estos científicos. Sin embargo, a pesar de que la contribución de la científica Rosalind Franklin fue fundamental (fue quien diseño y realizó los experimentos de difracción de rayos X, sin los cuales no hubieran podido llegar a descifrar la doble hélice), no obtuvo el reconocimiento Nobel por haber fallecido.

Imagen 4. Rosalind Elsie Franklin y la fotografía 51, imagen de la difracción con Rayos X de una molécula de ADN, realizada en 1951 por Rosalind Franklin y Raymond Gosling. Fuente: Composición a partir de imágenes de Wikimedia Commons

¿Cómo llegaron a poder de Watson y Crick los difractogramas realizados por Rosalind Franklin? Así como los comentarios de Watson sobre Rosalind dan para mucho, y son un reflejo de la discriminación que han sufrido muchas mujeres científicas, pero esto nos daría para todo un artículo y no es el objetivo de este [2].

Los siguientes Premios Nobel de Medicina relacionados con la Física se concedieron a descubrimiento/invenciones de técnicas de imagen que actualmente conocemos muy bien. El primero, de 1979, también está relacionado con los rayos X, fue para el físico sudafricano Allan McLeod Cormack y el ingeniero electrónico inglés Godfrey Newbold Hounsfield, por el desarrollo y descubrimiento de la Tomografía Axial Computerizada, que conocemos coloquialmente como TAC o escáner. El TAC revolucionó el diagnóstico médico en todo el mundo, ya que trajo un gran avance en la detección y localización de tumores, permitiendo a los médicos ver el interior del cuerpo humano en tres dimensiones. Godfrey comentó en una entrevista que el The New York Times le realizó en 1973 “el avance consistía en darse cuenta de que al escanear objetos desde muchos ángulos era posible extraer el 100% de la información de los rayos X”. El diagnóstico basado en imágenes del interior del cuerpo obtenidas por medio de los rayos X se utiliza desde principios del siglo XX. Sin embargo, las radiografías clásicas no permiten observar el relieve, ni distinguir con claridad los tejidos. El escáner resuelve esta situación, obteniendo gran número de imágenes de rayos X (ya sea sucesivamente, haciendo girar el aparato, o simultáneamente, mediante varios emisores y detectores).

Imagen 5. Arriba: los premios Nobel de 1979 Allan McLeod Cormack y Godfrey Newbold Hounsfield. Abajo: Equipo TAC o escáner. Composición a partir de imágenes de Wikimedia Commons

En 2003 el premio Nobel de Medicina se concedió al físico británico Peter Mansfield y al químico estadounidense Paul Christian Lauterbur por la invención y desarrollo de la imagen por resonancia magnética nuclear, a la que coloquialmente llamamos resonancia magnética o imagen de resonancia magnética (MRI). Si sometemos los núcleos de los átomos a un intenso campo magnético, estos rotan alrededor de ese campo magnético con una frecuencia que depende del valor de la intensidad del campo. La energía de los núcleos puede aumentar (excitación nuclear) si absorben ondas de radio de la misma frecuencia de rotación. A este proceso se le conoce como resonancia nuclear. Cuando los núcleos se desexcitan, es decir, vuelven a su estado original o fundamental, emiten ondas de radio características del núcleo particular que lo identifican. De hecho, este fenómeno fue descubierto en 1946 para los núcleos de los átomos de Hidrogeno por los estadounidenses Felix Bloch y Edward Mills Purcell, que recibieron el premio Nobel de Física en 1952. Este fenómeno fue muy prolífico, ya que dio lugar a otros dos premios nobeles, de química estos, uno en 1991 y el otro en 2002.

Imagen 6. Los premios Nobel de 2003 Paul Christian Lauterbur y Peter Mansfield.

Mediante la detección de las ondas de radio siguiendo el procedimiento anterior es posible detectar el hidrógeno y su cantidad por unidad de volumen. El agua es una molécula compuesta de átomos de hidrógeno y oxígeno. Por lo tanto, al contener hidrogeno, el agua responde al fenómeno citado. Dos tercios del peso del cuerpo humano son agua y este elevado contenido en agua explica por qué las imágenes de resonancia magnética se han vuelto tan útiles en la medicina. Las pequeñas diferencias en las oscilaciones de los núcleos pueden detectarse y mediante un procesamiento informatizado complejo, es posible construir una detallada imagen de tejidos y órganos en el área del cuerpo investigada. De esta forma pueden documentarse los cambios patológicos.

Imagen 7. Ejemplos de MRI tomados con diferentes técnicas: ponderación T1 (spin-red), ponderación T2 (spin-spin) y ponderación en PD (densidad de protones). Fuente: Wikimedia Commons

Hoy día, la MRI se emplea para la exploración de casi todos los órganos del cuerpo. La técnica es especialmente valiosa para obtener imágenes detalladas del cerebro y la medula espinal. Sin embargo, el equipamiento para la MRI es caro, muy voluminoso, pesado y necesita de campos magnéticos elevados (como mínimo del orden de 1 Tesla, que en comparación al campo magnético terrestre es unas 10000 veces mayor), por lo que está localizado en lo que se vienen a llamar salas de resonancia de grandes hospitales.

Desarrollar equipamiento MRI portable sería una ventaja adicional, que posibilitaría su utilización en salas de urgencias, ambulatorios y ambulancias medicalizadas, con la consiguiente mejora en el servicio médico. En la Facultad de Ciencia y Tecnología se está trabajando en el desarrollo de equipamiento portable, y el primer prototipo del citado equipamiento está cerca [3].

Actualmente el desarrollo de una nueva terapia contra el cáncer (Hipertermia magnética), se está realizando por investigadores e investigadoras en Física y Química de la Facultad de Ciencia y Tecnología, investigadores de la Facultad de Medicina e investigadores en medicina clínica del Hospital de Galdakao. Esta nueva terapia necesita de los siguientes pasos: 1) sintetización de nanopartículas magnéticas apropiadas, 2) inoculación de las nanopartículas magnéticas de forma que estas se localicen en el tumor y 3) desarrollo de un aplicador electromagnético de radiofrecuencia que sea capaz de hacer que las nanopartículas magnéticas liberen calor suficiente para “quemar” los tumores en los que se han localizado las nanopartículas [4]. Cuando se consiga desarrollar completamente la terapia será posible “quemar” las células cancerosas, es decir, los tumores, sin dañar el tejido circundante. Si se consigue implementar esta terapia, los efectos secundarios serán mucho menores que los que producen la radioterapia y la quimioterapia, y su costo será mucho menor.

Para saber más:

[1] Ravin, James G. (1999). Gullstrand, Einstein, and the Nobel Prize. MD Arch Ophthalmol. 117(5):670-672. DOI:10.1001/archopht.117.5.670

[2] Angulo, Eduardo (2014). El caso de Rosalind Franklin. Mujeres con Ciencia.

[3] Alonso-Valdesueiro, J. et al., (2018). Design, Construction, and Characterization of a Magic Angle Field Spinning RF Magnet. IEEE Transactions on Instrumentation and Measurement, PP(99), 1-10. DOI:10.1109/TIM.2018.2884606

[4] Périgo, E.A. et al., (2015). Fundamentals and advances in magnetic hyperthermia. Applied Physics Reviews, 2(4), 041302. DOI:10.1063/1.4935688

Sobre el autor: Fernando Plazaola es catedrático en el Departamento de Eletricidad y Electrónica de la Facultad de Ciencia y Tecnología de la UPV/EHU.

El artículo ¿Puede la física resolver problemas en medicina? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las dos culturas de las matemáticas: construir teorías o resolver problemas
  2. El Nobel de Medicina de 2013: Logística de prefabricados de construcción (en las células)
  3. Dudas sobre las vacunas: problemas y soluciones
Catégories: Zientzia

Los filtros solares llegan al torrente sanguíneo, dice la prensa

jeu, 2019/05/16 - 11:59
Fuente: Pixabay

Recientemente se ha publicado un estudio preliminar sobre la absorción de algunos filtros ultravioleta empleados en los productos de protección solar [1]. Ha cundido el pánico, pero no en la comunidad científica, sino en los medios de comunicación. Tanto en la prensa española, como en la prensa extranjera [2] los titulares han sido alarmistas y no se corresponden ni con las conclusiones del estudio ni con la opinión de sus autores [3]. La realidad es que este estudio no ha aportado nuevas evidencias, y la recomendación sigue siendo el uso de protección solar, ya que los beneficios superan con creces a los posibles riesgos.

  • El origen del estudio

El estudio se realizó a petición de la FDA. La FDA es la agencia del gobierno de los Estados Unidos responsable de la regulación de alimentos, medicamentos, cosméticos, aparatos médicos, productos biológicos y derivados sanguíneos. Es el análogo as SCCS europeo.

La razón de este estudio es que la FDA ha cambiado los parámetros por los cuales un ingrediente usado en cosmética puede o no pasar a formar parte de su lista de ingredientes seguros (la lista GRASE, Generally Recognised as Safe and Effective).

Antiguamente, la seguridad de los filtros solares se evaluaba con ensayos en animales. Hace años que estos ensayos han de hacerse en personas. Todos los filtros solares que actualmente se usan en EEUU han superado con éxito los ensayos toxicológicos, pero con la nueva regulación [4] han de repetirse.

Para que se apruebe la entrada de un filtro solar en la lista GRASE, hay que presentar estudios de “prueba de uso máximo”. Estos estudios sirven para determinar si el ingrediente se absorbe, si pasa a la sangre y en qué cantidad [5]. Es la misma prueba que se exige en los medicamentos de uso tópico. Con esto, la definición de “cosmético” con respecto a la de “medicamento” está poco clara para la FDA.

  • El estudio

El estudio es un estudio preliminar, o “estudio piloto”. En este caso significa que se ha hecho con muy pocos individuos, en poco tiempo y en unas condiciones que no son las normales de uso. Los estudios preliminares sirven para determinar si sería o no conveniente hacer un estudio más exhaustivo.

En el estudio participaron 24 voluntarios. Estos se dividieron en cuatro grupos de 6 personas. Cada uno de estos grupos estuvo utilizando un producto de protección solar concreto: dos aerosoles, una loción y una crema respectivamente. Durante 4 días cubrían el 75% de su cuerpo con estos productos a razón de 2 mg de producto por cada cm2 de piel, el doble del uso recomendado. Aplicaban esta cantidad de producto 4 veces al día. Durante este tiempo, los voluntarios no realizaban ninguna actividad: ni salían, ni iban a la playa, ni sudaban, ni se bañaban en el mar o la piscina. Es decir, las condiciones de uso fueron extremas, ya que solo se trataba de hacer un estudio preliminar. Luego, analizaron su sangre para detectar cuatro ingredientes activos: avobenzona, oxibenzona, octocrileno y ecamsule, que son cuatro filtros ultravioleta empleados en productos de protección solar.

Según la FDA, un filtro solar que presente una absorción sistémica de 0,5 ng/ml o inferior, no tiene que someterse a más ensayos toxicológicos y será directamente declarado como seguro, por lo que podrá formar parte de la lista GRASE. Esto no implica que una absorción superior vaya a tener efectos adversos en la salud, sino que habría que evaluar si es así o no.

Los autores del estudio encontraron evidencia de una absorción sistémica medible de los 4 filtros solares. Los productos que contienen avobenzona dieron como resultado concentraciones plasmáticas superiores a 0,5 ng/ml desde el primer día. La concentración aumentó desde el primer día al cuarto, por lo que existe acumulación. El séptimo día, la concentración de avobenzona decayó, hasta ser indetectable en sangre en el caso de la crema.

La aplicación de productos con oxibenzona y octocrileno dio lugar a niveles plasmáticos similares entre sí, muy por debajo de los niveles de la avobenzona, aunque con concentraciones también superiores a 0,5 ng/ml.

Entre los 6 participantes que usaron la crema con ecamsule, solo 5 tuvieron concentraciones plasmáticas superiores a 0.5 ng/mL el primer día. Los niveles plasmáticos fueron los más bajos de entre todos los filtros solares analizados.

No obstante, los coeficientes de variación del estudio están en su mayoría por encima del 20%, algunos por encima del 100%. Esto quiere decir que la absorción sistémica es heterogénea y difiere mucho de unos individuos a otros. Este es uno de los motivos por los cuales los autores del estudio reconocen que los resultados no son concluyentes.

  • Un estudio poco novedoso

Desde 1997 sabemos que los filtros solares llegan al torrente sanguíneo. Hace ya 22 años. También sabemos que son eliminados por medio de la orina [6]. Se han hecho decenas de estudios toxicológicos sobre todos los filtros ultravioleta utilizados en cosméticos de protección solar [7][8][9][10][11][12][13][14], así que el reciente estudio de la FDA no aporta información novedosa ni sorprendente para la comunidad científica.

No obstante, las autoridades sanitarias concluyen que las concentraciones plasmáticas detectadas están muy por debajo de los niveles tóxicos. El SCCS (el análogo a la FDA de la Unión Europea) ha estudiado los efectos en la salud de estos mismos ingredientes mucho más recientemente que la FDA, determinando que su uso es seguro [15][16][17].

  • Un estudio limitado

Al tratarse de un estudio preliminar es, casi por definición, un estudio limitado. La principal limitación la encontramos en el tamaño de muestra. Un estudio de este tipo debería realizarse con muchos más individuos. Tampoco se pueden tomar por válidos unos resultados con unos coeficientes de variación tan elevados.

Las condiciones del estudio también deberían asemejarse a las condiciones de uso normal de estos productos. Usando las cantidades recomendadas por el fabricante, no el doble, respetando los tiempos de reaplicación y manteniendo una actividad normal, acorde al uso para el que los cosméticos hayan sido diseñados: resistente al agua, al sudor, etc.

  • Conclusiones de los autores del estudio

Aunque el estudio es limitado, los resultados que arroja pueden resultar impactantes y pueden ser fácilmente malinterpretados y exagerados, como de he hecho ha ocurrido. Por ello, los autores del trabajo han declarado que “existen pruebas de alta calidad que demuestran que el uso de filtros ultravioleta previenen las quemaduras solares, la queratosis actínica precancerosa y el cáncer de células escamosas”, que “es importante continuar reforzando las recomendaciones clínicas con respecto a los efectos beneficiosos de la fotoprotección para la prevención del cáncer de piel que están enraizados en una sólida justificación biológica y en la evidencia clínica” y que “evitar el uso de los filtros ultravioleta del estudio, como cualquier filtro solar en general, podría tener importantes consecuencias negativas para la salud”.

  • Reflexiones finales

Un titular que diga “Los filtros solares llegan al torrente sanguíneo, dice un estudio” resulta muy jugoso. Se ganan más clics con la alarma que con la prudencia.

Lo desasosegante de este caso es que el estudio del que salieron tantos titulares alarmistas se trata de un estudio de libre acceso; cualquier medio de comunicación y cualquier persona puede acceder a él. Incluso los autores publicaron un resumen a modo de nota de prensa para tratar de evitar lo que finalmente sucedió. Incluso con solo leer el abstract del estudio, sabes que ni siquiera hay noticia. O se trabaja poco o se trabaja mal.

Si hubiese la más mínima sospecha de que un ingrediente cosmético es inseguro, se retiraría del mercado. La realidad es así de simple. Lo demás es una irresponsable batalla por el clic.

La presencia de una sustancia tóxica en los productos cosméticos no beneficia a nadie. Y esto, que es una obviedad, continuamente se pone en tela de juicio. Los embaucadores han convertido la desconfianza en un negocio.

Hay quien está constantemente ávido de conspiraciones, fraudes y malhacer. De tanto sospechar, le van a salir arrugas.

[1] https://jamanetwork.com/journals/jama/article-abstract/2733085

[2] https://labmuffin.com/sunscreens-in-your-blood-that-fda-study/

[3] https://jamanetwork.com/journals/jama/fullarticle/2733084

[4] https://www.nbcnews.com/health/cancer/fda-tightens-regulation-over-counter-sunscreen-products-n974271

[5] https://www.reuters.com/article/us-fda-sunscreen-idUSKBN13H1RE

[6] https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(05)62032-6/fulltext

[7] https://onlinelibrary.wiley.com/doi/abs/10.1046/j.1365-2230.2002.01095.x

[8] https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1365-2133.2005.07007.x

[9] https://linkinghub.elsevier.com/retrieve/pii/S0731708505005595

[10] https://www.sciencedirect.com/science/article/pii/S0021967307013349?via%3Dihub

[11] https://www.sciencedirect.com/science/article/pii/S0013935115300505?via%3Dihub

[12] https://linkinghub.elsevier.com/retrieve/pii/S0022202X1530885X

[13] https://www.sciencedirect.com/science/article/pii/S157002320400008X?via%3Dihub

[14] https://ehp.niehs.nih.gov/doi/10.1289/ehp.11269

[15] https://ec.europa.eu/health/ph_risk/committees/04_sccp/docs/sccp_o_159.pdf

[16] https://ec.europa.eu/health/scientific_committees/consumer_safety/docs/sccs_o_055.pdf

[17] https://ec.europa.eu/health/scientific_committees/consumer_safety/docs/sccs_o_136.pdf

[18] https://jamanetwork.com/journals/jama/fullarticle/2733084

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Los filtros solares llegan al torrente sanguíneo, dice la prensa se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Estimada OCU: recuerda que NO se pueden utilizar las cremas solares del año pasado
  2. Un ordenador químico que llega donde no llegan otros
  3. El flujo sanguíneo se reorganiza en respuesta a las necesidades
Catégories: Zientzia

El poema de los números primos (2)

mer, 2019/05/15 - 11:59

Con motivo de la exposición Esther Ferrer 2, 3, 5, 7, 11, 13, 17, 19, 23,… (del 5 de abril al 26 de mayo de 2019), de la artista donostiarra Esther Ferrer, en el Centro Internacional de Cultura Contemporánea Tabakalera, de Donostia/San Sebastián, en la anterior entrada del Cuaderno de Cultura Científica El poema de los números primos, estuvimos analizando las matemáticas que están detrás de algunas de sus obras de la serie Poema de los números primos: los números primos, la criba de Eratóstenes, la espiral de Ulam, los polinomios cuadráticos o las lagunas de números primos.

Portada y contraportada de la publicación Orriak del Centro Internacional de Cultura Contemporánea Tabakalera, sobre la exposición Esther Ferrer 2, 3, 5, 7, 11, 13, 17, 19, 23,…

En esta entrada vamos a completar este pequeño paseo por la serie de obras Poema de los números primos de Esther Ferrer. Para empezar, mostraremos un grupo de dibujos para suelo de esta serie que utiliza una variación rectangular de la espiral de Ulam para generar diferentes estructuras geométricas planas

Dibujos para suelo de la serie Poema de los números primos (2016), de Esther Ferrer, realizados en tinta sobre papel, 83,5 x 59,5 cm, pertenecientes al archivo personal de la artista. Imagen del catálogo Esther Ferrer, todas las variaciones son válidas, incluida esta, del Museo Nacional Centro de Arte Reina Sofía.

Estos dibujos para suelo, que son solo cuatro de un grupo más amplio realizado en 2016, nos recuerdan el objetivo de la artista Esther Ferrer al utilizar los números primos, que es hacer uso de las matemáticas como una herramienta objetiva, es decir, que sus preferencias estéticas jueguen un papel secundario en el proceso de creación artístico, para generar estructuras geométricas planas. La base matemática de las cuatro obras anteriores, como explicaremos a continuación, son la espiral de Ulam rectangular y las lagunas de números primos, que crean un patrón geométrico base que subyace a la serie de dibujos, pero que debido a la intervención de la artista cada uno de ellos adquiere un desarrollo estético propio, sorprendente y atractivo.

La base para esta serie de obras es similar a la espiral de Ulam. En ese caso, como puede verse en la entrada anterior, El poema de los números primos, se consideraba una cuadrícula cuadrada sobre la que se escribían los números naturales, empezando en 1 (aunque también podía empezarse en cualquier otro número, como el 17, el 41 o el 1.344.326.696.347) que se colocaba en la cuadrícula superior izquierda de la subcuadrícula central 2 x 2, de manera que los números eran escritos en orden creciente y distribuidos alrededor del 1 formando una espiral de números.

Para estas obras Esther Ferrer construye lo que podríamos llamar la espiral de Ulam rectangular, ya que en lugar de iniciar la espiral en la celda superior izquierda de la una subcuadrícula central 2 x 2, luego cuadrada, lo hace en la celda superior izquierda de la una subcuadrícula central 2 x 26, luego rectangular, de forma que al desarrollar la espiral alrededor queda un retículo rectangular, similar a la que vemos en la siguiente imagen.

Además, en este grupo de obras, otro elemento fundamental para crear los patrones geométricos planos son las lagunas de números primos, es decir, los grupos de números no primos o compuestos entre dos números primos (véase la entrada Buscando lagunas de números primos), con la diferencia, respecto a otras obras que hemos comentado, de que en este grupo de dibujos incluye al número primo anterior a la laguna como parte de la misma (que podríamos llamar laguna aumentada). Por ejemplo, entre los números primos 13 y 17 hay una laguna de tres números compuestos, de forma que Esther Ferrer considera la laguna aumentada formada por los números 13, 14, 15 y 16, después vendría la laguna aumentada 17 y 18, seguida de 19, 20, 21 y 22, y después, 23, 24, 25, 26, 27 y 28.

En esta serie de obras, las celdas de cada laguna aumentada de números primos son tratadas de una forma uniforme, cambiando el tratamiento de una laguna aumentada respecto a la siguiente, de forma alternada. Así, en la obra que se muestra a continuación, también de este grupo de dibujos para suelo que se ha podido ver en la exposición de Tabakalera, las celdas se pintan de rojo o negro en función de la laguna aumentada a la que pertenezcan y cambiando el color de una laguna a la siguiente. Por ejemplo, la celda 1 (que es una laguna de una sola celda) es roja, después la celda 2 (también una laguna solitaria) es negra, la laguna aumentada 3 – 4 tiene sus celdas rojas, mientras que son negras las casillas de la laguna aumentada 5 – 6 y de nuevo rojas las de 7 – 8 – 9 – 10, y así están pintadas de negro o rojo el resto de lagunas aumentadas. Trabajando de esta forma la artista, que ha sido galardonada con el Premio Nacional de Artes Plásticas en 2008 o el Premio Velázquez de Artes Plásticas en 2014, consigue la sorprendente e interesante creación artística que vemos en la siguiente imagen.

Dibujo para suelo de la serie Poema de los números primos (2016), de Esther Ferrer, realizados en tinta sobre papel cebolla, 83,5 x 59,5 cm, expuesto en Esther Ferrer 2, 3, 5, 7, 11, 13, 17, 19, 23, … (Tabakalera, 2019) y perteneciente al archivo personal de la artista. Fotografía: Raúl Ibáñez

En cada una de las obras de este grupo particular dentro de la serie Poema de los números primos, Esther Ferrer interviene de forma diferente sobre las lagunas aumentadas de números primos, creando toda una serie de patrones geométricos planos, aunque con una base matemática común, que producen efectos visuales distintos, como puede observarse en las anteriores imágenes.

En la conversación entre Esther Ferrer, Laurence Rassel y Mar Villaespesa con motivo de la exposición Esther Ferrer, todas las variaciones son válidas, incluida esta (Palacio de Velázquez, en el Parque del Retiro de Madrid, Museo Nacional Centro de Arte Reina Sofía, 2017), Laurence Rassel le pregunta a Esther Ferrer “¿Cómo es el proceso de trabajo con los números primos?”, a lo que la artista contesta:

Primero decido el tipo de soporte y cómo voy a distribuir los números en el espacio, es la base. Luego decido el sistema que define la estructura de la obra, que tiene varios parámetros: si va a ser una obra única o una serie, para poder decidir a partir de qué número empieza, si los números en el espacio se reparten en círculo o en líneas horizontales o verticales, si se emplea color o no, y un largo etcétera. Finalmente decido la forma en que los voy a relacionar, y a partir de ahí me planteo las líneas y el color, si lo hay. Por ejemplo, puedo trabajar los números primos a partir de la espiral de Ulam. Al utilizarla se crea una línea ininterrumpida durante cierta cantidad de números. Me gustó la idea de escribirlos en espiral, como una galaxia, los números primos tienen algo que ver con la estructura del universo; a medida que progresas en la serie hay menos números, el espacio entre ellos se agranda, me gusta ese vacío, es como si la serie se expandiera, como el universo.

Existen algunas variantes de la distribución de la espiral de Ulam de los números primos de manera que la estructura general de la espiral de los números naturales genera una forma triangular, hexagonal o circular, en lugar de la forma cuadrada de la espiral de Ulam original, o la rectangular utilizada por Esther Ferrer en las obras. La autora de la serie Poema de los números primos se ha interesado por la espiral de Ulam hexagonal, generando toda una familia de obras basada en esta estructura.

Pero antes de hablar de estas obras, me gustaría mencionar lo que podríamos llamar una variante por anticipación, puesto que en el año 1932 (más de treinta años antes de que a Ulam se le ocurriese la idea de la espiral) el herpetólogo, es decir, zoólogo especializado en reptiles y anfibios, estadounidense Laurence Monroe Klauber (1883 – 1968) presentó en el congreso The March Meeting of the Southern California Section de la Asociación Americana de Matemáticas (MAA) una ponencia sobre un triángulo de números naturales en el que se destacaba la distribución de los números primos, y en particular, los generados por el polinomio de Euler n2 + n + 41.

Este triángulo no está generado en espiral, sino distribuyendo los números en orden creciente desde el vértice de arriba y fila a fila, hacia abajo. Es decir, en la primera fila se coloca en 1, en la segunda los números 2, 3 y 4, en la tercera los números del 5 al 9, y así en la fila n-ésima están colocados los números del (n – 1)2 + 1 hasta n2, como en la siguiente imagen.

Sobre esa distribución triangular de los números se marcan los números primos. Por ejemplo, en la anterior imagen se ha pintado el triángulo correspondiente al número primo de gris. Al igual que ocurría con la espiral de Ulam, sobre el triángulo numérico de Klauber los polinomios cuadráticos generan números que descansan sobre líneas rectas. En particular, los polinomios de la forma n2 + n + a, para algún número a, son líneas verticales, un ejemplo es el polinomio de Euler.

Triángulo de números primos de Klauber, en el cual están marcados como puntos azules los números primos, como puntos naranjas los números primos generados por el polinomio de Euler, n2 + n + 41, y los números no primos no aparecen, están en blanco. Imagen: Will Orrick / Wikimedia Commons

Pero volvamos a la obra artística de Esther Ferrer y a la espiral de Ulam hexagonal. Como en el caso de la espiral de Ulam clásica, en la espiral de Ulam hexagonal, se escriben los números naturales en orden creciente y formando una espiral, sobre una “colmena” o rejilla hexagonal (una especie de cuadrícula, pero formada por hexágonos y cuya forma general es también hexagonal), en cuyo centro hay un hexágono, para el número 1 (o el número inicial), y se van añadiendo filas de hexágonos alrededor del hexágono central, formando la rejilla hexagonal, como se muestra en la imagen de abajo.

Pequeña espiral de Ulam hexagonal, sobre una retícula hexagonal de lado 4, con los 37 primeros números, marcando en gris las casillas con números primos y señalada la espiral con una línea marrón discontinua

Sin embargo, no es esta la estructura hexagonal en espiral que considera la artista Esther Ferrer, quien trabaja, de hecho, con diferentes estructuras hexagonales en espiral. En la primera de ellas considera una rejilla triangular con forma hexagonal. Empieza en un hexágono central, que está dividido en seis triángulos equiláteros, sobre la que escribe los primeros seis números, y luego continúa escribiendo los números en orden creciente y en espiral sobre los triángulos equiláteros que están alrededor del hexágono central, y que van manteniendo la forma hexagonal del retículo, como se muestra en la imagen siguiente.

Ejemplo de espiral de tipo Ulam sobre una retícula triangular con forma hexagonal, sobre la que trabaja la artista Esther Ferrer, sobre la que se consideran los números naturales en orden creciente y en espiral, marcando de alguna forma los números primos

En la siguiente obra, en la cual se trabaja sobre la anterior estructura reticular, los triángulos se dividen en tres tipos, como ocurría en algunas de las obras que mostramos en la entrada El poema de los números primos, por una parte, están los triángulos que corresponden a números primos, que tienen color blanco y dibujado el correspondiente número primo (hay una excepción, que es la casilla del número 1, la cual se trata en esta obra como si fuese una casilla de un número primo, o podríamos decir como un no compuesto, en blanco y con el número escrito), y el resto de triángulos se corresponden con números no primos, o compuestos, luego en ellos no se dibuja su número y tendrán color rojo o negro en función de la laguna de números primos a la que pertenezca, coloreando las lagunas de rojo o negro de forma alternada, además, estos triángulos de números no primos, rojos o negros, tendrán espesor, altura, creando un relieve en la obra.

Maqueta de un proyecto de Esther Ferrer, basado en la serie Poema de los números primos (1989). Edición producida por ARTIUM, Centro-Museo Vasco de Arte Contemporáneo, en 2011. Cartón pluma blanco, pintado de rojo con acrílico y cartón pluma negro, ambos de diferentes espesores, cortados a mano en triángulos de 3 cm. y dispuestos sobre una base hexagonal de cartón de 71 x 62 cm aproximadamente

Como en otras obras, la intervención de la artista genera diferentes estructuras geométricas planas. A continuación, se muestran algunas obras que tienen como base la misma estructura espiral de tipo Ulam sobre la retícula triangular con forma hexagonal que acabamos de analizar.

Dibujo de la serie Poema de los números primos (1986 – 88), sobre una base hexagonal de 22,5 cm. de lado a lado, de la artista Esther Ferrer, realizada con rotulador sobre papel cebolla. Obra expuesta en la Galería Angels Barcelona Dibujo de la serie Poema de los números primos (1986 – 88), sobre una base hexagonal de 23,5 cm. de lado a lado, de la artista Esther Ferrer, realizada con rotulador sobre papel cebolla. Obra expuesta en la Galería Angels Barcelona

Como en las obras que hemos mostrado en la entrada anterior, El poema de los números primos, con base en la espiral de Ulam, se puede iniciar la espiral en un número distinto al 1, como ocurre en la siguiente obra.

Dibujo de la serie Poema de los números primos (1986 – 88), sobre una base hexagonal de 27 cm. de lado a lado, de la artista Esther Ferrer, realizada con rotulador sobre papel cebolla. Obra expuesta en la Galería Angels Barcelona.

En otro grupo de obras, Esther Ferrer toma como base la retícula triangular con forma hexagonal descrita anteriormente, pero uniendo cada dos triángulos rectángulos para formar un rombo, creando así una retícula de rombos con forma hexagonal. Sobre esta estructura considera una espiral de tipo Ulam, al escribir los números naturales en orden creciente, cada número sobre un rombo y destacando los números primos. La intervención de la artista da lugar a toda una subfamilia de obras relacionadas con esta estructura, como la que se muestran a continuación.

Dibujo de la serie Poema de los números primos (1986 – 88), sobre una base hexagonal, de la artista Esther Ferrer, realizada con rotulador sobre papel cebolla. Obra expuesta en la Galería Angels Barcelona y perteneciente al catálogo Esther Ferrer, todas las variaciones son válidas, incluida esta.

Pero dejemos estas estructuras geométricas hexagonales relacionadas con los números primos, para terminar con una obra relacionada con un tipo especial de números primos, los números primos gemelos. Recordemos que dos números primos son gemelos si están lo más cerca posible, es decir, con tan solo un número par entre ellos, como las parejas 11 y 13, 17 y 19, o 41 y 43. Esther Ferrer también se interesó por estos. De hecho, en la conversación de Esther Ferrer con Laurence Rassel y Mar Villaespesa con motivo de la exposición Esther Ferrer, todas las variaciones son válidas, incluida esta, explica lo siguiente:

En ese universo, de pronto, aparece un par de números primos gemelos, por ejemplo 11 y 13, 17 y 19, son como los cuerpos celestes que se descubren y no se sabe por qué están ahí. Un amigo ingeniero me envió el número gemelo más grande calculado al ordenador, que entonces tenía 703 dígitos, ahora tiene muchas más cifras. Hice dos cuadros poniéndolos de relieve. Lo curioso es que me interesé en estos números sin pensar en absoluto en mi situación personal: soy gemela, fue una amiga quien me lo señaló.

Una de las conjeturas sobre los números primos gemelos es que existe un número infinito de parejas de números primos, aunque a día de hoy aún no ha sido posible demostrar esta conjetura. Por este motivo, dentro de la comunidad científica se siguen buscando parejas de números primos gemelos cada vez más grandes. En los años 1980 la pareja más grande conocida de números primos gemelos tenía 703 dígitos. De hecho, en la columna Mathematical Games de Martin Gardner en la revista Scientific American, en diciembre de 1980, menciona este dato y dice que esos dos primos empiezan por 4337 y terminan por 17759 y 17761.

La siguiente obra de Esther Ferrer toma como base esta pareja de números primos gemelos. El número explícito que está en el medio sería el número no primo y par que está entre los dos primos gemelos y que termina en 17760, mientras que a cada lado del mismo están ciertas estructuras geométricas planas generadas a partir de esos dos números primos gemelos.

Poema de los números primos (años 1980), rotulador e hilo sobre lienzo, 97,5 x 130 cm. Archivo Esther Ferrer y perteneciente al catálogo Esther Ferrer, todas las variaciones son válidas, incluida esta.

Se ha avanzado mucho en la obtención de parejas de números primos gemelos desde entonces. En la actualidad la pareja más grande conocida, descubierta en 2016, está formada por el número primo 2.996.863.034.895 · 21.290.000 – 1 y 2.996.863.034.895 · 21.290.000 + 1, que tienen 388.342 dígitos.

Por último, me gustaría finalizar esta entrada del Cuaderno de Cultura Científica con una frase de Esther Ferrer, que suele citar en muchas ocasiones, la última ha sido en la entrevista que le hicieron en el Diario Vasco con motivo de su exposición Esther Ferrer 2, 3, 5, 7, 11, 13, 17, 19, 23,… en Tabakalera.

Yo en el arte hago lo que quiero sin más límite que mi responsabilidad

Así mismo, me gustaría expresar mi más sincero y profundo agradecimiento a Esther Ferrer por permitirme utilizar las imágenes de sus hermosas e interesantes obras en esta publicación, así como por las interesantes conversaciones que hemos mantenido sobre las matemáticas, y en particular, los números primos, en el conjunto de su obra artística.

Bibliografía

1.- Esther Ferrer, Maquetas y dibujos de instalaciones 1970/2011, Exit publicaciones, 2011.

2.- Rosa Olivares (comisaria), Esther Ferrer, Lau mugimenduan/En cuatro movimientos/In four movements, ARTIUM 08/10/2011 – 08/01/2012, Artium y Acción cultural española, 2011.

3.- Laurence Rassel y Mar Villaespesa (comisarias), Esther Ferrer, todas las variaciones son válidas, incluida esta, Palacio de Velázquez del Parque del Retiro 26/07/2017 – 25/02/2018, Museo Nacional Centro de Arte Reina Sofía, 2017.

4.- Página web de Esther Ferrer

5.- Página The Top Twenty: Twin Primes

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El poema de los números primos (2) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El poema de los números primos
  2. Buscando lagunas de números no primos
  3. Los números de Queneau
Catégories: Zientzia

El concepto de estructura atómica

mar, 2019/05/14 - 11:59

Decíamos al hablar del sistema de periodos que su regularidad, simetría y capacidad predictiva son indicios de que el modelo que explique la estructura de los átomos de los distintos elementos posee también estas características. Y, al hacerlo, dábamos por sentado que los átomos tienen estructura, algo que puede no parecer evidente. Merece la pena detenernos en este punto.

La química en el siglo diecinueve había tenido un éxito más que notable a la hora de explicar las proporciones de combinación de los distintos elementos y en la predicción de reacciones químicas. Tanto es así que buena parte de la revolución industrial fue la revolución químico-industrial. Este éxito terminó convenciendo a la mayoría de los científicos del último cuarto del siglo de que una hipótesis tan fructífera como la atómica indicaba claramente que la materia está compuesta en realidad de átomos. Pero este convencimiento suscitaba inmediatamente una pregunta relacionada: ¿Son los átomos realmente indivisibles, como se había supuesto, o consisten en partículas aún más pequeñas?

La pregunta surge de forma natural a poco que se piense un poco en el sistema de periodos. Recordemos que Mendeléyev había dispuesto los elementos siguiendo los criterios de masa atómica creciente y características químicas. Pero, y esto es importante, la única característica física del ordenamiento, las masas atómicas de los elementos, no pueden explicar las características químicas periódicas.

¿Por qué, por ejemplo, los elementos 3 (litio), 11 (socio), 19 (potasio), 37 (rubidio), 55 (cesio) y 87 (francio) [1], con masas atómicas muy diferentes, tienen propiedades químicas similares (por ejemplo, arden, esto es, reaccionan rápida y violentamente, cuando se exponen al aire)? ¿Por qué estas propiedades son algo diferentes de las de los elementos 4 (berilio), 12 (magnesio), 20 (calcio), 38 (estroncio), 56 (bario) y 88 (radio) [2] de la lista (que reaccionan lentamente con el aire o el agua), pero son muy diferentes de las propiedades de los 2 (helio), 10 (neón) ,18 (argón), 36 (kriptón), 54 (xenón) [3] y 86 (radón) (que rara vez se combinan con cualquier otro elemento)?

La periodicidad en las propiedades de los elementos llevó a especular con la idea de que los átomos podrían tener una estructura, que podrían estar formados por piezas más pequeñas. Las propiedades cambian gradualmente de grupo a grupo. Este hecho sugiere que se puede agregar alguna unidad de estructura atómica de un elemento al siguiente, hasta que se complete una cierta porción de la estructura. Esta porción se encontraría completada en el átomo de un gas noble (Grupo 18). En un átomo del siguiente elemento más pesado, se iniciará una nueva parte de la estructura, y así sucesivamente.

Los métodos y técnicas de la química clásica no pudieron proporcionar pruebas experimentales para tal estructura. En el siglo XIX, sin embargo, los descubrimientos y las nuevas técnicas en física abrieron el camino para probar que los átomos en realidad consisten de piezas más pequeñas. [5]

La evidencia se fue acumulando para apoyar la conclusión de que los átomos de diferentes elementos difieren en el número y la disposición de estas piezas.

Notas:

[1] Descubierto por Marguerite Perey en 1939, no estaba en la tabla original de Mendeléyev.

[2] La primera noticia de la existencia del radio es de 1898 y la dieron Marie y Pierre Curie. El aislamiento del elemento se produjo en 1910 por Marie Curie y André-Louis Debierne.

[3] Todos los descubrimientos de los gases nobles son posteriores a la primera publicación del sistema de periodos de Mendeléyev. El primero, el helio, fue descubierto en 1868 como una línea en el esptectro de la cromosfera del Sol. Su aislamiento se produjo en 1897. El resto de elementos del grupo se aislaron entre 1894 y 1910.

[5] La existencia del electrón como unidad de carga eléctrica definido como la carga de un ion monovalente la propuso George Stoney en 1874 (el lo llamó electrolión). Incluso antes Richard Laming, en 1851, ya especuló con que los átomos eran un núcleo de materia rodeado de cargas eléctricas. Pero estos hechos no deben interpretarse como avances en el conocimiento de la estructura de los átomos (véase el título del libro de Laming). Nada hacía prever que la especulación de Laming resultase teniendo base, ni que los electrones fuesen a ser tan importantes. Sería presentismo atribuirles más significación de la que realmente tuvieron. La lógica real se sustenta en el armazón del sistema de periodos, como iremos viendo.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El concepto de estructura atómica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La ley de proporciones definidas y la unidad de masa atómica
  2. Un método para determinar la estructura átomo a átomo en un cristal
  3. Construcción de heteroestructuras de grafeno con precisión atómica
Catégories: Zientzia

Restos de ensayos nucleares del siglo XX en lo más profundo del océano

lun, 2019/05/13 - 11:59
Explosión de una bomba nuclear. Fuente: Pixabay

¿Quién vive en una piña en el fondo del mar? BOB-ES-PON-JA, dirán ustedes. Pues si es así, el pobre Bob y sus amigos están comiendo algunas cosas muy particulares. Entre otras, moléculas de carbono radiactivo liberado a la atmósfera durante algunos de los ensayos nucleares que el mundo vio con expectación y miedo a mediados del siglo XX. Un estudio ha desvelado que restos de aquellos experimentos han llegado ya a lo más profundo del mar, incluida la Fosa de las Marianas.

Que este carbono es parte de los organismos que pueblan la superficie del océano no es algo nuevo. Sabemos desde finales de los años 50 que estos organismos lo han ido incorporando a las moléculas de su cuerpo. Pero esta es la primera vez que se observa cómo crustáceos que viven en la base marina se están alimentando de materia orgánica de los seres vivos de la superficie, y repitiendo el proceso de incorporación del carbono radiactivo. “Las corrientes de circulación oceánicas necesitan cientos de años para conseguir que determinadas moléculas completen este recorrido. La cadena alimenticia lo hace mucho más rápido”, explica Ning Wang, geoquímico de a Academia China de las Ciencias e investigador principal del estudio, publicado en la revista Geophysical Research Letters.

Es un ejemplo de cómo la contaminación humana puede alcanzar casi cualquier punto del planeta, incluso aquellas que parecen más a salvo. “Existe una fuerte interacción biológica entre la superficie y las profundidades, y las actividades humanas pueden impactar incluso a 11.000 metros bajo el agua. Tenemos que tener cuidado con lo que hacemos”, dice otro de los autores, Weidong Sun, en el material publicado al respecto por la American Geophysical Union.

¿De dónde han salido estas partículas radiactivas?

El carbono 14 es un tipo de carbono radiactivo que se produce de forma natural cuando los rayos cósmicos provenientes del espacio interactúan con el nitrógeno de la atmósfera. Es un tipo de carbono menos abundante que el carbono no radiactivo, pero se puede encontrar en prácticamente todos los organismo vivos. De hecho, y puesto que conocemos la velocidad a la que se va descomponiendo, es uno de los métodos que se utiliza para datar muestras geológicas o arqueológicas que incluyan restos biológicos.

Hirondella gigas, un tipo de anfípodo hallado a 10.900 metros de profundidad en la fosa de las Marianas. Fuente: Wikimedia Commons

Las bombas termonucleares que se hicieron explotar en pruebas durante los años 50 y 60 del siglo XX hicieron que se multiplicase la cantidad de carbono 14 presente en la atmósfera cuando los neutrones que liberaron las explosiones reaccionaron con el nitrógeno del aire. Esos niveles alcanzaron su punto álgido a mitad de los años 60 y fueron descendiendo a medida que se terminaron las pruebas nucleares. En los años 90, los niveles en la atmósfera habían descendido hasta quedar en un 20% por encima de los niveles previos a estos ensayos.

¿A dónde fue todo ese carbono 14? Cayó rápidamente y se mezcló con la superficie del océano. Los organismos marinos han ido incorporando estas moléculas a sus células, por lo que los análisis realizados han permitido observar un aumento del carbono 14 en sus cuerpos desde poco después de que comenzasen las pruebas.

La dura vida en el fondo del mar

Vivir en el fondo del mar, en el fondo-fondo, no siempre es fácil. Estamos hablando de lugares a más de 6 kilómetros de profundidad, a menudo en puntos donde una placa tectónica se introduce bajo la de al lado. Hay poca luz, poca temperatura y poca comida y una intensa presión. Las criaturas que viven allí han tenido que adaptarse.

En este estudio, el carbono 14 ha servido para seguir el rastro de la materia orgánica que llega a estos lugares para entender mejor a los organismos que viven allí. Wang y sus colegas han analizado anfípodos (pequeños crustáceos que sobreviven a base de desechos y detritus marino) recogidos durante el año 2017 en la fosa de las Marianas, de Mussau o de New Britain, a profundidades de hasta 11 kilómetros.

Comparación de la profundidad de la Fosa de las Marianas con la altura del Monte Everest. Fuente: Wikimedia Commons

Lo sorprendente fue hallar en su tejido muscular niveles de carbono 14 mucho más alto que en otros tipos de materia orgánica encontrada en esos niveles de profundidad bajo el mar. Al analizar después el contenido de su sistema digestivo, los niveles de carbono 14 hallados allí se correspondían con los hallados en muestras de materia orgánica de la superficie del océano. Esto sugiere que los anfípodos seleccionan para alimentarse el detritus y los restos que caen desde la superficie hasta las profundidades marinas.

Esto ayuda a entender mejor la longevidad de muchos de los organismos que viven en el fondo abisal, y cómo se han adaptado con éxito a sus condiciones extremas. Por ejemplo, es llamativo que los anfípodos de estos hábitats son más grandes y viven más tiempo que sus parientes que habitan en aguas menos profundas: de menos de dos años y 20 milímetros a más de 10 años y 91 milímetros.

Los autores sugieren que esta diferencia sea resultado de haber evolucionado exitosamente para vivir a poca temperatura, mucha presión y un aporte de alimento limitado. Para compensar, los animales tienen un metabolismo y un ciclo de renovación celular más lentos, lo que les permite almacenar energía y conservarla durante más tiempo. Por otro lado, al vivir más años, los contaminantes se acumulan en su cuerpo en mayores cantidades.

Pero también hay otro apunte interesante: la materia orgánica que los alimenta no proviene tanto de fuentes locales como serían otros seres vivos con los que conviven allí abajo, sino que parece venir principalmente de las superficie de mar.

Esto debería servir como toque de atención (otro más) a los seres humanos sobre el modo en que lo que hacemos repercute en todos los demás seres vivos del planeta, incluso aquellos que pueblan los lugares más remotos y en apariencia desconectados de nosotros. No lo están, ninguno lo está. Lo que lanzamos al aire hace ahora unos 60 años está alimentando a los pequeños crustáceos del lugar más profundo del mundo. Mucho cuidado con lo que tocamos.

Referencias:

Penetration of Bomb 14C into the Deepest Ocean Trench – Geophysycal Research Letter

Radioactive carbon from nuclear bomb tests found in deep ocean trenches – American Geophysisc Union

Carbono 14 – Wikipedia

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Restos de ensayos nucleares del siglo XX en lo más profundo del océano se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los enigmas que nos cantan desde el fondo del océano
  2. Formas moleculares de excreción de restos nitrogenados
  3. Océanos nucleares. Cuando la basura llega antes que el ser humano
Catégories: Zientzia

No hay raza blanca, tampoco negra

dim, 2019/05/12 - 11:59
Foto: Alexandr Ivanov / Pixabay

Al decir de alguien que es blanco o negro, es posible que pensemos que pertenece a una categoría biológica definida por su color. Mucha gente cree que la pigmentación de la piel refleja la pertenencia a una raza, entendiendo esta como la define la Real Academia Española en su segunda acepción: “cada uno de los grupos en que se subdividen algunas especies biológicas y cuyos caracteres diferenciales se perpetúan por herencia”. Y sin embargo, esa noción, en el caso de nuestra especie, carece de sentido. Porque desde un punto de vista biológico, las razas humanas no existen.

En la piel hay melanocitos, células que producen y contienen pigmentos. Hay dos tipos de pigmentos, llamados genéricamente melanina; uno es marrón parduzco (eumelanina) y el otro, rojo amarillento (feomelanina). El color de la piel depende de la cantidad y la proporción de ambos. Y se da la circunstancia de que ese rasgo depende de diferentes genes; unos inciden en la cantidad de pigmento en los melanocitos y otros sobre la proporción entre los dos tipos de melanina. Es más, colores muy similares puede ser el resultado de diferentes combinaciones de esos rasgos básicos y obedecer a configuraciones genéticas diferentes.

Los africanos, en general, son de piel oscura. Los Dinka, de África oriental, la tienen muy oscura, mientras que los San, del sur del continente, la tienen más clara. Los nativos del sur de la India, Nueva Guinea y Australia también son de piel oscura. En el centro de Asia y extremo oriente, así como en Europa, las pieles son, en general, claras. Y los nativos americanos las tienen de diferente color, aunque no tan oscuras como los africanos.

Si nos atenemos al color de la piel escondida bajo el grueso pelaje de los chimpancés, lo más probable es que nuestros antepasados homininos la tuviesen clara. En algún momento hace alrededor de dos millones de años, los miembros de nuestro linaje vieron reducido el grosor y consistencia del pelaje, hasta convertirse en una tenue capa de vello en gran parte de la superficie corporal. Pero esa transformación trajo consigo la exposición de la piel a la radiación solar ultravioleta, que podía causar cáncer y, además, eliminar una sustancia de gran importancia fisiológica, el ácido fólico. Seguramente por esa razón se seleccionaron variantes genéticas que oscurecían la piel, porque la melanina la protege evitando los daños citados.

Los seres humanos nos hemos expandido y llegado así a casi todas las latitudes. Esos movimientos han expuesto la piel de sus protagonistas a muy diferentes condiciones de radiación. Y al igual que un exceso de radiación ultravioleta puede ser muy dañino, su defecto también lo es, pues sin ella no se puede sintetizar vitamina D, cuyo déficit provoca raquitismo y otros problemas de salud. Por esa razón, sin descartar otras posibles, la piel humana se ha ido aclarando en diferentes zonas geográficas bajo la acción de la selección natural. Además, los movimientos de población han propiciado la mezcla de distintos linajes, cada uno con sus rasgos genéticos y características pigmentarias, para dar lugar a múltiples configuraciones.

El color de los seres humanos actuales es el resultado, por tanto, de una compleja secuencia de eventos biológicos y demográficos, y no es posible delimitar biológicamente unos grupos y otros. Las diferencias en el color de la piel no tienen correspondencia en innumerables otros rasgos que también varían y lo hacen según otros patrones y por efecto de otras presiones selectivas. No hay, pues, fundamento para invocar la existencia de razas. Como tampoco lo hay para justificar, sobre bases inexistentes, otras diferencias.

——————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo No hay raza blanca, tampoco negra se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. 11 años después de la marea negra
  2. Un punto cuántico emite luz blanca gracias a la aspirina
  3. Desvelado el misterio de la Gran Mancha Blanca de Saturno
Catégories: Zientzia

Pages