Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 7 min 9 sec ago

Cómo descubrimos tres libros venenosos en la biblioteca de nuestra universidad

Fri, 2019/05/24 - 08:00

Jakob Povl Holck y Kaare Lund Rasmussen

File 20180706 122271 1703qi.jpg?ixlib=rb 1.1Raman Saurei / Shutterstock

Algunas personas recordarán el libro mortífero de Aristóteles que constituye un elemento fundamental en la trama de El nombre de la rosa, la novela de Umberto Eco publicada en 1980. El ejemplar, envenenado por un monje benedictino loco, causa estragos en un monasterio italiano del siglo XIV, pues mata a todos aquellos que, al leerlo, se lamen la yema del dedo para pasar las páginas envenenadas. ¿Podría ocurrir algo así en la vida real? ¿Envenenamiento por un libro?

Los estudios que hemos llevado a cabo recientemente indican que es posible. Gracias a ellos, descubrimos en la colección de la biblioteca de la Universidad del Sur de Dinamarca tres libros raros sobre diversos temas históricos que contienen altas concentraciones de arsénico en la cubierta. Los libros datan de los siglos XVI y XVII.

Las propiedades tóxicas de estos volúmenes se detectaron al realizar varios análisis de fluorescencia de rayos X (micro-XRF). Esta tecnología permite conocer el espectro químico de un material mediante un análisis de la radiación “secundaria” característica que emite el material al ser sometido a un bombardeo de rayos X de alta energía. El uso de la tecnología micro-XRF está muy extendido en los ámbitos de la arqueología y el arte, por ejemplo, para investigar los elementos químicos de la cerámica y la pintura.

Uno de los libros venenosos.
Imagen: SDU

Verde brillante

La razón por la que nos llevamos los tres libros raros al laboratorio de rayos X fue porque, previamente, la biblioteca había descubierto que para las tapas se habían usado fragmentos de manuscritos medievales, como, por ejemplo, copias de Derecho romano y Derecho canónico. Como sabemos por la abundante documentación disponible, los encuadernadores europeos de los siglos XVI y XVII reciclaban pergaminos más antiguos.

Así pues, intentamos averiguar cuáles eran los textos latinos utilizados, o al menos leer parte de su contenido. Sin embargo, nos encontramos con que resultaba difícil interpretar los textos latinos de las cubiertas de los tres volúmenes porque contenían una extensa capa de pintura verde que oscurecía las viejas letras manuscritas. De modo que los llevamos al laboratorio con la intención de observar a través de la capa de pintura con la tecnología micro XRF y centrarnos en los elementos químicos de la tinta que estaba debajo, por ejemplo, en el hierro y el calcio, esperando conseguir que las letras resultaran más legibles para los investigadores de la universidad.

Pero el análisis de fluorescencia de rayos X reveló que la capa de pigmento verde era arsénico. Este elemento químico es una de las sustancias más tóxicas del mundo, y la exposición puede causar diversos síntomas de envenenamiento, el desarrollo de cáncer e incluso la muerte.

Accidentes provocados por el uso de arsénico verde, 1859.
© Wellcome Collection, CC BY-SA

El arsénico (As) es un metaloide que está presente en el entorno de forma natural. En la naturaleza, el arsénico normalmente se combina con otros elementos, como el carbono y el hidrógeno, y en este caso se conoce como arsénico orgánico. El arsénico inorgánico, que puede presentarse tanto en forma metálica pura como en compuestos, es una variante más nociva. Las propiedades tóxicas del arsénico no se debilitan con el tiempo.

En función del tipo y la duración de la exposición, pueden darse diversos síntomas de envenenamiento por arsénico, como irritación del estómago y el intestino, náuseas, diarrea, alteraciones de la piel e irritación de los pulmones.

Verde París.
Chris Goulet/Wikimedia Commons, CC BY-SA

Se cree que el pigmento verde portador de arsénico encontrado en las cubiertas de los libros puede ser verde de París, triarsenito acetato de cobre (II) o acetoarsenito de cobre (II) Cu(C₂H₃O₂)₂ ·3Cu(AsO₂)₂. También se conoce como “verde esmeralda”, por sus llamativos tonos verdes, parecidos a los de la popular piedra preciosa.

El pigmento de arsénico es un polvo cristalino fácil de elaborar y se ha utilizado profusamente con diversos fines, en especial en el siglo XIX. El tamaño de los granos de polvo influye en la tonalidad del color, como se aprecia en las pinturas al óleo y los barnices. Los granos de mayor tamaño producen un marcado color verde oscuro, mientras que los granos más pequeños generan un verde más claro. El pigmento se conoce especialmente por la intensidad de su color y por su resistencia a la decoloración.

Pigmento del pasado

La producción industrial del verde de París se inició en Europa a principios del siglo XIX. Los pintores impresionistas y posimpresionistas usaban diferentes versiones del pigmento para crear sus obras maestras de intensos colores, lo que implica que hoy en día muchas piezas de museo contienen veneno. En su apogeo, se pudo haber recubierto de verde de París toda clase de materiales, incluso tapas de libros y prendas de ropa, por razones estéticas. Lógicamente, el contacto continuo de la piel con esa sustancia conllevaba la aparición de síntomas de la exposición.

Sin embargo, hacia la segunda mitad del siglo XIX ya se conocían mejor los efectos tóxicos de la sustancia; la variante con arsénico dejó de usarse como pigmento y pasó a emplearse sobre todo como pesticida en tierras de cultivo. Se descubrieron otros pigmentos que sustituyeron el verde de París en la pintura, el sector textil y otros ámbitos, y a mediados del siglo XX también se descartó su uso en las tierras de cultivo.

‘The Arsenic Waltz’.
© Wellcome Collection, CC BY-SA

En el caso de nuestros libros, el pigmento no se usó con fines estéticos, sino que formaba una capa inferior de la cubierta. Una explicación posible de la aplicación –posiblemente en el siglo XIX– del verde de París en los libros antiguos es la intención de protegerlos contra insectos y parásitos.

En determinadas circunstancias, los compuestos de arsénico, como el arseniato y el arsenito, pueden transformarse en arsina (AsH₃) –un gas altamente tóxico con un característico olor a ajo– por acción de microorganismos. Se sabe que las terribles historias del papel pintado verde de la época victoriana que arrebataba la vida de los niños en sus dormitorios son reales.

Actualmente, la biblioteca conserva nuestros tres volúmenes venenosos en cajas de cartón separadas y con etiquetas de seguridad en un armario ventilado. También tenemos previsto digitalizarlos para reducir al mínimo la manipulación física. Uno nunca se imagina que un libro pueda contener una sustancia venenosa. Sin embargo, podría ocurrir.

Sobre los autores: Jakob Povl Holck es bibliotecario investigador  y Kaare Lund Rasmussen profesor titular de Física, Química y Farmacia en la Universidad del Sur de Dinamarca

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Cómo descubrimos tres libros venenosos en la biblioteca de nuestra universidad se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¡Explora! Libros de divulgación científica para niños
  2. ¿Cómo llegó el darwinismo a España? 08. Los detractores – Gobierno y Universidad
  3. El problema de los tres caballeros y los tres criados
Categories: Zientzia

Doce reglas para una mala gráfica

Thu, 2019/05/23 - 11:59
«Gráfica figurativa de las sucesivas pérdidas de hombres del Ejército Francés en la campaña de Rusia 1812-1813». Este gráfico elaborado por Charles Joseph Minard en 1869 es considerado por Edward Tufte como el mejor gráfico estadístico jamás dibujado, y es un ejemplo habitual de precisión, claridad y elocuencia en la representación. Incluye el movimiento de las tropas, las pérdidas de vidas humanas y la temperatura ambiente durante la invasión de Rusia por Napoleón y la posterior retirada.

El propósito de una buena gráfica es mostrar datos de manera precisa y clara. En el popular artículo de 1984 How to Display Data Badly, Howard Wainer toma esta definición como punto de partida para desgranar, no sin cierta sorna, los principales métodos para hacer malas representaciones de datos. Obviamente, las doce reglas de Wainer no deben tomarse al pie de la letra, en el sentido de que cumplir alguna de ellas no necesariamente invalida una gráfica, pero sí representan un compendio de problemas típicos sobre los que es bueno reflexionar a la hora de producir o analizar una visualización de datos. Además, es conveniente incorporar a la reflexión un aspecto no tenido en cuenta por Wainer, como es el soporte de la visualización: no tiene las mismas posibilidades y restricciones una gráfica impresa que una visualización interactiva en la web, o algo que va a salir apenas unos pocos segundos en televisión.

Las dos primeras reglas de Wainer para representar datos mal se derivan precisamente de la primera parte de la definición: mostrar los datos. En sus famosos libros sobre visualización de datos, Edward Tufte concibe dos métricas que hacen referencia a la eficiencia en la representación. Por un lado, define el índice de densidad de datos, que se mediría como “la cantidad de números representados por unidad de área”, y que nos lleva a la primera regla de las malas gráficas: muestra tan pocos datos como sea posible, es decir, minimiza la densidad de datos. Efectivamente, es común lanzarse a hacer gráficos coloristas incluso cuando la cantidad de información a transmitir es realmente pequeña. Pensemos, por ejemplo, en el típico gráfico de tarta con dos porcentajes. En casos como este, hay que preguntarse si realmente aporta algo el gráfico o es suficiente con dar el dato, o hacer una pequeña tabla, cuando el soporte lo permite.

Adicionalmente, una segunda técnica infalible consiste en esconder los datos que se muestran. Esto tiene que ver con lo que Tufte definió como la ratio datos-tinta: minimizar la cantidad de datos representados en relación a la tinta empleada añade ruido, elementos que no expresan nada y distraen de lo verdaderamente informativo. Esto se hace de diversas maneras, siendo las más habituales las manipulaciones torticeras de la escala, así como la especie de horror vacui que parecen destilar los creadores de algunos engendros.

Las siguientes tres reglas de Wainer tienen que ver con la segunda parte de la definición: la precisión en los datos. Ignorar la metáfora visual es probablemente uno de los errores más graves que se pueden cometer. Y aquí, no solo nos referimos a utilizar elementos perceptivamente adecuados, sino a utilizar el elemento visual que mejor se ajusta a la relación que hay en los datos. Por ejemplo, las barras facilitan la comparación entre magnitudes, y una línea evoca una evolución en los valores que une. Por tanto, si utilizamos una línea para unir datos que no tienen una relación de evolución (temporal, por ejemplo), estamos dificultando la lectura en el mejor de los casos, o más probablemente transmitiendo el mensaje equivocado.

La cuarta regla, “solo importa el orden”, hace referencia al truco de usar la longitud como metáfora visual para codificar valores cuando lo que se percibe es el área, pero sirve en general para cualquier versión de pares de elementos gráficos. Quizás la versión moderna más popular de esta regla sea la gráfica de tarta en 3D, donde el elemento visual utilizado es el ángulo, pero lo que se percibe es un volumen completamente distorsionado por la perspectiva.

Y llegamos a otra de las reglas a las que más atención hay que prestar para asegurar el fracaso: se trata de mostrar los datos fuera de contexto. Esta es una de las prácticas más habituales entre aquellos que nos aseguran que el paro ha subido o ha bajado en el último mes o en lo que va de año, y de esta manera ocultan el contexto de la serie de datos extendida a varios años, que suele mostrar estacionalidad (mismos patrones que se repiten en los mismos meses del año, como que el paro baja en época de turismo) y tendencias a mayor escala.

Después, se dedican unas cuantas reglas a la idea de la claridad en la representación, aspectos que tienen que ver con detalles más técnicos como cambios de escala a mitad de eje, la enfatización de lo trivial desviando la atención de lo importante, los juegos con el origen (me vienen a la cabeza esas gráficas de barras cortadas, que no empiezan en cero, y por tanto que transmiten una idea de proporción completamente errónea), etiquetado incorrecto, parcial o ambiguo, también enturbiar la gráfica con más elementos de los necesarios, o la regla llamada “¡Austria primero!” (por la costumbre de ordenar países por orden alfabético), que hace referencia a ordenaciones categóricas completamente inútiles por no estar basadas en ningún aspecto de los datos.

Finalmente, Wainer reta al lector: si se ha hecho bien en el pasado, piensa en otra manera de hacerlo. Ciertamente, algunas veces la creatividad da lugar a nuevas visualizaciones que son especialmente buenas para unos datos en particular (véase el ejemplo de Minard que encabeza este artículo), o incluso crean nuevas tendencias y tipos de gráficas. Pero como en todas las disciplinas, si esa creatividad no se sustenta en una dilatada experiencia, habitualmente falla catastróficamente. Y finaliza:

“Por tanto, las reglas para una buena representación son bastante sencillas. Examina los datos de forma suficientemente cuidadosa como para saber qué tienen que decir, y deja que lo digan con el mínimo adorno”.

Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute.

 

El artículo Doce reglas para una mala gráfica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las reglas de una buena melodía
  2. Gráficas para la ciencia y ciencia para las gráficas
  3. La Gran Muerte y la mala suerte
Categories: Zientzia

Una mesa olímpica

Wed, 2019/05/22 - 11:59

Una reflexión previa

No soy demasiado aficionada a las Olimpiadas Matemáticas y los concursos de este tipo. Según se explica en el reglamento de las Olimpiadas Internacionales, estas competiciones son «concursos entre jóvenes estudiantes, cuyo objetivo primordial es estimular el estudio de las matemáticas y el desarrollo de jóvenes talentos en esta ciencia». Me pregunto si no existe otra manera de despertar el interés de niñas y niños por esta disciplina. Me incomoda, en parte, la tensión que puedan sentir las personas que se presentan. Y más aún porque esta presión parece no ser la misma para las chicas y los chicos (ver, por ejemplo, El desempeño de chicas y chicos en entornos competitivos). Las chicas se presentan menos a estas competiciones y parece que rinden menos. Y me pregunto de nuevo, con este tipo de concursos ¿no se está quizás dejando de lado el “talento matemático femenino”? Porque lo hay, sin duda.

Un problema olímpico

A pesar de todo lo anterior… me gustan los problemas que se plantean en las Olimpiadas. No son nada sencillos y requieren, además de conocimientos matemáticos, de estrategias especiales que cualquiera no domina.

El siguiente es un problema de la Olimpiada Matemática de Estonia (curso 1996-1997) extraído de la referencia [1]:

Disponemos de una mesa cuadrada de 3n unidades de lado. Cada cuadrado unitario que la forma es o bien rojo o bien azul. Los cuadrados se encuentran distribuidos de la siguiente manera:

  1. cada cuadrado rojo que no se encuentra en el borde de la mesa tiene exactamente cinco cuadrados azules entre sus ocho vecinos, y

  2. cada cuadrado azul que no se encuentra en el borde de la mesa tiene exactamente cuatro cuadrados rojos entre sus ocho vecinos.

La pregunta que se plantea es: ¿cuántos cuadrados de cada color posee la mesa?

Si quieres intentar responder a esta pregunta, no leas lo que viene debajo. Piensa un poco, trata de hacerlo, y mira después si te apetece comprobar si tu solución es correcta.

La solución

La respuesta se da en la referencia [2, páginas 31-32], y afirma que hay exactamente 5n2 cuadrados azules y 4n2 rojos.

Para probarlo, la estrategia que propone este artículo es la de dividir la mesa en n2 cuadrados de tamaño 3×3. En cada uno de esos cuadrados formado por 9 cuadrados unidad, teniendo en cuenta el enunciado dado, se observa lo siguiente:

  1. Si el cuadrado unidad central es rojo, entonces hay exactamente 5 cuadrados azules y 3 rojos en el borde del cuadrado 3×3, y

  2. si el cuadrado unidad central es azul, entonces hay exactamente 4 cuadrados azules y 4 rojos rodeando al cuadrado interior.

Figura 1. Dos posibles configuraciones dependiendo del color del cuadrado central.

Así, en cualquiera de los posibles casos, hay 5 cuadrados azules y 4 cuadrados rojos en cada cuadrado de tamaño 3×3. Por lo tanto en la mesa completa (que, recordemos, medía 3n×3n unidades) habrá 5n2 cuadrados azules y 4n2 rojos.

Para finalizar la demostración falta comprobar que un tal coloreado es posible: el argumento anterior solo ha contado el número de cuadrados de cada color suponiendo que el problema planteado tiene solución. Pero la tiene. Basta con tomar n2 cuadrados de tamaño 3×3 como se muestra en la imagen de debajo.

Figura 2. El cuadrado ‘modelo’.

 

Y en tal caso, la mesa de tamaño 3n×3n puede cubrirse, por ejemplo, de esta manera:

Figura 3. Un ejemplo de mesa ‘olímpica’ para n=3.

Referencias

[1] Red and blue, Futility Closet, 12 mayo 2019

[2] R. E. Woodrow, The Olympiad Corner: No. 227, Crux Mathematicorum vol. 29, no. 1, febrero 2003

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Una mesa olímpica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Habibi y los cuadrados mágicos II
  2. The grid (Habibi y los cuadrados mágicos: un estrambote)
  3. Curso de verano “Las dos culturas y más allá”: Primera mesa redonda
Categories: Zientzia

Los fascinantes rayos catódicos

Tue, 2019/05/21 - 11:59

En 1855, Heinrich Geissler inventó una potente bomba de vacío. Esta bomba podía extraer el aire de un tubo de vidrio lo suficientemente resistente como para reducir la presión al 0,01% de la presión atmosférica. Fue la primera mejora importante en las bombas de vacío después de que Guericke inventase la bomba de aire, dos siglos antes. El uso de la nueva bomba de Geissler hizo posible la bombilla eléctrica y una multitud de inventos de una importancia tecnológica enorme en los siguientes 50 años. También abrió nuevos campos a la investigación científica pura.

A un amigo de Geissler, Julius Plücker, se le ocurrió conectar uno de los tubos en los que había hecho el vacío usando la bomba Geissler a una batería. Se sorprendió al descubrir que, a pesar de la muy baja presión obtenida con la bomba de Geissler, la electricidad seguía fluyendo a través del tubo. Plücker usó un aparato similar al de la Figura 1a. Selló un cable en cada extremo de un tubo de vidrio resistente. Dentro del tubo, cada cable terminaba en una placa de metal llamada electrodo. Fuera del tubo, cada cable estaba conecatdo a una fuente de alto voltaje. La placa negativa dentro del tubo se llama cátodo, y la placa positiva se llama ánodo. Un medidor indicaba la corriente que pasaba por el tubo.

Figura 1. Fuente: Cassidy Physics Library

Plücker y su alumno Johann Hittorf notaron que cuando una corriente eléctrica pasaba a través del gas a baja presión en un tubo, el tubo mismo brillaba con un color verde pálido. Otros investigadores observaron también este efecto, pero tuvieron que pasar dos décadas antes de que alguien realizara un estudio a fondo de estos tubos luminosos.

Para 1875, William Crookes había diseñado nuevos tubos para estudiar el fenómeno. Cuando usó un tubo doblado, notó que el verde más intenso aparecía en la parte del tubo que estaba directamente enfrente del cátodo (el punto g de la Figura 1b). Esto sugería que el brillo verde se produce por algo que sale del cátodo y se desplaza por el tubo hasta que choca con el vidrio. Otro físico, Eugen Goldstein, que también estaba estudiando los efectos de pasar una corriente eléctrica a través de un gas a baja presión, acuñó un término para lo que fuese que parecía provenir del cátodo, rayos catódicos. ¿Pero qué podrían ser?

Para estudiar la naturaleza de los rayos, Crookes hizo algunos experimentos muy creativos. Razonó que si los rayos catódicos pudieran interceptarse antes de llegar al final del tubo, el intenso brillo verde desaparecería. Para comprobarlo introdujo distintas barreras, la más famosa de ellas una cruz de Malta metálica. La sombra creada por la barrera aparecía en medio del resplandor verde al final del tubo (Figura 1c). El cátodo, por tanto, parecía actuar como una fuente que irradia una especie de luz; a todos los efectos, la cruz actuaba como una barrera que bloqueaba la luz. La sombra, la cruz y el cátodo aparecían a lo largo de una línea recta. Por lo tanto, concluyó Crookes, los rayos catódicos, fuesen lo que fuesen, como los rayos de luz, viajan en línea recta. Crookes hizo todos los experiemntos que se le ocurrieron pero uno de ellos resultaría ser muy significativo: al mover un imán cerca del tubo y la sombra se desplazaba. Crookes había descubierto que los campos magnéticos desvían los rayos catódicos, algo que no ocurre con la luz.

Tras muchos experimentos, Crookes encontró las siguientes propiedades de rayos catódicos:

• No importa de qué metal esté hecho el cátodo, siempre produce rayos con las mismas propiedades.

• En ausencia de un campo magnético, los rayos viajan en línea recta perpendicular a la superficie del cátodo que los emite.

• Un campo magnético desvía la trayectoria de los rayos catódicos.

• Los rayos pueden producir algunas reacciones químicas similares a las reacciones que produce la luz. Por ejemplo, ciertas sales de plata (como las usadas en fotografía) cambian de color cuando inciden rayos catódicos sobre ellas.

• Además, Crookes sospechó (pero no logró demostrar concluyentemente) que los objetos cargados eléctricamente desvían la trayectoria de los rayos catódicos.

Los rayos catódicos fascinaron a los físicos de la época. Algunos pensaron que los rayos debían ser una forma de luz. Después de todo, tienen muchas de las propiedades de la luz: viajan en línea recta y producen cambios químicos y resplandores fluorescentes, al igual que la luz. Según la teoría de Maxwell la luz consiste en ondas electromagnéticas. Por lo tanto, los rayos catódicos podían ser, por ejemplo, ondas electromagnéticas de frecuencia mucho más alta que las de la luz visible.

Sin embargo, los campos magnéticos no modifican la trayectoria la luz pero sí la de los rayos catódicos. Sabemos que los campos magnéticos ejercen fuerzas sobre las corrientes, es decir, sobre las cargas eléctricas en movimiento. Un campo magnético desvía los rayos catódicos de la misma manera que desvía las cargas negativas. De aquí que algunos físicos creyesen que los rayos catódicos consistían en partículas cargadas negativamente.

El debate sobre si los rayos catódicos son una forma de ondas electromagnéticas o una corriente de partículas cargadas continuó durante 25 años. Finalmente, en 1897, J.J. Thomson, jefe del famoso Laboratorio Cavendish en la Universidad de Cambridge, realizó una serie de experimentos que convencieron a los físicos de que los rayos catódicos son partículas cargadas negativamente.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los fascinantes rayos catódicos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El tubo de rayos catódicos, auge y caída de una pieza clave del siglo XX
  2. Rayos X y gamma
  3. La luz se propaga en línea recta pero los rayos de luz no existen
Categories: Zientzia

Digestión simbiótica: los rumiantes

Mon, 2019/05/20 - 11:59

La fermentación simbiótica está muy extendida en el reino animal y casi todos los vertebrados, en especial los herbívoros y omnívoros, tienen alguna forma de simbiosis digestiva de ese tipo. La que ha alcanzado en estos un mayor grado de sofisticación es la de los rumiantes. Pero no es la única. De hecho, y aunque los casos en los que aparecen estructuras especializadas como el rumen han sido los más estudiados, durante los últimos años la microbiota intestinal de otros mamíferos y, muy en especial, la humana han recibido una gran atención. Aquí, no obstante, nos limitaremos a repasar de forma somera aquellos casos en los que la fermentación simbiótica se produce en estructuras especializadas o implica comportamientos alimenticios específicos.

Cuando utilizamos el término fermentación en este contexto nos referimos a un conjunto de reacciones enzimáticas que tienen lugar en entornos carentes de oxígeno y que dan lugar a la ruptura de compuestos orgánicos que rinden moléculas energéticas que pueden ser utilizadas en el metabolismo del animal hospedador.

Las estructuras especializadas que albergan microbios suelen ser cámaras en las que el flujo de materiales a su interior propicia un ambiente adecuado (húmedo o semilíquido, cálido y no excesivamente ácido) para el crecimiento microbiano. En algunas especies esas cámaras se encuentran en el sistema digestivo anterior, la parte comprendida por el esófago y el estómago; a esas especies se las denomina fermentadoras pregástricas. Los más conocidos son los mamíferos rumiantes. También hay fermentadores posgástricos y, en algunos invertebrados, otras modalidades de simbiosis digestiva.

De acuerdo con los modelos matemáticos que se utilizan para simular el funcionamiento de los sistemas digestivos, la ruptura de las moléculas de alimento mediante fermentación microbiana es más efectiva cuando el material recién ingerido se mezcla con alimento ingerido antes, ya colonizado por bacterias y parcialmente digerido. Por el contrario, la digestión enzimática del alimento –la realizada por las enzimas producidas por el propio animal- es más efectiva cuando las enzimas se añaden a un material que no se ha mezclado aún con otro sometido previamente a digestión enzimática. A esa diferencia entre las eficiencias de un tipo y otro de digestión parece obedecer el hecho de que las cámaras especializadas para la fermentación microbiana sean amplias y tengan forma de tina o barril, mientras que el intestino es tubular, como en el resto de mamíferos.

Los rumiantes reciben su nombre del acto de rumiar (o rumia), que consiste en masticar la comida durante periodos prolongados de tiempo. Puede tratarse de alimento recién ingerido o de material regurgitado para someterlo a un segundo tratamiento en la boca. Los rumiantes han desarrollado un estómago de gran tamaño y motilidad, que les permite albergar grandes poblaciones microbianas que se ocupan de digerir celulosa y otros carbohidratos complejos, rindiendo productos finales útiles para el hospedador. La rumia ha sido un hallazgo impresionante, gracias al cual los animales que la han desarrollado han alcanzado un gran éxito evolutivo.

Los verdaderos rumiantes son los bovinos, ovinos, caprinos, cérvidos, jirafas y antílopes. Su estómago, que ocupa tres cuartas partes de la cavidad abdominal, está dividido en cuatro compartimentos: rumen (también llamado panza o herbario), que es el más espacioso; retículo (redecilla o bonete); omaso (libro o librillo); y abomaso (cuajar). Los tres primeros constituyen lo que se denomina estómago anterior o región pregástrica. Y el abomaso sería el verdadero estómago. Los pseudorrumiantes carecen de omaso; en este grupo se encuentran hipopótamos y camélidos. Los perezosos, canguros, monos colobos (mamíferos) y el hoazín (ave de las selvas americanas) también son fermentadores pregástricos, pero no son rumiantes.

Los tres compartimentos pregástricos conducen y almacenan alimento. El rumen y el retículo, además, también absorben nutrientes y moléculas pequeñas. El grueso de la fermentación simbiótica ocurre en esos dos compartimentos, y en ellos se mantienen las condiciones de temperatura, pH y motilidad idóneas para poder mantener las poblaciones microbianas que se ocupan de ella.

La cavidad del rumen está dividida en compartimentos internos –los sacos dorsal y ventral- mediante estructuras longitudinales denominadas pilares. Cuando se contraen, esas estructuras facilitan la mezcla de sus contenidos. Y también contribuyen a estabilizarlos limitando sus movimientos y evitando desplazamientos importantes de volúmenes relativamente grandes. Unas proyecciones de aspecto digital denominadas papilas recubren el interior del rumen, y le proporcionan una mayor área superficial, lo que facilita la absorción de nutrientes. Aunque el rumen y el retículo se encuentran parcialmente separados por el pliegue ruminorreticular, ambas cavidades no se diferencian demasiado y hay bastante intercambio de productos digestivos entre ellas.

El esófago termina en el cardia, donde retículo y rumen se conectan. La superficie interna del retículo se encuentra recubierta por crestas o rugosidades, de las que se cree realizan una cierta selección de las partículas que pasan cerca del orificio que une el retículo al omaso. Este conecta el retículo con el estómago glandular (abomaso) y en su pared interior hay unas estructuras similares a hojas por donde se produce absorción de agua y nutrientes, y que impiden el paso al abomaso de partículas de tamaño excesivamente grande. El orificio omasoabomasal conecta ambas cámaras; carece de esfínter que evite el retroceso de los contenidos digestivos. El abomaso es muy similar al estómago de los no rumiantes. Es donde ocurre la parte más importante de la digestión de proteínas y la lisis de las bacterias procedentes del rumen.

Los nervios vago (sistema parasimpático) y esplácnico (sistema simpático) –del sistema autónomo– inervan el estómago de los rumiantes. Las fibras motoras del nervio vago procedentes de los centros gástricos de la médula oblonga del tronco encefálico pueden provocar una mayor frecuencia de contracciones del retículo-rumen. Eso ocurre a la vista de alimento, al masticar o al rumiarlo. Los aumentos de la distensión del retículo-rumen también provocan un aumento de la velocidad a la que se contrae. Por el contrario, el efecto de la división simpática (nervio esplácnico) es inhibidor. La distensión del abomaso disminuye la tasa de contracción del retículo-rumen.

La rumia consiste en la regurgitación, remasticación y reingestión del alimento. El alimento nuevo se mezcla con saliva y es masticado en la cavidad bucal, de donde pasa, a través del esófago, a la cavidad retículo-rumen. Allí es degradado, mediante procesos de fermentación, por los microorganismos que contiene. La fracción más líquida y en la que se encuentran las partículas de menor tamaño sigue su curso a través del resto de estructuras del sistema digestivo. Pero el bolo, formado por los fragmentos más sólidos, es regurgitado a la boca donde vuelve a ser masticado dando lugar a un material más finamente triturado y, por lo tanto, con una mayor área superficial, lo que facilitará la digestión a cargo de los microbios cuando vuelve a ser ingerido y conducido de nuevo al retículo-rumen.

Bacterias, principalmente (se han identificado más de 200 especies), pero también algunos protozoos, arqueas y hongos degradan la celulosa y hemicelulosa, mediante celulasas, produciendo ácidos grasos de cadena corta. Las proteínas y los carbohidratos no estructurales (pectina, almidones y azúcares) también sufren la fermentación. La mayor parte de los carbohidratos simples que resultan de estas fermentaciones son utilizados por los microorganismos, aunque algunos pueden escapar del rumen y ser absorbidos después por el animal. En este proceso la saliva es muy importante, porque proporciona el medio líquido adecuado para que se desarrollen florecientes poblaciones microbianas, además actúa como tampón del pH del rumen, gracias a su contenido en bicarbonatos y fosfatos.

La degradación de los carbohidratos complejos por los microorganismos da lugar, a través de la glucolisis, a fosfoenol piruvato (PEP), del que se produce metano, CO2, acetato y algo de butirato. O también puede ser metabolizado a piruvato que, en última instancia, conduce a la formación de propionato y butirato. Bajo condiciones normales, el rumen contiene un 60-70% de acetato, un 14-20% de propionato y un 10-14% de ácido butírico. Estos ácidos de cadena corta son muy importantes para el animal. El propionato es el único que puede utilizar para sintetizar glucosa y glucógeno; bajo condiciones normales, el 70% de la glucosa de un rumiante proviene del ácido propiónico. Los otros ácidos grasos volátiles se incorporan al ciclo de Krebs como acetil CoA, y si hay excedentes, se acumulan en forma de grasas. Estos ácidos se absorben de forma pasiva a través de la pared ruminal.

Los microbios simbiontes hidrolizan las proteínas contenidas en el alimento y como consecuencia de esa hidrólisis se producen polipéptidos y aminoácidos que utilizan para su propio crecimiento. Casi todas las proteasas bacterianas se encuentran en su interior (el de las bacterias), pero algunas las liberan al exterior (a la luz del rumen) y actúan allí. En cualquier caso, los oligopéptidos de hasta 6 átomos de carbono son absorbidos por las bacterias y sometidos a ulteriores degradaciones hasta rendir aminoácidos o, incluso, amonio (por desaminación de aquellos). Las paredes del rumen pueden absorber con facilidad los aminoácidos y el amonio que no es utilizado por los propios microorganismos.

La mayor parte del amonio, así como algunos aminoácidos y oligopéptidos, son utilizados por los microorganismos para elaborar sus propias proteínas. Y una vez que llegan al abomaso, esas bacterias son atacadas y sus proteínas digeridas por los jugos estomacales. Los aminoácidos resultantes son absorbidos en el intestino delgado.

El poco amonio que no es reutilizado por las bacterias del retículo-rumen se absorbe y es convertido en urea1 en el hígado del rumiante, y parte de esa urea, junto con la que procede de la degradación de proteínas propia de los tejidos del animal, es transportada de nuevo al rumen, directamente a través de su pared o por las glándulas salivares. La alta actividad ureasa propia de la pared del rumen garantiza una rápida conversión de la misma en amonio para su utilización por la microbiota ruminal. Aquí radica gran parte de la importancia de la rumia y la fermentación pregástrica: además de facilitar el aprovechamiento de carbohidratos complejos, permite utilizar las proteínas de los alimentos con una eficiencia enorme, dado que solo una pequeña parte del nitrógeno ingerido se acaba evacuando en forma de urea.

Por último, conviene destacar que, como consecuencia de la fermentación, los microorganismos ruminales también producen todas las vitaminas B, incluido el complejo B12 si hay suficiente cobalto.

Nota:

1 A la urea, junto con las otras formas moleculares de excreción de nitrógeno nos referimos aquí.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Digestión simbiótica: los rumiantes se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Digestión estomacal (y II): regulación
  2. Digestión estomacal (I): el papel de las glándulas gástricas
  3. La boca
Categories: Zientzia

La tabla periódica en el arte: Mercurio

Sun, 2019/05/19 - 11:59

El mercurio ejerce un efecto hipnótico que nos invita a acercarnos como al arroyo en el que se ahogó Narciso. Su atractivo brillo y el hecho de que sea el único metal líquido a temperatura ambiente lo convierten en un elemento fascinante. Su propio símbolo químico delata esas dos propiedades: Hg, del latín, hydrargirum, tomado del griego hydrargyros. Este vocablo está formado por el nombre de otras dos substancias: agua y plata. Más explícito imposible. ¿Y por qué demonios se llama mercurio entonces? Si a alguien se le atragantó este elemento al estudiar la tabla periódica, siempre puede echar la culpa a los alquimistas. Fueron ellos quienes le dieron el nombre actual, puesto que su movilidad se asociaba con el planeta más rápido y con el mensajero de los dioses romanos.

Pero ¿cómo se encuentra el mercurio en la naturaleza? ¿Existen acaso lagos plateados de líquido metal? Lo cierto es que, pese a que el mercurio metálico existe, los depósitos más importantes se encuentran en forma de cinabrio (HgS), un mineral que surge de la combinación con azufre y que ha jugado un rol vital como pigmento debido a su atractivo color rojo.

Imagen 1. Cinabrio con algunas gotas de mercurio nativo. Fuente: Robert M. Lavinsky / Wikimedia Commons

Bermellón: el rojo a lo largo de la historia

El cinabrio ha sido la fuente de uno de los pigmentos rojos más importantes de la historia: el bermellón. Resulta curioso que el nombre derive de otra substancia de color rojo: el carmín. Kermes era el nombre dado a los insectos de los que se extraía un colorante rojizo. Esta palabra derivó en carmín para nombrar al tinte y en vermilion (de vermes) para el pigmento que se lograba moliendo cinabrio.

En china se empleaba el bermellón dos mil años antes de que Octavio Augusto se convirtiese en el primer emperador, pero lo cierto es que debemos a los romanos la expansión del pigmento que nos ocupa. La mina más importante de cinabrio la tenían en Hispania, en la localidad que hoy conocemos como Almadén (Ciudad Real), nombre que le pusieron los árabes cuando continuaron con la explotación del mineral y que significa: “la mina” (al-ma’ dín). De hecho, la mina de Almadén era la más importante del mundo con mucha diferencia. Se estima que un tercio del mercurio empleado en el planeta proviene de este lugar y no hay ningún otro yacimiento del que se haya extraído ni la mitad de este elemento. Desde 2011 las minas están cerradas, pero afortunadamente han sido declaradas Patrimonio de la Humanidad por la UNESCO, lo que ayudará a que perdure este enclave tan importante desde el punto de vista histórico y geológico.

Imagen 2. Minas de Almadén. Fuente: Ayuntamiento de Almadén

Pese a que el bermellón se puede obtener de forma natural, desde hace siglos existen dos métodos de síntesis (el seco y el húmedo) en los que se emplean mercurio y una fuente de azufre. Bien se lograse de forma natural o sintética lo cierto es que el bermellón está presente en una infinidad de obras emblemáticas: luce en los frescos de La villa de los misterios de Pompeya, tiñe la tumba maya de la Reina Roja de Palenque, se pliega en los mantos de La Asunción de Tiziano, brilla en los labios de La joven de la perla, arde en el crepúsculo de El grito y afila los vértices de Las señoritas de Avignon.

Imagen 3. El bermellón en diferentes culturas, épocas y técnicas pictóricas. Fuente: Composición a partir de Wikimedia Commons y National Geographic

Mercurio y oro: un matrimonio de varios siglos

Teniendo en cuenta las propiedades del protagonista de esta entrada es comprensible que los alquimistas lo considerasen un metal sin par. Estaban convencidos de que trascendía la tierra y el paraíso o la vida y la muerte al igual que trascendía los estados de la materia. Además, era una substancia que tenía una capacidad única: podía disolver el oro que tanto ansiaban conseguir. Efectivamente, el mercurio crea aleaciones líquidas con el más preciado de los metales, formando lo que se conoce como amalgama. Desde la época de los antiguos romanos se ha empleado dicha propiedad para purificar o extraer oro de la minas, ya que sumergiendo en mercurio el material obtenido de una mena se podían separar las impurezas. Después sólo había que recuperar el oro evaporando el mercurio que pasa a fase gaseosa a una temperatura relativamente baja. Gracias a ese proceso se han extraído muchos metales preciosos a lo largo y ancho del planeta, pero todavía estamos pagando el precio en forma de contaminación ambiental.

La capacidad que posee el mercurio para disolver el oro también ha sido de gran utilidad para dorar obras de arte. El dorado es una técnica que se emplea para cubrir un material menos noble con una película de oro. De esta forma el material resulta más atractivo sin tener que invertir una fortuna empleando oro macizo. Así, la mayoría de las piezas que observamos con ese peculiar brillo amarillo son en realidad madera, bronce u otros materiales recubiertos de oro. Pero, ¿cómo se realiza ese proceso? Si bien es cierto que existen numerosas técnicas, en el caso de los metales, una de las más empleadas hasta el s. XIX fue el dorado por amalgama de mercurio, también conocido como dorado al fuego.

Imagen 4. Las puertas del Baptisterio de Florencia de Ghiberti fueron doradas mediante amalgama de mercurio. Fuente: Wikimedia Commons

En el dorado mediante amalgama se emplea un proceso similar al que acabamos de conocer para la extracción de oro. El primer paso consistiría en mezclar mercurio con oro en forma de virutas o limaduras para formar la amalgama. Esta mezcla se depositaría sobre la superficie que se quiere dorar y se calentaría a temperaturas alrededor de 300 ⁰C para que el mercurio se evaporase y el oro quedase adherido a la superficie. De ahí lo de dorado al fuego. Dado que la evaporación del mercurio provoca que la capa formada sea muy porosa, el procedimiento finaliza con una etapa de bruñido para obtener una superficie lisa y resplandeciente. Como os podéis imaginar, la exposición a los vapores mercuriosos durante el proceso es muy perjudicial, ya que el mercurio (especialmente sus compuestos organometálicos) provoca un gran número de enfermedades. Así, ser dorador no era la profesión con la mayor esperanza de vida. Tampoco lo era, a modo de curiosidad, la de sombrerero, oficio en el que se empleaba mercurio para tratar las pieles y que provocaba graves daños neuronales. De ahí los desórdenes que mostraba el famoso sombrerero de Alicia en el País de las Maravillas.

Simplemente mercurio

El mercurio es por sí mismo una obra de arte. Un metal que ha atraído al ser humano desde los albores de la civilización. Por lo tanto, no es de extrañar que se haya empleado en ciertas manifestaciones artísticas, especialmente por artistas contemporáneos que experimentan con nuevos materiales. Hoy en día la legislación impide el uso de mercurio en piezas expuestas al público, lo que ha supuesto un desafío interesante a la hora de buscar alternativas para reemplazar la presencia del metal. Y no sólo porque conseguir un sustituto que se acerque a su comportamiento es complicado, sino porque hay que velar porque se mantenga la concepción original de la obra y respetar los derechos del artista, un aspecto fundamental en la conservación y restauración de obras contemporáneas.

Un caso paradigmático de esta situación es la escultura Para la mente creada por Eva Lootz en 1992 y en propiedad del Artium de Vitoria-Gasteiz. Esta obra formaba parte de una instalación titulada Ellas, en la que la artista le otorgaba un valor simbólico al mercurio. Para la mente es una figura de alabastro con pequeños cuencos en los que se coloca mercurio. El metal se adapta al recipiente y adquiere forma redondeada, dotando a la creación artística de un aspecto muy sugerente. La tensión superficial aplicada al arte. El problema llegó cuando la legislación vigente obligó al museo alavés a retirar el mercurio. Tras una cuidadosa investigación llegaron a desarrollar un proceso en el que, mediante moldes, obtuvieron piezas que emulaban el aspecto plateado, el brillo y el reflejo del mercurio. Las formas obtenidas daban el pego. Mientras no se tocasen, claro. Esto fue posible gracias al uso de diferentes materiales: aluminio, una aleación de estaño y bismuto, acero inoxidable y plata con baño de rodio. Por supuesto, en la decisión final colaboró la propia artista que, pese a la oposición inicial, dio el visto bueno al uso de réplicas de gotas de mercurio.

Imagen 5. Para la mente, de Eva Lootz (1992). Fuente: Museo Artium

Un caso más célebre a nivel internacional es Fuente de Mercurio de Alexander Carter. Esta obra compartió protagonismo con el Guernica de Picasso en el Pabellón de la República Española de la Exposición Internacional de Paris de 1937. Por una parte hace referencia a Almadén, la gran mina de cinabrio de donde tanto mercurio se logró; por otra, representa una versión moderna de las fuentes de mercurio que según la tradición existieron en palacios de la Córdoba musulmana. Cuenta la leyenda que Abderramán recurría a una de estas fuentes para dictar justicia: el supuesto criminal debía de arrojar una piedra al mercurio y si ésta flotaba era culpable. Conociendo las propiedades del mercurio os podéis imaginar el destino que les esperaba a los acusados.

Imagen 6. Fuente de mercurio de Alexander Carter (1937). Fuente: Fundació Joan Miró

Para saber más

M. Spring y R. Grout. The Blackening of Vermillion: An Analytical Study of the Process in Paintings. National Gallery Technical Bulletin 23 (2002).

E. Mello. The gilding of Lorenzo Ghiberti’s ‘Doors of Paradise’. Gold Bulletin. 19 (4) (1986) 123-126.

M. Martiñón-Torres y Lois Ladra. Orígenes del dorado por amalgama: aportaciones desde la orfebrería protohistórica del noroeste de la Península Ibérica. Trabajos de Prehistoria 68 (1) (2011) 187-198.

E. Ruiz de Arcaute Martínez et al. Estrategias para la mente. Alternativas para problemas de manipulación y toxicidad en una obra de Eva Lootz del ARTIUM. 13ª Jornada Conservación de Arte Contemporáneo (2012) 225-234.

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo La tabla periódica en el arte: Mercurio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: ¿Qué átomos hay en una obra?
  2. La tabla periódica en el arte: Cobre
  3. La tabla periódica en el arte: Plomo
Categories: Zientzia

¿Cómo ven las galaxias los astrofísicos?

Sat, 2019/05/18 - 12:00

¿Te has preguntado alguna vez cómo se detectan, ven y descubren los pormenores de las galaxias? La astrofísica se sirve de técnicas como los rayos X, la luz ultravioleta, la infrarroja o de las ondas de radio para descubrir los misterios del cosmos.

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

El artículo ¿Cómo ven las galaxias los astrofísicos? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Cómo demonios funcionan las copas musicales?
  2. ¿Qué pasa en tu cuerpo cuando te enamoras?
  3. ¿Qué tienen en común Einstein y una zanahoria?
Categories: Zientzia

¿Puede la física resolver problemas en medicina?

Fri, 2019/05/17 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

La física y la medicina son dos actividades científicas que parecen estar muy alejadas una de la otra. Sin embargo, el listado de los premios Nobel de medicina, nos enseña que hay varios galardones concedidos a Físicos, o en base a una metodología Física. De hecho, el primer galardonado de este tipo, el sueco Allver Gullstrand, recibió en 1911 el Premio Nobel de Medicina y fue nominado al Nobel de Física tanto en 1910 como en 1911. En 1911, el Comité Nobel de Física, del cual Gullstrand era miembro, sugirió que el premio Nobel había de ser para él. Al mismo tiempo el Comité Nobel de Medicina estaba considerando su nombre para el Nobel. Gullstrand declinó el Premio Nobel en Física a favor del Nobel de Medicina [1]. Gullstrand es la única persona que ha declinado un Premio Nobel y ha aceptado otro. Sin contarle a él, son solo tres personas las que no han aceptado un Nobel: los de literatura de 1958 y 1964 por los escritores, ruso Boris L. Pasternak y francés Jean-Paul Sartre, respectivamente, y el Nobel de la Paz por el Vietnamita Le Duc Tho en 1973.

Imagen 1. Allver Gullstrand, premio Nobel en 1911. Fuente: Wikimedia Commons

Es interesante reseñar que Gullstrand tenía una fuerte personalidad y como miembro de la Real Academia de Ciencias Sueca formo parte en 1921 del Comité que se opuso a que Albert Einstein recibiese el Nobel de Física en 1921 por la teoría de la relatividad general, que Gundstrand consideraba equivocada [1].

Allver Gullstrand fue galardonado en 1911 con el premio Nobel en Medicina por sus investigaciones sobre la refracción de la luz a través del medio trasparente del ojo vivo. Si esto no es una metodología Física, que me digan qué es!!! Tres años después de recibir el premio Nobel abandonó la cirugía oftalmológica para dedicarse completamente a la investigación sobre instrumentos ópticos y diseño de instrumentación y técnicas quirúrgicas. La lámpara de hendidura, presente hoy en día en la mayoría de las mesas de los oculistas es una de sus invenciones.

Imagen 2. Lámpara de hendidura. Fuente: Wikimedia Commons

Hubo que esperar 11 años hasta que una metodología Física recogiera otro Premio Nobel de Medicina. El inglés, Licenciado en Matemáticas, Archibald Vivian Hill recibió el Premio Nobel de Medicina de 1922 por la investigación relativa al cambio de temperatura que se produce al poner a trabajar los músculos. Su trabajo sobre la función muscular, especialmente la observación y medida de los cambios de temperatura asociados con el funcionamiento de los músculos, se extendió posteriormente a estudios similares sobre el mecanismo del paso de los impulsos nerviosos. Se desarrollaron técnicas muy sensibles, capaces de medir cambios de temperatura del orden de 0,003 °C en periodos de solo centésimas de segundo. Estas investigaciones dieron un gran impulso a la biofísica y se dice que el gran interés por la misma se debe a sus aportaciones.

En 1924 el médico holandés Willen Einthoven fue galardonado con el premio Nobel de Medicina por el descubrimiento del mecanismo del electrocardiograma. El electrocardiograma es la representación gráfica de la actividad eléctrica del corazón en función del tiempo. Actualmente tiene una función relevante en cribado y diagnóstico de enfermedades cardiovasculares y alteraciones metabólicas. Como es bien conocido, el electrocardiograma se obtiene colocando sobre la zona del pecho 10 electrodos sujetos con cinta de velcro que se conectan mediante cables al aparato para medir los voltajes entre los electrodos (derivaciones, 12 en total). Podemos decir en forma figurada que cada derivación es una “fotografía” de la actividad eléctrica del corazón, tomada desde un ángulo diferente.

Imagen 3. Obtención de electrocardiograma y “fotografías” de la actividad eléctrica del corazón. Fuente: Wikimedia Commons

Los Premios Nobel de Medicina relacionados con la Física presentados hasta ahora se produjeron en las áreas de óptica, termodinámica y señales eléctricas. Sin embargo, el de 1946 (al igual que los dos siguientes) estuvo relacionado con los rayos X. Al genetista estadounidense Hermann Joseph Muller se le galardonó con el Premio Nobel por el descubrimiento de la producción de mutaciones mediante la irradiación con rayos X.

En el Premio Nobel de Medicina de 1962 también se utilizaron los rayos X, pero en este caso para realizar análisis estructurales mediante difracción de los mismos. La química inglesa Rosalind Elsie Franklin trabajando junto al físico neozelandes Maurice Wilkins sobre la difracción de rayos X de la molécula de ADN, describen la estructura de doble hélice del Ácido Desoxidorribonucleico, el ADN, que posteriormente servirá de base para la descripción de dicha estructura por el biólogo estadounidense James Dewey Watson y el físico inglés Francis Harry Compton Crick. La estructura de la molécula de doble hélice que es el ADN dio al mundo la llave para entender todos los secretos de la vida. Toda la vida en la tierra, desde la bacteria más pequeña hasta el ser humano, existe gracias al ADN. Este descubrimiento les valió el premio Nobel de Medicina de 1962 a 3 de estos científicos. Sin embargo, a pesar de que la contribución de la científica Rosalind Franklin fue fundamental (fue quien diseño y realizó los experimentos de difracción de rayos X, sin los cuales no hubieran podido llegar a descifrar la doble hélice), no obtuvo el reconocimiento Nobel por haber fallecido.

Imagen 4. Rosalind Elsie Franklin y la fotografía 51, imagen de la difracción con Rayos X de una molécula de ADN, realizada en 1951 por Rosalind Franklin y Raymond Gosling. Fuente: Composición a partir de imágenes de Wikimedia Commons

¿Cómo llegaron a poder de Watson y Crick los difractogramas realizados por Rosalind Franklin? Así como los comentarios de Watson sobre Rosalind dan para mucho, y son un reflejo de la discriminación que han sufrido muchas mujeres científicas, pero esto nos daría para todo un artículo y no es el objetivo de este [2].

Los siguientes Premios Nobel de Medicina relacionados con la Física se concedieron a descubrimiento/invenciones de técnicas de imagen que actualmente conocemos muy bien. El primero, de 1979, también está relacionado con los rayos X, fue para el físico sudafricano Allan McLeod Cormack y el ingeniero electrónico inglés Godfrey Newbold Hounsfield, por el desarrollo y descubrimiento de la Tomografía Axial Computerizada, que conocemos coloquialmente como TAC o escáner. El TAC revolucionó el diagnóstico médico en todo el mundo, ya que trajo un gran avance en la detección y localización de tumores, permitiendo a los médicos ver el interior del cuerpo humano en tres dimensiones. Godfrey comentó en una entrevista que el The New York Times le realizó en 1973 “el avance consistía en darse cuenta de que al escanear objetos desde muchos ángulos era posible extraer el 100% de la información de los rayos X”. El diagnóstico basado en imágenes del interior del cuerpo obtenidas por medio de los rayos X se utiliza desde principios del siglo XX. Sin embargo, las radiografías clásicas no permiten observar el relieve, ni distinguir con claridad los tejidos. El escáner resuelve esta situación, obteniendo gran número de imágenes de rayos X (ya sea sucesivamente, haciendo girar el aparato, o simultáneamente, mediante varios emisores y detectores).

Imagen 5. Arriba: los premios Nobel de 1979 Allan McLeod Cormack y Godfrey Newbold Hounsfield. Abajo: Equipo TAC o escáner. Composición a partir de imágenes de Wikimedia Commons

En 2003 el premio Nobel de Medicina se concedió al físico británico Peter Mansfield y al químico estadounidense Paul Christian Lauterbur por la invención y desarrollo de la imagen por resonancia magnética nuclear, a la que coloquialmente llamamos resonancia magnética o imagen de resonancia magnética (MRI). Si sometemos los núcleos de los átomos a un intenso campo magnético, estos rotan alrededor de ese campo magnético con una frecuencia que depende del valor de la intensidad del campo. La energía de los núcleos puede aumentar (excitación nuclear) si absorben ondas de radio de la misma frecuencia de rotación. A este proceso se le conoce como resonancia nuclear. Cuando los núcleos se desexcitan, es decir, vuelven a su estado original o fundamental, emiten ondas de radio características del núcleo particular que lo identifican. De hecho, este fenómeno fue descubierto en 1946 para los núcleos de los átomos de Hidrogeno por los estadounidenses Felix Bloch y Edward Mills Purcell, que recibieron el premio Nobel de Física en 1952. Este fenómeno fue muy prolífico, ya que dio lugar a otros dos premios nobeles, de química estos, uno en 1991 y el otro en 2002.

Imagen 6. Los premios Nobel de 2003 Paul Christian Lauterbur y Peter Mansfield.

Mediante la detección de las ondas de radio siguiendo el procedimiento anterior es posible detectar el hidrógeno y su cantidad por unidad de volumen. El agua es una molécula compuesta de átomos de hidrógeno y oxígeno. Por lo tanto, al contener hidrogeno, el agua responde al fenómeno citado. Dos tercios del peso del cuerpo humano son agua y este elevado contenido en agua explica por qué las imágenes de resonancia magnética se han vuelto tan útiles en la medicina. Las pequeñas diferencias en las oscilaciones de los núcleos pueden detectarse y mediante un procesamiento informatizado complejo, es posible construir una detallada imagen de tejidos y órganos en el área del cuerpo investigada. De esta forma pueden documentarse los cambios patológicos.

Imagen 7. Ejemplos de MRI tomados con diferentes técnicas: ponderación T1 (spin-red), ponderación T2 (spin-spin) y ponderación en PD (densidad de protones). Fuente: Wikimedia Commons

Hoy día, la MRI se emplea para la exploración de casi todos los órganos del cuerpo. La técnica es especialmente valiosa para obtener imágenes detalladas del cerebro y la medula espinal. Sin embargo, el equipamiento para la MRI es caro, muy voluminoso, pesado y necesita de campos magnéticos elevados (como mínimo del orden de 1 Tesla, que en comparación al campo magnético terrestre es unas 10000 veces mayor), por lo que está localizado en lo que se vienen a llamar salas de resonancia de grandes hospitales.

Desarrollar equipamiento MRI portable sería una ventaja adicional, que posibilitaría su utilización en salas de urgencias, ambulatorios y ambulancias medicalizadas, con la consiguiente mejora en el servicio médico. En la Facultad de Ciencia y Tecnología se está trabajando en el desarrollo de equipamiento portable, y el primer prototipo del citado equipamiento está cerca [3].

Actualmente el desarrollo de una nueva terapia contra el cáncer (Hipertermia magnética), se está realizando por investigadores e investigadoras en Física y Química de la Facultad de Ciencia y Tecnología, investigadores de la Facultad de Medicina e investigadores en medicina clínica del Hospital de Galdakao. Esta nueva terapia necesita de los siguientes pasos: 1) sintetización de nanopartículas magnéticas apropiadas, 2) inoculación de las nanopartículas magnéticas de forma que estas se localicen en el tumor y 3) desarrollo de un aplicador electromagnético de radiofrecuencia que sea capaz de hacer que las nanopartículas magnéticas liberen calor suficiente para “quemar” los tumores en los que se han localizado las nanopartículas [4]. Cuando se consiga desarrollar completamente la terapia será posible “quemar” las células cancerosas, es decir, los tumores, sin dañar el tejido circundante. Si se consigue implementar esta terapia, los efectos secundarios serán mucho menores que los que producen la radioterapia y la quimioterapia, y su costo será mucho menor.

Para saber más:

[1] Ravin, James G. (1999). Gullstrand, Einstein, and the Nobel Prize. MD Arch Ophthalmol. 117(5):670-672. DOI:10.1001/archopht.117.5.670

[2] Angulo, Eduardo (2014). El caso de Rosalind Franklin. Mujeres con Ciencia.

[3] Alonso-Valdesueiro, J. et al., (2018). Design, Construction, and Characterization of a Magic Angle Field Spinning RF Magnet. IEEE Transactions on Instrumentation and Measurement, PP(99), 1-10. DOI:10.1109/TIM.2018.2884606

[4] Périgo, E.A. et al., (2015). Fundamentals and advances in magnetic hyperthermia. Applied Physics Reviews, 2(4), 041302. DOI:10.1063/1.4935688

Sobre el autor: Fernando Plazaola es catedrático en el Departamento de Eletricidad y Electrónica de la Facultad de Ciencia y Tecnología de la UPV/EHU.

El artículo ¿Puede la física resolver problemas en medicina? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las dos culturas de las matemáticas: construir teorías o resolver problemas
  2. El Nobel de Medicina de 2013: Logística de prefabricados de construcción (en las células)
  3. Dudas sobre las vacunas: problemas y soluciones
Categories: Zientzia

Los filtros solares llegan al torrente sanguíneo, dice la prensa

Thu, 2019/05/16 - 11:59
Fuente: Pixabay

Recientemente se ha publicado un estudio preliminar sobre la absorción de algunos filtros ultravioleta empleados en los productos de protección solar [1]. Ha cundido el pánico, pero no en la comunidad científica, sino en los medios de comunicación. Tanto en la prensa española, como en la prensa extranjera [2] los titulares han sido alarmistas y no se corresponden ni con las conclusiones del estudio ni con la opinión de sus autores [3]. La realidad es que este estudio no ha aportado nuevas evidencias, y la recomendación sigue siendo el uso de protección solar, ya que los beneficios superan con creces a los posibles riesgos.

  • El origen del estudio

El estudio se realizó a petición de la FDA. La FDA es la agencia del gobierno de los Estados Unidos responsable de la regulación de alimentos, medicamentos, cosméticos, aparatos médicos, productos biológicos y derivados sanguíneos. Es el análogo as SCCS europeo.

La razón de este estudio es que la FDA ha cambiado los parámetros por los cuales un ingrediente usado en cosmética puede o no pasar a formar parte de su lista de ingredientes seguros (la lista GRASE, Generally Recognised as Safe and Effective).

Antiguamente, la seguridad de los filtros solares se evaluaba con ensayos en animales. Hace años que estos ensayos han de hacerse en personas. Todos los filtros solares que actualmente se usan en EEUU han superado con éxito los ensayos toxicológicos, pero con la nueva regulación [4] han de repetirse.

Para que se apruebe la entrada de un filtro solar en la lista GRASE, hay que presentar estudios de “prueba de uso máximo”. Estos estudios sirven para determinar si el ingrediente se absorbe, si pasa a la sangre y en qué cantidad [5]. Es la misma prueba que se exige en los medicamentos de uso tópico. Con esto, la definición de “cosmético” con respecto a la de “medicamento” está poco clara para la FDA.

  • El estudio

El estudio es un estudio preliminar, o “estudio piloto”. En este caso significa que se ha hecho con muy pocos individuos, en poco tiempo y en unas condiciones que no son las normales de uso. Los estudios preliminares sirven para determinar si sería o no conveniente hacer un estudio más exhaustivo.

En el estudio participaron 24 voluntarios. Estos se dividieron en cuatro grupos de 6 personas. Cada uno de estos grupos estuvo utilizando un producto de protección solar concreto: dos aerosoles, una loción y una crema respectivamente. Durante 4 días cubrían el 75% de su cuerpo con estos productos a razón de 2 mg de producto por cada cm2 de piel, el doble del uso recomendado. Aplicaban esta cantidad de producto 4 veces al día. Durante este tiempo, los voluntarios no realizaban ninguna actividad: ni salían, ni iban a la playa, ni sudaban, ni se bañaban en el mar o la piscina. Es decir, las condiciones de uso fueron extremas, ya que solo se trataba de hacer un estudio preliminar. Luego, analizaron su sangre para detectar cuatro ingredientes activos: avobenzona, oxibenzona, octocrileno y ecamsule, que son cuatro filtros ultravioleta empleados en productos de protección solar.

Según la FDA, un filtro solar que presente una absorción sistémica de 0,5 ng/ml o inferior, no tiene que someterse a más ensayos toxicológicos y será directamente declarado como seguro, por lo que podrá formar parte de la lista GRASE. Esto no implica que una absorción superior vaya a tener efectos adversos en la salud, sino que habría que evaluar si es así o no.

Los autores del estudio encontraron evidencia de una absorción sistémica medible de los 4 filtros solares. Los productos que contienen avobenzona dieron como resultado concentraciones plasmáticas superiores a 0,5 ng/ml desde el primer día. La concentración aumentó desde el primer día al cuarto, por lo que existe acumulación. El séptimo día, la concentración de avobenzona decayó, hasta ser indetectable en sangre en el caso de la crema.

La aplicación de productos con oxibenzona y octocrileno dio lugar a niveles plasmáticos similares entre sí, muy por debajo de los niveles de la avobenzona, aunque con concentraciones también superiores a 0,5 ng/ml.

Entre los 6 participantes que usaron la crema con ecamsule, solo 5 tuvieron concentraciones plasmáticas superiores a 0.5 ng/mL el primer día. Los niveles plasmáticos fueron los más bajos de entre todos los filtros solares analizados.

No obstante, los coeficientes de variación del estudio están en su mayoría por encima del 20%, algunos por encima del 100%. Esto quiere decir que la absorción sistémica es heterogénea y difiere mucho de unos individuos a otros. Este es uno de los motivos por los cuales los autores del estudio reconocen que los resultados no son concluyentes.

  • Un estudio poco novedoso

Desde 1997 sabemos que los filtros solares llegan al torrente sanguíneo. Hace ya 22 años. También sabemos que son eliminados por medio de la orina [6]. Se han hecho decenas de estudios toxicológicos sobre todos los filtros ultravioleta utilizados en cosméticos de protección solar [7][8][9][10][11][12][13][14], así que el reciente estudio de la FDA no aporta información novedosa ni sorprendente para la comunidad científica.

No obstante, las autoridades sanitarias concluyen que las concentraciones plasmáticas detectadas están muy por debajo de los niveles tóxicos. El SCCS (el análogo a la FDA de la Unión Europea) ha estudiado los efectos en la salud de estos mismos ingredientes mucho más recientemente que la FDA, determinando que su uso es seguro [15][16][17].

  • Un estudio limitado

Al tratarse de un estudio preliminar es, casi por definición, un estudio limitado. La principal limitación la encontramos en el tamaño de muestra. Un estudio de este tipo debería realizarse con muchos más individuos. Tampoco se pueden tomar por válidos unos resultados con unos coeficientes de variación tan elevados.

Las condiciones del estudio también deberían asemejarse a las condiciones de uso normal de estos productos. Usando las cantidades recomendadas por el fabricante, no el doble, respetando los tiempos de reaplicación y manteniendo una actividad normal, acorde al uso para el que los cosméticos hayan sido diseñados: resistente al agua, al sudor, etc.

  • Conclusiones de los autores del estudio

Aunque el estudio es limitado, los resultados que arroja pueden resultar impactantes y pueden ser fácilmente malinterpretados y exagerados, como de he hecho ha ocurrido. Por ello, los autores del trabajo han declarado que “existen pruebas de alta calidad que demuestran que el uso de filtros ultravioleta previenen las quemaduras solares, la queratosis actínica precancerosa y el cáncer de células escamosas”, que “es importante continuar reforzando las recomendaciones clínicas con respecto a los efectos beneficiosos de la fotoprotección para la prevención del cáncer de piel que están enraizados en una sólida justificación biológica y en la evidencia clínica” y que “evitar el uso de los filtros ultravioleta del estudio, como cualquier filtro solar en general, podría tener importantes consecuencias negativas para la salud”.

  • Reflexiones finales

Un titular que diga “Los filtros solares llegan al torrente sanguíneo, dice un estudio” resulta muy jugoso. Se ganan más clics con la alarma que con la prudencia.

Lo desasosegante de este caso es que el estudio del que salieron tantos titulares alarmistas se trata de un estudio de libre acceso; cualquier medio de comunicación y cualquier persona puede acceder a él. Incluso los autores publicaron un resumen a modo de nota de prensa para tratar de evitar lo que finalmente sucedió. Incluso con solo leer el abstract del estudio, sabes que ni siquiera hay noticia. O se trabaja poco o se trabaja mal.

Si hubiese la más mínima sospecha de que un ingrediente cosmético es inseguro, se retiraría del mercado. La realidad es así de simple. Lo demás es una irresponsable batalla por el clic.

La presencia de una sustancia tóxica en los productos cosméticos no beneficia a nadie. Y esto, que es una obviedad, continuamente se pone en tela de juicio. Los embaucadores han convertido la desconfianza en un negocio.

Hay quien está constantemente ávido de conspiraciones, fraudes y malhacer. De tanto sospechar, le van a salir arrugas.

[1] https://jamanetwork.com/journals/jama/article-abstract/2733085

[2] https://labmuffin.com/sunscreens-in-your-blood-that-fda-study/

[3] https://jamanetwork.com/journals/jama/fullarticle/2733084

[4] https://www.nbcnews.com/health/cancer/fda-tightens-regulation-over-counter-sunscreen-products-n974271

[5] https://www.reuters.com/article/us-fda-sunscreen-idUSKBN13H1RE

[6] https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(05)62032-6/fulltext

[7] https://onlinelibrary.wiley.com/doi/abs/10.1046/j.1365-2230.2002.01095.x

[8] https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1365-2133.2005.07007.x

[9] https://linkinghub.elsevier.com/retrieve/pii/S0731708505005595

[10] https://www.sciencedirect.com/science/article/pii/S0021967307013349?via%3Dihub

[11] https://www.sciencedirect.com/science/article/pii/S0013935115300505?via%3Dihub

[12] https://linkinghub.elsevier.com/retrieve/pii/S0022202X1530885X

[13] https://www.sciencedirect.com/science/article/pii/S157002320400008X?via%3Dihub

[14] https://ehp.niehs.nih.gov/doi/10.1289/ehp.11269

[15] https://ec.europa.eu/health/ph_risk/committees/04_sccp/docs/sccp_o_159.pdf

[16] https://ec.europa.eu/health/scientific_committees/consumer_safety/docs/sccs_o_055.pdf

[17] https://ec.europa.eu/health/scientific_committees/consumer_safety/docs/sccs_o_136.pdf

[18] https://jamanetwork.com/journals/jama/fullarticle/2733084

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Los filtros solares llegan al torrente sanguíneo, dice la prensa se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Estimada OCU: recuerda que NO se pueden utilizar las cremas solares del año pasado
  2. Un ordenador químico que llega donde no llegan otros
  3. El flujo sanguíneo se reorganiza en respuesta a las necesidades
Categories: Zientzia

El poema de los números primos (2)

Wed, 2019/05/15 - 11:59

Con motivo de la exposición Esther Ferrer 2, 3, 5, 7, 11, 13, 17, 19, 23,… (del 5 de abril al 26 de mayo de 2019), de la artista donostiarra Esther Ferrer, en el Centro Internacional de Cultura Contemporánea Tabakalera, de Donostia/San Sebastián, en la anterior entrada del Cuaderno de Cultura Científica El poema de los números primos, estuvimos analizando las matemáticas que están detrás de algunas de sus obras de la serie Poema de los números primos: los números primos, la criba de Eratóstenes, la espiral de Ulam, los polinomios cuadráticos o las lagunas de números primos.

Portada y contraportada de la publicación Orriak del Centro Internacional de Cultura Contemporánea Tabakalera, sobre la exposición Esther Ferrer 2, 3, 5, 7, 11, 13, 17, 19, 23,…

En esta entrada vamos a completar este pequeño paseo por la serie de obras Poema de los números primos de Esther Ferrer. Para empezar, mostraremos un grupo de dibujos para suelo de esta serie que utiliza una variación rectangular de la espiral de Ulam para generar diferentes estructuras geométricas planas

Dibujos para suelo de la serie Poema de los números primos (2016), de Esther Ferrer, realizados en tinta sobre papel, 83,5 x 59,5 cm, pertenecientes al archivo personal de la artista. Imagen del catálogo Esther Ferrer, todas las variaciones son válidas, incluida esta, del Museo Nacional Centro de Arte Reina Sofía.

Estos dibujos para suelo, que son solo cuatro de un grupo más amplio realizado en 2016, nos recuerdan el objetivo de la artista Esther Ferrer al utilizar los números primos, que es hacer uso de las matemáticas como una herramienta objetiva, es decir, que sus preferencias estéticas jueguen un papel secundario en el proceso de creación artístico, para generar estructuras geométricas planas. La base matemática de las cuatro obras anteriores, como explicaremos a continuación, son la espiral de Ulam rectangular y las lagunas de números primos, que crean un patrón geométrico base que subyace a la serie de dibujos, pero que debido a la intervención de la artista cada uno de ellos adquiere un desarrollo estético propio, sorprendente y atractivo.

La base para esta serie de obras es similar a la espiral de Ulam. En ese caso, como puede verse en la entrada anterior, El poema de los números primos, se consideraba una cuadrícula cuadrada sobre la que se escribían los números naturales, empezando en 1 (aunque también podía empezarse en cualquier otro número, como el 17, el 41 o el 1.344.326.696.347) que se colocaba en la cuadrícula superior izquierda de la subcuadrícula central 2 x 2, de manera que los números eran escritos en orden creciente y distribuidos alrededor del 1 formando una espiral de números.

Para estas obras Esther Ferrer construye lo que podríamos llamar la espiral de Ulam rectangular, ya que en lugar de iniciar la espiral en la celda superior izquierda de la una subcuadrícula central 2 x 2, luego cuadrada, lo hace en la celda superior izquierda de la una subcuadrícula central 2 x 26, luego rectangular, de forma que al desarrollar la espiral alrededor queda un retículo rectangular, similar a la que vemos en la siguiente imagen.

Además, en este grupo de obras, otro elemento fundamental para crear los patrones geométricos planos son las lagunas de números primos, es decir, los grupos de números no primos o compuestos entre dos números primos (véase la entrada Buscando lagunas de números primos), con la diferencia, respecto a otras obras que hemos comentado, de que en este grupo de dibujos incluye al número primo anterior a la laguna como parte de la misma (que podríamos llamar laguna aumentada). Por ejemplo, entre los números primos 13 y 17 hay una laguna de tres números compuestos, de forma que Esther Ferrer considera la laguna aumentada formada por los números 13, 14, 15 y 16, después vendría la laguna aumentada 17 y 18, seguida de 19, 20, 21 y 22, y después, 23, 24, 25, 26, 27 y 28.

En esta serie de obras, las celdas de cada laguna aumentada de números primos son tratadas de una forma uniforme, cambiando el tratamiento de una laguna aumentada respecto a la siguiente, de forma alternada. Así, en la obra que se muestra a continuación, también de este grupo de dibujos para suelo que se ha podido ver en la exposición de Tabakalera, las celdas se pintan de rojo o negro en función de la laguna aumentada a la que pertenezcan y cambiando el color de una laguna a la siguiente. Por ejemplo, la celda 1 (que es una laguna de una sola celda) es roja, después la celda 2 (también una laguna solitaria) es negra, la laguna aumentada 3 – 4 tiene sus celdas rojas, mientras que son negras las casillas de la laguna aumentada 5 – 6 y de nuevo rojas las de 7 – 8 – 9 – 10, y así están pintadas de negro o rojo el resto de lagunas aumentadas. Trabajando de esta forma la artista, que ha sido galardonada con el Premio Nacional de Artes Plásticas en 2008 o el Premio Velázquez de Artes Plásticas en 2014, consigue la sorprendente e interesante creación artística que vemos en la siguiente imagen.

Dibujo para suelo de la serie Poema de los números primos (2016), de Esther Ferrer, realizados en tinta sobre papel cebolla, 83,5 x 59,5 cm, expuesto en Esther Ferrer 2, 3, 5, 7, 11, 13, 17, 19, 23, … (Tabakalera, 2019) y perteneciente al archivo personal de la artista. Fotografía: Raúl Ibáñez

En cada una de las obras de este grupo particular dentro de la serie Poema de los números primos, Esther Ferrer interviene de forma diferente sobre las lagunas aumentadas de números primos, creando toda una serie de patrones geométricos planos, aunque con una base matemática común, que producen efectos visuales distintos, como puede observarse en las anteriores imágenes.

En la conversación entre Esther Ferrer, Laurence Rassel y Mar Villaespesa con motivo de la exposición Esther Ferrer, todas las variaciones son válidas, incluida esta (Palacio de Velázquez, en el Parque del Retiro de Madrid, Museo Nacional Centro de Arte Reina Sofía, 2017), Laurence Rassel le pregunta a Esther Ferrer “¿Cómo es el proceso de trabajo con los números primos?”, a lo que la artista contesta:

Primero decido el tipo de soporte y cómo voy a distribuir los números en el espacio, es la base. Luego decido el sistema que define la estructura de la obra, que tiene varios parámetros: si va a ser una obra única o una serie, para poder decidir a partir de qué número empieza, si los números en el espacio se reparten en círculo o en líneas horizontales o verticales, si se emplea color o no, y un largo etcétera. Finalmente decido la forma en que los voy a relacionar, y a partir de ahí me planteo las líneas y el color, si lo hay. Por ejemplo, puedo trabajar los números primos a partir de la espiral de Ulam. Al utilizarla se crea una línea ininterrumpida durante cierta cantidad de números. Me gustó la idea de escribirlos en espiral, como una galaxia, los números primos tienen algo que ver con la estructura del universo; a medida que progresas en la serie hay menos números, el espacio entre ellos se agranda, me gusta ese vacío, es como si la serie se expandiera, como el universo.

Existen algunas variantes de la distribución de la espiral de Ulam de los números primos de manera que la estructura general de la espiral de los números naturales genera una forma triangular, hexagonal o circular, en lugar de la forma cuadrada de la espiral de Ulam original, o la rectangular utilizada por Esther Ferrer en las obras. La autora de la serie Poema de los números primos se ha interesado por la espiral de Ulam hexagonal, generando toda una familia de obras basada en esta estructura.

Pero antes de hablar de estas obras, me gustaría mencionar lo que podríamos llamar una variante por anticipación, puesto que en el año 1932 (más de treinta años antes de que a Ulam se le ocurriese la idea de la espiral) el herpetólogo, es decir, zoólogo especializado en reptiles y anfibios, estadounidense Laurence Monroe Klauber (1883 – 1968) presentó en el congreso The March Meeting of the Southern California Section de la Asociación Americana de Matemáticas (MAA) una ponencia sobre un triángulo de números naturales en el que se destacaba la distribución de los números primos, y en particular, los generados por el polinomio de Euler n2 + n + 41.

Este triángulo no está generado en espiral, sino distribuyendo los números en orden creciente desde el vértice de arriba y fila a fila, hacia abajo. Es decir, en la primera fila se coloca en 1, en la segunda los números 2, 3 y 4, en la tercera los números del 5 al 9, y así en la fila n-ésima están colocados los números del (n – 1)2 + 1 hasta n2, como en la siguiente imagen.

Sobre esa distribución triangular de los números se marcan los números primos. Por ejemplo, en la anterior imagen se ha pintado el triángulo correspondiente al número primo de gris. Al igual que ocurría con la espiral de Ulam, sobre el triángulo numérico de Klauber los polinomios cuadráticos generan números que descansan sobre líneas rectas. En particular, los polinomios de la forma n2 + n + a, para algún número a, son líneas verticales, un ejemplo es el polinomio de Euler.

Triángulo de números primos de Klauber, en el cual están marcados como puntos azules los números primos, como puntos naranjas los números primos generados por el polinomio de Euler, n2 + n + 41, y los números no primos no aparecen, están en blanco. Imagen: Will Orrick / Wikimedia Commons

Pero volvamos a la obra artística de Esther Ferrer y a la espiral de Ulam hexagonal. Como en el caso de la espiral de Ulam clásica, en la espiral de Ulam hexagonal, se escriben los números naturales en orden creciente y formando una espiral, sobre una “colmena” o rejilla hexagonal (una especie de cuadrícula, pero formada por hexágonos y cuya forma general es también hexagonal), en cuyo centro hay un hexágono, para el número 1 (o el número inicial), y se van añadiendo filas de hexágonos alrededor del hexágono central, formando la rejilla hexagonal, como se muestra en la imagen de abajo.

Pequeña espiral de Ulam hexagonal, sobre una retícula hexagonal de lado 4, con los 37 primeros números, marcando en gris las casillas con números primos y señalada la espiral con una línea marrón discontinua

Sin embargo, no es esta la estructura hexagonal en espiral que considera la artista Esther Ferrer, quien trabaja, de hecho, con diferentes estructuras hexagonales en espiral. En la primera de ellas considera una rejilla triangular con forma hexagonal. Empieza en un hexágono central, que está dividido en seis triángulos equiláteros, sobre la que escribe los primeros seis números, y luego continúa escribiendo los números en orden creciente y en espiral sobre los triángulos equiláteros que están alrededor del hexágono central, y que van manteniendo la forma hexagonal del retículo, como se muestra en la imagen siguiente.

Ejemplo de espiral de tipo Ulam sobre una retícula triangular con forma hexagonal, sobre la que trabaja la artista Esther Ferrer, sobre la que se consideran los números naturales en orden creciente y en espiral, marcando de alguna forma los números primos

En la siguiente obra, en la cual se trabaja sobre la anterior estructura reticular, los triángulos se dividen en tres tipos, como ocurría en algunas de las obras que mostramos en la entrada El poema de los números primos, por una parte, están los triángulos que corresponden a números primos, que tienen color blanco y dibujado el correspondiente número primo (hay una excepción, que es la casilla del número 1, la cual se trata en esta obra como si fuese una casilla de un número primo, o podríamos decir como un no compuesto, en blanco y con el número escrito), y el resto de triángulos se corresponden con números no primos, o compuestos, luego en ellos no se dibuja su número y tendrán color rojo o negro en función de la laguna de números primos a la que pertenezca, coloreando las lagunas de rojo o negro de forma alternada, además, estos triángulos de números no primos, rojos o negros, tendrán espesor, altura, creando un relieve en la obra.

Maqueta de un proyecto de Esther Ferrer, basado en la serie Poema de los números primos (1989). Edición producida por ARTIUM, Centro-Museo Vasco de Arte Contemporáneo, en 2011. Cartón pluma blanco, pintado de rojo con acrílico y cartón pluma negro, ambos de diferentes espesores, cortados a mano en triángulos de 3 cm. y dispuestos sobre una base hexagonal de cartón de 71 x 62 cm aproximadamente

Como en otras obras, la intervención de la artista genera diferentes estructuras geométricas planas. A continuación, se muestran algunas obras que tienen como base la misma estructura espiral de tipo Ulam sobre la retícula triangular con forma hexagonal que acabamos de analizar.

Dibujo de la serie Poema de los números primos (1986 – 88), sobre una base hexagonal de 22,5 cm. de lado a lado, de la artista Esther Ferrer, realizada con rotulador sobre papel cebolla. Obra expuesta en la Galería Angels Barcelona Dibujo de la serie Poema de los números primos (1986 – 88), sobre una base hexagonal de 23,5 cm. de lado a lado, de la artista Esther Ferrer, realizada con rotulador sobre papel cebolla. Obra expuesta en la Galería Angels Barcelona

Como en las obras que hemos mostrado en la entrada anterior, El poema de los números primos, con base en la espiral de Ulam, se puede iniciar la espiral en un número distinto al 1, como ocurre en la siguiente obra.

Dibujo de la serie Poema de los números primos (1986 – 88), sobre una base hexagonal de 27 cm. de lado a lado, de la artista Esther Ferrer, realizada con rotulador sobre papel cebolla. Obra expuesta en la Galería Angels Barcelona.

En otro grupo de obras, Esther Ferrer toma como base la retícula triangular con forma hexagonal descrita anteriormente, pero uniendo cada dos triángulos rectángulos para formar un rombo, creando así una retícula de rombos con forma hexagonal. Sobre esta estructura considera una espiral de tipo Ulam, al escribir los números naturales en orden creciente, cada número sobre un rombo y destacando los números primos. La intervención de la artista da lugar a toda una subfamilia de obras relacionadas con esta estructura, como la que se muestran a continuación.

Dibujo de la serie Poema de los números primos (1986 – 88), sobre una base hexagonal, de la artista Esther Ferrer, realizada con rotulador sobre papel cebolla. Obra expuesta en la Galería Angels Barcelona y perteneciente al catálogo Esther Ferrer, todas las variaciones son válidas, incluida esta.

Pero dejemos estas estructuras geométricas hexagonales relacionadas con los números primos, para terminar con una obra relacionada con un tipo especial de números primos, los números primos gemelos. Recordemos que dos números primos son gemelos si están lo más cerca posible, es decir, con tan solo un número par entre ellos, como las parejas 11 y 13, 17 y 19, o 41 y 43. Esther Ferrer también se interesó por estos. De hecho, en la conversación de Esther Ferrer con Laurence Rassel y Mar Villaespesa con motivo de la exposición Esther Ferrer, todas las variaciones son válidas, incluida esta, explica lo siguiente:

En ese universo, de pronto, aparece un par de números primos gemelos, por ejemplo 11 y 13, 17 y 19, son como los cuerpos celestes que se descubren y no se sabe por qué están ahí. Un amigo ingeniero me envió el número gemelo más grande calculado al ordenador, que entonces tenía 703 dígitos, ahora tiene muchas más cifras. Hice dos cuadros poniéndolos de relieve. Lo curioso es que me interesé en estos números sin pensar en absoluto en mi situación personal: soy gemela, fue una amiga quien me lo señaló.

Una de las conjeturas sobre los números primos gemelos es que existe un número infinito de parejas de números primos, aunque a día de hoy aún no ha sido posible demostrar esta conjetura. Por este motivo, dentro de la comunidad científica se siguen buscando parejas de números primos gemelos cada vez más grandes. En los años 1980 la pareja más grande conocida de números primos gemelos tenía 703 dígitos. De hecho, en la columna Mathematical Games de Martin Gardner en la revista Scientific American, en diciembre de 1980, menciona este dato y dice que esos dos primos empiezan por 4337 y terminan por 17759 y 17761.

La siguiente obra de Esther Ferrer toma como base esta pareja de números primos gemelos. El número explícito que está en el medio sería el número no primo y par que está entre los dos primos gemelos y que termina en 17760, mientras que a cada lado del mismo están ciertas estructuras geométricas planas generadas a partir de esos dos números primos gemelos.

Poema de los números primos (años 1980), rotulador e hilo sobre lienzo, 97,5 x 130 cm. Archivo Esther Ferrer y perteneciente al catálogo Esther Ferrer, todas las variaciones son válidas, incluida esta.

Se ha avanzado mucho en la obtención de parejas de números primos gemelos desde entonces. En la actualidad la pareja más grande conocida, descubierta en 2016, está formada por el número primo 2.996.863.034.895 · 21.290.000 – 1 y 2.996.863.034.895 · 21.290.000 + 1, que tienen 388.342 dígitos.

Por último, me gustaría finalizar esta entrada del Cuaderno de Cultura Científica con una frase de Esther Ferrer, que suele citar en muchas ocasiones, la última ha sido en la entrevista que le hicieron en el Diario Vasco con motivo de su exposición Esther Ferrer 2, 3, 5, 7, 11, 13, 17, 19, 23,… en Tabakalera.

Yo en el arte hago lo que quiero sin más límite que mi responsabilidad

Así mismo, me gustaría expresar mi más sincero y profundo agradecimiento a Esther Ferrer por permitirme utilizar las imágenes de sus hermosas e interesantes obras en esta publicación, así como por las interesantes conversaciones que hemos mantenido sobre las matemáticas, y en particular, los números primos, en el conjunto de su obra artística.

Bibliografía

1.- Esther Ferrer, Maquetas y dibujos de instalaciones 1970/2011, Exit publicaciones, 2011.

2.- Rosa Olivares (comisaria), Esther Ferrer, Lau mugimenduan/En cuatro movimientos/In four movements, ARTIUM 08/10/2011 – 08/01/2012, Artium y Acción cultural española, 2011.

3.- Laurence Rassel y Mar Villaespesa (comisarias), Esther Ferrer, todas las variaciones son válidas, incluida esta, Palacio de Velázquez del Parque del Retiro 26/07/2017 – 25/02/2018, Museo Nacional Centro de Arte Reina Sofía, 2017.

4.- Página web de Esther Ferrer

5.- Página The Top Twenty: Twin Primes

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El poema de los números primos (2) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El poema de los números primos
  2. Buscando lagunas de números no primos
  3. Los números de Queneau
Categories: Zientzia

El concepto de estructura atómica

Tue, 2019/05/14 - 11:59

Decíamos al hablar del sistema de periodos que su regularidad, simetría y capacidad predictiva son indicios de que el modelo que explique la estructura de los átomos de los distintos elementos posee también estas características. Y, al hacerlo, dábamos por sentado que los átomos tienen estructura, algo que puede no parecer evidente. Merece la pena detenernos en este punto.

La química en el siglo diecinueve había tenido un éxito más que notable a la hora de explicar las proporciones de combinación de los distintos elementos y en la predicción de reacciones químicas. Tanto es así que buena parte de la revolución industrial fue la revolución químico-industrial. Este éxito terminó convenciendo a la mayoría de los científicos del último cuarto del siglo de que una hipótesis tan fructífera como la atómica indicaba claramente que la materia está compuesta en realidad de átomos. Pero este convencimiento suscitaba inmediatamente una pregunta relacionada: ¿Son los átomos realmente indivisibles, como se había supuesto, o consisten en partículas aún más pequeñas?

La pregunta surge de forma natural a poco que se piense un poco en el sistema de periodos. Recordemos que Mendeléyev había dispuesto los elementos siguiendo los criterios de masa atómica creciente y características químicas. Pero, y esto es importante, la única característica física del ordenamiento, las masas atómicas de los elementos, no pueden explicar las características químicas periódicas.

¿Por qué, por ejemplo, los elementos 3 (litio), 11 (socio), 19 (potasio), 37 (rubidio), 55 (cesio) y 87 (francio) [1], con masas atómicas muy diferentes, tienen propiedades químicas similares (por ejemplo, arden, esto es, reaccionan rápida y violentamente, cuando se exponen al aire)? ¿Por qué estas propiedades son algo diferentes de las de los elementos 4 (berilio), 12 (magnesio), 20 (calcio), 38 (estroncio), 56 (bario) y 88 (radio) [2] de la lista (que reaccionan lentamente con el aire o el agua), pero son muy diferentes de las propiedades de los 2 (helio), 10 (neón) ,18 (argón), 36 (kriptón), 54 (xenón) [3] y 86 (radón) (que rara vez se combinan con cualquier otro elemento)?

La periodicidad en las propiedades de los elementos llevó a especular con la idea de que los átomos podrían tener una estructura, que podrían estar formados por piezas más pequeñas. Las propiedades cambian gradualmente de grupo a grupo. Este hecho sugiere que se puede agregar alguna unidad de estructura atómica de un elemento al siguiente, hasta que se complete una cierta porción de la estructura. Esta porción se encontraría completada en el átomo de un gas noble (Grupo 18). En un átomo del siguiente elemento más pesado, se iniciará una nueva parte de la estructura, y así sucesivamente.

Los métodos y técnicas de la química clásica no pudieron proporcionar pruebas experimentales para tal estructura. En el siglo XIX, sin embargo, los descubrimientos y las nuevas técnicas en física abrieron el camino para probar que los átomos en realidad consisten de piezas más pequeñas. [5]

La evidencia se fue acumulando para apoyar la conclusión de que los átomos de diferentes elementos difieren en el número y la disposición de estas piezas.

Notas:

[1] Descubierto por Marguerite Perey en 1939, no estaba en la tabla original de Mendeléyev.

[2] La primera noticia de la existencia del radio es de 1898 y la dieron Marie y Pierre Curie. El aislamiento del elemento se produjo en 1910 por Marie Curie y André-Louis Debierne.

[3] Todos los descubrimientos de los gases nobles son posteriores a la primera publicación del sistema de periodos de Mendeléyev. El primero, el helio, fue descubierto en 1868 como una línea en el esptectro de la cromosfera del Sol. Su aislamiento se produjo en 1897. El resto de elementos del grupo se aislaron entre 1894 y 1910.

[5] La existencia del electrón como unidad de carga eléctrica definido como la carga de un ion monovalente la propuso George Stoney en 1874 (el lo llamó electrolión). Incluso antes Richard Laming, en 1851, ya especuló con que los átomos eran un núcleo de materia rodeado de cargas eléctricas. Pero estos hechos no deben interpretarse como avances en el conocimiento de la estructura de los átomos (véase el título del libro de Laming). Nada hacía prever que la especulación de Laming resultase teniendo base, ni que los electrones fuesen a ser tan importantes. Sería presentismo atribuirles más significación de la que realmente tuvieron. La lógica real se sustenta en el armazón del sistema de periodos, como iremos viendo.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El concepto de estructura atómica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La ley de proporciones definidas y la unidad de masa atómica
  2. Un método para determinar la estructura átomo a átomo en un cristal
  3. Construcción de heteroestructuras de grafeno con precisión atómica
Categories: Zientzia

Restos de ensayos nucleares del siglo XX en lo más profundo del océano

Mon, 2019/05/13 - 11:59
Explosión de una bomba nuclear. Fuente: Pixabay

¿Quién vive en una piña en el fondo del mar? BOB-ES-PON-JA, dirán ustedes. Pues si es así, el pobre Bob y sus amigos están comiendo algunas cosas muy particulares. Entre otras, moléculas de carbono radiactivo liberado a la atmósfera durante algunos de los ensayos nucleares que el mundo vio con expectación y miedo a mediados del siglo XX. Un estudio ha desvelado que restos de aquellos experimentos han llegado ya a lo más profundo del mar, incluida la Fosa de las Marianas.

Que este carbono es parte de los organismos que pueblan la superficie del océano no es algo nuevo. Sabemos desde finales de los años 50 que estos organismos lo han ido incorporando a las moléculas de su cuerpo. Pero esta es la primera vez que se observa cómo crustáceos que viven en la base marina se están alimentando de materia orgánica de los seres vivos de la superficie, y repitiendo el proceso de incorporación del carbono radiactivo. “Las corrientes de circulación oceánicas necesitan cientos de años para conseguir que determinadas moléculas completen este recorrido. La cadena alimenticia lo hace mucho más rápido”, explica Ning Wang, geoquímico de a Academia China de las Ciencias e investigador principal del estudio, publicado en la revista Geophysical Research Letters.

Es un ejemplo de cómo la contaminación humana puede alcanzar casi cualquier punto del planeta, incluso aquellas que parecen más a salvo. “Existe una fuerte interacción biológica entre la superficie y las profundidades, y las actividades humanas pueden impactar incluso a 11.000 metros bajo el agua. Tenemos que tener cuidado con lo que hacemos”, dice otro de los autores, Weidong Sun, en el material publicado al respecto por la American Geophysical Union.

¿De dónde han salido estas partículas radiactivas?

El carbono 14 es un tipo de carbono radiactivo que se produce de forma natural cuando los rayos cósmicos provenientes del espacio interactúan con el nitrógeno de la atmósfera. Es un tipo de carbono menos abundante que el carbono no radiactivo, pero se puede encontrar en prácticamente todos los organismo vivos. De hecho, y puesto que conocemos la velocidad a la que se va descomponiendo, es uno de los métodos que se utiliza para datar muestras geológicas o arqueológicas que incluyan restos biológicos.

Hirondella gigas, un tipo de anfípodo hallado a 10.900 metros de profundidad en la fosa de las Marianas. Fuente: Wikimedia Commons

Las bombas termonucleares que se hicieron explotar en pruebas durante los años 50 y 60 del siglo XX hicieron que se multiplicase la cantidad de carbono 14 presente en la atmósfera cuando los neutrones que liberaron las explosiones reaccionaron con el nitrógeno del aire. Esos niveles alcanzaron su punto álgido a mitad de los años 60 y fueron descendiendo a medida que se terminaron las pruebas nucleares. En los años 90, los niveles en la atmósfera habían descendido hasta quedar en un 20% por encima de los niveles previos a estos ensayos.

¿A dónde fue todo ese carbono 14? Cayó rápidamente y se mezcló con la superficie del océano. Los organismos marinos han ido incorporando estas moléculas a sus células, por lo que los análisis realizados han permitido observar un aumento del carbono 14 en sus cuerpos desde poco después de que comenzasen las pruebas.

La dura vida en el fondo del mar

Vivir en el fondo del mar, en el fondo-fondo, no siempre es fácil. Estamos hablando de lugares a más de 6 kilómetros de profundidad, a menudo en puntos donde una placa tectónica se introduce bajo la de al lado. Hay poca luz, poca temperatura y poca comida y una intensa presión. Las criaturas que viven allí han tenido que adaptarse.

En este estudio, el carbono 14 ha servido para seguir el rastro de la materia orgánica que llega a estos lugares para entender mejor a los organismos que viven allí. Wang y sus colegas han analizado anfípodos (pequeños crustáceos que sobreviven a base de desechos y detritus marino) recogidos durante el año 2017 en la fosa de las Marianas, de Mussau o de New Britain, a profundidades de hasta 11 kilómetros.

Comparación de la profundidad de la Fosa de las Marianas con la altura del Monte Everest. Fuente: Wikimedia Commons

Lo sorprendente fue hallar en su tejido muscular niveles de carbono 14 mucho más alto que en otros tipos de materia orgánica encontrada en esos niveles de profundidad bajo el mar. Al analizar después el contenido de su sistema digestivo, los niveles de carbono 14 hallados allí se correspondían con los hallados en muestras de materia orgánica de la superficie del océano. Esto sugiere que los anfípodos seleccionan para alimentarse el detritus y los restos que caen desde la superficie hasta las profundidades marinas.

Esto ayuda a entender mejor la longevidad de muchos de los organismos que viven en el fondo abisal, y cómo se han adaptado con éxito a sus condiciones extremas. Por ejemplo, es llamativo que los anfípodos de estos hábitats son más grandes y viven más tiempo que sus parientes que habitan en aguas menos profundas: de menos de dos años y 20 milímetros a más de 10 años y 91 milímetros.

Los autores sugieren que esta diferencia sea resultado de haber evolucionado exitosamente para vivir a poca temperatura, mucha presión y un aporte de alimento limitado. Para compensar, los animales tienen un metabolismo y un ciclo de renovación celular más lentos, lo que les permite almacenar energía y conservarla durante más tiempo. Por otro lado, al vivir más años, los contaminantes se acumulan en su cuerpo en mayores cantidades.

Pero también hay otro apunte interesante: la materia orgánica que los alimenta no proviene tanto de fuentes locales como serían otros seres vivos con los que conviven allí abajo, sino que parece venir principalmente de las superficie de mar.

Esto debería servir como toque de atención (otro más) a los seres humanos sobre el modo en que lo que hacemos repercute en todos los demás seres vivos del planeta, incluso aquellos que pueblan los lugares más remotos y en apariencia desconectados de nosotros. No lo están, ninguno lo está. Lo que lanzamos al aire hace ahora unos 60 años está alimentando a los pequeños crustáceos del lugar más profundo del mundo. Mucho cuidado con lo que tocamos.

Referencias:

Penetration of Bomb 14C into the Deepest Ocean Trench – Geophysycal Research Letter

Radioactive carbon from nuclear bomb tests found in deep ocean trenches – American Geophysisc Union

Carbono 14 – Wikipedia

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Restos de ensayos nucleares del siglo XX en lo más profundo del océano se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los enigmas que nos cantan desde el fondo del océano
  2. Formas moleculares de excreción de restos nitrogenados
  3. Océanos nucleares. Cuando la basura llega antes que el ser humano
Categories: Zientzia

No hay raza blanca, tampoco negra

Sun, 2019/05/12 - 11:59
Foto: Alexandr Ivanov / Pixabay

Al decir de alguien que es blanco o negro, es posible que pensemos que pertenece a una categoría biológica definida por su color. Mucha gente cree que la pigmentación de la piel refleja la pertenencia a una raza, entendiendo esta como la define la Real Academia Española en su segunda acepción: “cada uno de los grupos en que se subdividen algunas especies biológicas y cuyos caracteres diferenciales se perpetúan por herencia”. Y sin embargo, esa noción, en el caso de nuestra especie, carece de sentido. Porque desde un punto de vista biológico, las razas humanas no existen.

En la piel hay melanocitos, células que producen y contienen pigmentos. Hay dos tipos de pigmentos, llamados genéricamente melanina; uno es marrón parduzco (eumelanina) y el otro, rojo amarillento (feomelanina). El color de la piel depende de la cantidad y la proporción de ambos. Y se da la circunstancia de que ese rasgo depende de diferentes genes; unos inciden en la cantidad de pigmento en los melanocitos y otros sobre la proporción entre los dos tipos de melanina. Es más, colores muy similares puede ser el resultado de diferentes combinaciones de esos rasgos básicos y obedecer a configuraciones genéticas diferentes.

Los africanos, en general, son de piel oscura. Los Dinka, de África oriental, la tienen muy oscura, mientras que los San, del sur del continente, la tienen más clara. Los nativos del sur de la India, Nueva Guinea y Australia también son de piel oscura. En el centro de Asia y extremo oriente, así como en Europa, las pieles son, en general, claras. Y los nativos americanos las tienen de diferente color, aunque no tan oscuras como los africanos.

Si nos atenemos al color de la piel escondida bajo el grueso pelaje de los chimpancés, lo más probable es que nuestros antepasados homininos la tuviesen clara. En algún momento hace alrededor de dos millones de años, los miembros de nuestro linaje vieron reducido el grosor y consistencia del pelaje, hasta convertirse en una tenue capa de vello en gran parte de la superficie corporal. Pero esa transformación trajo consigo la exposición de la piel a la radiación solar ultravioleta, que podía causar cáncer y, además, eliminar una sustancia de gran importancia fisiológica, el ácido fólico. Seguramente por esa razón se seleccionaron variantes genéticas que oscurecían la piel, porque la melanina la protege evitando los daños citados.

Los seres humanos nos hemos expandido y llegado así a casi todas las latitudes. Esos movimientos han expuesto la piel de sus protagonistas a muy diferentes condiciones de radiación. Y al igual que un exceso de radiación ultravioleta puede ser muy dañino, su defecto también lo es, pues sin ella no se puede sintetizar vitamina D, cuyo déficit provoca raquitismo y otros problemas de salud. Por esa razón, sin descartar otras posibles, la piel humana se ha ido aclarando en diferentes zonas geográficas bajo la acción de la selección natural. Además, los movimientos de población han propiciado la mezcla de distintos linajes, cada uno con sus rasgos genéticos y características pigmentarias, para dar lugar a múltiples configuraciones.

El color de los seres humanos actuales es el resultado, por tanto, de una compleja secuencia de eventos biológicos y demográficos, y no es posible delimitar biológicamente unos grupos y otros. Las diferencias en el color de la piel no tienen correspondencia en innumerables otros rasgos que también varían y lo hacen según otros patrones y por efecto de otras presiones selectivas. No hay, pues, fundamento para invocar la existencia de razas. Como tampoco lo hay para justificar, sobre bases inexistentes, otras diferencias.

——————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo No hay raza blanca, tampoco negra se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. 11 años después de la marea negra
  2. Un punto cuántico emite luz blanca gracias a la aspirina
  3. Desvelado el misterio de la Gran Mancha Blanca de Saturno
Categories: Zientzia

¿Afecta el sexo a los síntomas de una enfermedad?

Sat, 2019/05/11 - 12:00

¿Afecta el sexo a los síntomas de una enfermedad? La Fundación Española del Corazón (FEC) afirma que “los síntomas del infarto agudo de miocardio y la percepción de estos se presentan de diferente modo dependiendo del sexo de la persona que lo sufra”.  A pesar de que mujeres y hombres comparten los síntomas típicos, la enfermedad cardiovascular en la mujer es diferente en muchos aspectos respecto al hombre y puede cursar con síntomas distintos, los llamados atípicos, que en muchos casos tanto las propias mujeres como las y los profesionales médicos que las atienden no están acostumbrados a tener en cuenta. Esto es así debido a que, tradicionalmente, se han aceptado como propios y únicos en ambos sexos los síntomas comunes.

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

El artículo ¿Afecta el sexo a los síntomas de una enfermedad? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La ecología de una enfermedad
  2. ¿Podría un humano vivir en el mar?
  3. Prevenir y tratar la enfermedad de Alzheimer: Una visión moderna
Categories: Zientzia

CSI Bilbao: entomología forense

Fri, 2019/05/10 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

Foto: Strikers / Pixabay

Desde que en 1235, el magistrado chino Sung Tz’u de la Dinastía Song incriminara por vez primera a un asesino gracias a la colaboración de moscardones, la entomología forense ha ido implantándose y perfeccionando sus técnicas en el mundo occidental. Pasarían siglos hasta que un médico militar francés Jean Pierre Mégnin registrara meticulosamente los artrópodos que encontraba en restos cadavéricos (Faune des Tombeaux, 1887) de forma ordenada y sistemática, organizados en lo que llamó “escuadrones de la muerte”. Así, en su obra La faune des cadavres. Application de l’entomologie à la médecine légale (Masson-Gauthier Villars Ed.,1894) nos muestra el primer modelo de sucesión ecológica aplicado a la investigación forense. En los albores de la Ecología como disciplina científica, el Dr. Mégnin demostró como un cadáver se comporta como una isla, con una fauna que le es propia y diferente de los ecosistemas circundantes. Por ello, aunque se intente ocultar un crimen o confundir a los inspectores trasladándolo a otro lugar, es posible demostrar el lugar donde ha sido asesinada una persona o cualquier otra especie animal, cuando se cometió el crimen, y realizar el seguimiento de mercancía que se introduce legal o ilegalmente en nuestro país.

Así, la entomología forense va más allá de lo que nos muestran series televisivas famosas como CSI o Bones y nos permite aplicar nuestros conocimientos para ayudar a empresas y a agentes a de aduanas a determinar el origen de la contaminación de una determinada mercancía, a diagnosticar comportamientos negligentes ante la presencia de larvas miásicas, piojos y otras especies en el cuerpo de pacientes y otras personas dependientes, etc. Incluso podemos demostrar si una persona sospechosa estuvo o no en un lugar donde se cometió el crimen dado que muscas especies de artrópodos se encuentran sólo en hábitats muy particulares y un pequeño ácaro, sus picaduras o fragmentos del cuerpo nos pueden permitir conectarle con un lugar específico. Para ello, necesitamos conocer en profundidad que especies de artrópodos habitan en nuestra región, como se distribuyen, que condiciones ambientales requieren, en que periodos del año están activos, como son sus ciclos, cuanto duran, etc. algo que resulta difícil de abordar sabiendo que más de las tres cuartas partes de los animales conocidos son artrópodos y que al igual que el resto de invertebrados dependen de la temperatura exterior para desarrollarse y factores como la duración de los días pueden condicionar su capacidad reproductora.

Figura 1. Experimento de Francesco Redi (1626-1697) donde se demuestra la falacia de la generación espontánea. A) Los botes sin tapar permiten el acceso de insectos que depositan sus huevos y, en pocas horas las larvas nacen y devoran los restos. B) Los botes debidamente tapados no permiten el acceso de los insectos y la carne permanece incorrupta.

La relación entre los cadáveres y los insectos es conocido desde antiguo. De hecho, muchas culturas desarrollaron técnicas para impedir que los insectos deterioraran los restos de sus seres queridos o adorados. Es más, no sólo los egipcios embalsamaban los cuerpos de los muertos para evitar que otros organismos degradaran el cuerpo durante el viaje al más allá. También encontramos momias de culturas mayas, guanches y de pueblos asiáticos. Los vikingos incineraban los cuerpos y, con el tiempo, la gran mayoría de las culturas hemos enterrado los restos de nuestros seres queridos para evitar que los insectos los devoren. Aun así, no serán las mismas moscas necrófagas que llegaron a la hoz las que colonicen el cadáver sino otras especies capaces de detectar y hasta de descender varios metros bajo tierra hasta invadir cadáveres enterrados.

Concepto

La entomología forense es una disciplina que aplica el conocimiento adquirido sobre la biología, la estructura y la dinámica de las comunidades de artrópodos en la resolución de problemas civiles y casos criminales. Las muestras entomológicas recolectadas podrán ser empleadas como pruebas ante un Tribunal de Justicia, por lo que deberán ser adecuadamente conservadas y custodiadas hasta el requerimiento de la autoridad judicial competente.

Un error en la identificación, o una aplicación inadecuada de datos publicados, puede suponer un error en las conclusiones y, en consecuencia, la incriminación por error de una persona inocente. Por las consecuencias que derivan de una mala investigación, el trabajo debe ser llevado a cabo por personas competentes, debidamente formadas con adecuados conocimientos sobre la biología y dinámica de las especies involucradas. Por la complejidad de las comunidades de artrópodos, con frecuencia se requiere de la colaboración de diferentes expertos en los diversos grupos de artrópodos que sean recolectados durante la investigación pericial. Es más, sin un debido entrenamiento, determinados artrópodos o algunas de sus fases pueden pasar desapercibidos e incurrir en errores que irán acumulándose a lo largo de la investigación posterior. Por ello, es imprescindible el desarrollo de habilidades específicas para la adecuada aplicación de la entomología a la ciencia forense.

Método de trabajo

Uno de los aspectos fundamentales de toda investigación forense, es la relación indubitada entre la prueba y los hechos a investigar. Por ello, es fundamental establecer un protocolo minucioso de actuación que permita asociar sin ningún lugar a dudas la muestra del artrópodo con el caso a investigar. En el caso concreto de la entomología forense, existe el problema añadido de que la “prueba”, esto es el insecto, se ha podido ver naturalmente modificada a lo largo de la investigación dado que puede ser necesario criarla hasta alcanzar su estado adulto; por ejemplo, para estimar su edad con precisión, o para identificar la especie correctamente. Con frecuencia, la identificación específica sólo es posible con ejemplares adultos dado que éstos poseen las estructuras sexuales que permiten la identificación indubitada de la especie. Por ello, en el procedimiento a seguir es fundamental tener en consideración si va a ser necesario realizar cría en condiciones controladas de una parte de población para obtener ejemplares adultos que permitan una correcta identificación de la especie. Centraremos las explicaciones en casos de investigación criminal, dado que los métodos no difieren en los procedimientos civiles (tráfico de mercancías, mobiliario o inmuebles dañados, etc.) y requieren de mayor cuidado en el proceso, dadas las consecuencias que derivan de dicha investigación.

Los procedimientos a seguir difieren dependiendo del estado de descomposición del cadáver. En casos de fallecimiento reciente, el cadáver presentará abundancia de larvas en crecimiento que se alimentan de los restos cadavéricos hasta finalizar su desarrollo larvario. Corresponden a los huevos depositados por los primeros insectos en llegar al cadáver, habitualmente moscas califóridas, sarcofágidos o múscidos. Estas moscas son capaces de detectar el cadáver a varios kilómetros de distancia y, por su excelente capacidad de vuelo, llegar a éste en cuestión de minutos. Una vez lo localizan, si son hembras grávidas (ha habido cópula y los huevos están fecundados), depositarán inmediatamente huevos con clara preferencia por las cavidades naturales (boca, ojos, nariz, ano, etc). Sólo cuando las cavidades están saturadas, continúan depositando huevos sobre la piel, las prendas, el suelo, etc. De dichos huevos nacerán unas larvas diminutas que pueden pasar desapercibidas si no se inspecciona adecuadamente el cadáver. A lo largo de los días sucesivos irán comiendo y creciendo a velocidades vertiginosas si las condiciones ambientales son adecuadas, hasta alcanzar su máxima longitud en pocos días, momento en que abandonan la fuente de alimentación para pasar a la siguiente fase, la pupa, donde tiene lugar la metamorfosis y de la que emergerá una mosca que iniciará de nuevo el ciclo (fig. 2)

Figura 2. Ciclo biológico de una mosca caifórida. 1) masa de huevos sobre restos animales, con moscas y escarabajos depredadores de sus huevos. 2) Larva recién nacida en fase I de desarrollo. 3) Larvas migratorias junto a una prepupa. 4) prepupa y pupas de diferente edad. 5) imago intentando emerger del pupario; en ocasiones, hay dificultades para salir del pupario y el imago fallece o es inmediatamente depredado por un insectívoro; imago recién emergido donde se aprecia el ptilinum empleado para romper el pupario y salir de su escondite, y la ausencia de alas, las cuales se limitan a pequeños esbozos sobre el abdomen. Una vez extendidas las alas y endurecida la cutícula, la mosca habrá adquirido su color definitivo y podrá iniciar el desarrollo y maduración del aparato reproductor, alcanzando la categoría de adulto s.s. 7) Adulto debidamente conformado y apto para emprender el vuelo y localizar una pareja.

 

En cadáveres en avanzado estado de descomposición, cuando las primeras larvas finalizaron el desarrollo y abandonaron el cadáver, es fundamental fijar nuestra atención en otras especies de artrópodos que han ido llegando después de que las primeras moscas depositaran los primeros huevos. El proceso sigue un modelo similar a otras pautas de colonización de nuevos ambientes, donde especies pioneras modificaron el entorno permitiendo el asentamiento de nuevas especies que van definiendo un modelo específico de sucesión faunística. A los necrófagos les seguirán depredadores, parasitoides, etc. que nos permitirán realizar estimaciones muy precisas de la edad del entono cadavérico. Sólo una adecuada recogida de todos los artrópodos presentes en torno al cadáver y su correcta identificación específica aseguraran una estimación fiable del periodo de actividad de los insectos (PAI) que nos permitan adecuarlo a la estimación del intervalo postmortem (IPM).

Desde el año 2003, el grupo de investigación consolidado BIOMICS4 de la Universidad del País Vasco / Euskal Herriko Unibertsitatea (UPV/EHU) está sentando las bases para el correcto desarrollo de esta disciplina en la Comunidad Autónoma del País Vasco, elaborando mapas de distribución de las principales especies de califóridos5, sus patrones de desarrollo6 en presencia y ausencia de parasitoides, modelos de sucesión faunística7, caracterización molecular de insectos necrófagos y miásicos8,9, y colaborado en el esclarecimiento de diferentes casos10,11, tanto criminales como civiles12.

Referencias:

1Ci, S. (1247) The Washing Away of Wrongs. en B.E. en McKnight. (1981) The Washing Away of Wrongs: Forensic Medicine in Thirteenth-Century China. Science, medicine, and technology in East Asia, v. 1. Ann Arbor: Center for Chinese Studies, University of Michigan.

2Megnin, J.P. (1887) Faune des Tombeaux.Ed. Gauthier Villars.

3Megnin, J.P. (1894) La faune des cadavres application de l’entomologie à la médecine légale. Ed. Masson.

4Universidad del País Vasco / Euskal Herriko Unibertsitatea (UPV/EHU). Biomics Research group. http://www.biomics.es.

5M. Saloña, J. Moneo, B. Díaz. 2009. Estudio sobre la distribución de califóridos en la Comunidad Autónoma del País Vasco Boletín de la Asociación Española de Entomología, 33 (1-2): 63-89

6Diaz Martín B., A. López Rodríguez y M. I. Saloña Bordas. 2013. Primeros resultados sobre desarrollo de Calliphora vicina (Diptera, Calliphoridae) bajo condiciones controladas de temperatura. Ciencia Forense, 11-12 (en prensa)

7Morales Rayo J., G. San Martín Peral y M. I. Saloña Bordas. 2013. Primer estudio sobre la reducción cadavérica en condiciones sumergidas en la Península Ibérica, empleando un modelo de cerdo doméstico (Sus scrofa L., 1758) en el Río Manzanares (Comunidad Autónoma de Madrid). Ciencia Forense, 11-12 (en prensa)

8 Pancorbo M. M., A. Castro, I. Fernández-Fernández, N. Cuevas, M. Castillo, M. Saloña. 2004. Entomología molecular forense. Ciencia Forense 8: 107-130

9GilArriortua M, M.I. Saloña Bordas, L.M. Cainé, F. Pinheiro & M.M. de Pancorbo. 2013. Cytochrome b as a useful tool for the identification of blowflies of forensic interest (Diptera, Calliphoridae). Forensic Science International, 228(1–3): 132-136.

10Saloña M.I., Mª L. Moraza, M. Carles-Tolrá, V. Iraola, P. Bahillo, T. Yélamos, R. Outerelo y R. Alcaraz. Searching the soil. Report about the importance of the edaphic fauna after the removal of a corpse. Journal of Forensic Sciences 55(6): 1652-1655.

10Martínez-Sánchez A., C. Magaña, M. Saloña, & S. Rojo. First record of Hermetia illucens (Diptera: Stratiomyidae) on human corpses in Iberian Peninsula. Forensic Science International, 206 (1-3): e76-e78.

11Saloña M. 2005. Forensic Entomology besides corpses and morgues. 2 new cases reported from the Basque Country (N. Spain). 3d meeting of the European Association for Forensic Entomology EAFE, Laussanne.

Sobre la autora: Marta Saloña es profesora del departamento de Zoología y Biología Celular Animal de la Facultad de Ciencia y Tecnología y asesora científica del Servicio de Entomología Forense (SGIKER) de la UPV/EHU.

El artículo CSI Bilbao: entomología forense se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. A new hero is born: La espectrometría de masas al servicio de la justicia
  2. En busca del compuesto perdido
  3. Los biólogos de la UPV/EHU y la conservación de la naturaleza
Categories: Zientzia

Por qué unos países apuestan por la energía nuclear mientras otros la arrinconan

Fri, 2019/05/10 - 08:00

Mar Rubio Varas

File 20180906 190636 19tzkjs.jpg?ixlib=rb 1.1Unsplash, CC BY-SA

 

¿Por qué unas tecnologías son polémicas mientras que otras se adoptan sin más? Quienes no comprenden que algunos avances provoquen recelos en la sociedad expresan su sorpresa argumentando que “la tecnología no tiene ideología”. Aunque aceptásemos esa premisa, es imposible obviar que los grupos, instituciones y personas que promueven una opción tecnológica sí que la tienen.

Las tecnologías no se instalan en el vacío, sino que se insertan en una sociedad concreta en un momento concreto. Este contexto social determina que tenga (o no) una recepción parecida en distintas sociedades.

Por otro lado, cada tecnología tiene un potencial distinto para alterar el tejido social y los modos de vida, generar interés o preocupación, crear negocios o provocar la desaparición de otros. En suma, tecnología y sociedad interactúan y se transforman de forma mutua.

Esa es la pregunta que el proyecto History of Nuclear Energy and Society (HoNESt) quiere responder en el ámbito de la energía nuclear en Europa. Se trata de un consorcio de 25 instituciones de quince países europeos financiado por el programa de la UE Horizonte 2020 y Euratom.

Del sí de Francia al no de Austria

La energía nuclear tiene niveles de aceptación muy diferentes en Europa. El viejo continente alberga algunos de los países con más energía nuclear producida, tanto en términos absolutos (Francia) como relativos (Eslovaquia, Hungría, Bélgica, Suecia…).

También incluye países que optaron pronto por no implantarla (Austria, Dinamarca, Portugal), otros que contuvieron su expansión (España) o planificaron su abandono (Alemania). Incluso cuenta con el único caso en el mundo de un país que cerró sus nucleares de golpe, después de más de veinte años (Italia).

Mientras tanto, Francia sigue apostando por la energía nuclear. Reino Unido, Hungría, Polonia y Bulgaria tienen proyectos en activo para construir nuevas centrales. Este no es un tema controvertido del pasado: forma parte del presente y lo será del futuro. ¿Qué hace tan diferentes las reacciones de las sociedades europeas con respecto a la energía nuclear?

Al comparar los distintos casos europeos, HoNESt trata de comprender las motivaciones, formas de participación, actores involucrados, contexto económico y sociopolítico y cómo fueron de exitosos para los grupos de interés (es decir, quién se beneficia y cómo).

En general, con alguna excepción, hemos observado una falta de interacción entre los actores sociales sobre temas sensibles y éticos provocados por el cambio tecnológico. Históricamente, las estrategias gubernamentales e industriales de “limitación de la información” han permitido el éxito a corto plazo, pero han sido ineficaces para asegurar el apoyo social y ganar la confianza de la sociedad a largo plazo.

En la implantación de la energía nuclear, como de otras muchas tecnologías, los promotores optaron con frecuencia por enfoques del tipo “decidir-anunciar-defender”, donde la falta de participación democrática crea la sensación, potencialmente legítima, de ausencia de justicia energética. En contraste, las oportunidades para debatir, deliberar y participar en un diálogo más abierto conducen, según la literatura de ciencias sociales y los casos nacionales que manejamos en HoNESt, a una gobernanza energética más constructiva y sostenible en el tiempo.

La importancia de la honestidad

La falta de honestidad, las restricciones en el acceso a la información y la dejadez frente a las preocupaciones y prioridades de los ciudadanos han sido identificadas en nuestro análisis comparativo como factores de protección a corto plazo contra las polémicas sociotecnológicas. Pero también son las semillas de dificultades seguras a largo plazo.

Los análisis de los investigadores de HoNESt también destacan que el apoyo y la oposición a la energía nuclear, tanto de los ciudadanos como de los gobiernos, es dinámico. Las preferencias cambian según las condiciones ambientales, sociales y económicas. Como resultado, lo que se percibe como exitoso con respecto al avance tecnológico en un momento puede pasar a percibirse como un estruendoso fracaso años más tarde, y viceversa.

Los posicionamientos sobre la energía nuclear varían también en función del momento histórico y del contexto en el que se produjeron. En Europa del sur y central la izquierda ha tendido a posicionarse en contra. Sin embargo, en Europa del este es la derecha liberal y proeuropea la que con más vehemencia se ha opuesto.

Esto no es más que el reflejo de lo que advertíamos al comienzo: las tecnologías no se insertan en el vacío. En cada país, las alianzas que se configuran para promover una cierta opción tecnológica condicionan qué grupos se posicionarán en sentido opuesto.

Los aspectos industriales y económicos también han desempeñado un papel importante en el desarrollo nuclear. Poner el foco únicamente sobre tales objetivos, por encima de los de justicia social y participación pública, arriesga la legitimidad democrática de tales desarrollos. También la eficacia de la interacción civil-nuclear y las respuestas de la sociedad a la tecnología en el largo plazo. La equidad en los procesos que resuelven disputas y asignan recursos deben estar presentes si el objetivo es obtener una gobernanza energética responsable y duradera.

Sobre la autora: Mar Rubio Varas es responsable de la Secretaría Científica de HoNESt, profesora titular de Historia e Instituciones Económicas e investigadora del Institute for Advanced Research in Business and Economics (INARBE) de la Universidad Pública de Navarra

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Por qué unos países apuestan por la energía nuclear mientras otros la arrinconan se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una fórmula para dominarlos a todos: La conservación de la energía y la ley de la palanca
  2. La fusión nuclear como fuente de neutrones eficiente
  3. No hay renacimiento nuclear
Categories: Zientzia

El sorprendente caso de la nota invisible

Thu, 2019/05/09 - 11:59

Una estudiante, a quien el Dr. Goldovsky describe como “técnicamente competente pero mala lectora”, preparó un Capriccio de Brahms (Op.76, No.2) para ensayarlo durante la clase. Empezó a tocar la pieza del tirón pero, al llegar al acorde de Do sostenido Mayor, 42 compases antes del final, tocó un sol natural en lugar de un sol sostenido (que sería lo apropiado en un acorde mayor). Goldovsky le pidió que parara para corregir el error pero la estudiante le miró confusa: decía haber tocado lo que estaba escrito. Para sorpresa de Goldovsky, la joven tenía razón. Ella había interpretado exactamente lo que ponía en la partitura -errata incluida.

La anécdota la relata el flautista y psicólogo Thomas Wolf en un artículo sobre lo que se conoce como lectura musical a primera vista1 . Al parecer, la nota falsa estaba presente en todas las ediciones disponibles de la partitura pero había viajado inadvertida, de copia en copia durante un siglo, ante la mirada atenta de cientos de pianistas. Ninguno de ellos había sido capaz de verla, ni siquiera los doce conejillos de indias a quienes, más tarde, Goldovsky pidió explícitamente encontrarla.

Lo curioso de esta historia es que fue, precisamente, una mala lectora, la única capaz de leer con precisión la música escrita. Los músicos expertos consiguen leer a mayor velocidad gracias a todo un conocimiento implícito del contexto musical que les permite detectar automáticamente ciertos patrones. La estudiante, en cambio, careciendo de las expectativas que acompañan a los lectores con más experiencia, requería una cantidad mayor de información procedente de la partitura y de esta manera, paradójicamente, su interpretación era la más fiel al papel.

Si eres músico y, a estas alturas, te quema la curiosidad, te invito a buscar la errata en esta versión animada de la partitura de Brahms, o en su primera edición. Al cabo de un rato, y antes de que te quedes bizco, aquí tienes una pista: minuto 1’44’’.

Si no eres músico, te propongo un experimento parecido. Quiero que cuentes cuántas letras “F” aparecen en la siguiente oración, lo más rápido que puedas (puedes hacerlo despacio, si quieres, pero entonces pierde la gracia):

FINISHED FILES ARE
THE RESULT OF YEARS
OF SCIENTIFIC STUDY COMBINED
WITH THE EXPERIENCE OF YEARS

Si eres bilingüe o sueles leer con fluidez en inglés, quizás hayas contado unas tres o cuatro “F”. En cambio, si el inglés no es una lengua que domines especialmente (si eres un “mal” lector en comparación con alguien nativo, pongamos), probablemente hayas conseguido ver las 6 F que, de hecho, hay. El motivo es que los lectores nativos omiten los tres “of” presentes en la frase. Simplemente, no los ven.

Cuando pensamos en palabras o en frases, de hecho, solemos centrarnos en los nombres, verbos y adjetivos que portan casi toda la carga semántica. El resto son las “palabras invisibles” de las que habla Itziar Laka en esta maravillosa charla de Naukas 14 (la que inspira el presente artículo): preposiciones, nexos, sufijos, morfemas… pequeñas partículas en las que, a menudo, ni siquiera reparamos y que sin embargo, caracterizan por completo un idioma; sostienen, como tornillos en las cornisas de un enorme castillo, toda su gramática.

Cuenta también Laka que las palabras invisibles son las más frecuentes de una lengua, son las que el español suene a español, son las que dan forma a los patrones subyacentes en una lengua, patrones que detectamos, aun sin saber que los estamos detectando, desde que somos apenas bebés (la charla es una delicia, os recomiendo encarecidamente verla).

La música, como el lenguaje, está también llena de “notas inaudibles”. Son notas que no brillan necesariamente en la melodía, las notas que nadie canta, las notas que nos dejamos en el fondo de la memoria cada vez que recreamos nuestro tema pop preferido en la ducha. Pero están ahí, presentes, formando eso que se conoce como “armonía” y que es la verdadera gramática del lenguaje de la música.

Desde 1871, a 43 compases del final del segundo Capriccio op. 76 de Brahms, hay una nota falsa que nadie ve. Sabemos que es una nota falsa por mucho que Brahms la escribiera, por mucho que su editor, su copista y cien años de pianistas la pasasen de largo: reconocemos el error porque armónicamente no tiene sentido. La nota vive escondida, haciéndose pasar por un morfema del acorde de Do sostenido Mayor al que verdaderamente pertenece. Cuando los músicos pasan por ella, entienden su función gramatical por el contexto, entonan la melodía y siguen.

Referencia:

1Thomas Wolf, “A Cognitive Model of Musical Sight-Reading,” Journal of Psycholinguistic Research, April 1976. https://www.researchgate.net/publication/225262636_A_cognitive_model_of_sight-reading

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El sorprendente caso de la nota invisible se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas14 El sorprendente caso de las palabras invisibles
  2. La sorprendente densidad ósea de los atletas kenianos
  3. El sorprendente penacho de Marte
Categories: Zientzia

La sucesión de Levine

Wed, 2019/05/08 - 11:59

Neil James Sloane (1939) es un matemático que ha trabajado en combinatoria, en códigos correctores de errores y en el problema de empaquetamiento de esferas. Pero es sobre todo conocido por la creación y el mantenimiento de la magnífica página On-Line Encyclopedia of Integer Sequences (Enciclopedia On-Line de las Sucesiones de Números Enteros, OEIS por sus siglas en inglés), una base de datos que cataloga sucesiones de números enteros. Para cada sucesión registrada en este repositorio se incluyen sus primeros términos, la manera en la que se genera, sus propiedades matemáticas, su interés y enlaces a artículos que hablan de ella.

Neil Sloane. Imagen: Wikimedia Commons.

 

Sloane empezó a recopilar estas sucesiones de enteros en 1964 debido a sus trabajos en combinatoria. Tras publicar un par de libros sobre el tema, muchas personas comenzaron a enviarle ejemplos de sucesiones que él no había seleccionado. Era tal cantidad de propuestas que recibía que, a partir de 1995, decidió empezar a registrarlas en Internet. Desde 2002, un grupo de personas voluntarias ayudan a editar y mantener esta interesante iniciativa. En marzo de 2018 la OEIS alcanzó un total de 300.000 sucesiones registradas, utilizadas por su interés científico y también por amantes de la matemática recreativa.

Por cierto, el número de Erdős de Sloane es 2.

Aunque en esta anotación pretendía hablar de la sucesión de Levine (que he conocido gracias a la también magnífica página Futility Closet), he querido empezar por esta pequeña reseña de Sloane ya que fue él quien dio a conocer esta sucesión. En efecto, como comentaba en el artículo My Favorite Integer Sequences (páginas 15 y 16), en el verano de 1997 el matemático Lionel Levine le envío una propuesta de nueva sucesión para la OEIS. La sugerencia enseguida captó la atención de Sloane y la de otros colegas. Está catalogada como A011784 en la OEIS.

Los primeros términos de la sucesión de Levine son:

1, 2, 2, 3, 4, 7, 14, 42, 213, 2837, 175450, 139759600, 6837625106787, 266437144916648607844, 508009471379488821444261986503540, 37745517525533091954736701257541238885239740313139682, 5347426383812697233786139576220450142250373277499130252554080838158299886992660750432,…

Como puede observarse, los términos crecen rápidamente. ¿Pero cómo se construye? Cada término de esta sucesión es el último término de la correspondiente fila de esta tabla de números:

1 1

1 2

1 1 2

1 1 2 3

1 1 1 2 2 3 4

1 1 1 1 2 2 2 3 3 4 4 5 6 7

1 1 1 1 1 1 1 2 2 2 2 2 2 3 3 3 3 3 4 4 4 4 5 5 5 5 6 6 6 7 7 7 8 8 9 9 10 10 11 12 13 14

Esta tabla se construye siguiendo la siguiente regla:

  • la primera fila es 1 1;

  • cada una de las filas siguientes se construye leyendo la fila anterior de derecha a izquierda y pensando en un registro de números (de derecha a izquierda, 1, 2, 3, etc.).

Veamos algunos ejemplos para aclarar cómo se genera la tabla:

  • la primera fila se lee «un 1 y un 2», con lo que la segunda fila queda:

1 2.

  • La segunda fila se lee «dos 1 y un 2», y entonces la tercera fila queda:

1 1 2.

  • La tercera fila se lee «dos 1, un 2 y un 3», y entonces la cuarta fila queda:

1 1 2 3.

  • La cuarta fila se lee «tres 1, dos 2, un 3 y un 4», y entonces la quinta fila queda:

1 1 1 2 2 3 4.

Y se continúa así sucesivamente (pueden verse más detalles en My Favorite Integer Sequences).

De momento sólo se conocen 19 términos de la sucesión de Levine… el término 19 de esta sucesión posee ¡221 dígitos!, es éste:

83941772663735173160560543672534726683873453747462593691278544525723285290023673872585715830432071384827472565652426695269724710458808241779132656748501183672544006254377431217217762964060736471826937656819379445242826439

¿Se conseguirá encontrar el vigésimo término? En noviembre de 1997, cuando sólo se conocían 15 de los términos de la sucesión de Levine, Sloane decía: “[…] as I said it may be impossible to calculate the 20th term!”. Ojalá se equivoque.

Referencias

  1. Levine’s Sequence, Futility Closet, 30 abril 2019

  2. Neil Sloane, Wikipedia (consultado el 4 de mayo de 2019)

  3. OEIS, Wikipedia (consultado el 4 de mayo de 2019)

  4. OEIS (castellano e inglés)

  5. N. J. A. Sloane, My Favorite Integer Sequences, arXiv:math/0207175

  6. A011784, OEIS (consultado el 4 de mayo de 2019)

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo La sucesión de Levine se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La misteriosa sucesión de Kolakoski
  2. El secreto de los números que no querían ser simétricos
  3. El problema de la plantación de árboles en filas (2)
Categories: Zientzia

El sistema de periodos

Tue, 2019/05/07 - 11:59
Ordenamiento original usando símbolos modernos de “Un experimento sobre un sistema de elementos basado en sus pesos atómicos y sus similitudes químicas” de Dmitri Ivanóvich Mendeléyev (1869). Los signos de interrogación señalan elementos aun no descubiertos. Fuente: Wikimedia Commons

En 1869 un químico llamado Dmitri Ivanóvich Mendeléyev dispuso los 63 elementos entonces conocidos en filas según sus propiedades químicas, construyendo columnas conforme aumentaban los pesos atómicos [1]. Encontró que cuando se organizaban de esta manera aparecía una periodicidad. Llamó a su trabajo “Un experimento sobre un sistema de elementos basado en sus pesos atómicos y sus similitudes químicas”. Aunque faltaban algunos elementos para que todo cuadrase, Mendeléyev asumió correctamente que eran elementos aun por descubrir y dejó no solo un espacio para ellos sino una previsión de sus propiedades químicas en función de la periodicidad que les correspondía por su posición. El hallazgo posterior de estos elementos confirmaría la hipótesis periódica. Había sido descubierto el sistema de periodos [2].

En 1871 Mendeléyev cambió el ordenamiento, de tal forma que las propiedades químicas eran similares en las columnas [3]. En los encabezamientos aparecen las fórmulas de los hidruros, de ser conocidos, y óxidos.  Los guiones indican elementos que faltan por descubrir. La imagen corresponde a una traducción alemana de la tabla de 1871. Fuente: Wikimedia CommonsSolo un elemento puede ocupar una posición concreta en una tabla periódica. A cada elemento se le asigna un número en cada posición. Este número, llamado número atómico, ahora va desde el 1 para hidrógeno al 118 para el oganesón (Og). Se le asigna el símbolo Z. El número atómico identifica inmediatamente el elemento, ya que es único para cada elemento. Siempre es un número entero y suele aparecer en la parte superior de la cuadrícula de cada elemento en la mayoría de las tablas periódicas actuales . Por lo tanto, cuando alguien se refiere al elemento Z = 3, inmediatamente sabemos que se están refiriendo al elemento litio; El elemento 6 es carbono, el 79 oro, y así todos.

Tabla periódica moderna (diseño Werner-Paschen) actualizada a 2019 con la indicación de los números atómicos. Fuente: Wikimedia Commons.

Los elementos dispuestos en una tabla periódica moderna que se encuentran uno debajo del otro en cada columna o grupo comparten propiedades químicas y físicas en un grado notable, como Mendeléyev había descubierto. Por lo tanto, se puede considerar que estos elementos pertenecen a la misma «familia» de elementos. Por ejemplo, el grupo 1 contiene la familia de los metales alcalinos: litio, sodio, potasio, rubidio, cesio y francio [4]. Este es un grupo de metales blandos con densidades muy bajas, puntos de fusión bajos y comportamiento químico similar. Otra familia de elementos, llamados halógenos, se encuentra en el grupo 17: flúor, cloro, bromo, yodo, astato [5]. Estos elementos se combinan violentamente con muchos metales y forman sales cristalinas blancas (halógeno significa «formador de sal»). Estas sales tienen fórmulas similares, como NaF, NaCl, NaBr, MgCl2, MgBr2, etc.

Ocasionalmente, por razones entonces desconocidas, era necesario apartarse del esquema general de ordenamiento de los elementos. Por ejemplo, las propiedades químicas del argón (Ar) y del potasio (K) exigen que se coloquen en las posiciones dieciocho y diecinueve para que se encuentren en grupos característicos por sus propiedades químicas. Sobre la base de sus masas atómicas solamente (39,948 u para argón; 39,102 u para potasio) sus posiciones tendrían que estar invertidas.

La regularidad, simetría y capacidad predictiva del sistema de periodos son indicios de que el modelo que explique la estructura de los átomos de los distintos elementos posee también estas características. Ese modelo surgiría a lo largo de la primera mitad del siglo XX, y no defraudó. Veremos la gran cantidad de ingenio y trabajo detectivesco que fue necesario para comprender la estructura de los átomos y como, de ella, surge la periodicidad de los elementos que podemos observar.

Notas:

[1] ¡Atención! ¡Esto es diferente a las tablas periódicas actuales!

[2] Por mucho que este año se celebre el 150 aniversario de “la tabla periódica” lo correcto es decir que se celebra el 150 aniversario del sistema de periodos. La tabla periódica tal y como la solemos utilzar es un diseño químico-físico establecido por Werner y perfeccionado por Paschen en los años treinta del siglo XX. Hay muchos diseños, pero en lo sucesivo tabla periódica moderna significará tabla Werner-Paschen

[3] En esto coincide con las tablas periódicas modernas.

[4] ¿Es el hidrógeno un metal?¿Qué hace ahí? Lo descubriremos avanzada esta serie.

[5] Las propiedades químicas del teneso (Ts) aún no son bien conocidas pero puede que se aparten algo de las típicas de los halógenos. De hecho el astato se parece químicamente al yodo pero es significativamente más metálico. Ya iremos descubriendo por qué.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El sistema de periodos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El sistema de la difusión social de la ciencia: Catalizadores del sistema y consideraciones finales
  2. El orden es una fantasía
  3. La ley de proporciones definidas y la unidad de masa atómica
Categories: Zientzia

Máster on-line en Cultura Científica

Mon, 2019/05/06 - 11:59

El próximo curso académico (2019/20), la UPV/EHU y la UPNA van a ofrecer un máster propio en Cultura Científica con estructura modular que será impartido on-line.

Después de analizar la oferta de estudios de posgrado en materia de comunicación y cultura científica por parte de universidades españolas, los promotores de este máster llegamos a la conclusión de que podría ser interesante ofrecer estudios de cultura científica que fueran de utilidad a profesionales de perfiles diversos, tales como periodistas interesados en el periodismo científico, personal docente de diferentes niveles académicos, personas interesadas en dedicarse a la divulgación científica, y otros.

Nuestro interés se aleja de lo más eminentemente académico, por un lado, y de lo estrictamente comunicativo, por el otro, pero sin renunciar completamente a esas vertientes. Nos interesa más abordar la formación en cultura científica desde la perspectiva de la divulgación, así como la introducción de contenidos sólidos de historia y filosofía de las ciencias. Porque para adoptar una actitud crítica hacia el conocimiento y la información científica es muy importante contar con nociones básicas acerca de la forma en que se han desarrollado las disciplinas, así como de la rica reflexión filosófica acerca de la naturaleza del conocimiento científico que se ha ido atesorando con el tiempo.

Historia y filosofía de la ciencia son, pues, áreas incluidas entre los contenidos de nuestra oferta. Pero además, y como es lógico, un máster sobre cultura científica ha de incluir también conocimientos científicos concretos. En unos estudios de las dimensiones de un máster no es posible abarcar un gran conjunto de conocimientos. Por otra parte, el bagaje acumulado por las ciencias durante su desarrollo es de tal amplitud que resultaría vana cualquier pretensión de ofrecer un panorama de las ciencias más o menos completo. Por ello, a la hora de delimitar los contenidos sustantivos de ciencia, hemos optado por seleccionar algunas materias de carácter básico y otras cuyo interés radica en su directa relación con aspectos de la vida cotidiana. De esta forma, pretendemos ofrecer ejemplos escogidos que sirvan para ilustrar la forma en que funciona la ciencia, a la vez que ofrecemos formación científica básica.

En definitiva, no pretendemos enseñar ciencias, sino transmitir y facilitar una visión amplia de la cultura científica, entendida como un conjunto de conocimientos (mediante ejemplos escogidos), una forma de adquirirlos, una historia plural y una reflexión acerca de su naturaleza y las vías para su difusión social.

El máster está diseñado de acuerdo con una estructura modular que permite obtener diferentes títulos (especialista universitario, experto y máster) en función de los créditos que se cursan. Está basado en asignaturas de 2 ECTS que se completan en 5 semanas. Y la mayor parte del profesorado participa en eventos presenciales de cultura científica (BZP, Semana de la Ciencia, Conversaciones del máster FCV, etc.).

 

Hemos concebido el máster como un conjunto de títulos mediante los que queremos contribuir a mejorar la percepción y comprensión de la ciencia por parte de la sociedad, a proporcionar la formación más flexible, diversa y asequible en el ámbito iberoamericano; y hacer que la cultura científica sea accesible, atractiva y rigurosa. Y trabajamos en sintonía con los departamentos de Educación del Gobierno Vasco y del Gobierno Foral, fomentando alianzas con estrategias y proyectos ya existentes como STEAM y Planeta-STEM.

Este es un proyecto liderado por cuatro agentes universitarios: Cátedra de Cultura Científica de la UPV/EHU; Máster oficial UPV/EHU-UNAM en Filosofía, Ciencia y Valores (Donostia); Cátedra de divulgación del conocimiento y cultura científica UPNA (Pamplona), Unidad de Cultura Científica UPNA (Pamplona); y Fundación Universidad-Sociedad UPNA (Pamplona). La comisión académica del máster está formada por Antonio Casado da Rocha (UPV/EHU), Joaquín Sevilla Moróder (UPNA) y Juan Ignacio Pérez Iglesias (UPV/EHU)

Las personas interesadas en preinscribirse, recibir más información o aclaraciones adicionales, puede dirigirse a nuestra página web  o escribirnos a la dirección m.cultura.cientifica@gmail.com. También estamos en twitter (@culturacienti).

Y no lo olvides: se trata de estudios que se imparten on-line, sin necesidad de conectarse a horas prefijadas, lo que permite adaptarse a los horarios de cada estudiante.

El artículo Máster on-line en Cultura Científica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cultura científica y cultura democrática
  2. “Filosofía, Ciencia y Valores”, el máster
  3. La Cátedra se va de máster
Categories: Zientzia

Pages