La cámara de niebla

Fue posible distinguir experimentalmente entre las dos hipótesis posibles para explicar la desintegración artificial mediante el uso de un dispositivo llamado «cámara de niebla», que permite visualizar la trayectoria de cada partícula cargada. La cámara de niebla fue inventada por C.T.R. Wilson y perfeccionada por él a lo largo de los años. A partir de 1911 se convertiría en un importante instrumento científico para estudiar el comportamiento de las partículas subatómicas.
En el caso de la desintegración artificial, recordemos, las dos hipótesis eran:
(a) El núcleo del átomo bombardeado pierde un protón, que se “desprende” como resultado de una colisión con una partícula alfa especialmente rápida.
(b) La partícula alfa es “capturada” por el núcleo del átomo al que ha golpeado, formando un nuevo núcleo que, inmediatamente después, emite un protón.
Si la hipótesis (a) es válida, el protón “desprendido” sería la cuarta trayectoria en la fotografía de una desintegración en una cámara de niebla: observaríamos la de una partícula alfa antes de la colisión, la de la misma partícula alfa después de la colisión, la del núcleo que que se desplaza tras la colisión y la del protón desprendido.
En el caso de que la (b) fuese la válida, en cambio, la partícula alfa incidente debería desaparecer en la colisión, y solo se verían tres trayectorias en la fotografía: la de la partícula alfa antes de la colisión y las del núcleo desplazado tras la colisión y el protón emitido.
La cuestión se resolvió en 1925 cuando P.M.S. Blackett estudió las trayectorias producidas cuando las partículas atravesaban gas nitrógeno en una cámara de niebla. Encontró que las únicas trayectorias en las que se podía ver la desintegración artificial eran las de la partícula alfa incidente, un protón y el núcleo desplazado. La ausencia de una trayectoria correspondiente a una partícula alfa tras la colisión demostró que la partícula desaparecía por completo y que el caso (b) es la interpretación correcta de la desintegración artificial: la partícula alfa es capturada por el núcleo del átomo que golpea, formando una nuevo núcleo que luego emite un protón.

El proceso en el que una partícula es absorbida por un núcleo de nitrógeno y se emite un protón puede representarse mediante una «ecuación». La ecuación expresa el hecho de que el número de masa total es el mismo antes y después de la colisión (es decir, hay conservación del número de masa) y el hecho de que la carga total es la misma antes y después de la colisión (hay conservación de carga).
Esta reacción muestra que ha tenido lugar la transmutación de un átomo de un elemento químico en un átomo de otro elemento químico. La transmutación no se ha producido de forma espontánea, como ocurre en el caso de la radiactividad natural; se produce exponiendo átomos (núcleos) objetivo a proyectiles emitidos por un nucleido radiactivo. Es, pues, una transmutación artificial. En el artículo en el que informó sobre esta primera reacción nuclear producida artificialmente, Rutherford dijo:
Los resultados en su conjunto sugieren que, si se dispusiera de partículas alfa, o proyectiles similares, de energía aún mayor para experimentar, podríamos esperar que se descompusiera la estructura nuclear de muchos de los átomos más ligeros.[1]
El estudio posterior de las reacciones que involucran núcleos ligeros condujo al descubrimiento de una nueva partícula y a un modelo muy mejorado de la constitución del núcleo. Se han observado muchos tipos de reacciones con núcleos de todas las masas, desde los más ligeros hasta los más pesados, y las posibilidades indicadas por Rutherford han ido mucho más allá de lo que jamás podría haber imaginado en 1919.
Nota:
[1] Este llamamiento a conseguir mayores energías de «proyectiles» fue respondido no mucho después con la construcción de aceleradores de partículas.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La cámara de niebla se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El descubrimiento de la desintegración artificial
- El problema de la estructura nuclear
- La hipótesis protón-electrón de la composición nuclear
La senescencia celular: el gran desafío para entender y tratar el cáncer
Manuel Collado Rodríguez

Hace 50 años el presidente estadounidense Richard Nixon declaró la “guerra al cáncer”. Seguía así la estela de otros exitosos programas que concentraron esfuerzos para alcanzar un objetivo que pusiera al país a la cabeza del progreso mundial. Años antes, los recursos se habían puesto para desarrollar la bomba atómica y llegar a la Luna. En el caso del cáncer, la iniciativa pretendía promover centros de investigación que reuniesen a los mejores investigadores para encontrar tratamientos contra una enfermedad que suponía una amenaza cada vez mayor para la sociedad.
Multitud de éxitos y fracasos después, asistimos ahora a un nuevo esfuerzo por impulsar la investigación biomédica contra el cáncer. Esta es la base de la iniciativa Grandes Desafíos del Cáncer, que arrancó en 2015. Su objetivo es mejorar nuestra capacidad de prevención, detección y tratamiento de la enfermedad. Para ello, busca identificar las cuestiones clave pendientes de resolver.
Un comité de sabios plantea cuáles son esas grandes preguntas que necesitan ser respondidas antes de continuar avanzando. Uno de estos grandes retos es entender y explotar en nuestro favor la senescencia celular.
¿Qué es la senescencia celular?
La división celular es el proceso que hace que una célula dé lugar a dos hijas idénticas. Esta es la base de la proliferación celular. La senescencia consiste en la incapacidad de llevar a cabo este ciclo.
Durante la senescencia, las células sufren unos cambios en su morfología y en su patrón de expresión de genes, y muestran unas secreciones extracelulares (que denominamos SASP). A este estado se llega como respuesta a daños en la integridad de la célula. Diversas agresiones celulares ponen en marcha este proceso.
La apoptosis (el proceso de suicidio celular) y la senescencia celular son los dos programas de defensa esenciales del organismo ante daños irreparables que ponen en peligro la transmisión íntegra de la información genética y la actividad correcta de las células. Si estos mecanismos fallan y permitimos que las células dañadas continúen proliferando, las células aberrantes crecerán desordenadamente hasta formar un tumor.
Por tanto, ambos son mecanismos de defensa antitumorales esenciales. Ahí tenemos una primera razón de peso para considerar que la investigación en senescencia celular es clave para entender el cáncer.
A lo largo de la vida se suceden todo tipo de agresiones a las células y, en muchas ocasiones, esto resulta en la inducción de senescencia. Esto contrasta con el hecho de que el cáncer es fundamentalmente una enfermedad del envejecimiento, mucho más frecuente en adultos y cuya incidencia aumenta claramente con la edad.
Si un organismo envejecido acumula células que han activado una respuesta de protección frente al cáncer con éxito, ¿cómo es que el cáncer se da más en personas de edad avanzada cuyos órganos y tejidos se están ya defendiendo? Una posibilidad es que la acumulación de daño con la edad termine por deshabilitar la respuesta protectora de la senescencia. Otra, inquietante, es que las células senescentes que no pueden dividirse alteren al resto hasta convertirlas en tumorales.
Así, lo que inicialmente nos protege podría volverse en nuestra contra y facilitar la enfermedad.
Las células dañadas que disparan la senescencia echan el freno para impedir su proliferación descontrolada. Además, secretan el SASP para enviar señales complejas a su entorno. Creemos que pueden estar destinadas a promover la reparación y regeneración del tejido dañado.
Así, una agresión celular es respondida mediante la parada en seco de la proliferación de la célula –ahora dañada– para impedir que pueda dividirse hasta formar un grupo de células aberrante. Además de dejar de proliferar, esas células secretan mensajes moleculares al exterior que por una parte avisan a su entorno, por otra llaman a la reparación y finalmente estimulan su propia eliminación.
Este sería el sistema cuando funciona a la perfección.
Demasiadas agresiones o un sistema ineficaz de eliminación de células dañadas puede conducir a una señalización de reparación constante y perjudicial que cause enfermedades. Este es el caso de patologías asociadas al envejecimiento como la osteoartritis, la fibrosis pulmonar y renal, el alzhéimer y el cáncer. Conocemos aspectos de esta compleja respuesta y tenemos indicios de la asociación entre acumulación de células senescentes y desarrollo de enfermedad, pero necesitamos concretar aún más cómo se desarrolla el proceso para entenderlo mejor y poder manipularlo en nuestro beneficio.
En ciencia, lo que no se ve no existe. O, al menos, se le asigna una menor importancia de la que pueda tener. En el caso de la senescencia celular, y tras décadas de estudio, carecemos de “marcadores” específicos del proceso, biomoléculas cuya aparición se asocie con la aparición de la senescencia y su evolución. Esto dificulta el trabajo en el laboratorio y su aplicación a la enfermedad humana. Debemos avanzar en este aspecto. Para ello, necesitamos emplear todos los recursos que puedan ofrecer diversas disciplinas y que, con enfoques novedosos, permitan el desarrollo de nuevas herramientas.

Cómo eliminar células senescentes
En los últimos años hemos aprendido que es posible eliminar las células senescentes. Esto no parece perjudicar al organismo y ha demostrado, de momento en animales, una capacidad asombrosa para mejorar enfermedades asociadas al envejecimiento. Todas ellas tienen como base la acumulación de células senescentes que alteran los tejidos en los que residen y se han acumulado.
Una de las aproximaciones terapéuticas más avanzada, en experimentación clínica en humanos para conocer su potencial terapéutico, son los compuestos senolíticos. Esta es la denominación genérica que reciben los compuestos capaces de inducir la muerte específica de células senescentes, dejando intactas a las células normales. Pero quizá sea poco realista plantear una terapia contra el cáncer mediante la administración de senolíticos de manera preventiva para eliminar estas células dañadas, según vayan surgiendo, para evitar su acumulación. Se requerirá mucho conocimiento para asegurarse de que una estrategia así está exenta de peligros y puede usarse sin temor a causar un perjuicio mayor que el que se quiere evitar.
Una línea de investigación más directa para explotar nuestro conocimiento de la senescencia celular en la terapia frente al cáncer consiste en intentar controlar el crecimiento tumoral. ¿Cómo? Reactivando esta respuesta protectora del organismo en las células tumorales que proliferan sin control. Dar con fármacos que induzcan este estado de incapacidad proliferativa puede evitar la progresión de los tumores. De hecho, reevaluando algunos de los fármacos antitumorales usados en la actualidad en la quimioterapia, desarrollados con el objetivo de inducir la muerte de las células tumorales, nos encontramos con que en muchas ocasiones inducen senescencia en las células tumorales.
Hasta qué punto la senescencia es nuestro aliada contra el cáncer es algo que por el momento desconocemos. Una posibilidad que manejamos es que la inducción de senescencia durante el tratamiento antitumoral pueda limitar la eficacia de la terapia. La única célula tumoral buena es la célula tumoral muerta, y dejar células tumorales zombis en el organismo puede ser beneficioso a corto plazo, pero desembocar en efectos posteriores perjudiciales. Para muchos, las células tumorales senescentes producidas por la quimioterapia suponen la base de las recaídas tan frecuentes en pacientes tras terapia. En muchas ocasiones, estas recaídas se producen por tumores que muestran unas características aún más agresivas que las originales.

La estrategia “uno-dos”
En este contexto surge la estrategia “uno-dos”. Esta pretende detener: primero, el crecimiento tumoral mediante la inducción de senescencia celular de la célula tumoral. Segundo, inducir de forma selectiva su muerte mediante la aplicación de un senolítico. Esta estrategia ha comenzado ya a ensayarse en modelos animales de cáncer y lo que hemos observado es que el efecto de la combinación de quimioterapia inductora de senescencia junto al senolítico es más eficaz que la quimioterapia sola.
Existe un aspecto positivo extra nada desdeñable en esta estrategia. Los agresivos tratamientos provocan desagradables efectos secundarios en los pacientes sometidos a quimioterapia. Al parecer, en muchos casos estos efectos secundarios derivan de la inducción de senescencia en células no tumorales que quedan dañadas. Estas pueden ser eliminadas eficazmente por los agentes senolíticos al mismo tiempo que las tumorales senescentes generadas por la quimioterapia, lo cual podría proporcionar un efecto terapéutico beneficioso con mínimos efectos secundarios.
Todos estos aspectos mencionados en el artículo son el objetivo de multitud de grupos de investigación en el mundo. Definir los objetivos prioritarios de esta investigación, plantear nuevas iniciativas para resolver las dudas y desarrollar nuevas y más eficaces intervenciones terapéuticas basadas en el uso de la senescencia celular constituyen el esfuerzo en el que se han embarcado numerosos grupos. Estos tratan de reunir fuerzas en consorcios internacionales multidisciplinares para buscar el apoyo financiero de la iniciativa Grandes Desafíos del Cáncer, que nos permita dar un gran salto hacia adelante en nuestro conocimiento y manejo del cáncer.
Sobre el autor: Manuel Collado Rodríguez, Investigador, director del laboratorio de investigación en Células Madre en Cáncer y Envejecimiento, SERGAS Servizo Galego de Saúde
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo La senescencia celular: el gran desafío para entender y tratar el cáncer se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los supermicrobios amenazan con ser más letales que el cáncer
- Nanopartículas recubiertas para el tratamiento localizado del cáncer por hipertermia magnética
- Lo que la búsqueda de inteligencia extraterrestre nos enseña para entender la pandemia
Genética eres tú
Rosa García-Verdugo, autora
Hoy vengo a hablar de mi libro. Siempre quise decir esta frase. Y hoy, puedo por fin usarla. Y es que desde el 17 de noviembre está a la venta mi primer libro de la serie Para Curiosos de la Editorial Paidós (Grupo Planeta).
Hace ya casi dos años que mi editor, Sergi, me llamó preguntándome si me había planteado escribir un libro de ciencia, y me dio libertad total para elegir la temática. Como soy bioquímica, y desde niña tengo una fascinación total con el mundo de la genética, no lo dudé, mi libro tratará de genética. Y escribí el libro de genética que a mi me gustaría leer si no supiera nada del tema.
Un libro que empieza con un viaje por el pasado de la genética y los consabidos guisantes de Mendel y las observaciones de Darwin, pero que en vez de quedarse ahí como la mayoría de libros de texto del tema, pasa a explicar de una manera práctica –y cercana, creo– para qué sirve la genética hoy en día y que podemos esperar de ella en el futuro. Aunque este libro llevaba ya prácticamente un año escrito cuando estalló la crisis del COVID-19, no pude mantenerme al margen y por supuesto, el libro también incluye un breve capítulo dedicado a la reina de la actualidad, pero desde la perspectiva de la genética.
Son casi trescientas páginas de lectura amena, donde intento traer referencias cercanas para hacer más fácil la comprensión de conceptos, que de primeras pueden confundir hasta los expertos, además de pequeñas notas y curiosidades que poder llevar a la mesa el domingo para compartir con la familia o los amigos.
El libro se titula Genética eres tú, y es una referencia al comienzo del primer capítulo, que trata sobre el pasado de la genética. Ese capítulo comienza con una reflexión en cuanto a lo que la genética significa, no solo para los científicos, sino para todos los seres vivos, incluidos naturalmente nosotros. Y la forma en que se me ocurrió expresarlo fue adaptando un poema clásico. ¿Reconocéis la referencia?
¿Qué es genética?
Me preguntas mientras clavas en mi pupila tu pupila azul…
¿Qué es genética?
¿Y tú me lo preguntas?
Genética eres tú.
Como digo en el libro, espero que el autor, Gustavo Adolfo Bécquer, no se revuelva en su tumba al ver lo que hice con su poema, pero espero me perdone la licencia por la causa.
He pensado que para abrir boca, voy a copiar por aquí el contenido de uno de los llamados datos curiosos del libro, que por cierto ¡también tiene dibujos! y es que he podido contar con un ilustrador de lujo: Javier Pérez de Amézaga Tomás. Espero que este aperitivo os deje con las ganas de hincarle el diente al libro y que aprovechando que las fiestas se acercan y este año preveo que pasaremos mucho tiempo en casa, lo pongáis en la carta a los Reyes Magos.
Científicos colocados
Pues si os creíais que el inventor de la PCR ha sido el único científico o inventor con afición por las drogas, siento decepcionaros, porque no estaba solo. De hecho, forma parte de un grupo más que numeroso de mentes de reconocido prestigio a las que también les gusta irse «de viaje» de vez en cuando. Apuesto a que algunos de los nombres de esta lista van a sorprenderos…
Según sus preferencias por una droga en concreto:
LSD. Steve Jobs y Bill Gates tienen algo más en común que ser rivales en el mundo de la informática. Francis Crick, uno de los descubridores de la estructura tridimensional del ADN dijo que la vio en un viaje de LSD.
Cocaína. Al inventor de la bombilla incandescente Thomas Edison le iba la coca, lo mismo que al padre del psicoanálisis Sigmund Freud y a mi héroe de la infancia, que aunque sea solo un genio literario, también se merece un puesto en esta lista: el señor Sherlock Holmes.
Marihuana. Entre aquellos a los que les gustaba fumar a lo Bob Marley tenemos al biólogo evolucionista Stephen Jay Gould y al astrofísico Carl Sagan.
Combinación de diferentes sustancias. Por último, tenemos a los que les gusta mezclar drogas, como Richard Feynman (físico célebre), al que le iba la marihuana y el LSD, o el neurocientí co John C. Lilly, que consumía LSD y ketamina.Seguro que esta lista se queda corta y hay muchos otros que también se «colocan» porque, a excepción de la cocaína, las otras drogas tienen entre sus efectos el liberar la creatividad del yugo del control prefrontal y por ello es posible que hayan sido las preferidas —y una ayuda— en momentos de «eureka» para alguno de estos genios.
Ficha:
Autora: Rosa García-Verdugo
Editorial: Ediciones Paidós
Año: 2020
Colección: Para curiosos.
ISBN: 978-8449336584
Sobre la autora: Rosa García-Verdugo estudió bioquímica en Oviedo, terminando dichos estudios con un proyecto de investigación en la Universidad de Leiden (Países Bajos). Después comenzó su periplo por varios laboratorios en Madrid, Barcelona y finalmente Múnich donde en 2015 consiguió su doctorado en Neurobiología en el Instituto Max-Planck. Tras diez años dedicados a la ciencia, decide colgar la bata y ahondar en su otra pasión: la comunicación científica. Actualmente trabaja como escritora freelance y asesora de comunicación para empresas de biotecnología. Es colaboradora habitual de Mapping Ignorance.
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
El artículo Genética eres tú se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las herramientas de edición genética CRISPR y los ratones avatar
- Sobre la predisposición genética a padecer enfermedades
- Sobre la predisposición genética a padecer enfermedades (II)
Elisa Sainz de Murieta – Naukas Pro 2019: Impactos del cambio climático

Una introducción a qué es y qué factores afectan al cambio climático y como abordarlos, incluyendo los aspectos socioeconómicos. Esto es lo que ofrece Elisa sainz de Murieta al presentar el trabajo que se realiza en el Basque Centre for Climate Change (BC3) en esta charla de 2019.
Elisa Sainz de Murieta es geóloga e investigadora principal del BC3 en varios proyectos H2020 relacionados con la evaluación de los costes del cambio climático y la adaptación a los efectos costeros del cambio climático en la ciudad de Dakar.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Elisa Sainz de Murieta – Naukas Pro 2019: Impactos del cambio climático se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
- Los ecosistemas acuáticos de África y el cambio climático
- Dani y Fiti sobre el cambio climático
Cómo pronosticar el éxito del tratamiento del cáncer con inmunoterapia
Un grupo internacional liderado por la doctora Banafshe Larijani, investigadora Ikerbasque adscrita al Instituto Biofisika (UPV/EHU, CSIC), ha desarrollado un nuevo método de diagnóstico que permite pronosticar con precisión qué pacientes de cáncer responderán positivamente a la inmunoterapia. Este método permitirá a los oncólogos adecuar el tratamiento a cada paciente y evitar las terapias que no vayan a tener éxito.
La inmunoterapia es un tipo de tratamiento del cáncer que ayuda al sistema inmunológico del paciente a combatirlo y tiene un impacto profundamente positivo en los tratamientos oncológicos, si bien no funciona en todos los casos: tiene mucho éxito en algunos pacientes, mientras que en otros tiene poco o ningún efecto. Dados los riesgos inherentes a estos procedimientos, se ha establecido una necesidad creciente de definir qué pacientes tienen más probabilidades de beneficiarse, evitando la exposición innecesaria a aquellos que no lo harán.
En el grupo liderado por la doctora Larijan, quien también es directora del Centro de Innovación Terapéutica (CTI) de la Universidad de Bath (Reino Unido), han colaborado colegas de otros centros en Euskadi (Biocruces, PIE, BCAM), europeos y la empresa FASTBASE Solutions Ltd. La nueva herramienta de pronóstico ha sido desarrollada utilizando una plataforma de microscopía avanzada que identifica las interacciones de las células inmunes con las células tumorales y también informa sobre el estado de activación de los puntos de control inmunitarios que amortiguan la respuesta antitumoral.
En una persona sana, los llamados puntos de control inmunológico regulan estrechamente la respuesta inmunitaria del cuerpo, actuando como un interruptor para prevenir enfermedades autoinmunes e inflamatorias. El equipo de la doctora Larijan ha analizado un punto de control inmunológico que consta de dos proteínas: PD-1 (presente en células inmunitarias llamadas linfocitos T) y PD-L1 (presente en otros tipos de células inmunitarias y en la superficie de muchos tipos diferentes de tumores).
Por lo general, cuando el PD-1 en la superficie de los linfocitos T se acopla con el PD-L1 en la superficie de otras células inmunes, apaga eficazmente la función inmunológica de la célula T. Y eso es lo que hacen las células tumorales: al expresar PD-L1 en su superficie, activan PD-1 en el linfocito T, con lo que desactivan su función antitumoral y permiten la supervivencia y el crecimiento del tumor. Los inhibidores empleados en la inmunoterapia funcionan interrumpiendo la interacción entre el PD-L1 en el tumor y el PD-1 en la célula T, y así restablecen la actividad antitumoral del paciente. Esta nueva herramienta determina el alcance de la interacción PD-1 / PD-L1 en una biopsia del tumor, prediciendo si es probable que la terapia con inhibidores del punto de control tenga un beneficio clínico significativo.
“Actualmente, las decisiones sobre si proceder con el tratamiento con inhibidores de puntos de control se basan simplemente en si PD-1 y PD-L1 están presentes en las biopsias, más que en su estado funcional. Sin embargo, nuestro trabajo ha demostrado que es mucho más importante saber que las dos proteínas realmente interactúan y, por lo tanto, es probable que tengan un impacto funcional en la supervivencia del tumor», indica la profesora Larijani.
Referencia:
Lissete Sánchez-Magraner, James Miles, Claire L. Baker, Christopher J. Applebee, Dae-Jin Lee, Somaia Elsheikh, Shaimaa Lashin, Katriona Withers, Andrew G. Watts, Richard Parry, Christine Edmead, Jose Ignacio Lopez, Raj Mehta, Antoine Italiano, Stephen G. Ward, Peter J. Parker and Banafshé Larijani (2020) High PD-1/PD-L1 checkpoint interaction infers tumour selection and therapeutic sensitivity to anti-PD-1/PD-L1 treatment Cancer Research doi: 10.1158/0008-5472.CAN-20-1117
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Cómo pronosticar el éxito del tratamiento del cáncer con inmunoterapia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Inmunoterapia contra el cáncer
- Magnetosomas para el tratamiento del cáncer
- Nanopartículas recubiertas para el tratamiento localizado del cáncer por hipertermia magnética
Un genio desconocido del Renacimiento

Fue contemporáneo de Leonardo da Vinci, solo un poco mayor que Miguel Ángel y, quizás, el único creador renacentista comparable a ellos dos en cuanto a talla artística y relevancia histórica. Y, sin embargo, es probable que nunca hayas escuchado siquiera su nombre. Me refiero al compositor Josquin Desprez. Pocos músicos a lo largo de la historia han gozado de mayor prestigio entre sus contemporáneos o han ejercido una influencia más profunda y duradera sobre los que les siguieron. Desprez fue aclamado en vida como “el mejor compositores de nuestro tiempo”, el “padre de los músicos”, “el amo de todas las notas” —como se refirió a él Martín Lutero.
Josquin desarrolló su carrera en una etapa de grandes cambios musicales, que darían paso a un lenguaje musical internacional dentro de Europa. Él fue uno de los artistas que ayudó a guiar esta transición, incorporando los valores humanistas del Renacimiento en el mundo de la música. Frente a la música teórica, cerebral y erudita de la etapa anterior, sus composiciones muestran la influencia de formas populares del momento, como la frottola, un tipo de canción con una textura simple (generalmente homofónica, lo que significa que todas las voces se mueven a la vez y complementan a la principal, siguiendo el mismo ritmo), melodías fáciles de seguir, estribillos pegadizos y un texto laico generalmente alegre, desenfadado o hasta irónico. Dentro de este afán por simplificar la música y acercarla a su público, Josquin fue conocido por su don para la melodía y su capacidad de ligarla al texto para hacerlo más comprensible. Para él y otros compositores renacentistas, la música había dejado de ser una creación puramente intelectual, el resultado de complejas relaciones numéricas y mudas. La música era, ante todo, una extensión de las emociones humanas y como tal, debía imitar la entonación de los actores que con su voz eran capaces de conmover al público.
Y por qué os cuento todo esto, os preguntaréis. Pues porque tengo un problema. Tengo una canción pegadiza que me invade la cabeza cada dos por tres y que fue compuesta hace más de 500 años. La melodía es esta:
El grillo es, probablemente, la frottola más popular de Josquin Desprez. Irónica y tierna, habla de lo “buon cantore” que es el pequeño insecto y lo bien que aguanta las notas largas. Aunque también se ha especulado que Josquin podría estar refiriéndose a su amigo el cantante Carlo Grillo. Grillo formaba parte de la capilla musical del cardenal Ascanio Sforza que, al parecer, era bastante rácano a la hora de remunerar a sus músicos. Desprez podría estar al tanto de los aprietos económicos de su compañero y por ello compone esta frottola con un doble sentido, a modo de canción protesta. Léase: señor cardenal, pague usted al buen Grillo, que al contrario que muchos pájaros, él es un músico fiel y canta por amor.
El grillo è buon cantore,Che tienne longo verso,
Dalle beve grillo canta.Ma non fa come gli altri uccelli,
Come li han cantato un poco,
Van’ de fatto in altro loco
Sempre el grillo sta pur saldo,Quando la maggior è’l caldo
Al’ hor canta sol per amore. El grillo es un buen cantante
de verso y notas largas
¡Vamos, grillo, bebe, canta!No hace como los otros pájaros.
Que cantan un poco
Y luego se van a otro sitio,
El grillo se mantiene donde está …Si el mes de mayo es cálido
él canta solo por amor.
Lo más llamativo de la canción es que la música ilustra el texto en varios momentos ¡e imita incluso el canto del simpático bicho! Nada más empezar, por ejemplo, cuando la letra que el grillo es capaz de cantar notas o versos largos (longo verso), la melodía principal se detiene obstinadamente sobre una nota exageradamente larga, mientras las voces intermedias se alternan para dibujar una especie de vaivén: el cantar rugoso del propio grillo. Más adelante, los distintos cantantes se van turnando en una textura cada vez más rápida de notas repetidas que, de nuevo, recuerda al sonido vibrante del propio grillo.
No es un ejemplo aislado, otras frottole de la época1 imitan el sonido del gato, el cisne y la grulla. Algunos se han referido a este fenómeno como música onomatopéyica o, de manera más general, figuralismo: música que “pinta” su propia letra o que imita el sonido de los eventos que habitualmente solo representa simbólicamente. Es un tipo de imitación sonora que se da también en el lenguaje. En concreto, es común que algunos nombres de animales se parezcan al sonido que hace el bicho al que representan. La propia palabra “grillo” es un buen ejemplo de ello. Grillo en castellano, cricket en inglés, kilkerra en euskera, ikhilikithi en zulu, jangkrik en indonesio, Kuriketto (クリケット) en japonés, keulikes (크리켓) en koreano, kirikiti en maorí… parece que el sonido rugoso y agudo del grillo se repite allí donde los humanos pronuncian su nombre. Y, gracias a Josquin, también allí donde lo cantan.
Nota:
1Colección impresa de frottole de Ottaviano Petrucci. El grillo figura en el tercer libro Frottole III publicado en 1505.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo Un genio desconocido del Renacimiento se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:En el lugar correcto en el momento adecuado
El héroe del río es un largometraje cómico (mudo) estrenado en 1928. Está codirigido y protagonizado por Buster Keaton que hace el papel de William, el hijo de Bill Canfield. Canfield es propietario de un barco fluvial que compite con el empresario John James King por el control del transporte de mercancías en el río Mississippi. William y Kitty (la hija de King) están enamorados, provocando el enfado de los padres de ambos.
Casi al final de la película un huracán atraviesa la ciudad. William lucha contra el viento que lo arrastra sin cesar. Tras recibir un golpe en la cabeza, desorientado, permanece en pie, aturdido delante de una casa. La fachada cae sobre él, pero una ventana providencialmente abierta lo salva de morir aplastado (la escena puede verse aproximadamente en el minuto 59:00 de la película). Parece que el actor no permitía que se le doblara en las escenas peligrosas y, en esta, asumió un enorme riesgo. ¿Realizaría algún ensayo antes de filmarla? Desde luego, el protagonista permanece inmutable durante la escena…

Esta secuencia se ha versionado en numerosas ocasiones, desde un episodio de la serie MacGyver hasta alguna película de Jackie Chan, pasando por Deadpan (1997) del cineasta Steve McQueen, en la que él mismo reproduce la escena protagonizada por Keaton casi 70 años antes. Durante casi 20 minutos, desde diferentes ángulos, se puede ver la fachada de una casa que cae sobre McQueen que, al igual que Keaton en 1928, no muestra ninguna reacción.
Consulto cada día la magnífica página Futility Closet que comparte historias sorprendentes sobre temas diversos, entre ellos, la matemática recreativa. En una de sus entradas, Greg Ross introduce un artículo de James Metz publicado en la revista Mathematics Teacher, en el que el autor propone diferentes y sencillos cálculos basados en esta escena de El héroe del río. Es decir, realiza un estudio matemático de la escena, fijándose en algunos de sus fotogramas.
Metz comenta en su artículo que el espacio alrededor de Keaton cuando la ventana “lo atraviesa” es realmente escaso… y tiene razón. Y propone una serie de reflexiones y cálculos para entender con precisión los detalles de la escena. Debajo reproducimos algunas de sus observaciones.
Supongamos que Keaton permanece de pie en el suelo que está situado a 5 pulgadas (1 pulgada = 2,54 centímetros) por debajo de la “bisagra” de la pared que cae. Keaton mide 5 pies y 5 pulgadas (1 pie = 30,48 centímetros; es decir, Keaton mide aproximadamente 165 centímetros). Dejando un margen de 3 pulgadas (7,62 centímetros) por encima de su cabeza, la ventana de altura h debe pasar sobre él a 5,25 pies (1 pie = 12 pulgadas) por encima de la línea de la bisagra. Viendo la escena de El héroe del río, tras la caída completa de la pared, la parte posterior de sus pies está aproximadamente a 0,5 pies (15,24 centímetros) delante de la parte inferior de la ventana. Antes de la caída, la parte inferior de la ventana está a una distancia D de la bisagra de la casa (sobre ella, por supuesto). Resumimos en un diagrama lo anteriormente expuesto:

¿Cuál es la relación entre h y D? Se trata de una simple relación entre la hipotenusa y los catetos de un triángulo rectángulo:
(D + h)2 = (D + 0,5)2 + 5,252.
Si la anchura de los hombros de Keaton es de 1,5 pies (unos 45,72 centímetros) y los lados de la ventana pasan a 3 pulgadas (unos 7,62 centímetros) por cada lado de Keaton, ¿cuál es el ancho de la ventana? Como 3 pulgadas son 0,25 pies, la ventana tiene una anchura de 1,5 + (2 x 0,25) = 2 pies.
Observando de nuevo la escena, supongamos que la relación entre la altura y el ancho de la ventana es de 7/11. ¿Cuál es la altura h de la ventana? Como 7/11 = 2/h, despejando, es h= 22/7, es decir, unos 3 pies (unos 91,45 centímetros).
Ahora podemos calcular D usando la relación entre h y D obtenida antes. Despejando, D = 3,76 pies (unos 114,6 centímetros).
Estos son solo unos pequeños cálculos que nos ayudan a analizar la situación. ¿Serán similares a los realizados por el equipo de Keaton antes de filmar la escena? Como indica Metz en su artículo, se puede generalizar este análisis y hacerse distintas preguntas de tipo «¿qué pasaría si…?».
Referencias:
- Clearence, Futility Closet, 28 agosto 2020
- Steamboat Bill Jr. (1928), película completa, Wikimedia Commons
- James Metz, The Right Place at the Right Time, Mathematics Teacher 112:4 (2019) 247-249
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo En el lugar correcto en el momento adecuado se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cinco motivos por los que sin jirafas el mundo sería un lugar peor
- Trigonometría para piratas
- La ‘reverosis’ de Pablo
Historia de la bombilla
Las bombillas incandescentes nos alumbraron en el siglo XX. Sin duda, la bombilla ha sido uno de los avances más importantes de la historia y junto a ella, probablemente, nos vendrá a la mente el nombre de Thomas Edison. Sin embargo, la invención de la lámpara incandescente tiene una extensa lista de aportaciones. Los historiadores Robert Friedel y Paul Israel han llegado a contabilizar hasta 22 inventores de lámparas incandescentes. Lo que sí señalan ambos es que la versión de Edison fue capaz de superar a las demás debido a las mejoras realizadas lo que convirtieron su bombilla es más eficaz, resistente y económicamente viable.
Edison, cuyo mérito no discute nadie, fue lo que hoy llamamos un emprendedor, lo que de toda la vida ha sido un empresario. Eso no le desmerece en absoluto, pero sí es necesario tenerlo en cuenta para entender su forma de actuar, siempre con ánimo de lucro y en términos de competencia en un mercado limitado. Edison creaba, mejoraba lo que hacían otros y sobre todo, ponía en el mercado magistralmente productos revolucionarios. Todo lo anterior es para mencionar que la primera bombilla de filamento de carbono la creó el físico, químico e inventor Joseph Swan en febrero de 1879, quien también fue el primero en suministrarlas para un uso comercial, en concreto para iluminar el Hotel Savoy de Londres en 1881.
Los vídeos de Historias de la Ciencia presentan de forma breve y amena pasajes de la nuestra historia científica y tecnológica. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.
El artículo Historia de la bombilla se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La bombilla de colores (y el método científico)
- Historia del cura rompecristales
- Historia de Nicolas Bourbaki
El descubrimiento de la desintegración artificial

La serendipia que condujo a una mejor comprensión de la composición nuclear ocurrió en 1919. Ese año Rutherford se dio cuenta de que, cuando bombardeaba gas nitrógeno con partículas alfa procedentes de bismuto-214, se producían partículas rápidas que podían viajar más lejos en el gas que las propias partículas alfa. Cuando estas partículas golpeaban una pantalla de centelleo producían destellos de luz más débiles que los producidos por las partículas alfa. Unos cálculos rápidos indicaban que esa intensidad era aproximadamente la intensidad que se esperaría que produjesen los iones positivos de hidrógeno [1].
Las mediciones del efecto que un campo magnético tenía en las trayectorias de estas partículas apuntaban a que, en efecto, eran protones. Con el escepticismo que caracteriza a toda buena investigación científica, Rutherford descartó, mediante cuidadosos experimentos, la posibilidad de que los protones procedieran del hidrógeno presente como impureza en el nitrógeno.
Dado que los átomos de nitrógeno del gas eran la única fuente posible de protones, Rutherford llegó a la conclusión de que una partícula alfa, al chocar con un núcleo de nitrógeno, ocasionalmente puede expulsar una partícula más pequeña (un protón) del núcleo de nitrógeno. En otras palabras, Rutherford dedujo que una partícula puede provocar la desintegración artificial de un núcleo de nitrógeno, siendo el protón uno de los productos de esta desintegración. Pero este proceso no ocurre fácilmente. Los resultados experimentales mostraban que solo se producía un protón por aproximadamente cada millón de partículas alfa que atraviesan el gas.
Entre 1921 y 1924 Rutherford y su colega James Chadwick ampliaron el trabajo sobre el nitrógeno a otros elementos y encontraron pruebas de que era posible producir la desintegración artificial de todos los elementos ligeros, desde el boro al potasio, con la excepción del carbono y el oxígeno [2].
El siguiente paso era determinar la naturaleza del proceso nuclear que conduce a la emisión del protón. Se sugirieron dos hipótesis para este proceso:
(a) El núcleo del átomo bombardeado pierde un protón, que se “desprende” como resultado de una colisión con una partícula alfa especialmente rápida.
(b) La partícula alfa es “capturada” por el núcleo del átomo al que ha golpeado, formando un nuevo núcleo que, inmediatamente después, emite un protón.
¿Cómo distinguir experimentalmente entre ambas hipótesis? Un nuevo instrumento marcaría toda la investigación nuclear desde entonces hasta nuestros días: la cámara de niebla.
Notas:
[1] El nombre protón para el ion positivo del hidrógeno se adoptaría al año siguiente, en 1920, a sugerencia del propio Rutherford.
[2] Años más tarde y con mejor tecnología se demostró que estos elementos también se podían desintegrar artificialmente.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El descubrimiento de la desintegración artificial se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las series de desintegración radiactiva
- El problema de la estructura nuclear
- La transformación radiactiva
Ríos atmosféricos, las autopistas aéreas que regulan el clima
Jorge Eiras Barca y Iago Algarra Cajide

Fuente: MIMIC-TPW v2
Si existe un campo de estudio dentro de la dinámica atmosférica cuya notoriedad haya experimentado un crecimiento exponencial en las últimas décadas es, sin duda, el de los ríos atmosféricos (AR, por sus siglas en inglés).
El motivo quizás sea que los ríos atmosféricos juegan un papel destacado en un gran número de factores del clima, como el balance radiativo (energético) del planeta o su ciclo hidrológico. O quizás sea su creciente tendencia a ser nombrado en los boletines meteorológicos cuando, en compañía de una tormenta tropical o una ciclogénesis explosiva, traen en ocasiones más de 70 l/m² de precipitación en unas pocas horas.
¿Qué son los ríos atmosféricos?
Los ríos atmosféricos son regiones de la atmósfera cuyo contenido de humedad es muy superior al de las regiones colindantes. Suelen ser regiones muy alargadas y (relativamente) estrechas –miles de km de largo frente a unos cientos de km de ancho– y acompañan normalmente a los frentes fríos tan característicos de las latitudes medias.
Su naturaleza les permite funcionar como grandes autopistas que distribuyen la humedad –y con ello, energía en forma de calor latente– desde las húmedas y cálidas regiones subtropicales y tropicales hacia el resto del planeta.
Estas formaciones son, por tanto, esenciales para el mantenimiento de la buena salud de nuestro ciclo hidrológico, y un mecanismo indispensable del balance radiativo del planeta. Su forma alargada y la enorme cantidad de agua que transportan (superior al caudal del río Mississippi) han inspirado el característico y atrayente nombre de “ríos atmosféricos”.
Su papel en las precipitaciones
Los ríos atmosféricos presentan una enorme variabiliad entre ellos. No hay dos iguales. La mayor parte son eventos de intensidad moderada, y son por tanto considerados como beneficiosos. Entre otras cosas, aportan una cantidad indispensable de humedad a la atmósfera de latitudes medias y continentales, que no podría recibirse de otra manera.
Otros ríos atmosféricos, sin embargo, son fenómenos extremos que pueden llevar asociadas precipitaciones superiores a los 100 l/m² en un solo día, teniendo un impacto económico y social negativo en las regiones que se ven afectadas por ellos.
A nivel global, se trata de fenómenos comunes. Suelen existir unos tres o cuatro simultáneamente por cada hemisferio, situados habitualmente sobre los grandes corredores oceánicos. Su temporada alta es el invierno correspondiente a cada hemisferio, cuando la atmósfera es menos húmeda, pero mucho más dinámica que la de la temporada estival.
Las costas occidentales de los grandes continentes, incluida la costa atlántica ibérica, son las regiones calientes de llegada de ríos atmosféricos. Los que llegan a España transportan un elevado porcentaje de lluvia desde el golfo de México. En invierno la península ibérica acostumbra a recibir 3 o 4 al mes.
Otra región activa del mundo hispanoparlante es la costa de Chile, donde los ríos atmosféricos del Pacífico suelen generar importantes precipitaciones en su interacción con la cordillera de los Andes.

Fuentes: CIMSS / Eiras-Barca et al. (2016) / Algarra et al., (2020)
¿Cómo serán los ríos atmosféricos del mañana?
La respuesta a la pregunta de como serán los ríos atmosféricos del mañana depende, como es lógico, de cómo sea la atmósfera en la que residan.
La mayor parte de los análisis prospectivos predicen una atmósfera más cálida, y con una dinámica diferente. En este contexto, se considera que los ríos atmosféricos irán tendiendo a ser más frecuentes, y también más intensos, aunque con grandes diferencias entre las diferentes regiones del planeta.
En un reciente estudio liderado por los profesores Luis Gimeno y Raquel Nieto de la Universidad de Vigo, y realizado en colaboración con la Universidad de Lisboa y la Universidad de Illinois, hemos analizado la variación el contenido de humedad durante las últimas décadas en las regiones estratégicas para el fenómeno. Esto nos sirve para realizar una proyección robusta y determinar como serán el día de mañana en un contexto de calentamiento global.
En el artículo, publicado en Nature Communications, se muestra que el contenido de humedad se ha incrementado –y por tanto, con mucha probabilidad, se incrementará– aproximadamente en un 7 % por cada grado centígrado de humedad que se calienta la parte inferior de la atmósfera.
Esta es una proporción bien conocida para los estudiosos de la termodinámica, pues es predicha por la ecuación de Clausius-Clapeyron, que determina la cantidad máxima de humedad que puede contener una celda de aire antes de llegar a la saturación.
Además, hemos demostrado que, de todas las regiones del planeta, la señal más clara a este respecto se observa precisamente en la región donde se origina la mayor parte de la humedad que llega a Europa en forma de ríos atmosféricos: el golfo de México.
Una atmósfera más cálida será una atmósfera más húmeda, y tenemos ahora motivos de peso para asumir que ese incremento de humedad se trasladará en una proporción similar a los ríos atmosféricos.
La cantidad de humedad que recibiremos en el futuro desde las regiones subtropicales será mayor, y también la probabilidad de precipitaciones extremas, poco convenientes para el correcto aprovechamiento del agua como recurso, y peligrosas.
El esfuerzo de la comunidad científica para procurar entender, predecir y adelantarse al clima del futuro es grande, y no sin motivo, pues del clima dependen una buena parte de los recursos que nos proporciona el planeta.
Entre ese complejo collage de fenómenos que constituirán el clima del mañana, parecen jugar un papel destacado los ríos atmosféricos a los que podemos atribuir, sin miedo a equivocarnos, una buena parte del agua que llega a nuestras casas, cultivos, embalses y ríos.
Sobre los autores: Jorge Eiras Barca y Iago Algarra Cajide son investigadores postdoctorales en física de la atmósfera en la Universidade de Vigo
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Ríos atmosféricos, las autopistas aéreas que regulan el clima se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Breve historia de las ciencias del clima
- La contribución global de los ríos intermitentes al ciclo del carbono
- Planeta océano: el corazón líquido que nos mantiene vivos
Lo que funciona, y lo que no, contra la Covid-19

Está en marcha un experimento a escala planetaria. Nunca antes tantos países habían sido, a la vez, sujetos y objetos de experimentación de forma simultánea. La primera gran pandemia del siglo XXI ha obligado a adoptar una batería de medidas no farmacológicas para limitar los expansión del virus SARS-Cov2 y reducir así las hospitalizaciones y muertes debidas a la Covid-19. En el experimento cada país o cada región está aplicando un conjunto de medidas, las que considera más efectivas. Y un equipo de investigación, combinando cuatro metodologías diferentes, ha estimado el grado de efectividad de cada medida en virtud de su capacidad para reducir la multiplicación del virus.
Las que de forma más eficaz contribuyen a reducir la expansión del SARS-Cov2 son las que evitan que las personas se junten y las que limitan sus movimientos. A esos propósitos obedecen la suspensión de reuniones de no demasiada gente (menos de 50 personas) durante mucho tiempo (en tiendas, restaurantes, bares, centros de trabajo), el cierre de centros docentes (principalmente de estudiantes de entre 10 y 19 años), los toques de queda, las limitaciones a viajar entre países, los confinamientos, y la suspensión de actos multitudinarios.
Algunas de esas medidas tienen efectos muy negativos sobre la salud. El cierre de centros escolares acarrea, potencialmente, una peor alimentación, estrés y aislamiento social de los afectados. El confinamiento domiciliario provoca una mayor violencia familiar contra las mujeres y los menores de edad. Además, reduce el acceso a la atención sanitaria, lo que eleva, incluso, la mortalidad. Por si eso era poco, no está clara la efectividad real de esa medida, porque suele implantarse a la vez que se adoptan otras muy efectivas. Por esa razón, los autores de la investigación no la consideran recomendable salvo, quizás, si se implanta en fases muy tempranas de la expansión de la pandemia.
Dados los efectos adversos -también sobre los derechos y libertades- de las medidas anteriores, los gobiernos han considerado y aplicado opciones alternativas. Y resulta que, curiosamente, medidas no intrusivas han mostrado gran efectividad, mayor incluso que la de algunas restrictivas. Es el caso de la disponibilidad de mascarillas para todos; las campañas para informar a la ciudadanía, específicas de cada tipología de destinatario; o las ayudas económicas a personas con pocos recursos o en situación vulnerable para que no sufran económicamente en caso de no poder acudir al trabajo o mantener su actividad económica. También resulta sorprendente que la implantación, con carácter obligatorio, de ciertas medidas apenas resulte más efectiva que las campañas de comunicación que promueven la adopción de esas mismas medidas de forma voluntaria.
Por el contrario, actuaciones a las que se ha dado mucha importancia no cuentan con suficiente respaldo. Por ejemplo, no parece estar justificada la limpieza y desinfección sistemática de superficies; las limitaciones al transporte público, pues los vehículos no parecen ser enclaves que propicien la expansión del virus; o el cierre de parques o museos. El estudio no ha podido contrastar la efectividad de las campañas de detección de personas contagiadas, y trazado y aislamiento de sus contactos, seguramente porque la mayor parte de los datos se obtuvieron en marzo y abril, cuando la mayoría de los países experimentaron la mayor incidencia de la epidemia y carecían aún de buenos sistemas de trazado.
El experimento planetario ha puesto de manifiesto que lo que creemos saber hoy quizás no sea válido mañana, porque el conocimiento es contingente y siempre provisional. La ciencia se corrige a sí misma. Esa es la razón por la que avanzamos y tomamos cada vez mejor decisiones.
Fuente: Haug, N., Geyrhofer, L., Londei, A. et al. (2020) Ranking the effectiveness of worldwide COVID-19 government interventions. Nat Hum Behav doi: 10.1038/s41562-020-01009-0
Nota: Para quien interese, Elhuyar ha publicado una reseña de este mismo trabajo en lengua vasca.
Adenda (sobre la importancia de la ventilación de locales): Los resultados y conclusiones del estudio de Haung et al (2020) se basan, como se indica en el texto, en datos procedentes de los meses de marzo y abril. En esos meses existía el convencimiento de que las principales vías de contagio eran, por un lado, el contacto con superficies (de ahí la importancia que se daba a la limpieza de manos y a no tocarse la cara, por ejemplo); y por el otro, las gotículas que se expelen al toser o estornudar (por lo que se empezó a recomendar el mantenimiento de una distancia de 2 m entre personas y, más adelante, el uso de mascarillas e espacios cerrados o, en general, muy concurridos). Pero en aquellos meses no se recomendó la ventilación de los locales porque no había evidencias suficientes de que los aerosoles pudiesen ser una vía importante de contagio. Los primeros datos que avalaban esa posibilidad se empezaron a publicar en la prensa científica a finales de abril. A partir de mayo se empezó a recomendar la ventilación de lugares cerrados. En junio, ya había evidencias suficientes al respecto. Y a partir de julio ya eran muchos los investigadores que pensaban que el riesgo de transmisión aérea del coronavirus se estaba infravalorando. En definitiva, el trabajo reseñado aquí no considera la ventilación de los locales como una medida potencialmente eficaz por la sencilla razón de que en los meses de marzo y abril, por carecer de evidencias firmes en ese sentido, no se promovió. Durante la segunda ola, sin embargo, dadas las evidencias abrumadoras al respecto, se recomienda mantener los locales bien ventilados con carácter general.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Lo que funciona, y lo que no, contra la Covid-19 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿De qué se muere la gente en el mundo?
- Mascarilla y COVID-19: ¿dilema del prisionero o juego de coordinación?
- No habrá solución sin más conocimiento
Catástrofe Ultravioleta #31 SIBERIA

“Yo no debería seguir en este mundo”. Así empieza nuestra nueva aventura: al borde de la muerte.
Viajamos a Siberia para pasar frío y conocer un proyecto de etnografía que se ha desarrollado durante más de una década. Y lo hacemos de la mano del físico Miguel Ángel Julián, un enamorado de las regiones polares.
Agradecimientos: Miguel Ángel Julián y Agustín Amaro.
https://www.ivoox.com/t03e07-siberia_md_60527063_wp_1.mp3Puedes escucharnos en:
– Podium Podcast
– iVoox
– Spotify
– Apple Podcasts
** Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) para PODIUM PODCAST con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.
El artículo Catástrofe Ultravioleta #31 SIBERIA se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Catástrofe Ultravioleta #29 ALHAMBRA
- Catástrofe Ultravioleta #30 INMERSIÓN
- Catástrofe Ultravioleta #27 VOZ 2
Koskobilo, un mundo perdido en la Burunda
Asier Gómez Olivencia, Joseba Rios-Garaizar, Mikel Arlegi
El valle de la Burunda forma parte del corredor de la Sakana, un paso natural que conecta la llanada alavesa con Pamplona/Iruña y se encuentra delimitado por el final del macizo de Aizkorri y la Sierra de Aralar al norte, y por Urbasa-Andia al sur. De hecho, por esta vía natural transcurría la calzada romana que iba desde Asturica Augusta (Astorga) a Burdigala (Burdeos) pasando por Iruña-Veleia y Pompaelo (Pamplona-Iruña) entre otras poblaciones. En este entorno, la explotación de las calizas albienses de la colina de Koskobilo (Olazti, Navarra) durante el siglo XX puso al descubierto el yacimiento cuaternario más antiguo de Navarra.

En 1940 los trabajos de la cantera descubrieron una sima vertical en Koskobilo. Entre los sedimentos de esa sima, aparecieron diversos restos fósiles y el capataz de la cantera le hizo llegar un canino de gran tamaño a Máximo Ruiz de Gaona. Además de docente y micropaleontólogo, Máximo Ruiz de Gaona fue un naturalista polifacético, y contribuyó a los campos de la paleontología de vertebrados y de la arqueología. Este hallazgo le interesó mucho y como él mismo relata, además de recuperar fósiles de los sedimentos de dicha sima, ya casi completamente destruida, recuperó otros muchos en las dos escombreras situadas en las laderas de Koskobilo (Figura 1). Ruiz de Gaona envió estos fósiles a Federico Gómez Llueca, paleontólogo del Museo de Ciencias Naturales (Madrid) para su clasificación, proporcionando una lista de al menos 26 especies de vertebrados, entre los que se destacaban los primeros restos de castor descubiertos en la península ibérica, así como la presencia de restos de rinoceronte e hipopótamo.

Diez años más tarde, en abril de 1950, con la intención de recuperar más fósiles, Ruiz de Gaona volvió a visitar las escombreras de la cantera, pero su hallazgo principal fue un importante conjunto de industria lítica en sílex de más de 5.000 piezas. Su estudio indicaba la presencia de piezas de distintos momentos del Paleolítico, entre las que destacaban las industrias del Solutrense, y además sugería que el sílex procedía de afloramientos cercanos en la Sierra de Urbasa, a unos 5 km de Koskobilo. Este hallazgo interesó al prestigioso prehistoriador J.M. de Barandiarán, que en 1955 recuperó de las escombreras un pequeño conjunto de restos paleontológicos y 1.146 restos de industria lítica (Figura 2). Estos últimos restos fueron estudiados por María Amor Beguiristáin en 1974, quien indicó el aspecto paleolítico de este conjunto con varias culturas representadas. Durante los años 70, Ruiz de Gaona publicó también material inédito de Koskobilo de su colección particular y de indudable origen paleolítico, incluyendo cinco puntas foliáceas claramente solutrenses, así como tres bifaces cuya tipología indicaría una industria anterior al Paleolítico Superior. El interés de Ruiz de Gaona por entender el origen de estas piezas líticas hace que hable con el personal de la cantera, y en base a estos testimonios, intenta “reconstruir imaginativamente” el destruido yacimiento: una caverna de unos 40 m de longitud, aproximadamente horizontal y no muy ancha. En base a la fragmentación de los huesos, Ruiz de Gaona relaciona el yacimiento del que él extrajo personalmente restos en 1940 con la caverna, donde los humanos dejaron sus restos de industria lítica, que descubriría 10 años más tarde. Los humanos usarían la caverna, fracturarían los huesos de los animales para extraer la médula y los arrojarían por la sima, que estaría situada cerca de la boca de la cueva. A pesar de cierto debate historiográfico, la visión de este “yacimiento” se queda fijada por Barandiarán y Vallespí en 1984 quienes destacan la presencia de tres culturas: Musteriense de Tradición Achelense (MTA), Perigordiense (actualmente denominado Gravetiense) y Solutrense. Posteriormente en la década de los 90 Jesús García Gazólaz atribuye una serie de cuatro bifaces de Koskobilo al final del Achelense, en lo que actualmente se considera Paleolítico Medio Antiguo y situado cronológicamente a finales del Pleistoceno Medio (300-100 mil años antes del presente).

Desde hace 15 años una de nuestras líneas de investigación está relacionada con el estudio de las ocupaciones humanas más antiguas de Pirineos Occidentales, así como sus condiciones paleoecológicas, excavando yacimientos como Arlanpe (Lemoa, Bizkaia) y revisando diversas colecciones paleontológicas como la de Punta Lucero (Zierbena, Bizkaia). Los estudios paleontológicos indican que los hipopótamos desaparecieron de Europa occidental después del último interglacial, hace unos 117 mil años. Por ello, la presencia de esta especie en Koskobilo resultaba especialmente interesante porque podría indicar que nos encontrábamos (al menos en parte) ante un yacimiento del Pleistoceno Medio. Por ello, con esta hipótesis de trabajo en mente, nos propusimos volver a estudiar las colecciones que se conservaban de este yacimiento, ya que éste había sido destruido por la cantera. Establecimos tres líneas de trabajo complementarias: la revisión de la colección paleontológica, la prospección del entorno del yacimiento y sus escombreras, y el estudio de la bibliografía existente hasta ese momento.
En 2016 realizamos varias prospecciones en la zona de la antigua cantera donde recuperamos nuevas evidencias de industria lítica, pero también algunos restos óseos. La revisión de las publicaciones sobre de la industria lítica y el estudio de los restos recuperados en estas últimas prospecciones indicaba que había varias cronologías representadas en la colección de Koskobilo depositada en el Museo de Navarra. Asimismo, el estudio preliminar de la colección paleontológica también indicaba la presencia de fauna del Pleistoceno Medio (la presencia de macaco y de oso tibetano, de los que hablaremos más adelante) y del Pleistoceno Superior (como el oso de las cavernas; Figura 3). Además de conocer las especies que estaban representadas por los restos fósiles, también nos interesaba el proceso por el cual esos restos se habían acumulado en los yacimientos: ¿eran tal y como propuso Ruiz de Gaona, el resultado de actividades humanas? El estudio de las superficies de los huesos indicaba que había dos grandes grupos. Por un lado, la pequeña colección paleontológica recuperada por Barandiarán en 1955 junto a los restos que habíamos recuperado nosotros en 2016 estaban formados en su mayor parte por fragmentos no identificables de diáfisis de huesos largos, y presentaban marcas de corte, y manipulación antrópica. En cambio, la colección paleontológica recuperada por Ruiz de Gaona en 1941estaba compuesta mayoritariamente por restos fósiles que se podían clasificar taxonómicamente, no presentaban (salvo una excepción) marcas de corte, y presentaban evidencias de haber sido alterados por actividad de carnívoros. Con las evidencias que disponíamos propusimos que en realidad en Koskobilo se habían recuperado restos arqueo-paleontológicos de al menos dos yacimientos distintos que podrían pertenecer (o no) al mismo sistema de galerías. Por un lado estaría la sima descubierta en 1940 de la que Ruiz de Gaona recuperó la mayor parte de la colección paleontológica, cuyos fósiles representarían distintos momentos del Pleistoceno Medio y Superior, y en cuya acumulación habían participado carnívoros. Por otro lado, la mayor parte de los restos líticos del Paleolítico Superior, que fueron arrojados a la escombrera en algún momento indeterminado entre 1940 y su descubrimiento en 1950, así como la mayor parte de los restos de fauna con marcas de corte seguramente corresponderían a un segundo yacimiento, que fue destruido completamente por los trabajos de la cantera y cuyos restos se recuperaron directamente de las escombreras.

Nótese que el molar de oso de las cavernas, además de presentar un mayor tamaño, en consonancia con su mayor tamaño corporal, también tiene un patrón de cúspides más complicado. Los restos de oso negro asiático han sido atribuidos al Pleistoceno Medio mientras que los restos de oso de las cavernas han sido atribuidos al Pleistoceno Superior. Dibujos realizados por Amaia Torres Piñeiro.

Para el trabajo en detalle de los restos de fauna contamos con un nutrido grupo de investigadores: paleontólogos de distintas especialidades, geólogos y arqueólogos, con la intención de sacar la máxima cantidad de información a la colección. Los resultados merecieron la pena. Curiosamente, los supuestos restos de hipopótamo que habían despertado inicialmente nuestro interés por el yacimiento resultaron ser restos de un canino (colmillo) de jabalí de grandes dimensiones. Por otro lado, pudimos datar un espeleotema que cubría un diente de la especie de rinoceronte Stephanorhinus hemitoechus, que proporcionó una edad mínima de 220 mil años para este diente (Figura 4) y por extensión para parte de la colección paleontológica. Esta colección estaba compuesta por 38 taxones de mamíferos, desde rinocerontes hasta murciélagos (incluyendo 4 especies de oso), 6 taxones de aves, incluyendo una especie que ya no habita la península ibérica (el gallo lira, Lyrurus tetrix), y tres vértebras de peces (Figura 5). El estudio en detalle confirmaba nuestros resultados preliminares: la existencia entre los restos recuperados en 1940 de fósiles tanto del Pleistoceno Superior como del Pleistoceno Medio, aunque en muchos casos, debido a que ciertas especies presentaban amplias cronologías no era posible adscribir estos restos a ninguno de esos periodos. Entre los restos fósiles, destacaban los restos de dos de las especies de oso: el antepasado de los osos de las cavernas (el oso de Deninger Ursus cf. deningeri) y el oso negro asiático (u oso tibetano, Ursus thibetanus; Figura 3). También cabe destacar la presencia de restos de otras especies, de cuon (Cuon cf. priscus), de macaco de Berbería (Macaca sylvanus; Figura 6) y de ciervo gigante que atribuimos al género Megaceroides. Por los datos biocronógicos de los que disponemos, estas especies podrían haber sido contemporáneas con los restos del rinoceronte datados en el Pleistoceno Medio (en el MIS 7d o antes) proporcionando datos de unas cronologías muy poco representadas en el registro fósil de los Pirineos occidentales. La importancia del estudio de estas especies para el estudio de la evolución humana es su contemporaneidad con los últimos preneandertales, lo que nos ayuda a entender mejor el ecosistema en el que habitaron y explotaron estos homininos. Estos restos fósiles probablemente se acumularon en un momento interglacial, similar al actual, en que las faunas eran muy diversas, y donde los caballos, ciervos, bisontes, ciervos gigantes y rinocerontes eran cazados por leones, leopardos, cuones, lobos y hienas. Asimismo, a las orillas del Arakil, desbordadas por las presas de los castores, bajarían dos especies de oso a beber agua, y por las laderas calizas de Koskobilo se podrían ver grupos de macacos. Los yacimientos (o niveles) de estas cronologías son muy escasos en los Pirineos occidentales, entre los que podemos citar básicamente los niveles inferiores de Arlanpe (Dima, Bizkaia), los niveles inferiores de los yacimientos Lezetxiki I y Lezetxiki II (Arrasate, Gipuzkoa), y los restos de león y oso de Deninger de Santa Isabel de Ranero (Karrantza, Bizkaia).


Hace 80 años Ruiz de Gaona salvó de su destrucción una importante colección paleontológica de lo que fue el yacimiento cuaternario más antiguo de Navarra, Koskobilo. Actualmente la cantera que destruyó los yacimientos está abandonada, pero nuevos trabajos arqueológicos en la zona promovidos por la Sociedad de Ciencias Aranzadi y dirigidos por Daniel Ruiz González aportarán más información sobre la Prehistoria en la Burunda.
Para saber más:
Arlegi, M., Rios-Garaizar, J., Rodríguez-Hidalgo, A., López-Horgue, M.A., Gómez-Olivencia, A. 2018. Koskobilo (Olazti, Nafarroa): nuevos hallazgos y revisión de las colecciones. Munibe Antropologia-Arkeologia 69, 21-41. doi: 10.21630/maa.2018.69.07
Arlegi, M., Rios-Garaizar, J., Rodríguez-Hidalgo, A., Gómez-Olivencia, A. 2018. Nuevos datos sobre la colección arqueo-paleontológica de Koskobilo. En: Badiola, A., Gómez-Olivencia, A., Pereda Suberbiola, X. (Editores). Registro fósil de los Pirineos occidentales. Bienes de interés paleontológico y geológico. Proyección social. Vitoria-Gasteiz, Servicio Central de Publicaciones del Gobierno Vasco-Eusko Jaurlaritzaren Argitalpen Zerbitzu Nagusia, pp. 209-212. ISBN: 978-84-457-3437-7
Astibia, H., Murelaga, X., Pereda-Suberbiola, X., 1996. Máximo Ruiz de Gaona como prehistoriador y paleontólogo de vertebrados. Príncipe de Viana. Suplemento de Ciencias XVI- Núm 14/15, 65-76.
Barandiarán, I., Vallespí, E., 1984. Prehistoria de Navarra, Trabajos de Arqueología Navarra. Gobierno de Navarra, Pamplona.
Gómez-Olivencia, A., Arlegi, M., Arceredillo, D., Delson, E., Sanchis, A., Núñez-Lahuerta, C., Fernández-García, M., Villalba de Alvarado, M., Galán, J., Pablos, A., Rodríguez-Hidalgo, A., López-Horgue, M.A., Rodríguez-Almagro, M., Martínez-Pillado, V., Rios-Garaizar, J., van der Made, J. The Koskobilo (Olazti, Navarre, Northern Iberian Peninsula) paleontological collection: new insights for the Middle and Late Pleistocene in Western Pyrenees. Quaternary International. doi: 10.1016/j.quaint.2020.06.005
Ruiz de Gaona, M., 1941. Un yacimiento de mamíferos pleistocénicos en Olazagutía (Navarra). Boletín de la Real Sociedad Española de Historia Natural 39, 155-160.
Príncipe de Viana. Suplemento de Ciencias Año 1996, Número 14-15. Dedicado a: Homenaje a Máximo Ruiz de Gaona: Naturalista y Paleontólogo (1902-1971)
Sobre los autores: Asier Gómez Olivencia (@AsierGOlivencia) es investigador Ramón y Cajal en el Departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU y miembro activo del Departamento de Prehistoria de la Sociedad de Ciencias Aranzadi. Joseba Rios-Garaizar (@jorios) es investigador y gestor de colecciones líticas en el Centro Nacional de Investigación sobre Evolución Humana (CENIEH). Mikel Arlegi (@ArlegiMikel) es investigador postdoctoral de la UPV/EHU y de la Université de Bordeaux.
El artículo Koskobilo, un mundo perdido en la Burunda se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Todo lo que se puede medir en un río
- Verdín, eucaliptos y cambio climático
- Los umbrales ecológicos en la bioacumulación de metales
Así enseñamos a los ordenadores a identificar especies de peces
José Luis Lisani Roca e Ignacio Catalán Alemany

Para planificar estrategias de gestión sostenible de los recursos marinos, es necesario entender su funcionamiento. En el caso de las poblaciones de peces, necesitamos saber, entre otras variables, su localización, abundancia y fluctuaciones.
En la actualidad la adquisición de datos sobre estos recursos se lleva a cabo de diferentes formas. Una de ellas es el análisis de imágenes submarinas, que suele basarse en la identificación y el conteo manual de las especies en miles de imágenes por parte de personal especializado, lo que implica la inversión de una enorme cantidad de tiempo y esfuerzo.
La automatización del proceso de recogida de datos permitiría la extracción masiva de información con un considerable ahorro de recursos humanos, permitiendo a los investigadores dedicar más tiempo al análisis de los resultados. Además, el aumento del volumen de datos disponibles propiciaría un análisis más preciso y estadísticamente relevante. Esta automatización pasa por enseñar a los ordenadores a ver los peces en las imágenes.
Inteligencia artificial para reconocer objetos
Cuentan que Marvin Minsky (MIT), uno de los padres de la inteligencia artificial, propuso en 1966 a uno de sus alumnos un proyecto de verano consistente en conectar un ordenador a una cámara y conseguir que describiera lo que veía. Ese proyecto, previsto para 3 meses, se ha alargado más de 50 años. Solo en los últimos 8 se han obtenido progresos significativos.
Hasta 2012, el hecho de que los ordenadores pudieran reconocer los objetos presentes en una escena era más ciencia ficción que una posibilidad real. Aunque se habían conseguido algunos progresos, estaban limitados a casos muy particulares (por ejemplo, el reconocimiento de caras) y para imágenes sencillas. A partir de ese año, con la aparición de técnicas de aprendizaje automático basadas en redes neuronales convolucionales profundas, la realidad superó a la ficción.
Una red neuronal artificial es un algoritmo compuesto por varias etapas interconectadas entre sí y llamadas neuronas. Este modelo de conexión se inspira en la forma en que se relacionan las neuronas del cerebro, de ahí su nombre.
Cada neurona artificial implementa una función matemática que combina una serie de operaciones sencillas (sumas y productos de los valores de entrada por unos factores o pesos asociados a la neurona) y una operación más compleja que se aplica a la señal de salida.
En una red neuronal, las neuronas se organizan formando capas, de manera que las salidas de las neuronas de una capa se utilizan como entrada de las neuronas de la capa siguiente.
La concatenación de muchas de estas capas permite crear funciones muy complejas que relacionan los valores de entrada de la red con el valor (o valores) a la salida. Mediante técnicas de optimización, los pesos de la red se pueden ajustar (el algoritmo aprende) para obtener a la salida un resultado adaptado a cada entrada.
Aunque la base teórica de las redes neuronales se estableció a mediados del siglo pasado, no fue hasta principios del presente siglo cuando la potencia de computación permitió procesar la gran cantidad de datos necesaria para la resolución de problemas complejos con este tipo de algoritmos.
Cómo se entrenan las neuronas artificiales
El modelo más habitual de red aplicado al procesamiento de imágenes recibe el nombre de red neural convolucional (o CNN, por sus siglas en inglés). En este caso, cada neurona de la primera capa de la red está conectada a un pequeño grupo de píxeles de la imagen de entrada.
Una de las primeras aplicaciones de las CNN fue la clasificación de imágenes según su contenido. Dada una imagen de entrada, la red debe decidir, por ejemplo, si se trata de la imagen de una persona, de un coche, etc. Para ajustar los pesos de la red (entrenarla) de manera que se cumpla este objetivo son necesarios los siguientes ingredientes:
- Una gran cantidad de imágenes, llamadas de entrenamiento, que contienen los objetos a reconocer y etiquetadas por un humano (imágenes de personas con la etiqueta “persona”, de coches con la etiqueta “coche”, etc.).
- Una red que toma como entrada una imagen y proporciona a la salida una etiqueta (“persona”, “coche”, etc.).
- Una función (función de coste) que compara las etiquetas proporcionadas por la red con las etiquetas asignadas por el humano y que toma un valor mínimo cuando ambas coinciden.
Los pesos de la red se van modificando en el proceso. Si el número de imágenes de entrenamiento y el número de capas de la red son suficientemente grandes, tras un número suficiente de iteraciones la red es capaz de simular la manera que tienen los humanos de etiquetar las imágenes.
En 2012, una CNN profunda (formada por una gran número de capas)
llamada AlexNet fue capaz de clasificar 1 000 objetos diferentes con un error muy inferior al de cualquier técnica anterior. Este hecho impulsó definitivamente la utilización de este tipo de algoritmos en el campo de la visión por computador. Desde 2015, las CNN son capaces de clasificar esos 1 000 objetos con un error inferior al cometido por los humanos.
Basados en los principios enunciados más arriba, redes cada vez más complejas se aplicaron desde 2012 al reconocimiento de objetos en imágenes: la red no solo debía distinguir un objeto de otro, sino también indicar en qué parte de la imagen se encontraba. El modelo de red más popular en la actualidad para la resolución de este tipo de problemas fue propuesto en 2018 y recibe el nombre de Mask R-CNN.
Inteligencia artificial para identificar peces
Mask R-CNN se ha utilizado para detectar multitud de objetos de la vida cotidiana, desde coches y personas a corbatas, sillas o cepillos de dientes. Nosotros lo empleamos en el proyecto DEEP-ECOMAR con el objetivo de reconocer diferentes especies de peces en imágenes submarinas.
Para conseguirlo, entrenaremos la red con miles de imágenes previamente etiquetadas por expertos en las que aparecen las especies de interés. Una vez
entrenada, la red será capaz de identificar estas especies de manera automática.

Una parte importante del proyecto se dedicará al etiquetado manual de las imágenes, para lo que se desarrollarán herramientas de software que permitirán agilizar la tarea. Asimismo, se investigará el efecto de la aplicación de técnicas de mejora del color y el contraste de las imágenes en los resultados del aprendizaje. Finalmente, se ajustarán los parámetros de la función de coste de la red para obtener resultados óptimos y aplicables a imágenes obtenidas en entornos marinos diferentes al utilizado para el entrenamiento.
El proyecto DEEP-ECOMAR lo realizamos de manera conjunta investigadores del IMEDEA (Instituto Mediterráneo de Estudios Avanzados, CSIC-UIB) y de la Universitat de les Illes Balears (UIB). Utilizaremos el vídeo submarino y el banco de imágenes del observatorio submarino Sub-Eye, situado en Andratx (Mallorca).
Sobre los autores: José Luis Lisani Roca es profesor titular de universidad en el área de matemática aplicada en la Universitat de les Illes Balears e Ignacio Catalán Alemany es investigador en oceanografía pesquera en el Instituto Mediterráneo de Estudios Avanzados (IMEDEA – CSIC – UIB)
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Así enseñamos a los ordenadores a identificar especies de peces se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Especies exóticas invasoras
- Juan Ignacio Cirac – P4K 2019: ¿Cómo serán los ordenadores cuánticos?
- Animales en equilibrio osmótico: invertebrados marinos y peces bruja
¿Cuántas estructuras rítmicas existen en poesía?
En la sección Matemoción del Cuaderno de Cultura Científica somos unos apasionados de la poesía, así como de la relación de esta con las matemáticas. Si miramos en el histórico de la misma podremos encontrar muchas entradas vinculando ambas, desde la serie Los números poéticos (primera parte, segunda parte y tercera parte) en la que se hablaba de poemas con temática matemática, como el poema sobre el número pi de la premio nobel de literatura polaca Wisława Szymborska o Los números oscuros de la poeta barcelonesa Clara Janés, hasta poemas en cuya estructura hay matemáticas, como poemas sobre una banda de Moebius (véase la entrada Poesía retorcida sobre la banda de Moebius), la combinatoria de la obra poética Cien mil millardos de poemas del escritor francés Raymond Queneau (véase 100 000 000 000 000 poemas) o el uso de la sucesión de Fibonacci, tanto en la obra Alfabeto de la poeta danesa Inger Christensen (véase ¡Nos encanta Fibonacci! ), como en los llamados poemas Fibonacci (véase Poemas Fibonacci).

Pero también hemos abordado el análisis matemático de algunas cuestiones relacionadas con la poesía, como en la entrada El origen poético de los números de Fibonacci, en la cual se muestra que la cantidad de estructuras posibles para versos con m moras (la mora es la “la unidad que mide el peso silábico, es decir, la duración de los segmentos fonológicos que componen la sílaba” y hay dos tipos de sílabas, unas cortas de una mora o instante silábico y otras largas de dos moras) es igual al número de Fibonacci Fm + 1.

En esta entrada del Cuaderno de Cultura Científica vamos a continuar con el análisis matemático de la poesía, en concreto, vamos a interesarnos por la cuestión de la métrica y a responder a la siguiente pregunta:
¿cuántas posibles estructuras de rimas existen para estrofas o poemas con un número fijo de versos?
Aunque sea una cuestión conocida, vamos a empezar por el principio. ¿Qué es la rima? Según el diccionario de la RAE es la “identidad de sonidos vocálicos y consonánticos, o solo vocálicos, a partir de la última vocal acentuada en dos o más versos”. Así, en el pareado final del poema Frases de la poeta argentina Alfonsina Storni (1892-1938),
Bravo león, mi corazón,
tiene apetitos, no razón
la rima es “ón”, luego rima consonante, mientras que en el pareado final del poema Lunes, miércoles y viernes del poeta andaluz Federico García Lorca (1898-1936)
Ante una vidriera rota
coso mi lírica ropa
la rima es “ota” y “opa”, luego rima asonante, ya que se repiten las vocales o-a.
Aunque la cuestión que nos interesa en esta entrada no es tanto si la rima es asonante o consonante, como analizar la cantidad de estructuras de rimas posibles para una estrofa, o poema, con un número fijo de versos. Por ejemplo, en una estrofa de dos versos hay dos posibilidades, que los dos rimen, como en el caso del pareado, que sería la estructura AA, o que no rimen, que sería la estructura libre AB, como en el haiku del poeta japonés Taneda Santoka (1882-1940)
Mi cuenco de mendigar
acepta hojas caídas
Por lo tanto, para estrofas o poemas con dos versos solo hay dos tipos de rima, AA y AB (en esta entrada vamos a escribir siempre la rima con letras mayúsculas, independientemente de que el verso sea de arte menor –de entre dos y ocho sílabas– o arte mayor –más de ocho sílabas–). Evidentemente, en el caso trivial de un solo verso solo hay una posibilidad trivial.
Pensemos ahora en la cantidad de estructuras rítmicas que son posibles en tercetos, es decir, en estrofas o poemas con tres versos. Por ejemplo, los haikus, que son pequeños poemas de origen japonés que habitualmente cuentan con tres versos, no suelen tener rima, luego ABC, como este poema del poeta donostiarra Karmelo C. Iribarren, titulado Domingo tarde.
Qué hago
mirando la lluvia
si no llueve
Por otra parte, la rima de la soleá andaluza es ABA, como en la siguiente soleá del poeta sevillano Antonio Machado (1875-1939).
Tengo un querer y una pena:
la pena quiere que viva;
el querer quiere que muera.
Se llama terceto monorrimo a aquellos tercetos que tienen la misma rima, ya sea asonante o consonante, en los tres versos, AAA, como en los tercetos del poema A Goya del poeta nicaragüense Rubén Darío (1867-1916), dentro de los Cantos de vida y esperanza. Así empieza el poema.
Poderoso visionario,
raro ingenio temerario,
por ti enciendo mi incensario.
Por ti, cuya gran paleta,
caprichosa, brusca, inquieta,
debe amar todo poeta;
por tus lóbregas visiones,
tus blancas irradiaciones,
tus negros y bermellones;
por tus colores dantescos,
por tus majos pintorescos,
y las glorias de tus frescos.
Otra rima posible para los tercetos es AAB, como en el poema La muerte de Melisanda del poeta chileno Pablo Neruda (1904-1973), cuyas estrofas son de dos versos (empieza así … A la sombra de los laureles / Melisanda se está muriendo.), salvo la anteúltima estrofa que es un terceto con rima AAB.
Por ella pisará las rosas,
perseguirá las mariposas
y dormirá en los cementerios.
Mientras que la rima ABB la encontramos por ejemplo en el siguiente poema de la poeta madrileña Gloria Fuertes (1917-1998).
En las noches claras,
resuelvo el problema de la soledad del ser.
Invito a la luna y con mi sombra somos tres.
Por lo tanto, hemos puesto ejemplos de todas las posibles rimas para estrofas o poemas con tres versos, AAA, AAB, ABB, ABA y ABC. Es decir, para tres versos son cinco las estructuras rítmicas posibles.

A continuación, analicemos cuántas son las estructuras posibles de rimas en las estrofas o poemas con cuatro versos. Empecemos con una composición poética clásica, el soneto, que consta de catorce versos separados en dos cuartetos y dos tercetos. Veamos un ejemplo clásico y jocoso de soneto del poeta y dramaturgo madrileño Lope de Vega (1562-1635).
Un soneto me manda hacer Violante,
que en mi vida me he visto en tanto aprieto;
catorce versos dicen que es soneto;
burla burlando van los tres delante.
Yo pensé que no hallara consonante,
y estoy a la mitad de otro cuarteto;
mas si me veo en el primer terceto,
no hay cosa en los cuartetos que me espante.
Por el primer terceto voy entrando,
y parece que entré con pie derecho,
pues fin con este verso le voy dando.
Ya estoy en el segundo, y aun sospecho
que voy los trece versos acabando;
contad si son catorce, y está hecho.
Como se ve en este ejemplo, los cuartetos de un soneto tienen rima ABBA, a la cual se la conoce como rima abrazada. A la estructura rítmica en la cual riman los cuatro versos AAAA se la conoce como continua o cuarteto monorrimo. Un ejemplo lo encontramos en el Libro del buen amor del Arcipreste de Hita (aprox. 1283-1350), en el capítulo Enxiemplo del garçón que quería casar con tres mujeres.
Era un garçón loco, mançebo bien valiente:
Non quería cassarse con una solamente;
Synon con tres mugeres: tal era su talente.
Porfiaron en cabo con él toda la gente.
Su padre é su madre é su hermano mayor
Afyncáronle mucho que ya por su amor
Con dos que se cassase, primero con la menor,
Dende á un mes conplido, casase con la mayor.
A la rima ABAB se la conoce como rima cruzada. Nos podemos encontrar ejemplos de esta rima en muchos poemas, por ejemplo, en el poema del poeta valenciano Miguel Hernández (1910-1942), titulado Niño yuntero, del que mostramos las primeras estrofas.
Carne de yugo, ha nacido
más humillado que bello,
con el cuello perseguido
por el yugo para el cuello.
Nace, como la herramienta,
a los golpes destinado,
de una tierra descontenta
y un insatisfecho arado.
Entre estiércol puro y vivo
de vacas, trae a la vida
un alma color de olivo
vieja ya y encallecida.
Releyendo algunos poemas del poeta portugués Fernando Pessoa (1888-1935), también he encontrado muchos cuartetos con rima ABAB, como el siguiente poema.
El poeta es un fingidor.
Finge tan completamente
que hasta finge que es dolor
el dolor que de veras siente.
Y quienes leen lo que escribe,
sienten, en el dolor leído,
no los dos que el poeta vive
sino aquél que no han tenido.
Y así va por su camino,
distrayendo a la razón,
ese tren sin real destino
que se llama corazón.
Pero también encontramos cuartetos con otras rimas, como AABA, en el poema que empieza así.
Siervo impasible de un fin desolado,
No creas o descreas demasiado.
Lo mismo da que pienses o no pienses.
Todo es irreal, anónimo, impensado.
Pero existen más estructuras rítmicas posibles para un cuarteto, AAAB, AABB, ABAA, ABBB, AABC, ABAC, ABCA, ABBC, ABCB, ABCC e incluso sin rima ABCD. En total, hay quince estructuras rítmicas para cuatro versos.

Lo siguiente sería obtener cuántas estructuras de rimas posibles hay para estrofas o poemas de cinco versos. Podéis listar vosotras mismas todas las posibilidades que existen y descubriréis que son 52, aunque nosotros vamos a aprovechar para utilizar unos diagramas muy especiales para mostrarlas.
En la novela clásica de la literatura japonesa El romance de Genji, de la escritora Murasaki Shikibu (aprox. 978-1014), aparecen representados con bonitos diagramas las 52 estructuras rítmicas posibles. Las líneas verticales con los versos de la estrofa o poema, y las líneas horizontales unen las líneas que riman. Cada capítulo, en total son 54, empieza con la imagen de uno de esos diagramas, aunque hay uno que se repite y otro extra. Los símbolos utilizados en El romance de Genji son los que aparecen en esta imagen.
Por ejemplo, el primer signo se correspondería con la rima ABACC, el número 37 con ABCAA o el número 52 con ABABA. Un ejemplo de rima ABABB, que es el diagrama 29 de la imagen anterior, es el poema Noche oscura del fraile y poeta castellano Juan de la Cruz (1542-1591), que empieza así:
En una noche oscura
con ansias, en amores inflamada,
¡oh dichosa ventura!
salí sin ser notada,
estando ya mi casa sosegada.
A oscuras, y segura,
por la secreta escala disfrazada,
¡Oh dichosa ventura!
a oscuras, y en celada,
estando ya mi casa sosegada.

Y podríamos seguir estudiando cuantas estructuras de rimas son posibles para estrofas o poemas de seis o más versos.
Si hacemos un balance de los resultados que hemos obtenido sobre cuántas posibles estructuras de rimas existen para estrofas o poemas con un número fijo n de versos, hemos visto que para los valores n = 1, 2, 3, 4 y 5, desde uno a cinco versos, la cantidad de posibles estructuras rítmicas son: 1, 2, 5, 15 y 52.
Estos son los cinco primeros términos de una sucesión importante de la combinatoria, los números de Bell (la sucesión A000110 en la Enciclopedia online de sucesiones de números enteros), que reciben su nombre del matemático y novelista estadounidense Eric Temple Bell (1883-1960), conocido por ser el autor del libro Los grandes matemáticos, de Zenón a Poincaré.
En combinatoria se define el número de Bell Bn como el número de posibles particiones de un conjunto de n elementos, es decir, la cantidad de formas distintas de distribuir los n elementos de un conjunto en grupos.
Si para todo número natural n se toma como conjunto de referencia el conjunto de los números naturales hasta n, {1, 2, …, n – 1, n}, calculemos las particiones posibles de ese conjunto y, por tanto, los números de Bell.
Para n = 1, solo hay una partición posible del conjunto {1}, la trivial, luego B1 = 1;
para n = 2, las particiones del conjunto {1, 2}, es decir, las formas de distribuir los elementos de ese conjunto en grupos son {1}{2} y {1, 2}, por lo tanto, B2 = 2;
para n = 3, las particiones de {1, 2, 3} son {1}{2}{3}, {1, 2}{3}, {1, 3}{2}, {2, 3}{1} y {1, 2, 3}, por eso B3 = 5;
para n = 4, son {1}{2}{3}{4}, {1, 2}{3}{4}, {1, 3}{2}{4}, {1, 4}{2}{3}, {2, 3}{1}{4}, {2, 4}{1}{3}, {3, 4}{1}{2}, {1, 2}{3, 4}, {1, 3}{2, 4}, {1, 4}{2, 3}, {1, 2, 3}{4}, {1, 2, 4}{3}, {1, 3, 4}{2}, {2, 3, 4}{1} y {1, 2, 3, 4}, es decir, B4 = 15;
de la misma forma podéis calcular las particiones de {1, 2, 3, 4, 5} y obtener que B5 = 52. En general, los primeros miembros de la sucesión de números de Bell son
1, 2, 5, 15, 52, 203, 877, 4.140, 21.147, 115.975, …
Como el conjunto sobre el que consideremos las particiones puede ser cualquiera, esto permite hacer diferentes diagramas e interpretaciones de los números de Bell. Por ejemplo, si se consideran puntos en el plano se pueden representar las particiones de estos como aparece en las siguientes imágenes, para B3 y B4.


Aunque si le metemos color a las particiones queda más bonito el diagrama, como la siguiente imagen para el cálculo de B5.

Por otra parte, si un número N es producto de n números primos distintos, lo que se suele denominar un número libre de cuadrados, entonces Bn es igual al número de formas de expresar N como producto de divisores suyos, salvo el 1. Así, el número 105 puede expresarse como 105 = 3 · 5 · 7 = 15 · 7 = 21 · 5 = 35 · 3 (b3 = 5). Notemos que el conjunto que se considera es el formado por los divisores primos del número N, en el caso de 105 sería {3, 5, 7}, y cada partición da lugar a una forma de expresar el número N como producto de divisores suyos, así la partición {3, 7}{5} da lugar a 105 = 21 · 5 , ya que 21 = 3 · 7.

Pero volviendo al tema central de esta entrada si ahora se toma el conjunto de los versos de una estrofa o poema con n versos para calcular el número de Bell Bn, entonces la cantidad de estructuras para las rimas de una estrofa o un poema de n versos es igual al número de Bell Bn, ya que se considera que los versos que están en un mismo grupo tienen la misma rima.
Si miramos a la sucesión de los números de Bell, B7 = 877, es decir, existen 877 estructuras rítmicas para estrofas o poemas de 8 versos, entre las que están las rimas ABCBDAD, ABCBADA de las primeras estrofas del poema Nanas de la cebolla del poeta Miguel Hernández.
La cebolla es escarcha
cerrada y pobre:
escarcha de tus días
y de mis noches.
Hambre y cebolla:
hielo negro y escarcha
grande y redonda.
En la cuna del hambre
mi niño estaba.
Con sangre de cebolla
se amamantaba.
Pero tu sangre
escarchaba de azúcar,
cebolla y hambre.

Bibliografía
1.- Toni Prat, Poesía visual (blog)
2.- Raúl Ibáñez, La gran familia de los números (título provisional), Catarata, 2020.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo ¿Cuántas estructuras rítmicas existen en poesía? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Historia de Nicolas Bourbaki
En 1923 Raoul Husson (1901-1967), en aquel momento alumno de la Escuela Superior Normal de París (École Normale Supérieure), inventó el nombre de un supuesto matemático llamado Nicolas Bourbaki. Husson se disfrazó de matemático barbudo e impartió una falsa conferencia científica, que fue intencionadamente incomprensible y con razonamientos sutilmente falsos.
El objetivo de esta conferencia era dar a conocer el supuesto teorema de Bourbaki, una invención, para poner de manifiesto el cinismo de algunos intelectuales, que daban por buena cualquier explicación siempre que sonase lo suficientemente complicada.
Los vídeos de Historias de la Ciencia presentan de forma breve y amena pasajes de la nuestra historia científica y tecnológica. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.
El artículo Historia de Nicolas Bourbaki se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La hipótesis protón-electrón de la composición nuclear

Al describir el problema de la estructura nuclear, terminamos planteándonos una pregunta: ¿Podría un núcleo de masa A consistir en un número A de protones? La respuesta corta es no.
Si este fuera el caso, la carga del núcleo sería de A unidades, pero, a excepción del hidrógeno, sabemos que la carga nuclear Z es siempre menor que A, generalmente menor que A/2. Para sortear esta dificultad, se asumió desde el principio que, además de los protones, los núcleos atómicos contenían los electrones suficientes para cancelar la carga positiva de los protones adicionales; es decir, se suponía que contenían (A-Z) electrones. Después de todo, los núcleos emiten electrones al desintegrarse, por lo que, aparentemente, los electrones deben existir dentro del núcleo. Estos electrones contribuirían con solo una pequeña cantidad a la masa del núcleo, pero junto con los protones harían que la carga neta fuera igual a Z unidades, como era necesario.
Parecía plausible, entonces, considerar que el átomo consistía en un núcleo formado por A protones y (A-Z) electrones, con Z electrones adicionales fuera del núcleo para obtener como resultado un átomo eléctricamente neutro. Por ejemplo, un átomo de oxígeno-16 tendría un núcleo con 16 protones y 8 electrones, con 8 electrones adicionales fuera del núcleo. Este modelo del núcleo se conoce como la hipótesis protón-electrón de la composición nuclear. [1]
La hipótesis protón-electrón parecía ser coherente con la emisión de partículas alfa y beta por los átomos de las sustancias radiactivas. Al incluir electrones en el núcleo la explicación de la desintegración beta no era un problema: cuando el núcleo alcanza un estado determinado simplemente expulsa uno de sus electrones. También parecía razonable que se pudiera formar una partícula alfa en el núcleo mediante la combinación de cuatro protones y dos electrones; una partícula alfa podría existir ya preformada en el núcleo, o formarse en el instante de la emisión.
Aunque la hipótesis protón-electrón era satisfactoria en algunos aspectos, el desarrollo de la mecánica cuántica, entre otros problemas, obligó a descartarla. Una de las dificultades más serias surge del principio de incertidumbre de Heisenberg y de la teoría de la relatividad de Einstein: el confinamiento de un electrón en un espacio tan pequeño como el núcleo daría lugar a la circunstancia de que a veces la velocidad del electrón sería mayor que la velocidad de la luz, lo que no es posible según la teoría de la relatividad especial.
¿Cómo podría explicarse el hecho de que los electrones no puedan estar confinados en el núcleo, pero emerjan del núcleo en la desintegración? Heisenberg contaba la siguiente anécdota:
Estaban un día él y sus asistentes discutiendo este problema mientras tomaban un café enfrente del edificio que albergaba la piscina cubierta de la ciudad. El movimiento de gente que entraba y salía del mismo sugirió a Heisenberg un posible nuevo enfoque del problema. “Ves a la gente entrando en el edificio completamente vestida, y la ves salir completamente vestida. ¿Pero significa eso que también nada completamente vestida?” O sea, ves electrones que salen del núcleo y, en otras ocasiones, ves electrones que son capturados por el núcleo, pero eso no significa que permanezcan como electrones mientras están en el núcleo. Quizás los electrones se creasen en el proceso de emisión desde el núcleo. Era necesario un modelo completamente nuevo.
Notas:
[1] La hipótesis protón-electrón es similar a una idea anterior sugerida por el médico inglés William Prout en 1815. Sobre la base del pequeño número de masas atómicas conocidas entonces, Prout propuso que todas las masas atómicas son múltiplos de la masa atómica del hidrógeno y que por tanto, todos los elementos podrían estar formados por hidrógeno. La hipótesis de Prout fue descartada cuando, a finales del siglo XIX, se encontró que las masas atómicas de algunos elementos eran, sin ningún género de dudas, fraccionarias, en concreto, las de cloro (35,46 unidades) y cobre (63,54 unidades). Sin embargo, con el descubrimiento de los isótopos, se descubrió que las masas atómicas fraccionarias de cloro y cobre, como la del neón, surgen porque estos elementos son mezclas de isótopos, y cada isótopo sí tiene una masa atómica cercana a un número entero.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La hipótesis protón-electrón de la composición nuclear se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Pigmentos y fotones: la ciencia detrás de los colores otoñales del bosque
Manuel Peinado Lorca y Luis Monje

A medida que los días se vuelven más fríos y aparecen las primeras escarchas, árboles y arbustos de hoja caduca comienzan el despliegue otoñal de tonos rojos, amarillos, púrpuras y marrones que caracterizan a los bosques templados de ambos hemisferios. Para comprender el proceso de diseño del fantástico espectáculo otoñal de los caducifolios es importante entender qué son y para qué sirven los pigmentos.
La magia química y lumínica de los pigmentos
Las plantas son expertas en capturar la energía de la luz y utilizarla para crear azúcares mediante la fotosíntesis. Este proceso comienza con la absorción de luz mediante moléculas orgánicas especializadas, los pigmentos, que se encuentran en los cloroplastos y en las vacuolas celulares (Figura 1).

Luis Monje
La luz es una forma de radiación electromagnética, un tipo de energía que viaja en ondas. En conjunto, todos los tipos de radiación conforman el espectro electromagnético, cuyas longitudes entre 400 y 700 nm constituyen la luz visible para el ojo humano (Figuras 2A y 2B). Cada partícula, llamada fotón, tiene una cantidad fija de energía que puede excitar un pigmento (Figura 2C).
Un pigmento excitado es inestable y tiene varias opciones disponibles para llegar a ser más estable. En las plantas, la energía de los fotones se usa para dividir moléculas de agua dentro de los cloroplastos. Además de oxígeno, en el proceso se liberan electrones e iones de hidrógeno. Estos electrones e iones se utilizan para generar energía en forma de adenosin trifosfato (ATP), que se usa en el ciclo de Calvin, cuyo objetivo es tomar CO₂ y utilizar la energía generada para transformar las moléculas de carbono en cadenas de moléculas orgánicas.

El color de un pigmento es el resultado de la longitud de onda reflejada. El color verde de las hojas se debe a la presencia de las clorofilas, unos pigmentos que se encuentran dentro de los cloroplastos, que absorben la mayoría de las radiaciones del espectro visible, y reflejan los verdes (Figura 3). Cuando abunda en las células, como sucede durante la temporada de crecimiento de primavera e inicios de verano, el color de la clorofila domina y enmascara los colores de cualquier otro pigmento que pudiera existir en la hoja.
La clorofila tiene una función vital: captura los rayos solares y utiliza la energía resultante en la fabricación de los alimentos de la planta: azúcares simples. Durante la temporada de crecimiento, la clorofila, que se deteriora con la exposición a la luz solar, se elabora, se degrada y se reemplaza constantemente en las hojas, fabricantes incansables de nueva clorofila durante la pujante estación de crecimiento.
El ciclo vital de los caducifolios
Como la mayoría de las plantas, los ritmos circadianos de los caducifolios son sensibles al fotoperiodo, es decir, a la duración del período diario de oscuridad. A finales del verano, los días comienzan a acortarse y las noches son más largas. Como la hora de inicio de todo el proceso depende de la duración de la noche, los colores otoñales aparecen aproximadamente a la misma hora cada año en un lugar determinado, sin que importe demasiado que las temperaturas sean más frías o más cálidas de lo normal.
Cuando las noches alcanzan un valor umbral y son lo suficientemente largas, las células que se encuentran en el punto de unión del peciolo de la hoja y el tallo que la sustenta se dividen rápidamente, pero no se expanden. Se forma así una capa de abscisión de callosa, es decir, una capa impermeable de células que poco a poco va obturando el floema y, con ello, bloqueando el transporte de savia de la hoja a la rama. También bloquea el xilema y, por tanto, el flujo de minerales desde las raíces hacia las hojas.

Conforme se desarrolla esta capa, la cantidad de clorofila en la hoja comienza a disminuir. A medida que las clorofilas se degradan, se revelan los pigmentos ocultos de unos derivados oxigenados de los carotenoides, las xantofilas amarillas, y los betacarotenos naranjas (Figura 3). Estos pigmentos están presentes durante todo el año en el interior celular, pero los pigmentos rojos, las antocianinas, se sintetizan de novo una vez que se ha degradado aproximadamente la mitad de la clorofila.
Aunque existan en las hojas durante todo el año, los colores amarillo-anaranjados de los carotenoides permanecen enmascarados por la clorofila verde. A medida que se acerca el otoño y el suministro total de clorofilas va disminuyendo gradualmente, el efecto de enmascaramiento se desvanece lentamente. Cuando eso sucede, comienzan a verse las coloraciones amarillas, pardas, naranjas y muchas tonalidades intermedias que proporcionan los carotenoides.
Los carotenoides son el pigmento dominante en la coloración de aproximadamente el 15-30 % de las especies de árboles. Sus amarillos y naranjas brillantes tiñen las hojas de nogales, fresnos, arces, álamos, abedules, cerezos, plátanos de paseo y alisos, entre otros muchos.
Los rojos, los púrpuras y sus combinaciones provienen de otro grupo de pigmentos celulares, las antocianinas. Hay dos diferencias importantes entre estos pigmentos y las clorofilas y los carotenoides. La primera es que no se encuentran en los cloroplastos. Son pigmentos solubles en agua que se almacenan en las vacuolas. La segunda es que, a diferencia de los carotenoides, no existen en la hoja durante la temporada de crecimiento, sino que se producen activamente hacia el final del verano.

Cuando se acerca el otoño, las antocianinas se elaboran a partir de la savia acumulada en las células. Su síntesis de novo depende de la descomposición de los azúcares en presencia de luz intensa a medida que se reduce el nivel de fosfato en la hoja. Durante la temporada de crecimiento de verano, el nivel de fosfato es alto, porque juega un papel vital en la descomposición de los azúcares fabricados por la clorofila. En otoño, el fosfato, junto con otros nutrientes, se moviliza desde la hoja al tallo de la planta. Cuando eso sucede, el proceso de descomposición del azúcar cambia, lo que lleva a la producción de pigmentos de antocianina. Cuanto más brillante sea la luz durante este período, mayor será la producción de antocianinas y más luminoso será el color resultante.
En las regiones de clima templado, las antocianinas están presentes en aproximadamente una de cada diez especies de árboles aunque en algunos lugares hasta el 70 % de las especies de árboles pueden producir el pigmento. En los bosques otoñales tiñen a arces, robles, cornejos, cerezos y ciruelos. Estos mismos pigmentos a menudo se combinan con los colores de los carotenoides para crear los naranjas más intensos, los rojos vivos y los bronceados típicos de muchas especies de madera dura.
A medida que avanza el otoño, las células de la capa de abscisión se encallecen más y más. Como la clorofila, los otros pigmentos se degradan con la luz o cuando se congelan. Los únicos pigmentos que quedan son los taninos acumulados en las paredes celulares, que son marrones. Las conexiones entre las células se debilitan y las hojas acaban por caer.
Ha llegado el invierno y con él cae el maravilloso telón multicolor de la temporada otoñal que, en esencia, como toda la vida que nos rodea, está literalmente construida desde cero por la partícula que encumbró a Einstein: el fotón. Bastante increíble, ¿no está de acuerdo?
Sobre los autores: Manuel Peinado Lorca es catedrático de universidad en el departamento de ciencias de la vida e Investigador del Instituto Franklin de Estudios Norteamericanos y Luis Monje es biólogo y profesor de fotografía científica, ambos de la Universidad de Alcalá
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Pigmentos y fotones: la ciencia detrás de los colores otoñales del bosque se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Colores vivientes: nanoestructuras que se cultivan, no se fabrican.
- La pantalla de tu móvil solo tiene tres colores
- Los pigmentos respiratorios
En busca de biomateriales que se asemejen al tejido cerebral
Irati Diez Virto
Los biomateriales son substancias creadas para mantenerse en contacto con tejidos o fluidos biológicos. Uno de los biomateriales más habituales y conocidos son los empastes dentales. Sin embargo, el uso de estos materiales va más allá y su campo se amplía al desarrollo de implantes que, por ejemplo, sustituyan articulaciones, reparen órganos o imiten un conjunto de propiedades físicas de órganos como el cerebro. Enfrentarse al diseño de un material sintético, que contenga las propiedades de un tejido tan complejo como el cerebral, es un gran reto. Un desafío al que se enfrentan hoy día diversos grupos de investigación.
El uso de biomateriales ha ido aumentando exponencialmente desde la creación del primer biomaterial en la década de 1920, llamado Vitallium, una aleación metálica de uso odontológico. En la actualidad, existen innumerables aplicaciones para este tipo de materiales, entre ellos alrededor de 2.700 equipos médicos y unos 39.000 preparados farmacéuticos. Aunque estos materiales hayan generado un gran impacto positivo en la sanidad mundial, aún existe la necesidad de diseñar polímeros más refinados y métodos más sofisticados para caracterizar y testar estos materiales. Este es el caso de los biomateriales que pretenden imitar el tejido cerebral.
A lo largo de los años, se han llegado a diseñar varios tipos de biomateriales con esta intención. Estos tejidos sintéticos son requeridos en diversas tecnologías emergentes, como pueden ser el desarrollo de modelos de enfermedades neurológicas, la caracterización del tejido neuronal o el diseño de organoides cerebrales (versión miniaturizada y simplificada de un órgano, creado in vitro). Además, también podrían utilizarse para aplicaciones in vivo, esto es, para realizar implantes directamente en el tejido cerebral de pacientes con patologías diversas. Se cree que la utilización de biomateriales más sofisticados minimizaría la respuesta inmune de los pacientes y el rechazo al tejido. Pero para poder aplicar estos materiales exitosamente, es de vital importancia imitar las características físicas del cerebro.

El mayor desafío de diseñar un tejido semejante al tejido cerebral reside en una característica física del mismo, que lo hace difícil de manipular: es muy blando. Esto se debe en parte al alto grado de hidratación de este órgano. El contenido de agua del tejido cerebral oscila entre el 73 y el 85% de la masa total, gracias a su alto contenido en proteoglicanos, moléculas que atrapan agua. También presenta muy poca cantidad de fibra de colágeno, el cual se relaciona con la rigidez de distintos órganos. Por ello, cuantificar la rigidez de este órgano es una de las tareas que está abordando la investigación en este ámbito.
Esta cuantificación se realiza mediante la medición del módulo elástico, una constante elástica que determina el grado de elasticidad (o rigidez) de un material en concreto. Hasta la fecha, no se ha podido caracterizar completamente esta medida para el tejido cerebral. Además, existen diferentes métodos experimentales para la determinación del módulo elástico y estos métodos divergen sustancialmente de un laboratorio a otro, así como las condiciones en las que se lleva a cabo dicha medición. Esta gran variedad de técnicas utilizadas genera unos resultados muy dispares entre distintos grupos de investigación, lo que hace que la comparación entre ellos sea casi imposible. Por esta razón, hasta ahora no se ha conseguido sintetizar ningún material que imite las complejas propiedades de este tejido.
Aún y así, sí existen potenciales candidatos que, aunque no son lo suficientemente sofisticados, podrían brindar grandes resultados combinándolos con otros materiales. Uno de ellos son las inyecciones de hidrogel, los cuales están siendo estudiados para el tratamiento posterior a la extirpación de glioblastoma (el tumor más común de la glia). Asimismo, este material inyectable brinda la posibilidad de administrar fármacos de una manera continuada. Aunque las propiedades viscoelásticas de estas inyecciones aún no han sido comparadas directamente con aquellas del cerebro, la mera posibilidad de que puedan ser inyectadas directamente en un paciente es extremadamente prometedora. Esto posibilitaría reemplazar los materiales rígidos y duros utilizados actualmente (Gliadel, por ejemplo) para rellenar cavidades cerebrales postoperatorias.
Por todo ello, investigaciones actuales trabajan en la caracterización de la firmeza del tejido cerebral en todas las escalas, desde la morfología visible hasta la escala nanométrica (neuronas y células glia) y bajo condiciones fisiológicas. Esta caracterización, así mismo, deberá realizarse mediante métodos y protocolos estandarizados, con el objetivo de asegurar una comparación fiable entre distintos estudios.
Únicamente cuando comprendamos en profundidad las propiedades del tejido cerebral, seremos capaces de desarrollar biomateriales que se asemejen lo suficiente a la complejidad del mismo. Esta tarea conllevará un esfuerzo y supondrá un desafío para las y los investigadores, la tecnología con la que contamos actualmente ayudará a abordar la labor.
Referencias:
Axpe, E., Orive, G., Franze, K., & Appel, E. A. (2020). Towards brain-tissue-like biomaterials. Nature Communications, 11(1), 10–13. doi: 10.1038/s41467-020-17245-x
Peppas, N. A., & Langer, R. (1994). New challenges in biomaterials. Science, 263(5154), 1715–1720. doi: 10.1126/science.8134835
Biomaterials. (2017, September). Retrieved October 26, 2020, from https://www.nibib.nih.gov/science-education/science-topics/biomaterials
Sobre la autora: Irati Diez Virto es graduada en biología por la UPV/EHU y colaboradora en la Cátedra de Cultura Científica
El artículo En busca de biomateriales que se asemejen al tejido cerebral se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cómo ver todas las células en tejido cerebral vivo
- Películas magnetoactivas de fibroína de seda para la generación de tejido óseo
- Del mito al hecho: hemisferios, gimnasia cerebral y estilos de aprendizaje
Juan Manuel Bermúdez-García – Naukas Pro 2019: Sólidos como refrigerantes

Alrededor del 20 % del consumo energético mundial se dedica a la refrigeración. El impacto de este consumo sobre el cambio climático no es pequeño, además los gases que se emplean son gases de efecto invernadero, inflamables y tóxicos. El grupo de Juan Manuel Bermúdez-García, de la Universidade da Coruña, ha desarrollado una tecnología de gases a baja presión con cero emisiones. En esta sesión de Naukas Pro 2019 expone los fundamentos de su trabajo que permitiría, por ejemplo, refrigerar edificios enteros gracias a la presión que ejercen sobre el suelo sus inquilinos al caminar. Todo empieza con el mecanismo de un botijo…
Más información sobre esta tecnología en La nueva forma de enfriar que lo cambiará todo de Deborah García Bello.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Juan Manuel Bermúdez-García – Naukas Pro 2019: Sólidos como refrigerantes se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Juan Ignacio Cirac – P4K 2019: ¿Cómo serán los ordenadores cuánticos?
- Alfredo García – Naukas Bilbao 2019: Derribando mitos sobre la energía nuclear
- Ambrosio Liceaga – Naukas P4K 2019: Nunca quisimos coches voladores