Minerales que cambian
Hace un tiempo os hablé de varios procesos de metamorfismo muy particulares y que se pueden considerar como excepciones que confirman la regla general de formación de rocas metamórficas. Pero no os conté casi nada sobre las fascinantes transformaciones que sufren los minerales cuando se generan este tipo de rocas, porque estaba esperando el momento adecuado que, por fin hoy, ha llegado.
Detalle de una roca metamórfica denominada esquisto que aparece en Monteferro, Pontevedra. Foto: Blanca María MartínezAntes de meterme en detalle voy a empezar complementando la teoría general que os presenté en ese artículo. Las rocas metamórficas se generan a partir de la transformación que sufren rocas ya existentes, de cualquier naturaleza (sedimentarias, ígneas o, incluso, metamórficas), cuando son sometidas a incrementos en la presión y/o la temperatura. Esta transformación, denominada metamorfismo, siempre implica la formación de nuevos minerales que no estaban presentes en la roca original, pero, salvo en esa excepción del metasomatismo que os describí en el otro artículo, estos cambios se producen en sistemas químicamente cerrados. Es decir, los elementos químicos presentes en la roca original son exactamente los mismos que aparecen en la roca metamórfica final, no entra ningún elemento del exterior ni se pierde ninguno en el proceso. Simplemente, cambia su ordenamiento interno en la nueva roca.
A) Diagrama de fases de tres minerales metamórficos con la misma composición química (Al2SiO5): Cianita, de alta presión; andalucita, de baja presión; y sillimanita, de alta temperatura. Fuente: Smith College. B) Detalle de un esquisto con andalucita encontrado en Monteferro, Pontevedra. Foto: Blanca María Martínez C) Niveles de cuarzo (blanco) y andalucita (rosado) presentes en los esquistos de la playa de Patos, Nigrán, Pontevedra. Foto: Blanca María MartínezSí, lo sé, no habéis entendido nada de lo que acabo de decir, así que vamos por partes. Un mineral es una sustancia sólida formada por la unión de varios átomos de elementos químicos concretos, siguiendo una ordenación interna determinada y que se mantienen estables bajo unas condiciones de presión y temperatura específicas. Pero, cuando una de esas dos variables (presión y/o temperatura) cambian, las uniones de los elementos químicos se rompen, como si estuviéramos deshaciendo los minerales. Sin embargo, bajo esas nuevas condiciones de presión y temperatura, los elementos químicos no se quedan libres sin más, si no que tienden a unirse con otros elementos que se encuentran a su alrededor para volver a crear unas sustancias sólidas cuyos enlaces sean estables en este nuevo medio. Así, acaban formando nuevos minerales que no estaban presentes en la roca original, pero sin haber añadido ni eliminado un solo elemento químico que no estuviera ya presente antes del metamorfismo. Es decir, si en la roca inicial teníamos calcio, sodio, oxígeno, silicio, carbono e hidrógeno unidos de una manera particular para formar unos minerales concretos, en la roca metamórfica tendremos calcio, sodio, oxígeno, silicio, carbono e hidrógeno, exactamente los mismos elementos, pero que se han unido entre sí de otra manera, dando lugar a unos minerales diferentes.
Nivel de grafito (de color oscuro) que aparece en unos esquistos de la playa de Patos, Nigrán, Pontevedra. Foto: Blanca María MartínezGracias a los estudios geoquímicos realizados en el laboratorio, podemos saber cuáles son los rangos de estabilidad de cada mineral, es decir, en qué valores de presión y temperatura se forman esos minerales, lo que nos permite utilizarlos como indicadores o medidores de las condiciones físicas que soportaron las rocas durante el proceso de metamorfismo. Para ello, en Geología se han definido lo que se conoce como diagramas de fases metamórficas, que son unas gráficas en las que el “eje x” representa la variación en la temperatura y el “eje y” el aumento de la presión, sobre las que se dibujan los campos de estabilidad de cada mineral. De esta forma, si yo encuentro una roca metamórfica en cuya composición identifico unos minerales concretos, puedo suponer los valores máximos y mínimos de presión y temperatura que soportó la roca original en su transformación.
Esta información nos permite inferir la historia geológica del lugar en el que aparecen las rocas metamórficas. Así, se puede estimar la profundidad a la que se enterraron los materiales originales para ser sometidos a esos valores de presión y temperatura; se puede demostrar si esta zona estuvo cerca de un límite de colisión de placas tectónicas que provocó un gran aumento en la presión de las rocas originales sin modificar mucho la temperatura; o se puede identificar si fue un magma el que calentó los materiales hasta transformarlos sin alterar las condiciones de presión. Pero también es muy útil en la exploración de materiales con diversos intereses sociales y económicos. El talco, el grafito, el granate, el corindón o el jade son minerales que se forman por metamorfismo en diferentes condiciones de presión y temperatura. Por tanto, si queremos explotarlos, habrá que localizar los contextos geológicos precisos en donde aparezcan rocas metamórficas indicativas de esas condiciones físicas.
Metamorfismo significa “cambio de forma” y es el ejemplo perfecto de que, en la naturaleza, nada se crea ni se destruye, solo se transforma. Incluso, los minerales pueden convertirse en otros diferentes sin necesidad de añadir o quitar ningún componente, simplemente hay que someterlos a variaciones en la presión y la temperatura. Al igual que cambia nuestro carácter si nos enfrentamos a cambios bruscos del clima o nos someten a demasiado estrés en el trabajo.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la EHU
El artículo Minerales que cambian se ha escrito en Cuaderno de Cultura Científica.
¿En qué fecha nació Diana?
Hoy presentamos un sencillo problema de lógica en el que se trata de averiguar la fecha de nacimiento de Diana a través de la información que proporciona a tres amigos.
Fuente: freepikEnunciado del problema
Diana presenta a Andrés, Beatriz y Carlos una lista de catorce posibles fechas de su nacimiento:
- 14 de abril de 1999
- 19 de febrero de 2000
- 14 de marzo de 2000
- 15 de marzo de 2000
- 15 de abril de 2000
- 16 de abril de 2000
- 15 de febrero de 2001
- 15 de marzo de 2001
- 14 de abril de 2001
- 16 de abril de 2001
- 14 de mayo de 2001
- 16 de mayo de 2001
- 17 de mayo de 2001
- 17 de febrero de 2002
Después declara que va a decir (individualmente) a Andrés el mes, a Beatriz el día y a Carlos el año de su nacimiento. Tras dar esta información (en privado) a cada uno de sus amigos, se reúnen todos y Andrés comenta: «No sé la fecha de nacimiento de Diana, pero Beatriz tampoco».
Tras escuchar a Andrés, Beatriz dice: “Eso es cierto, pero Carlos tampoco sabe la fecha de nacimiento de Diana”.
Carlos comenta entonces: “Sí, y Andrés todavía no ha averiguado la fecha de nacimiento de Diana”.
Beatriz responde inmediatamente: «Bueno, ahora ya sé cuál es el día en el que Diana nació».
Tras este comentario, Andrés afirma: «Sí, ahora todos lo sabemos».
¿Cuándo es el cumpleaños de Diana?
SoluciónVamos a argumentar teniendo en cuenta como se van encadenando los comentarios:
- Andrés: «No sé la fecha de nacimiento de Diana, pero Beatriz tampoco».
- Beatriz dice: “Eso es cierto, pero Carlos tampoco sabe la fecha de nacimiento de Diana”.
- Carlos: “Sí, y Andrés todavía no ha averiguado la fecha de nacimiento de Diana”.
- Beatriz: «Bueno, ahora ya sé cuál es su el día en el que Diana nació».
- Andrés: «Sí, ahora todos lo sabemos».
Andrés afirma que Beatriz desconoce la fecha de nacimiento de Diana. Como Beatriz conoce el día del nacimiento, lo que Andrés afirma es que el día debe de aparecer más de una vez en la lista. Todos los días se repiten excepto el 19, con lo que se puede eliminar la fecha del 19 de febrero de 2000 de la lista. Pero, Andrés solo puede saber este dato si sabe que el mes de nacimiento no es febrero. Así, pueden eliminarse como posibles fechas (además de la anterior) las otras dos que corresponden al mes de febrero. De este modo, los tres amigos de Diana pueden reducir la lista a once posibles fechas:
- 14 de abril de 1999
- 19 de febrero de 2000
- 14 de marzo de 2000
- 15 de marzo de 2000
- 15 de abril de 2000
- 16 de abril de 2000
- 15 de febrero de 2001
- 15 de marzo de 2001
- 14 de abril de 2001
- 16 de abril de 2001
- 14 de mayo de 2001
- 16 de mayo de 2001
- 17 de mayo de 2001
- 17 de febrero de 2002
Ahora, Beatriz afirma que, efectivamente, desconoce la fecha de nacimiento de su amiga. Eso significa que, en la nueva lista reducida, el número de día aparece más de una vez. Por lo tanto, la fecha de nacimiento de Diana no puede ser el 17 de mayo de 2001. Así, las posibles fechas se reducen a diez:
- 14 de abril de 1999
- 19 de febrero de 2000
- 14 de marzo de 2000
- 15 de marzo de 2000
- 15 de abril de 2000
- 16 de abril de 2000
- 15 de febrero de 2001
- 15 de marzo de 2001
- 14 de abril de 2001
- 16 de abril de 2001
- 14 de mayo de 2001
- 16 de mayo de 2001
- 17 de mayo de 2001
- 17 de febrero de 2002
Además, Beatriz afirma que Carlos tampoco conoce la fecha de nacimiento de Diana. Eso significa que el año debe aparecer más de una vez en la lista anterior. Así, se puede descartar la fecha del 14 de abril de 1999. Pero Beatriz solo puede conocer este dato si sabe que el día no es el 14; por ello pueden eliminarse tres fechas más y solo quedan seis posibilidades:
- 14 de abril de 1999
- 19 de febrero de 2000
- 14 de marzo de 2000
- 15 de marzo de 2000
- 15 de abril de 2000
- 16 de abril de 2000
- 15 de febrero de 2001
- 15 de marzo de 2001
- 14 de abril de 2001
- 16 de abril de 2001
- 14 de mayo de 2001
- 16 de mayo de 2001
- 17 de mayo de 2001
- 17 de febrero de 2002
Carlos dice entonces que Andrés no puede saber aún la fecha de cumpleaños de Diana. Eso significa que el mes (que es el dato que conoce Andrés) debe aparecer más de una vez en la lista. Así, descarta el 16 de mayo de 2001. Esto muestra a todos que Carlos sabe que el año no es 2001. Así, la lista se puede reducir a tres posibles fechas:
- 14 de abril de 1999
- 19 de febrero de 2000
- 14 de marzo de 2000
- 15 de marzo de 2000
- 15 de abril de 2000
- 16 de abril de 2000
- 15 de febrero de 2001
- 15 de marzo de 2001
- 14 de abril de 2001
- 16 de abril de 2001
- 14 de mayo de 2001
- 16 de mayo de 2001
- 17 de mayo de 2001
- 17 de febrero de 2002
Beatriz dice entonces que conoce la fecha, lo que significa que el día aparecer una única vez en la lista, con lo que está afirmando que la fecha de nacimiento de Diana es el 16 de abril de 2000. Es decir, como dice finalmente Andrés, todos conocen la fecha de nacimiento de Diana.
BonusYa que hemos hablado de fechas de nacimiento, recordemos la conocida paradoja del cumpleaños que afirma que, si hay 23 personas reunidas, la probabilidad de que al menos dos de ellas cumplan años el mismo día es mayor del 50 %.
El matemático Raymond Smullyan (1919-2017) impartió clases de probabilidad en la Universidad de Princeton. En cierta ocasión, en un aula con 19 estudiantes, aludiendo a la paradoja del cumpleaños, comentó que la probabilidad de que dos de ellos compartieran cumpleaños era bastante baja.
Uno de sus alumnos le contestó: “Apuesto 25 centavos a que dos de nosotros cumplimos años el mismo día».
Smullyan pensó que el alumno apostaba porque conocía la fecha del cumpleaños de uno de sus compañeros, que coincidía con la suya.
El alumno contestó: «No, le doy mi palabra de que no sé el cumpleaños de nadie aquí, excepto el mío. Sin embargo, apuesto a que hay dos personas en el aula que cumplen años el mismo día».
Smullyan aceptó la apuesta y perdió. ¿Por qué?
Esta vez, la respuesta no tiene que ver con la lógica… o quizás sí: en el aula había dos gemelos idénticos, y parece que Smullyan no se había dado cuenta.
Referencias
- Charlie’s Birthday, Futility Closet, 11 marzo 2026
- Clairvoyance, Futility Closet, 25 junio 2022
Más problemas de lógica:
Usando la lógica para averiguar quién es quién
Celebrando a John Venn con un juego de lógica
¿Adivinando o empleando la lógica?
Aplicando la lógica, a veces sin mucho éxito
Los cumpleaños de cinco hermanas
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia
El artículo ¿En qué fecha nació Diana? se ha escrito en Cuaderno de Cultura Científica.
Las matemáticas que explican por qué hay campanas de Gauss por todas partes
El teorema central del límite empezó como un truco de bar para los jugadores del siglo XVIII. Hoy en día, los científicos recurren a él a diario.
Un artículo de Joseph Howlett. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
El teorema central del límite es lo que hace que las distribuciones en forma de campana sean tan comunes. Ilustración: Irene Pérez / Quanta Magazine
Mires donde mires, hay una curva de campana cerca.
Coloca una jarra medidora en tu patio cada vez que llueva y anota la altura del agua cuando deje de llover: tus datos se ajustarán a una curva de campana. Registra las estimaciones de 100 personas sobre el número de caramelos en un tarro, y seguirán una curva de campana. Mide suficientes alturas de mujeres, pesos de hombres, puntuaciones de la selectividad, tiempos de maratón… siempre obtendrás la misma forma suave y redondeada que se estrecha en los extremos.
¿Por qué aparece la curva de campana en tantos conjuntos de datos?
La respuesta se reduce al teorema central del límite, una verdad matemática tan poderosa que a menudo parece imposible para quienes la conocen por primera vez, como un truco de magia de la naturaleza. “El teorema central del límite es bastante asombroso porque es contraintuitivo y sorprendente”, comenta Daniela Witten, bioestadística de la Universidad de Washington. Gracias a él, el caos más aleatorio e inimaginable puede dar lugar a una notable capacidad de predicción.
Hoy es un pilar sobre el que descansa gran parte de la ciencia empírica moderna. Casi cada vez que un científico utiliza mediciones para inferir algo sobre el mundo, el teorema central del límite está presente en algún punto del método. Sin él, sería difícil que la ciencia pudiera afirmar nada, con un mínimo de confianza, sobre nada.
“No creo que el campo de la estadística existiera sin el teorema central del límite”, afirma Larry Wasserman, estadístico de la Universidad Carnegie Mellon. “Lo es todo”.
Del vicio, pureza
Quizá no debería sorprender que el impulso por encontrar regularidad en el azar surgiera del estudio de los juegos de apuestas.
En los cafés del Londres de principios del siglo XVIII, el talento matemático de Abraham de Moivre era evidente. Muchos de sus contemporáneos, entre ellos Isaac Newton y Edmond Halley, reconocieron su brillantez. De Moivre era miembro de la Royal Society, pero también era un refugiado, un francés que había huido de su país siendo joven ante la persecución contra los protestantes. Como extranjero, no pudo conseguir un puesto académico estable acorde con su talento. Así que, para poder pagar sus facturas, se convirtió en asesor de jugadores que buscaban ventaja matemática.
Abraham de Moivre realizó las primeras investigaciones matemáticas sobre juegos de azar. Retrato por Joseph Highmore (1736) / Dominio público
Lanzar una moneda, tirar un dado o sacar una carta de una baraja son acciones aleatorias, con todos los resultados igualmente probables. Lo que de Moivre comprendió es que, al combinar muchas acciones aleatorias, el resultado sigue un patrón fiable.
Lanza una moneda 100 veces y cuenta cuántas veces sale cara. Estará en torno a 50, pero no con gran precisión. Repite este juego 10 veces y es posible que obtengas 10 resultados distintos.
Ahora imagina jugar 1 millón de veces. La mayoría de los resultados estarán cerca de 50. Casi nunca obtendrás menos de 10 caras ni más de 90. Si haces un gráfico del número de veces que aparece cada valor entre cero y 100, verás esa forma clásica de campana, con 50 en el centro. Cuantas más veces repitas el experimento, más suave y definida será la campana.
De Moivre dedujo la forma exacta de esta campana, que pasó a llamarse distribución normal. Esta le permitía, sin necesidad de jugar realmente, conocer la probabilidad de los distintos resultados. Por ejemplo, la probabilidad de obtener entre 45 y 55 caras es de aproximadamente el 68 %.
De Moivre contemplaba con devoción casi religiosa el “orden constante del universo” que finalmente se imponía sobre cualquier desviación respecto a la campana. “Con el tiempo”, escribió, “estas irregularidades no guardarán proporción con la recurrencia de ese orden que resulta naturalmente de un diseño original”.
La Doctrina de las Probabilidades, publicado por primera vez en 1718, fue el primer libro de texto sobre teoría de la probabilidad. Una segunda edición, publicada en 1738, incluyó el trabajo que daría lugar al teorema del límite central. Fuente: Dominio público
Utilizó estas ideas para sostener una vida modesta en Londres, escribiendo un libro titulado The Doctrine of Chances, que se convirtió en la biblia de los jugadores, y ofreciendo consultas informales en el famoso Old Slaughter’s Coffee House. Pero ni siquiera de Moivre comprendió el alcance completo de su descubrimiento. Solo cuando Pierre-Simon Laplace desarrolló la idea en 1810, décadas después de la muerte de de Moivre, se desveló toda su amplitud.
Consideremos un ejemplo algo más complejo que lanzar monedas: tirar dados. Cada lanzamiento de un dado tiene seis resultados igualmente probables. Si lo lanzas repetidamente y registras los resultados, obtendrás un gráfico plano: aparecerán aproximadamente tantos unos como doses, cuatros o seises.
Ahora lanza ese dado 10 veces y calcula la media. Probablemente obtendrás un valor cercano a 3,5. Repite el experimento muchas más veces y representa todos los resultados. Obtendrás una curva de campana con un máximo en 3,5 y una estructura perfectamente definida a ambos lados.
Esa es la magia del teorema central del límite. Partes de una distribución de resultados posibles sin estructura alguna —todas las caras del dado con la misma probabilidad—. Pero al tomar la media de múltiples mediciones, y repetir ese proceso una y otra vez, obtienes una estructura matemática precisa y predecible: la curva de campana.
Laplace condensó esta estructura en una fórmula sencilla, la que más tarde se conocería como el teorema central del límite. No importa cuán irregular sea un proceso aleatorio, incluso si es imposible de modelizar: la media de muchos resultados sigue la distribución que describe este teorema. “Es realmente potente, porque significa que no necesitamos preocuparnos por cuál es la distribución de los valores que se han promediado”, explicó Witten. “Lo único que importa es que la propia media va a seguir una distribución normal”.
Una herramienta omnipresente
Puede parecer que calcular medias es algo propio de los humanos, pero el teorema central del límite se aplica de forma invisible a todo tipo de fenómenos observables en el mundo, como la altura de las personas. “La estatura de alguien puede depender de la de su padre, la de su madre, su genética, su alimentación y todos esos pequeños efectos que se suman”, explica Jeffrey Rosenthal, estadístico de la Universidad de Toronto. Esos efectos son independientes entre sí (por lo general, la altura de tu padre no tiene nada que ver con lo que comes). “Es como hacer la media de muchos pequeños efectos”, añadió Rosenthal, y por eso la estatura sigue aproximadamente una distribución normal.
Daniela Witten, bioestadística de la Universidad de Washington. Foto: Elizar Mercado
Por eso tantos conjuntos de datos parecen ajustarse espontáneamente a esta forma tan elegante. “En cualquier situación en la que haya una media subyacente, si es una media de suficientes factores, acabarás obteniendo una distribución normal”, dijo Witten.
El teorema también proporciona a los estadísticos la capacidad de detectar cuándo algo no encaja. Supongamos que estás tomando café en el Old Slaughter’s y un cliente te da una moneda apostando a que no puedes obtener 45 caras en 100 lanzamientos. Lo intentas y solo consigues 20. ¿Cómo saber si la moneda está trucada y el proceso no es tan aleatorio como debería? Gracias al teorema central del límite, sabes que los resultados de hasta 20 caras representan solo el 0,15 % de la campana, por lo que hay únicamente un 0,15 % de probabilidad de que una moneda equilibrada produzca un resultado tan bajo. Es casi seguro que te están engañando.
Ese es el verdadero poder de la fórmula de Laplace. Sabía que al promediar cualquier proceso se obtiene una curva de campana, lo que permite decir algo sobre ese proceso sin conocer en profundidad cómo funciona.
Úsese con precaución
A pesar de su papel central en la ciencia moderna, el teorema central del límite tiene sus propios límites. Solo funciona cuando se combinan muchas muestras, y estas deben ser independientes. Si no lo son —por ejemplo, si realizas una encuesta nacional solo en una pequeña localidad de Maine—, repetir el experimento no te acercará a la curva de campana esperada.
Y a veces, en ciencia, los valores atípicos pueden ser más importantes que la media. “Las ‘inundaciones centenarias’ están ocurriendo cada vez con más frecuencia”, señala Richard D. De Veaux, estadístico aplicado en el Williams College. “Hoy en día, modelizar eventos extremos es probablemente tan importante como modelizar la media”.
Afortunadamente, la idea que subyace al teorema central del límite —la potencia y la fiabilidad de las medias— se ha aplicado ampliamente para ampliar el alcance de la estadística. Los estadísticos suelen formular una versión del teorema adaptada al problema específico en el que trabajan. “Hay muchísimas situaciones más complejas en las que, si eres ingenioso, puedes escribirlas como una media muestral más algún término de error”, explicó Wasserman. En esos casos, se puede utilizar una variante del teorema para simplificar el problema.
El teorema central del límite es un pilar de la ciencia moderna, en última instancia, porque es un pilar del mundo que nos rodea. Cuando combinamos muchas mediciones independientes, obtenemos agrupaciones. Y, si somos lo suficientemente ingeniosos, podemos utilizar esas agrupaciones para descubrir algo interesante sobre los procesos que las han generado.
El artículo original, The Math That Explains Why Bell Curves Are Everywhere, se publicó el 16 de marzo de 2026 en Quanta Magazine. Cuaderno de Cultura Científica tiene un acuerdo de distribución en castellano con Quanta Magazine.
Traducido por César Tomé López
El artículo Las matemáticas que explican por qué hay campanas de Gauss por todas partes se ha escrito en Cuaderno de Cultura Científica.
Una comunicación entre tumor y cerebro reduce la respuesta inmune al cáncer
En los últimos años se ha puesto de manifiesto que los tumores malignos son inervados por fibras del sistema nervioso periférico, y que un mayor grado de inervación está asociado a un comportamiento más agresivo del cáncer y un peor pronóstico. En un artículo anterior de “Vida fascinante” describíamos cómo las células tumorales son capaces de “robar” mitocondrias a las neuronas, aumentando así su capacidad de producir energía y, por tanto, su crecimiento y agresividad.
Una investigación, recién publicada en Nature, proporciona una nueva explicación para la relación entre inervación y crecimiento tumoral, explicación que no es menos sorprendente que la anterior. El tumor es capaz de comunicarse con el cerebro e inducir, a través de esta comunicación, una inhibición de las defensas inmunitarias antitumorales.
Figura 1. Se muestran algunos de los resultados del artículo de Wei et al. (2026), cuya cita completa aparece en las referencias. En la fila superior, el marcaje específico de las neuronas Npy2r del ganglio nodoso vagal en color rojo revela la presencia de fibras nerviosas derivadas de estas neuronas y que han invadido el tumor pulmonar (marcado en verde). En la segunda fila vemos cultivos de neuronas sensoriales vagales con medio control, con un sobrenadante de cultivo de explante pulmonar sano (LES) y con sobrenadante de cultivo de tumor (+KP TES). Se observa como el sobrenadante tumoral induce el crecimiento de fibras nerviosas. En la tercera fila se muestra cómo la ablación específica de las neuronas Npy2r del ganglio nodoso con toxina diftérica (DT) reduce la carga tumoral en el pulmón (áreas más oscuras). En la fila inferior vemos pulmones de ratones control (WT) y deficientes en el receptor b2-adrenérgico. Este último muestra una reducción de la carga tumoral. Con licencia CC BY 4.0.La investigación, liderada por la universidad de Pennsylvania, utilizó como modelo una cepa de ratones modificados genéticamente en los que se puede inducir el desarrollo de adenocarcinomas pulmonares. Se comprobó que estos tumores estaban densamente inervados, y que las fibras nerviosas eran de tipo sensorial y procedían del sistema nervioso parasimpático, en concreto del ganglio nodoso vagal (Figura 1). Este ganglio del nervio vago, situado en la base del cráneo, recibe información del corazón, vías respiratorias y tracto digestivo, una información esencial para regular el funcionamiento de estos sistemas. Diversos experimentos mostraron que el crecimiento de las fibras nerviosas era inducido por el propio tumor, mediante factores neurotróficos (Figura 1). Las fibras nerviosas procedían de un tipo concreto de neuronas vagales, caracterizadas por la expresión del receptor del neuropéptido Y (Npy2r) y un canal iónico (Trpv1).
Estas observaciones sugerían que el tumor estaba emitiendo algún tipo de información a través de las fibras sensoriales. Lo interesante es que cuando se anulaba la función de las neuronas vagales Npy2r se producía una disminución de la carga tumoral en los pulmones (Figura 1). Por tanto, la información que el tumor transmitía por esta vía parecía ser relevante para su progresión.
El equipo investigador constató que en el entorno tumoral se localizaban abundantes células del sistema inmune, en concreto células T, un tipo de linfocitos que atacan a las células cancerosas. Las células T forman parte de los mecanismos inmunitarios con los que intentamos defendernos del cáncer. En los ratones de nuestro caso, la eliminación de las señales transmitidas por el tumor a través de las neuronas vagales no reducía el crecimiento tumoral si al mismo tiempo se eliminaban las células T. Dicho de otra forma, las células T eran las responsables de frenar el crecimiento del cáncer, y las señales enviadas por el tumor a través del nervio vago inhibían de alguna forma esta función defensiva.
La explicación del fenómeno fue sorprendente. Las señales vagales emitidas por el tumor llegaban hasta el tronco cerebral, donde se generaba una respuesta a través del sistema nervioso simpático. Esto no es extraño. El juego de información sensorial parasimpática y respuesta simpática es fundamental para regular el funcionamiento de los sistemas respiratorio, cardiovascular o digestivo. Pero en el caso de los ratones con cáncer, la respuesta simpática se traducía en una producción de noradrenalina que inducía una respuesta de los macrófagos alveolares del pulmón, a través de sus receptores beta-adrenérgicos. Los macrófagos alveolares son células inmunitarias residentes en los alvéolos pulmonares y que fagocitan partículas inhaladas, bacterias y detritos, protegiendo al pulmón y regulando respuestas pro y antiinflamatorias. Pueden desempeñar funciones variadas dependiendo de las señales que reciban, y ahí está la clave de su implicación en el caso de los tumores pulmonares. Las señales adrenérgicas recibidas de los terminales simpáticos polarizaban a los macrófagos alveolares para que desempeñaran una función inhibitoria de las células T. De hecho, ratones deficientes en el receptor b2-adrenérgico mostraron una menor carga tumoral en los pulmones (Figura 1).
Figura 2. Esquema del proceso de comunicación entre tumor y cerebro. Fibras derivadas del ganglio nodoso vagal (en azul) inervan el tumor y transmiten señales hacia el tronco cerebral. Esto genera respuestas que se transmiten por vía simpática, causando la liberación de noradrenalina en el entorno tumoral. Los macrófagos residentes en los alveolos pulmonares reciben la señal a través del receptor b-adrenérgico e inhiben la actividad antitumoral de las células T. Elaboración propia. Se han usado dibujos de Brgfx-Freepik, y A. Rad y M. Häggström (con licencia CC-BY-SA 3.0).Recapitulemos: el tumor pulmonar induce el crecimiento de fibras de un tipo especial de neuronas del nervio vago y envía a través de ellas señales al tronco cerebral. Este responde aumentando la actividad simpática en el entorno del tumor. Los macrófagos alveolares responden a esta actividad inhibiendo a las células T que deberían estar atacando al tumor. El tumor, por tanto, crece sin que el sistema inmune dificulte su progresión (Figura 2).
Es la primera vez que se observa que células tumorales se comuniquen con el cerebro para manipular señales nerviosas y manejar el sistema inmune en su propio beneficio. Una vez más nos sorprenden las estrategias “inteligentes” que adopta el cáncer para obtener ventajas a costa de su víctima. Pero lo importante es que cada nuevo descubrimiento abre vías alternativas para actuar contra la progresión tumoral. De hecho, en los últimos años se había observado que el tratamiento de pacientes de cáncer pulmonar con beta-bloqueantes (inhibidores de los receptores beta-adrenérgicos) parecía frenar la progresión de la enfermedad. El descubrimiento publicado en Nature puede haber explicado la razón.
Referencias
Wei, H.K., Yu, C.D., Hu, B. et al. (2026) Tumour-brain crosstalk restrains cancer immunity via a sensory-sympathetic axis. Nature doi: 10.1038/s41586-025-10028-8
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga.
El artículo Una comunicación entre tumor y cerebro reduce la respuesta inmune al cáncer se ha escrito en Cuaderno de Cultura Científica.
Estos pinzones tienen su color favorito y no cambiarán de opinión por lo que digan sus vecinos
¿Los pinzones construyen con su color favorito o les influye lo que hacen sus vecinos? Fuente: Lauren M. Guillette et al. (2026) PLoS One doi: 10.1371/journal.pone.0342277La cultura —entendida como la suma de conocimientos y conductas aprendidas socialmente y compartidas entre miembros de un grupo— no es exclusiva de los humanos. A lo largo de décadas de investigación, se ha observado que muchos animales aprenden unos de otros y aceptan una serie de comportamientos comunes, desde métodos de caza hasta vocalizaciones o rutas migratorias. Esta enorme amalgama de reglas, aprendizajes, herramientas, tradiciones, reglas y actitudes, mantenidas a lo largo del tiempo, es lo que constituye la base de nuestra actual civilización. Sin embargo, esa cultura como conjunto social y multitudinario, comparte existencia con un contrapeso muy poderoso: la individualidad. En muchos casos, aceptamos y mostramos «conformidad» adaptando nuestras opciones personales a los estándares y cánones predefinidos. Pero en otros tantos, la influencia establecida por la mayoría se desploma frente a la férrea decisión de un solo individuo que, siguiendo sus instintos y preferencias, decide no dejarse llevar por la corriente.
Estos pequeños e inevitables actos de rebeldía frente a las tendencias mayoritarias representan un soplo de aire fresco y siempre encontramos a alguien que mantiene y exhibe con orgullo sus propios gustos personales, sin dejarse influir por las convenciones o la presión del resto de la sociedad. Por supuesto, no todos somos igual de inconformistas ni tampoco lo somos en todos los aspectos de la cultura: existen diferentes grados de divergencia cultural, en diferentes momentos y con diferentes intensidades.
Estas características individuales son obvias en el ser humano, pero no son únicas de nuestra especie. Aquellos que tienen mascotas habrán notado que su perro tiene su juguete favorito del que no se despega o que su gato tiene un lugar preferido para tumbarse. No obstante, no contamos con demasiados estudios que analicen la intensidad de estos gustos y preferencias o de qué manera responden los animales a la influencia y presión de sus congéneres cuando deciden no seguir al resto del grupo.
En este contexto de decisiones personales alejadas de la tendencia general se enmarca un interesantísimo artículo, publicado hace tan solo unas semanas en PLoS One, en el que los científicos del Grupo de Investigación en Cognición Animal de la Universidad de Alberta (Canadá) han puesto a prueba las inclinaciones y gustos personales de unos pinzones frente a las conductas generales de sus vecinos.
Este pinzón cebra (Taeniopygia guttata) ha decidido que le gusta el rosa. Foto: Lauren Guillette (Universidad de Alberta, Canadá) / IFL ScienceEl diamante mandarín, también conocido como pinzón cebra, (Taeniopygia guttata) es un pequeño pájaro que se distribuye por buena parte de Asia y Oceanía, especialmente, en Australia. Son aves muy sociales y nada territoriales que construyen sus nidos muy cerca unos de otros por lo que resultan muy convenientes para el estudio de sus preferencias. En esta especie son los machos quienes se encargan de recolectar y colocar los materiales que formarán su nido y los investigadores canadienses querían saber si cada pinzón tenía sus propias preferencias personales y si estas decisiones podrían verse influenciadas por la conducta mayoritaria de sus vecinos.
Su primer paso fue averiguar si los pinzones mostraban preferencias individuales a la hora de elegir los materiales de su nido y para ello diseñaron un experimento en el que evaluaron la preferencia de cada macho por un determinado color. A cada pinzón se le dio la oportunidad de elegir dos colores diferentes, azul y amarillo, mientras observaban y registraban el tiempo que cada pinzón pasaba con ese color. «Primero, medimos la preferencia de color de cada macho presentándole cuerdas azules y amarillas y registrando el tiempo que interactuaba con cada una. Esto nos permitió calcular qué color prefería y con qué intensidad. Un ave que pasa el 95 % de su tiempo con una cuerda azul muestra preferencias más intensas que una que lo divide al 60 % entre los dos colores», explica en The Conversation Lauren Guillet, autora principal del estudio.
Una vez establecido el color favorito (y la intensidad de esa elección) de cada pinzón, su siguiente movimiento fue colocar «a ese macho y a su hembra en una población donde otras cuatro parejas incubaban huevos en nidos terminados. Estos nidos variaban sistemáticamente. En algunos grupos, los cuatro nidos coincidían con el color preferido del macho. En otros, la mayoría, o todos, lo contradecían. El macho observador pudo observar estos nidos y a sus ocupantes durante varios días. Finalmente, lo devolvimos a su jaula, le proporcionamos cuerda de ambos colores y le permitimos construir».
Ahora que hemos establecido que, al igual que los seres humanos, algunos pinzones muestran fuertes preferencias mientras que otros simplemente muestran un «ni fú, ni fá», queda por saber cómo les influirá que su vecindario esté pintado de un determinado color que no es el suyo. ¿Mostrarán «conformidad» renunciando a su color favorito para ajustarse a la elección mayoritaria del grupo? ¿Cederán ante la tendencia dominante o cantarán como Raphael el «digan lo que digan los demás»?
Los resultados y conclusiones nos acercan mucho a lo que ocurre con los seres humanos. La conformidad existe, su influjo es poderoso, pero no es universal y algunos individuos se resisten. Los pinzones con preferencias personales más débiles tendieron a usar el color mayoritario en su grupo, incluso si ese color no era su favorito originalmente. Sin embargo, los pinzones con preferencias más fuertes resistieron más la influencia social. La mayoría de estos mayos siguieron usando su color preferido en la construcción, aunque la mayoría de los nidos vecinos fuese de otro color.
La conformidad es uno de los procesos que estabilizan las tradiciones culturales. Si los recién llegados adoptan con constancia el comportamiento mayoritario, los patrones grupales se consolidan. Pero si algunos individuos se resisten, debido a fuertes prejuicios o preferencias personales, las tradiciones pueden propagarse con mayor lentitud o no arraigarse, o incluso iniciar unas nuevas.
En el caso de estos pinzones australianos, igual que ocurre con las personas, «no siguieron ciegamente a la multitud. Algunas se conformaron. Otras no. Y la clave de esta diferencia la encontramos en la intensidad de sus preferencias, sentimientos y decisiones individuales».
Referencias científicas y más información:
Lauren M. Guillette, Andrés Camacho-Alpízar, Julia Self et al. (2026) Conformity and individual preference shape nest material use in zebra finches (Taeniopygia guttata) PLoS One doi: 10.1371/journal.pone.0342277
Eleanor Higgs, Tom Leslie These Finches Have A Favorite Color, And Nothing Their Friends Can Say Will Change Their Minds IFL Science, febrero 2026
Lauren M. Guillette, Julia Self Strong opinions matter: Why some birds refuse to follow the flock The Conversation, febrero 2026
Sobre el autor: Javier Peláez (@Irreductible), es escritor y comunicador científico. Autor de «500 Años de Frío» (2019) y «Planeta Océano» (2022), también es guionista en el programa de TVE «Órbita Laika» y ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.
El artículo Estos pinzones tienen su color favorito y no cambiarán de opinión por lo que digan sus vecinos se ha escrito en Cuaderno de Cultura Científica.
BCAM Naukas Día de Pi 2026

La fascinación que ha suscitado durante siglos el número π es tal, que se viene estudiando desde hace más de 4.000 años e, incluso, cuenta con su propio día en el calendario: el 14 de marzo. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés.
El número Pi representado por la letra griega π, es una de las constantes matemáticas más famosas e importantes que existen en el mundo y la celebración del Día de Pi a nivel internacional vino de la mano del físico estadounidense Larry Shaw, quien en 1988 lanzó la propuesta de celebrar esta efeméride. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO designó el 14 de marzo Día Internacional de las Matemáticas.
Un año más, el Basque Center for Applied Mathematics-BCAM, la plataforma de divulgación científica Naukas y la Cátedra de Cultura Científica de la Universidad del País Vasco se sumaron a la celebración, organizando la séptima edición del evento BCAM Naukas Día de Pi, que se desarrolló a lo largo del viernes 13 de marzo en el Bizkaia Aretoa – EHU de Bilbao.
A continuación presentamos la grabación de las charlas cortas (15 minutos) que tuvieron lugar de acuerdo con el siguiente programa:
- 18:30 – 18:40: Bienvenida
- 18:40 – 18:45: Presentación del evento – Javier Peláez, Naukas.
- 18:45 – 19:00: “¿Qué forma tiene el espacio?” – Irene Gonzálvez, Basque Center for Applied Mathematics (BCAM).
- 19:00 – 19:15: “El matemático que no sabía contar” – Tomás Teijeiro, Basque Center for Applied Mathematics (BCAM).
- 19:15 – 19:30: “Matematika eta euskal dantzak” (Matemáticas y danzas vascas) – Judith Rivas, Universidad del País Vasco (EHU).
- 19:30 – 19:45: “La carta de Madrás” – Pablo Fernández, Universidad Autónoma de Madrid (UAM).
- 19:45 – 20:00: “Cómo optimizamos: lo que una hormiga y tú tenéis en común” – Leticia Hernando, Universidad del País Vasco (EHU).
- 20:00 – 20:15: “El impostor” – José Antonio Prado Bassas, Universidad de Sevilla (US).
- 20:15 – 20:30: Cierre del evento BCAM Naukas – Javier Peláez, Naukas.
Edición realizada por César Tomé López
El artículo BCAM Naukas Día de Pi 2026 se ha escrito en Cuaderno de Cultura Científica.
¿Por qué los colores producen diferentes emociones?
Asociamos los colores a distintas emociones.Steve Johnson / Unsplash, CC BY-SA
Este artículo forma parte de la sección The Conversation Júnior, en la que especialistas de las principales universidades y centros de investigación contestan a las dudas de jóvenes curiosos de entre 12 y 16 años. Podéis enviar vuestras preguntas a tcesjunior@theconversation.com
Pregunta formulada por el curso de 3º de la ESO de Aranzadi Ikastola. Bergara (Gipuzkoa)
Hay colores que nos acompañan toda la vida. El verde de un jardín que ya no existe, el rojo del traje de aquel superhéroe o el azul oscuro de algo que preferiríamos olvidar. Aprender esas asociaciones no fue una elección: simplemente ocurrieron en el transcurso de nuestra vida. Y cuando volvemos a encontrar esos colores –en una pared, en una camiseta, en un atardecer– algo se mueve por dentro, antes de que hayamos tenido tiempo de pensar.
Algunas de esas asociaciones no son solo nuestras. Quienes vivieron situaciones similares suelen tender a sentir algo parecido ante los mismos colores. Pero quienes nunca estuvieron en ese jardín o se perdieron esa película posiblemente sentirán cosas distintas.
¿De qué manera los colores pueden llegar a despertar emociones y por qué estas pueden ser tan distintas en una persona u otra? Para responder estas preguntas, necesitamos primero entender bien qué es exactamente un color.
Una cosa es el mundo y otra nuestra experiencia de élLa primera idea que tenemos que considerar es algo contraintuitiva: los colores no están ahí afuera. En el mundo, no hay manzanas “rojas”. El color rojo es una creación de nuestro cerebro. Isaac Newton nos ayudó a entenderlo con uno de sus experimentos más célebres. Hizo pasar un rayo de luz por un prisma y reveló algo sorprendente: la luz se descomponía en tonalidades distintas.
Así empezamos a descubrir varias cosas. Primero, que la luz se compone de ondas de distinta longitud. Y, además, que la manzana es un trozo de materia que absorbe casi todas las longitudes de onda pero refleja las de alrededor de 700 nanómetros. La manzana no es roja. El rojo lo empieza a fabricar nuestro cerebro cuando los fotorreceptores de nuestras retinas reaccionan ante esas longitudes.
Hoy conocemos bastante bien los procesos físicos que transforman esas variables físicas en señales neuronales. Pero eso no basta para entender qué es el color. Para ir más allá, recurriremos a un experimento mental que propuso el filósofo Frank Jackson en la década de 1980.
El rojo que nadie puede explicarle a MaryImaginemos a Mary, una científica que sabe absolutamente todo sobre física y neurociencia del color, pero que ha vivido toda su vida en un mundo en blanco y negro. ¿Qué ocurrirá si un día abandona ese mundo de grises y ve una manzana roja por primera vez?
Aunque conozca toda la teoría y cada área cerebral implicada en la percepción del color, experimentará algo completamente nuevo que ningún libro le ha enseñado: cómo se siente el rojo. Esa experiencia subjetiva e intransferible es lo que los filósofos llaman qualia: el “cómo se siente” algo desde dentro.
La ciencia todavía no entiende bien cómo nuestro cerebro genera experiencias tan ricas y subjetivas a partir de meros disparos neuronales. Lo que sí sabemos es que esas vivencias a las que llamamos qualia no están hechas solo de información sensorial. Tienen muchos más ingredientes.
¿De qué están hechos los qualia?Para entenderlo, pensemos en qué ocurre cuando interactúo con esa manzana roja. Mi cerebro no se limita a registrar las longitudes de onda que refleja su superficie: simultáneamente, procesa su textura, su olor, su sabor al morderla, la temperatura del ambiente, la compañía de quienes me rodean. Y, al mismo tiempo que procesa todo eso, genera una reacción emocional: una evaluación automática, casi instantánea, de si lo que estoy viviendo es agradable, amenazante o neutro.
Mi cerebro tiene además otra capacidad admirable: vincular todo lo que registra. Así, cuando miro la manzana, la muerdo y me doy cuenta de que estoy con mis hijas, todo eso –el color, el sabor, la alegría de ese momento– queda entretejido en una sola experiencia que el cerebro almacena, de manera que, cuando uno de esos elementos reaparece, los demás se reactivan con él.
Por eso, la próxima vez que esas mismas longitudes de onda activen mis fotorreceptores –aunque la manzana no esté, aunque mis hijas no estén–, algo de todo aquello regresará. Y, cuantas más experiencias acumule con ese color a lo largo de la vida, más rica, compleja y única se volverá mi experiencia sobre él.
De ahí que el qualia del rojo no sea simplemente el procesamiento de una frecuencia de luz. Es el resultado de fundir, en un instante, información sensorial inmediata, recuerdos almacenados y afectos acumulados. Tres tipos de contenido que el cerebro ensambla tan rápido y tan bien que los vivimos como una sola cosa indivisible. A eso es a lo que llamamos color.
Colores y emociones, un siglo de investigaciónLos colores producen respuestas emocionales sistemáticas. Los resultados de un estudio que analizó 132 investigaciones realizadas en 64 países durante 128 años, con más de 42 000 participantes, muestran patrones consistentes: el rojo se asocia con emociones de alta activación –amor, ira, peligro, pasión–; el azul, con calma y confianza; el amarillo, con alegría; y el negro, con tristeza o poder.
Estos patrones aparecen en culturas muy distintas, algo que apunta a disposiciones innatas o a ciertos aprendizajes omnipresentes: el azul del cielo despejado, el rojo de la sangre, el amarillo del sol son señales ecológicas que compartimos como especie.
Otro hallazgo revelador es que cada color puede evocar emociones muy distintas, y una misma emoción puede ser evocada por colores muy diferentes. Eso no es un reflejo del azar: es la huella de las condiciones particulares de otros muchos aprendizajes.
Los psicólogos Stephen Palmer y Karen Schloss precisaron este mecanismo en su Teoría de Valencia Ecológica: nos gustan los colores asociados a experiencias positivas y rechazamos los vinculados a negativas. Si el amarillo de la infancia de alguien es el de la cocina de su abuela, ese amarillo será reconfortante. Si para otra persona es el del uniforme del colegio que odiaba, evocará exactamente lo contrario.
La misma longitud de onda, distintas emocionesEn definitiva, el rojo que tú ves se parece al rojo que yo veo… pero no es exactamente igual. Se parece porque compartimos la física, la biología y algunas experiencias. Pero no es igual porque, a medida que vivimos nuestras vidas, vamos construyendo una experiencia personal e irrepetible. Cada historia tiñe el color de manera distinta. Por eso, los colores no solo nos ayudan a describir el mundo: nos recuerdan también lo que significa ir viviendo una vida y no otra.
La Cátedra de Cultura Científica de la Universidad del País Vasco colabora en la sección The Conversation Júnior.![]()
Sobre el autor: Gabriel Rodríguez San Juan, Profesor de Psicología del Aprendizaje, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Por qué los colores producen diferentes emociones? se ha escrito en Cuaderno de Cultura Científica.
Una nueva estimación del grosor de la corteza de hielo de Europa
Si en el artículo Por qué los satélites de Júpiter son como son hablábamos de por qué los satélites jovianos pueden ser tan radicalmente diferentes, hoy nos vamos a centrar en Europa, un cuerpo fascinante desde el punto de vista de la geología y la astrobiología.
No es casualidad este interés. Cuando miramos a este satélite lo que vemos es un cuerpo que podría contener un océano de agua líquida -subterráneo- con un volumen de alrededor del doble del de los océanos terrestres. Eso sí, encerrado bajo una corteza de hielo bombardeada por la radiación de Júpiter.
Pero, ¿hasta que profundidad llega esa corteza? A lo largo de las últimas décadas, ha habido muchos cálculos basados en distintos datos indirectos y las estimaciones han ido desde unos pocos kilómetros hasta más de treinta. Y responder a esta cuestión es importantísimo, porque el espesor nos indica si el océano interactúa con la superficie permitiendo intercambio de nutrientes y otros elementos necesarios para la vida.
Figura 1. Aquí podemos ver una de las imágenes más recientes -de alta resolución- de Europa, en este caso tomada por la sonda Juno en septiembre de 2022. Lo más llamativo es la gran cantidad de sistemas de fracturas que cruzan la práctica totalidad del satélite y el escaso número de cráteres de impacto, atestiguando la juventud de su superficie. Imagen cortesía de NASA/JPL-Caltech/SwRI/MSSS Image /Kevin M. Gill CC BY 3.0.La historia de hoy comienza con la llegada de la sonda Juno al sistema joviano en 2016. La misión, en principio, no tenía previsto estudiar las lunas heladas con tal nivel de detalle, pero uno de sus instrumentos -el radiómetro de microondas (MWR)-, diseñado para estudiar la atmósfera de Júpiter, fue también usado para intentar recabar datos sobre la corteza de Europa durante un sobrevuelo cercano, obteniendo unos datos muy interesantes.
Y bueno, ¿qué es lo que ha “visto” exactamente este instrumento? Para simplificar, lo primero que ha podido estudiar es la temperatura del hielo en profundidad. Si pensamos en las temperaturas que esperamos, la superficie del océano estaría a unos 273ºK, mientras que la superficie del hielo de la corteza estaría a tan solo 100ºK. Por lo tanto, la temperatura del hielo tendría que aumentar conforme vamos descendiendo hacia las profundidades de la corteza. Si este hielo estuviese formado por un bloque sólido y con las mismas propiedades en todas partes, la Juno habría visto una subida gradual de la temperatura de arriba hacia abajo.
Pero eso no es lo que vieron, sino que encontraron una estructura mucho más compleja algo que, por otro lado, no era descartable. Para poder interpretar los datos obtenidos, los científicos han tenido que usar un sofisticado modelo de transferencia radiativa -un modelo matemático que estudia transferencia de energía y su interacción con la materia que atraviesa- para transformar las señales de microondas en una estructura física.
La consecuencia es una nueva estimación del grosor de la corteza de hielo de Europa. Suponiendo que esté hecha de agua pura, los datos obtenidos son consistentes con una corteza de hielo de 29±10 kilómetros de espesor. Estas medidas se sitúan en el margen superior de las estimaciones más aceptadas por la comunidad científica.
Pero ojo, aquí hay otro detalle importantísimo: si debajo de esta capa existiese otra de hielo más cálido y convectivo -algo que no es descartable- habría que añadirla a esta estimación, por lo que probablemente estemos hablando de que esta sería el límite inferior de la horquilla de posibilidades.
Figura 2. Una de las esperanzas para favorecer la hipótesis de un océano habitable es que estos sistemas de fracturas, crestas y surcos continuasen su estructura hasta partes mucho más bajas de la corteza de Europa… ¿serán finalmente un “arañazo” en la superficie? Imagen cortesía de NASA/JPL.Este hallazgo tiene grandes implicaciones desde el punto de vista de la geología. El flujo de calor que implica una corteza de este espesor coincide con los modelos de calentamiento por mareas, el origen de una parte importante de la energía interna del satélite, encargada de mantener el océano líquido y alimentar los procesos geológicos.
Y hay un detalle más: el instrumento MWR ha permitido a los científicos estudiar la textura interna de la capa de hielo. Y a partir de estos datos han observado zonas donde el hielo está bastante alterado, lo que en otros momentos ha llevado a especular sobre la posible existencia de lagos subterráneos, bolsas de salmuera o sistemas de grandes fisuras.
Esto se ha visto a partir de la aparición de elementos “dispersores”, discontinuidades en el hielo como fisuras, huecos o poros. Analizando como las distintas frecuencias dispersaban la radiación, el equipo pudo deducir que estos defectos en la capa de hielo son relativamente pequeños, con un tamaño característico de apenas unos centímetros.
Además, estos no estarían distribuidos por la corteza de una manera homogénea, sino que estarían concentrados en la parte superior, hasta unos pocos cientos de metros de profundidad. La fracción del volumen de hielo que ocupan es poca, y va haciéndose menor conforme profundizamos.
Este último detalle, que nos puede parecer un poco técnico, podría tener fuertes consecuencias de cara a la habitabilidad de Europa. Para que este cuerpo tuviese la posibilidad de albergar vida, es muy probable que su océano subterráneo necesitara un suministro de oxidantes y nutrientes generados en su superficie por el efecto de la radiación. Si la capa de hielo está plagada de grandes sistemas de fisuras, fallas o sistemas de poros interconectados, estos materiales podrían llegar hasta el océano.
Sin embargo, los hallazgos de este estudio sugieren que no es el caso. El escaso volumen, el pequeño tamaño y la poca profundidad a la que aparecen, indican que es poco probable que las fracturas que se ven en la superficie sean capaces por si solas de generar un intercambio de elementos y compuestos con el océano, mostrando la imagen de una Europa cuyo exterior e interior están desconectados y, que las formas geológicas que vemos y que nos indican cierta actividad, podrían en realidad encontrarse sobre kilómetros de hielo sólido y aislante.
Figura 3. ¿Podrían ser los cráteres de impacto, en el caso de que la corteza fuese tan gruesa, una forma de conectar el interior de Europa con el exterior? Aquí en esta imagen podemos ver algunas de las grandes estructuras de impacto que hay sobre su superficie. Una manera en la que pudiesen servir estas para permitir el intercambio sería generando sistemas de fracturas -o propagando los existentes- hacia el interior, junto con la fusión del hielo provocada por el impacto. Imagen cortesía de NASA/JPL/DLR.Los cálculos están basados en la asunción de que el hielo de la corteza es de agua pura, pero la presencia de sales en este hielo podría cambiar el ajuste del modelo. De hecho, si asumimos un hielo con unos 15 mg de sal por kilo de hielo -parecido a la composición del hielo de los mares terrestres- la capa de hielo se reduciría 5 kilómetros, aunque seguiría dentro del margen de incertidumbre de los 10 kilómetros que han obtenido los científicos, por lo que la corteza seguiría siendo gruesa.
Estos hallazgos representan un avance francamente importante. Hemos pasado de ver los grandes sistemas de fracturas de Europa en una imagen a conocer el gradiente de temperaturas de toda la capa de hielo. Y lo que surge es una capa estable, gruesa y que aísla al océano del vacío del espacio. Si bien esto confirma que el océano está bien protegido, también sugiere que está más aislado de lo que esperaban los modelos más optimistas.
La vía para que sea un mundo habitable -el intercambio de materia y energía desde fuera hacia adentro- parece ser, a la vista de estos datos, complicado al no observarse una continuidad de los sistemas de fracturas desde el exterior al interior. Este hecho no elimina de un plumazo la posibilidad de que sea un mundo habitable, ya que podría haber otros mecanismos no detectados en este sobrevuelo, como regiones que puedan estar geológicamente activas o el papel de los impactos en facilitar ese intercambio.
Habrá que esperar a las futuras misiones JUICE y Europa Clipper que nos podrán aportar nuevos y mejores datos -al fin y al cabo, Juno no estaba preparada para esto- y confirmar o refinar estas medidas. Y, por supuesto, a abrir nuevas preguntas e interrogantes.
Referencias:
Levin, S. M., Zhang, Z., Bolton, S. J., Brown, S., Ermakov, A. I., Feng, J., Hand, K., Misra, S., Siegler, M., Stevenson, D., McKinnon, W., & Akiba, R. (2025) Europa’s ice thickness and subsurface structure characterized by the Juno microwave radiometer Nature Astronomy doi: 10.1038/s41550-025-02718-0
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Una nueva estimación del grosor de la corteza de hielo de Europa se ha escrito en Cuaderno de Cultura Científica.
Una feroz batalla espacial… de microbios
Una caja de llena de virus y bacterias ha sido el sorprendente escenario de una fascinante batalla espacial tras completar su viaje de ida y vuelta a la Estación Espacial Internacional. Los contendientes en este enfrentamiento especial, mantienen una rivalidad ancestral y son adversarios desde hace miles de millones de años: la siempre temida bacteria Escherichia coli y su archienemigo viral, el bacteriófago T7.
La Estación Espacial Internacional (ISS) Fuente: ESA
Por su parte, los fagos actúan como depredadores precisos: se adhieren a la superficie de la bacteria, inyectan su material genético y usan la maquinaria celular para multiplicarse. Si tienen éxito destruyen a la bacteria para liberar nuevas generaciones de virus. Por su parte, las bacterias no se quedan de brazos cruzados y también han desarrollado su propio arsenal de defensas. Algunas cambian la estructura de sus receptores para que los fagos no puedan engancharse, otras producen enzimas que destruyen el ADN viral, y algunas incluso registran fragmentos de virus en su propio genoma para reconocer y atacar futuras invasiones, un mecanismo con unas siglas (CRISPR) que seguro que os suenan.
Tradicionalmente esta batalla ocurre en la Tierra, pero un equipo de investigadores de la Universidad de Wisconsin-Madison, junto con la empresa biotecnológica estadounidense Rhodium Scientific Inc., han querido averiguar qué ocurriría con este enfrentamiento microscópico si se produjese en un entorno de microgravedad… o dicho de una manera más sencilla, en el año 2020 se envió una caja con virus y bacterias a la ISS y ahora, una vez que los contendientes han regresado a tierra firme, han publicado los resultados de su batalla espacial. Los científicos de la ISS incubaron diferentes combinaciones de bacterias y fagos durante 25 días, mientras que el equipo de investigación de bioquímicos mantuvo un grupo de control, con los mismos experimentos, en sus instalaciones de Madison, en la Tierra.
Un fago sobre la superficie de una célula huésped. Fuente: Universidad de Wisconsin-MadisonPor supuesto, en el espacio la batalla no se detuvo, los virus siguieron infectando a las bacterias y la E. coli continuó con su férrea defensa… pero ambos rivales lo hicieron de una forma distinta a como lo hacen en la Tierra. El entorno de microgravedad influyó tanto en la evolución de los virus como en la de sus bacterias objetivo, impulsando cambios genéticos notables en ambos.
En el entorno de ingravidez de la estación, las bacterias fueron quienes hicieron el primer movimiento adquiriendo mutaciones en genes implicados en la respuesta microbiana al estrés y la gestión de nutrientes. Sus proteínas de superficie también cambiaron. Los fagos tuvieron un inicio algo más lento pero, finalmente, mutaron en respuesta para poder seguir uniéndose a sus víctimas. No obstante, esta respuesta tardía fue fulminante sobre todo si tenemos en cuenta sus posibles aplicaciones médicas: El equipo descubrió que ciertas mutaciones de fagos específicas del espacio eran especialmente eficaces para eliminar bacterias terrestres responsables de infecciones del tracto urinario. Si tenemos en cuenta que más del 90 % de las bacterias responsables de ITU son resistentes a los antibióticos, lo que convierte los tratamientos con fagos en una alternativa prometedora.
Es cierto que cuando pensamos en virus, solemos pensar en enfermedades… pero los fagos se han convertido en un gran aliado, especialmente en el grave problema de la resistencia microbiana. Desde principios del siglo XX, mucho antes de que los antibióticos se convirtieran en la regla general frente a las infecciones, científicos y médicos han explorado su potencial como terapia eficaz. Los resultados del este nuevo artículo nos ofrecen una nueva ventana para desarrollar tratamientos eficaces y incorporar esas mejoras espaciales a nuestros fagos terrestres: «El espacio modifica radicalmente la interacción entre fagos y bacterias: la infección se ralentiza y ambos organismos evolucionan siguiendo una trayectoria distinta a la de la Tierra. Al estudiar estas adaptaciones espaciales, hemos desarrollado nuevos conocimientos biológicos que nos han permitido diseñar fagos con una actividad muy superior contra patógenos resistentes a los fármacos en la Tierra».
Con la experiencia adquirida durante este primer experimento, los investigadores están trabajando ya en un segundo experimento (que por supuesto debe caber en la misma caja pequeña) para un futuro lanzamiento espacial. «Primero, nos hemos planteado preguntas básicas de microbiología aplicada al espacio», explica uno de los autores, «ahora estamos listos para estudiar sistemas de múltiples fagos y bacterias que representan con mayor precisión la complejidad del microbioma humano y averiguar qué interacciones novedosas ocurren en el espacio y qué podemos aprender de ellas aquí en la Tierra».
Referencias científicas y más información:
Phil Huss, Srivatsan Raman, et al. (2026) Microgravity reshapes bacteriophage–host coevolution aboard the International Space Station PLOS Biology doi: 10.1371/journal.pbio.3003568
Renata Solan (2026) Microbes mutated in space hint at biomedical benefits to humans on Earth Universidad de Wisconsin-Madison
PLOS (2026) Scientists sent viruses to space and they evolved in surprising ways Science Daily
Manuela Callari (2026) Viruses that evolved on the space station and were sent back to Earth were more effective at killing bacteria Live Science
Sobre el autor: Javier «Irreductible» Peláez es escritor y comunicador científico. Autor de «500 Años de Frío» (2019) y «Planeta Océano» (2022). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.
El artículo Una feroz batalla espacial… de microbios se ha escrito en Cuaderno de Cultura Científica.
La teoría del invariante

Existen muchas formas de explicar la teoría de la relatividad de Einstein. Así, por ejmplo, en nuestra serie Teoría de la invariancia se explica paso a paso y usando muy pocas matemáticas, y las que se usan, elementales. Pero esta síntesis que hace Francis Villatoro en 10 minutos (La teoría del invariante) es, simplemente, magnífica, pues incluye también aspectos geométricos que no se suelen tratar a este nivel.
Francisco Román Villatoro Machuca es profesor titular (acreditado como catedrático) del Departamento de Lenguajes y Ciencias de la Computación de la Universidad de Málaga. Es licenciado en Informática, licenciado en Física y doctor en Matemáticas. Es un divulgador de referencia en el mundo hispanohablante.
Edición realizada por César Tomé López
El artículo La teoría del invariante se ha escrito en Cuaderno de Cultura Científica.
¿Comemos lo que decimos que comemos?
Foto: Artem Podrez / Pexels¿Y si una simple gota de sangre pudiera decirnos si nos estamos alimentando bien? Aunque muchas personas afirman seguir una dieta saludable, los métodos tradicionales para medir lo que comemos –como encuestas o diarios alimentarios– no siempre son fiables. Al fin y al cabo, es fácil olvidar lo que hemos comido o incluso tener percepciones erróneas sobre las cantidades ingeridas.
Por suerte, ahora hay alternativas. En un estudio que llevamos a cabo en el centro tecnológico AZTI, analizamos si una pequeña muestra de sangre recogida del dedo (lo que se llama dried blood spot o DBS) puede reflejar con precisión lo que comemos, especialmente respecto al consumo de pescado azul, rico en grasas saludables omega-3.
El estudio incluyó 18 participantes, hombres y mujeres de entre 18 y 65 años, sin enfermedades. Durante cinco semanas, las 18 personas participaron en una intervención nutricional. Primero siguieron su dieta habitual, luego evitaron el pescado y finalmente consumieron caballa enlatada varias veces por semana. En cada fase, recogimos muestras de sangre y analizamos los niveles de diferentes ácidos grasos.
De los cuestionarios a la analítica objetivaLos resultados fueron claros. Antes de comenzar la intervención, el perfil de ácidos grasos reveló distintos patrones de dieta entre los participantes.
Por un lado, aquellas personas que habitualmente consumían lácteos azucarados, bebidas carbonatadas y azúcar presentaron mayores niveles de grasas omega-6 y menores niveles grasas omega-3. Esto es importante porque cuando el omega-6 está descompensadamente elevado, el riesgo de fallecer aumenta. Por el contrario, quienes consumían pescado azul, bebidas alcohólicas fermentadas, edulcorantes y nueces presentaron mayores niveles de grasas monoinsaturadas y omega-3.
Un tercer grupo con mayor consumo de verduras, cereales integrales, quesos y mantequilla presentó niveles intermedios de omega-3 y omega-6, y niveles más altos de grasas saturadas.
Pero ¿cuánto tardan en cambiar nuestro perfil de ácidos grasos tras consumir ciertos alimentos? Menos de lo que imaginamos. En los experimentos vimos que si los sujetos consumían latas de caballa, los niveles en sangre de ciertos omega-3 como el EPA aumentaban en un día. Sin embargo, otros como el DHA tardaban más en reflejarse. Esto demuestra que esta técnica puede detectar cambios en la dieta tanto a corto como a largo plazo.
Además, los niveles de estas grasas cambiaban de manera distinta según el patrón de dieta habitual de cada participante. En los participantes que normalmente no consumían pescado azul, aumentaban más sus niveles de EPA al día siguiente de comer pescado. Sin embargo, aunque el DHA también aumentó en estos participantes durante las dos semanas de intervención, los niveles no llegaron a igualarse a los de los participantes que normalmente sí consumían pescado. Esto quiere decir que para adquirir niveles de omega-3 correspondientes con un consumo de pescado azul adecuado, necesitarían seguir tomándolo durante más de dos semanas.
Identificar si la dieta es adecuada sin cuestionariosEl nuevo método es, sobre todo, rápido, cómodo y poco invasivo. No requiere de profesionales médicos y puede aplicarse fácilmente en grandes muestras, o incluso en casa. Además, permite identificar si la dieta es adecuada y evitar los errores comunes de los cuestionarios alimentarios, que muchas veces no reflejan lo que realmente comemos. Por otro lado, gracias a los cambios a corto y largo plazo de diferentes grasas, también nos permite saber si las personas siguen las pautas indicadas en un plan nutricional.
Esta investigación nos coloca un paso más cerca de ofrecer recomendaciones nutricionales realmente personalizadas. Porque al final lo que importa no es lo que decimos que comemos, sino lo que realmente comemos.![]()
Sobre las autoras: Laura García-Urtiaga, Investigadora Predoctoral en Nutrición de Precisión – AZTI, Universidad del País Vasco / Euskal Herriko Unibertsitatea and Sara Arranz, Investigadora del grupo de Alimentación y Salud de AZTI
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Comemos lo que decimos que comemos? se ha escrito en Cuaderno de Cultura Científica.
Geología sobre esquís
Durante estas semanas están teniendo lugar los Juegos Olímpicos de Invierno en Italia, gracias a los cuales, y aquí reconozco mi ignorancia deportiva, podemos disfrutar de un montón de deportes y modalidades que no sabía ni que existían. Aunque, y de nuevo me sincero, no consigo centrarme en seguir el desarrollo de las pruebas al aire libre porque me dedico a prestarle más atención al paisaje que rodea las pistas olímpicas. Pero esta vez no me siento tan culpable, porque incluso en el vídeo corto que sirve como entradilla en la retrasmisión televisiva de las competiciones, unas montañas cobran todo el protagonismo: las Dolomitas.
Captura de pantalla del vídeo de entradilla de las pruebas deportivas con las montañas Dolomitas resaltadas en el centro de la imagen. Fuente. Fotograma tomado de RTVELas Dolomitas son una serie de cordilleras montañosas situadas al sur de los Alpes orientales, en el norte de Italia, y su importancia en estos Juegos Olímpicos radica en que la segunda sede principal, Cortina d´Ampezzo, se sitúa al pie de estas montañas. Pero no es la única, hasta otras cinco localidades emplazadas en las Dolomitas albergan instalaciones en las que se desarrollan los deportes de estos juegos. Todo ello debido a que las laderas y valles dolomíticos son una de las principales zonas europeas para disfrutar de los deportes invernales gracias, como no, a su geología.
Localización de las Dolomitas al norte de Italia (enmarcadas dentro del círculo rojo) y de las sedes de los Juegos Olímpicos de Invierno situadas en las laderas de sus montañas. Fuentes: Mapa topográfico tomado de Google Maps, la localización de las sedes deportivas está tomada de Olympics.Esta historia comienza hace unos 250 millones de años, en un Periodo geológico llamado Triásico. En aquella época, el supercontinente Pangea aún estaba unido y esta zona de Italia era un mar tropical poco profundo, con aguas cálidas y muy transparentes, en los que vivían algas y otros pequeños organismos con caparazones carbonatados. Esta paz se rompió ligeramente cuando comenzó la rotura de Pangea, hace unos 238 millones de años, porque produjo una serie de erupciones volcánicas submarinas en esta área, depositándose rocas volcánicas entre el barro carbonatado. Pero después de la tormenta llegó otra vez la calma, desarrollándose un nuevo mar tropical tranquilo en el que crecieron abundantes arrecifes de coral. Aunque no duró mucho, ya que, a comienzos del Periodo Jurásico, hace entre unos 200 y unos 180 millones de años, el agua se retiró ligeramente, quedando este lugar como una zona costera con amplias playas por las que paseaban dinosaurios. Sin embargo, el mar no se rindió y recuperó sus dominios, apareciendo así, desde hace unos 180 millones de años hasta finales del Cretácico, una nueva zona marina, más profunda que la anterior, en la que los ammonites fueron los organismos carbonatados protagonistas.
La idílica imagen de mares tropicales se acabó hace unos 65 millones de años, cuando la placa tectónica Africana empezó a moverse hacia el norte, chocando con la placa tectónica Euroasiática. Este empuje produjo que todas las rocas que se formaron desde el Triásico hasta el Cretácico empezaran a ascender, doblándose y fracturándose sin parar. Así, sin prisa pero sin calma, el choque de placas provocó que, en los últimos 10 millones de años, se formasen las enormes elevaciones que hoy conocemos como las Dolomitas. Y, como broche final de esta historia, en los últimos 2 millones de años, los agentes meteorológicos como la lluvia, el viento o las lenguas de hielo que bajaban por las laderas de las montañas, fueran esculpiendo el paisaje actual: crestas, valles y acantilados de paredes casi verticales.
Si me habéis leído en otras ocasiones, seguro que esta historia no os sorprende, porque os la habré contado antes. De hecho, podría valer para muchísimas de las cordilleras más conocidas del mundo, como los Alpes, los Pirineos, los Cárpatos o, incluso, el Himalaya. Entonces, ¿qué hace especial a las Dolomitas? Pues la respuesta a esta pregunta se encuentra en su propio nombre.
Cristales de dolomita encontrados en la cantera de Azcárate (Eugui, Navarra). Fotografía de Didier Descouens / Wikimedia CommonsEl barro marino carbonatado que se depositó durante el Triásico tenía calcio y magnesio y acabó convirtiéndose en un mineral llamado dolomita (CaMg(CO3)2), que es el componente principal de la roca conocida como dolomía. Pues es tal la abundancia de este mineral en los Alpes orientales, que fue aquí donde lo descubrió a finales del siglo XVIII un geólogo francés apellidado Dolomieu. Y sí, el nombre del mineral es un homenaje a su descubridor.
Pero aquí no termina su particularidad. A diferencias del Triásico, el barro marino carbonatado formado durante el Jurásico y el Cretácico sólo tenía calcio, generando el mineral calcita (CaCO3) que forma las rocas calizas. Y resulta que la dolomita es un mineral con mayor dureza que la calcita, lo que provoca que la roca dolomía sea más resistente a la acción de los elementos que la caliza, las rocas volcánicas y la arenisca formada a partir de la arena de las playas jurásicas. Por este motivo, las Dolomitas han quedado cinceladas como enormes picos verticales que destacan sobre el paisaje circundante, haciendo que se nos desvíe la vista de las pruebas de esquí a la belleza de las montañas que rodean las pistas.
Y he dejado lo mejor para el final. Gracias a la presencia del magnesio en su composición, la dolomita es un mineral capaz de reflejar la luz solar, provocando, tanto al amanecer como al atardecer, un efecto óptico que confiere unas tonalidades rosadas o violáceas a las montañas de las Dolomitas y que se conoce como “alpenglow” (resplandor alpino) en alemán, o “enrosadira” en italiano. Un motivo más para seguir por televisión los Juegos Olímpicos de Invierno… aunque seguiré sin prestarle atención a los deportes por culpa de la belleza del paisaje en donde se desarrollan.
Efecto de la “enrosadira” en las Dolomitas. Foto: Anna Marchenkova /Wikimedia Commons
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la EHU
El artículo Geología sobre esquís se ha escrito en Cuaderno de Cultura Científica.
Las diez matemáticas de la Torre Eiffel
Eduardo Galeano (1940-2015) rescataba lo esencial de la vida y el trabajo de Sophie Germain (1776-1831) en su hermosa semblanza Mudanza de nombre. El escritor uruguayo escribía sobre la matemática y la Torre Eiffel en estos términos:
[…] Sophie fue la única mujer aceptada en el masculino Olimpo de la ciencia europea: en las matemáticas, profundizando teoremas, y después en la física, donde revolucionó el estudio de las superficies elásticas.
Un siglo después, sus aportes contribuyeron a hacer posible, entre otras cosas, la torre Eiffel.
La torre lleva grabados los nombres de varios científicos.
Sophie no está. […]
En efecto, la Torre Eiffel tiene grabados en los pretiles de la primera línea de balcones 72 nombres de científicos e ingenieros franceses destacados por sus contribuciones. Fue Gustave Eiffel quien eligió los nombres de esos eruditos –todos varones–: cada fachada de la torre (Trocadero, Escuela Militar, Grenelle y París) contiene 18 apellidos.
Sophie Germain y la Torre Eiffel. Fuentes: Wikimedia Commos
El pasado día 26 de enero, la alcaldesa de París, Anne Hidalgo, dio a conocer la propuesta de 72 científicas cuyos nombres se inscribirán en la Torre Eiffel como reconocimiento a la importancia de sus aportaciones científicas.
Esta iniciativa, que comenzó a fraguarse en el primer trimestre de 2025, ha sido liderada por la ciudad de París, la Sociedad de Explotación de la Torre Eiffel (SETE) y la asociación Femmes & Sciences. Una comisión de personas expertas, presidida por la astrofísica Isabelle Vauglin y Jean-François Martins, presidente de la SETE, han colaborado para seleccionar estos 72 nombres. Además, proponen que se coloquen en un friso (sobre el que ya existe) en la primera planta de la torre. Este listado de 72 nombres se enviará a las tres academias competentes (Ciencias, Medicina y Tecnologías) que validarán oficial y definitivamente esta propuesta.
Las matemáticas de la lista
Diez de los nombres corresponden a matemáticas francesas. Por supuesto, una de ellas es Sophie Germain. Presentamos una breve reseña de cada una de ellas.
- Yvette Amice (1936-1993) centró su investigación en teoría de númerosy análisis p-ádico. Fue la segunda mujer que presidió la Société Mathématique de France (1975), tras Marie-Louise Dubreil-Jacotin (1952).
- Yvonne Choquet-Bruhat (1923-2025) fue la primera mujer en ser elegida miembro de la Académie des sciences, fue en 1979. Estableció los primeros resultados rigurosos sobre las ecuaciones de Einstein, abriendo la vía de estudio matemático del espacio-tiempo.
- Marie-Louise Dubreil-Jacotin (1905-1972) comenzó a trabajar en álgebra tras conocer a Emmy Noether. Junto a su marido, Paul Dubreil, publicó Leçons d’algèbre moderne, libro de gran difusión en esta área.
- Jacqueline Ferrand (1918-2014) trabajó fundamentalmente en análisis real y complejo y geometría diferencial. Entre sus muchas publicaciones y manuales universitarios, destacan los cuatro tomos de Cours de Mathématiquesjunto a Jean-Marie Arnaudiès.
- Sophie Germain (1776-1831) realizó importantes contribuciones a la teoría de números; uno de los más importantes fue el estudio de los que se denominan números primos de Germain. Fue la primera mujer en ganar un premio de la Académie des sciences (1815) por su disertación sobre superficies elásticas, que sentó las bases para la investigación sobre la resistencia de los materiales, en particular para la construcción de la Torre Eiffel.
- Geneviève Guitel (1895-1982) introdujo los términos escala largay escala corta (en Histoire comparée des numérations écrites, 1975) para referirse a dos de los principales sistemas de numeración utilizados en el mundo.
- Paulette Libermann (1919-2007) fue especialista en geometría diferencial y geometría simpléctica, centrándose en la teoría de jets, entre otros.
- Edith Mourier (1920-2017) fue especialista en teoría de probabilidad. En 1954 defendió su tesis, Éléments aléatoires dans un espace de Banach, en la que generaliza la ley de los grandes números relativa a puntos aleatorios de espacios de Banach: es el teorema de Fortet-Mourier, que se utiliza para cuantificar la diferencia entre dos medidas.
- Michelle Schatzman (1949-2010) fue especialista en matemática aplicada, a la que contribuyó con más de 70 artículos. Trabajó fundamentalmente en análisis no linealy análisis numérico.
- Marie-Hélène Schwartz (1913-2013) es conocida por sus trabajos sobre clases característicasasociadas a espacios con singularidades.
Bonus
Debajo aparece el listado (por orden alfabético de apellido) de las 72 científicas francesas (o que realizaron su investigación en Francia) propuestas para que sus nombres se inscriban en la Torre Eiffel. Las diez matemáticas están marcadas en negrita.
- Denise Albe-Fessard (1916-2003), neurofisióloga
- Yvette Amice (1936-1993), matemática
- Jeanne Baret (1740-1807), botánica y exploradora
- Denise Barthomeuf (1934-2004), química de materiales
- Madeleine Brès (1842-1921), médica
- Simonne Caillère (1905-1999), geóloga y mineralogista
- Yvette Cauchois (1908-1999), química física
- Edmée Chandon (1885-1944), astrónoma
- Yvonne Choquet-Bruhat (1923-2025), física y matemática
- Marthe Condat (1886-1939), médica
- Anita Conti (1899-1997), oceanógrafa
- Eugenie Cotton (1881-1967), física
- Radhia Cousot (1947-2014), informática
- Odile Croissant (1923-2020), física y bióloga
- Marie Curie (1867-1934), física
- Augusta Dejerine-Klumpke (1859-1927), neuróloga
- Henriette Delamarre de Monchaux (1854-1911), geóloga y paleontóloga
- Georgette Délibrias (1924-2015), física
- Nathalie Demassieux (1884-1961), química
- Rose Dieng (1956-2008), informática
- Angélique du Coudray (1712-1794), obstetra
- Louise du Pierry (1746-1830), astrónoma
- Marie-Louise Dubreil-Jacotin (1905-1972), matemática
- Jacqueline Ferrand (1918-2014), matemática
- Jacqueline Ficini (1923-1988), química
- Rosalind Franklin (1920-1958), química física
- Marthe Gautier (1925-2022), bióloga médica
- Sophie Germain (1776-1831), matemática
- Marianne Grunberg-Manago (1921-2013), bioquímica
- Jeanne Guiot (1889-1963), ingeniera
- Geneviève Guitel (1895-1982), matemática
- Sébastienne Guyot (1896-1941), ingeniera aeronáutica
- Claudine Hermann (1945-2021), física
- Andrée Hoppilliard (1909-1995), ingeniera aeronáutica
- Irène Joliot-Curie (1897-1956), química
- Geneviève Jourdain (1946-2007), ingeniera informática
- Dorothea Klumpke (1861-1942), astrónoma
- Lydie Koch (1931-2023), física
- Colette Kréder (1934-2022), ingeniera
- Nicole Laroche (1945-2019), ingeniera en Artes y Oficios
- Cornélie Lebon-de Brambilla (1767-1812), ingeniera
- Yolande Le Calvez (1910-2002), geóloga y paleontóloga
- Paulette Libermann (1919-2007), matemática
- Nicole Mangin (1878-1919), médica
- Henriette Mathieu-Faraggi (1915-1985), física
- Cécile Morette (1922-2017), física
- Edith Mourier (1920-2017), matemática
- Ethel Moustacchi (1933-2016), bioquímica
- Suzanne Noël (1878-1954), cirujana
- Yvonne Odic (1890-1982), ingeniera mecánica
- Isabelle Olivieri (1957-2016), ingeniera agrónoma y bióloga
- Marie-Louise Paris (1889-1969), ingeniera
- Marguerite Perey (1909-1975), radioquímica
- Claudine Picardet (1735-1820), química
- Alberte Pullman (1920-2011), química
- Pauline Ramart (1880-1953), química
- Lucie Randoin (1885-1960), química nutricional
- Alice Recoque (1929-2021), ingeniera informática
- Michelle Schatzman (1949-2010), matemática
- Anne-Marcelle Schrameck (1896-1965), ingeniera química
- Marie-Hélène Schwartz (1913-2013), matemática
- Josiane Serre (1922-2004), química
- Alice Sollier (1861-1942), psiquiatra
- Helène Sparrow (1891-1970), bióloga y médica
- Bianca Tchoubar (1910-1990), química
- Marie Antoinette Tonnelat (1912-1980), física teórica
- Thérèse Tréfouël (1892-1978), química
- Agnès Ullmann (1927-2019), bióloga molecular
- Arlette Vassy (1913-2000), física atmosférica
- Suzanne Veil (1886-1956), ingeniera química
- Jeanne Villepreux-Power (1794-1871), naturalista
- Toshiko Yuasa (1909-1980), física teórica
Referencias
- 72 femmes de sciences pour la tour Eiffel, MkF
- Marta Macho Stadler, 72 científicas para la Torre Eiffel, Mujeres con ciencia, Hitos, 10 febrero 2026
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la EHU y editora de Mujeres con Ciencia
El artículo Las diez matemáticas de la Torre Eiffel se ha escrito en Cuaderno de Cultura Científica.
Una demostración muy buscada para domar algunas de las ecuaciones más rebeldes de las matemáticas
Los matemáticos comprenden finalmente el comportamiento de una importante clase de ecuaciones diferenciales que describen todo, desde la presión del agua hasta los niveles de oxígeno en los tejidos humanos.
Un artículo de Paulina Rowińska. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Para estudiar el flujo de aire alrededor del ala de un avión, la distribución de los esfuerzos en un puente u otras situaciones muy diversas, los investigadores utilizan ecuaciones diferenciales parciales elípticas. Estas ecuaciones son notoriamente difíciles de comprender. Ilustración: Kristina Armitage; Michael Kanyongolo /Quanta MagazineLa trayectoria de una tormenta, la evolución de los precios de las acciones, la propagación de una enfermedad: los matemáticos pueden describir cualquier fenómeno que cambie en el tiempo o en el espacio mediante lo que se conoce como ecuaciones diferenciales parciales. Pero hay un problema: estas «EDP» suelen ser tan complicadas que resulta imposible resolverlas directamente.
En su lugar, los matemáticos recurren a un ingenioso rodeo. Puede que no sepan calcular la solución exacta de una ecuación dada, pero pueden intentar demostrar que dicha solución debe ser «regular», o bien comportada en cierto sentido; por ejemplo, que sus valores no den saltos repentinos físicamente imposibles. Si una solución es regular, los matemáticos pueden utilizar diversas herramientas para aproximarla y así comprender mejor el fenómeno que quieren estudiar.
Sin embargo, muchas de las EDP que describen situaciones realistas han permanecido fuera de alcance. Los matemáticos no han logrado demostrar que sus soluciones sean regulares. En particular, algunas de estas ecuaciones inalcanzables pertenecen a una clase especial de EDP para la que los investigadores desarrollaron durante un siglo toda una teoría, una teoría que nadie consiguió hacer funcionar para esta subclase concreta. Se toparon con un muro.
Ahora, dos matemáticos italianos han logrado por fin romper esa barrera, ampliando la teoría para abarcar esas EDP más desordenadas. Su artículo, publicado el verano pasado, marca la culminación de un ambicioso proyecto que, por primera vez, permitirá a los científicos describir fenómenos reales que durante mucho tiempo han desafiado el análisis matemático.
Traviesas o buenas
Durante una erupción volcánica, un río abrasador y caótico de lava fluye sobre el terreno. Pero al cabo de horas o días (o quizá incluso más tiempo), se enfría lo suficiente como para entrar en un estado de equilibrio. Su temperatura deja de cambiar de un momento a otro, aunque sigue variando de un lugar a otro en la vasta extensión de espacio que cubre la lava.
Los matemáticos modelan sistemas que cambian en el espacio, pero no en el tiempo —la temperatura de un flujo de lava en equilibrio, la distribución de nutrientes en los tejidos, la forma de una película de jabón— mediante ecuaciones diferenciales parciales elípticas.Fuentes, de arriba a abajo: Giles Laurent/Creative Commons; Mikael Häggström/Creative Commons; Ted Kinsman/Science Source
Los matemáticos describen situaciones como esta mediante lo que se llaman EDP elípticas. Estas ecuaciones representan fenómenos que varían en el espacio pero no en el tiempo, como la presión del agua que fluye a través de una roca, la distribución de tensiones en un puente o la difusión de nutrientes en un tumor.
Pero las soluciones de las EDP elípticas son complicadas. La solución de la EDP de la lava, por ejemplo, describe su temperatura en cada punto, dadas unas condiciones iniciales. Depende de muchas variables que interactúan entre sí.
Los investigadores quieren aproximar esa solución incluso cuando es imposible escribirla de forma explícita. Pero los métodos que utilizan solo funcionan bien si la solución es regular, es decir, si no presenta saltos ni quiebros bruscos (no habrá picos afilados en la temperatura de la lava de un lugar a otro). «Si algo falla, probablemente se deba a la [falta de] regularidad», explica Makson Santos, de la Universidad de Lisboa.
En la década de 1930, el matemático polaco Juliusz Schauder trató de establecer las condiciones mínimas que debe satisfacer una EDP elíptica para garantizar que sus soluciones sean regulares. Demostró que, en muchos casos, basta con probar que las reglas incorporadas en la ecuación —como la regla que describe la rapidez con la que se propaga el calor en la lava— no cambian de forma demasiado abrupta de un punto a otro.
En las décadas transcurridas desde la demostración de Schauder, los matemáticos han mostrado que esta condición es suficiente para asegurar que cualquier EDP que describa un material «agradable» y uniforme tiene soluciones regulares. En un material así, existe un límite a lo extremas que pueden ser las reglas subyacentes. Por ejemplo, si se supone que la lava es uniforme, el calor siempre fluirá dentro de ciertos límites de velocidad, nunca demasiado rápido ni demasiado lento.
Pero la lava es en realidad una mezcla diversa de roca fundida, gases disueltos y cristales. En un material no uniforme como este, no se pueden controlar los extremos, y pueden aparecer diferencias más drásticas en la rapidez con la que se propaga el calor según el lugar: algunas regiones de la lava pueden conducir el calor extremadamente bien y otras extremadamente mal. En este caso, se utiliza una EDP «no uniformemente elíptica» para describir la situación.
Durante décadas, nadie pudo demostrar que la teoría de Schauder siguiera siendo válida para este tipo de EDP.
Por desgracia, «el mundo real es no uniformemente elíptico», explica Giuseppe Mingione, matemático de la Universidad de Parma, en Italia. Eso significaba que los matemáticos estaban atascados. Mingione quería entender por qué.
Máquina del tiempo
En agosto de 2000, Mingione —con 28 años y recién doctorado— se encontraba en un viejo balneario en ruinas de Rusia, asistiendo a un congreso sobre ecuaciones diferenciales. Una noche, sin nada mejor que hacer, empezó a leer artículos de Vasiliĭ Vasil’evich Zhikov, un matemático al que había conocido en el viaje, y se dio cuenta de que las EDP no uniformemente elípticas que parecen bien comportadas pueden tener soluciones irregulares incluso cuando satisfacen la condición identificada por Schauder. La teoría de Schauder no era simplemente más difícil de demostrar en el caso no uniforme: necesitaba una actualización.
Giuseppe Mingione ha ayudado a probar una conjetura que formuló hace 20 años. La prueba final, según él, fue «un milagro por desesperación». Foto: Giampiero PalatucciDe vuelta en Italia, se unió a dos colegas y propuso que las EDP no uniformemente elípticas debían satisfacer una condición adicional para garantizar que sus soluciones fueran regulares. No solo las reglas que gobiernan el flujo de calor tenían que cambiar gradualmente de un punto a otro, sino que esos cambios debían estar estrictamente controlados para tener en cuenta la no uniformidad de la lava. En particular, sostenían los matemáticos, cuanto más desigual sea el material, más estricto debe ser ese control. Representaron esta condición mediante una desigualdad, que daba un umbral preciso de cuánta no uniformidad podía tolerar un sistema.
Mostraron que, para las EDP en las que la desigualdad no se cumple, ya no se puede garantizar que las soluciones sean regulares. Pero no pudieron demostrar que la desigualdad marque exactamente el punto en el que las soluciones pasan de ser regulares a potencialmente irregulares. Mingione pasó años trabajando en el problema, sin éxito. Finalmente, abandonó el intento.
Pasaron casi 20 años. Entonces, en 2017, una estudiante de primer año de doctorado llamada Cristiana De Filippis oyó hablar de la búsqueda de una extensión de la teoría de Schauder a ecuaciones no uniformemente elípticas. Matemáticos con más experiencia le advirtieron que no se metiera en ese problema, pero ella ignoró el consejo y se puso en contacto con Mingione. En una llamada nocturna por Skype, le dijo que tenía algunas ideas sobre cómo demostrar su conjetura y que estaba decidida a retomar el trabajo donde él lo había dejado.
Cristiana De Filippis ha estado desarrollando una teoría amplia para comprender mejor las soluciones de ecuaciones diferenciales parciales, centrándose en casos cada vez más complejos. Foto: Giampiero Palatucci«Fue como una máquina del tiempo», cuenta Mingione. «Fue como encontrarme conmigo mismo de hace 20 años llamando a la puerta de mi propia mente».
Según él, fue la «nueva energía, el entusiasmo y la fe en que esto se podía hacer» de De Filippis lo que le convenció de reactivar su intento, largamente dormido, de demostrar su conjetura.
Milagros
La clave para demostrar que la solución de una EDP es regular consiste en mostrar que siempre cambia de manera controlada. Los matemáticos lo hacen estudiando una función especial que describe con qué rapidez cambia la solución en cada punto. Quieren demostrar que esta función, llamada gradiente, no puede hacerse demasiado grande.
Pero, del mismo modo que suele ser imposible calcular directamente la solución de una EDP, también suele ser imposible calcular su gradiente.
El matemático polaco Juliusz Schauder se propuso comprender cuándo los modelos de sistemas físicos ofrecen una imagen precisa de la realidad y cuándo no. Fuente: Dominio públicoEn su lugar, De Filippis y Mingione dedujeron de la EDP original lo que llamaron una «ecuación fantasma», una sombra de aquello que realmente necesitaban.
Ahí es donde Mingione se había quedado atascado décadas antes. Pero De Filippis tuvo una idea para afinar la ecuación fantasma de modo que ofreciera una visión más nítida de la EDP. Mediante un procedimiento largo y de muchos pasos, la pareja consiguió extraer de la ecuación fantasma información suficiente para reconstruir el gradiente.
«Es un poco rebuscado hacerlo así», comenta Simon Nowak, de la Universidad de Bielefeld, en Alemania. «Pero funciona, y es bastante bonito».
Ahora tenían que averiguar cómo demostrar que el gradiente recuperado no podía hacerse demasiado grande. Lo descompusieron en piezas más pequeñas y demostraron que cada una de ellas no podía superar un tamaño determinado. Esto requirió un esfuerzo enorme: incluso un diminuto error de medida en una sola pieza arruinaría su estimación del gradiente y los alejaría del umbral que pretendían demostrar.
En un preprint de 2022, lograron controlar todas esas piezas lo suficiente como para demostrar que la mayoría de las EDP no uniformemente elípticas que satisfacen la desigualdad de Mingione deben tener soluciones regulares. Pero todavía faltaban algunas EDP. Para demostrar la conjetura completa, los matemáticos tuvieron que obtener cotas aún mejores para el tamaño de las piezas del gradiente. No había absolutamente ningún margen de maniobra. Eso obligó a empezar de nuevo muchas veces: «un juego interminable», dice De Filippis. Pero, al final, consiguieron demostrar que el umbral que Mingione había previsto décadas atrás era exactamente el correcto.
Fue «un milagro por desesperación», afirma él.
De Filippis y Mingione no solo han completado un proyecto de un siglo de duración. También han hecho posible que los matemáticos estudien procesos reales complejos que hasta ahora tenían que modelizarse mediante ecuaciones irrealmente simplificadas.
Los investigadores también están entusiasmados por aplicar sus técnicas al estudio de otros tipos de ecuaciones diferenciales parciales, incluidas las que cambian tanto en el espacio como en el tiempo. «La parte mágica es que estaban reuniendo toda esta teoría profunda bajo un mismo paraguas y luego extrayendo de ahí la demostración», comenta Tuomo Kuusi, de la Universidad de Helsinki.
Las EDP siempre han sido casi prohibitivamente difíciles de analizar desde el punto de vista matemático. Ahora lo son un poco menos. Detrás de ellas, dice De Filippis, «hay una enorme realidad» esperando ser explicada.
El artículo original, Long-Sought Proof Tames Some of Math’s Unruliest Equations, se publicó el 8 de diciembre de 2025 en Quanta Magazine.
Traducido por César Tomé López
El artículo Una demostración muy buscada para domar algunas de las ecuaciones más rebeldes de las matemáticas se ha escrito en Cuaderno de Cultura Científica.
Dos casos sorprendentes de dispersión vegetal a través del tracto digestivo animal
Los animales colaboramos activamente en la dispersión de los vegetales. Este fenómeno se denomina zoocoria. En muchos casos, la relación es mutualista e implica beneficios para ambas partes. Las plantas amplían su área de distribución y disminuyen la competencia entre ellas. A cambio, los animales recibimos recompensas en forma de frutos comestibles. Cuando las semillas pasan a través del tracto digestivo de los animales y son devueltas al medio ambiente por defecación o regurgitación, hablamos de endozoocoria.
Muy recientemente se han publicado dos artículos que describen casos sorprendentes de endozoocoria. El primero de ellos da una vuelta de tuerca al proceso, ya que trata de semillas destinadas a la alimentación de roedores que son rescatadas de dicho destino por serpientes de cascabel (Crotalus atrox) (Figura 1). Este fenómeno se conoce como diploendozoocoria, y acaba de ser descrito por un grupo de biólogos estadounidenses.
Figura 1. A la izquierda el palo verde (Parkinsonia microphylla) / Foto: Stan Shebs, licencia CC BY-SA 3.0. Derecha, arriba, el roedor Geomys bursarius acumula gran cantidad de semillas en sus abazones / Dominio público. Abajo, la serpiente de cascabel Crotalus atrox / Foto: Gary Stolz – dominio público.El palo verde (Parkinsonia microphylla) (Figura 1) es un arbusto de los desiertos del oeste de Norteamérica. Sus semillas caen al suelo en mayo-junio y germinan aprovechando las ocasionales lluvias del verano. Muchos roedores, por ejemplo Geomys (Figura 1), se alimentan de estas semillas, almacenándolas en sus abazones (bolsas en las mejillas). Ahí es donde intervienen las serpientes de cascabel, depredadoras de roedores. Cuando la presa es devorada y digerida, las semillas son expulsadas en 5-7 días con los excrementos. La pregunta era si estas semillas siguen siendo viables tras tantos avatares.
El estudio citado consistió en alimentar serpientes con ratones de laboratorio descongelados. En estos ratones se habían introducido semillas de palo verde, que fueron recuperadas con los excrementos. Las semillas se sembraron en condiciones naturales y se compararon con semillas recogidas directamente del suelo. Un 28% de estas últimas germinaron, y ese porcentaje fue prácticamente idéntico al de las semillas expulsadas por las serpientes. Es más, cuando las semillas se sembraron junto con los excrementos de las serpientes (que incluyen uratos de la orina), el porcentaje de éxito subió al 40%. Es decir, las serpientes no solo rescataron las semillas de su destino alimenticio, sino que probablemente mejoraron su viabilidad al abonarlas.
El otro caso de endozoocoria no es menos insólito, aunque no implica semillas. Se trata de una especie de ñame (Dioscorea melanophyma), una planta con raíces tuberosas de zonas montañosas y subtropicales de China y otros países asiáticos. Estos ñames han perdido su capacidad para reproducirse sexualmente, y se multiplican mediante bulbillos o propágulos clonales, conjuntos de células con capacidad de generar un nuevo individuo. Esto no es raro entre las plantas. La reproducción asexual, aunque renuncie a la recombinación genética, permite prescindir del requerimiento de una pareja y de mecanismos de polinización. El inconveniente es que las plantas que se reproducen por propágulos clonales están muy limitadas en su capacidad de dispersión.
Figura 2. Los bulbillos del ñame Dioscorea melanophyma (A) son idénticos a las bayas de Cipadessa baccifera (B). A la derecha y arriba, el rango de tamaños de los bulbillos del ñame (banda rosa) se solapa con el tamaño de la mayor parte de bayas de las plantas que pueblan su área geográfica (barras verticales). Abajo, la reflectancia en el espectro luminoso entre 300 y 700 nm (ultravioleta – rojo lejano) de los bulbillos (líneas rojas) se solapa con la reflectancia de las bayas. El inserto muestra el mismo solapamiento cuando los datos se representan mediante escalamiento multidimensional no métrico. Esto indica que el color de bulbillos y bayas percibido por las aves es el mismo. Fuente: Chen et al. (2026), cita completa en referencias, licencia CC BY-NC-ND 4.0.La estrategia de Dioscorea melanophyma para dispersarse consiste en dar a sus bulbillos la forma y el color de las bayas de otras plantas con flores y frutos que comparten su área geográfica (Figura 2). Un estudio de investigadores chinos ha demostrado que esta semejanza es absoluta. Hasta 22 especies de aves confunden los bulbillos del ñame con las bayas que constituyen su alimentación. Eso sí, tras un corto tránsito intestinal (alrededor de media hora) los bulbillos salen con las deposiciones sin haber sido digeridos, y mantienen toda su capacidad germinativa. Se pudo comprobar que un 86,5% de los bulbillos germinan tras haber sido defecados por las aves, frente a un 92% de los recogidos directamente de los ñames. La diferencia no fue estadísticamente significativa. Por otro lado, se comprobó que la dispersión de los bulbillos por parte de las aves fue de 230 metros de media. Un 6% de los bulbillos cayeron a más de 500 metros de la planta madre. Estos valores igualan a los que obtienen las plantas con auténticas bayas que deben recompensar a los pájaros para lograr esa dispersión.
Se trata de un asombroso caso que nos recuerda al mimetismo batesiano, en el que una especie adopta el aspecto de otra que es tóxica o peligrosa, para evitar ser depredada. Pero en este caso es justo al revés, una especie de planta adopta en sus propágulos indigeribles el aspecto de frutos comestibles precisamente para que sean devorados. La Naturaleza no deja de sorprendernos.
Referencias
Acevedo, M., Salywon, A.M., Blackwell, S.A. et al. (2026). The potential for seed rescue and secondary dispersal in rattlesnakes. R Soc Open Sci. doi: 10.1098/rsos.251226
Chen, Z., Chomicki, G., Li, Y. et al. (2026). Berry Batesian mimicry enables bird dispersal of asexual bulbils in a yam. Proc Natl Acad Sci U S A. doi: 10.1073/pnas.2528094123
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga.
El artículo Dos casos sorprendentes de dispersión vegetal a través del tracto digestivo animal se ha escrito en Cuaderno de Cultura Científica.
La amenaza cuántica: hay que prepararse para el ‘Día Q’
En algún momento del futuro –no sabemos si dentro de décadas o antes de lo esperado– podría llegar el llamado ‘Día Q’ (Q-Day): el día en que un ordenador cuántico lo bastante potente sea capaz de romper la criptografía que hoy protege prácticamente toda nuestra vida digital.
Para entender la magnitud del problema, basta imaginar que, de repente, todas las cerraduras digitales dejan de funcionar: la banca online, el correo electrónico, las aplicaciones de mensajería, los sistemas de los gobiernos o el comercio electrónico quedarían expuestos. Nada estaría protegido. Nada.
Foto de FlyD en UnsplashQué es lo amenazado
La amenaza cuántica no afecta a los datos en sí, sino a las matemáticas que usamos para protegerlos. Cada vez que enviamos un mensaje por WhatsApp, accedemos a nuestra cuenta bancaria o compramos algo por internet, el texto legible (“texto en claro”) se transforma en un galimatías incomprensible (“texto cifrado”). Solo quien tiene la clave adecuada puede revertir el proceso. Es una versión moderna del trabajo de los espías de antaño, pero automatizada y basada en algoritmos matemáticos.
Los principios que hacen que estos sistemas sean seguros se establecieron ya a mediados del siglo XX, por ejemplo en los trabajos de la obra seminal de Claude Shannon sobre el secreto perfecto.
La criptografía: tipos y seguridadExisten dos grandes tipos de criptografía. En la criptografía simétrica, emisor y receptor comparten una misma clave, como si ambos tuvieran una copia idéntica de la llave de una caja fuerte. El problema es evidente: ¿cómo se entrega esa llave sin que nadie más la copie? Aquí entra en juego la criptografía asimétrica o de clave pública, que usa un par de claves: una pública (que se puede compartir) y otra privada (que se guarda en secreto).
Algoritmos como Diffie-Hellman permiten que dos personas acuerden una clave secreta aunque estén hablando por un canal público, apoyándose en problemas matemáticos muy difíciles de resolver para los ordenadores actuales, como el logaritmo discreto.
Otro sistema para intercambiar claves secretas y cifrar mensajes, RSA, basa su seguridad en la dificultad de descomponer números enormes en sus factores primos, algo trivial para números pequeños pero casi imposible para los grandes.
Gracias a estas técnicas, además de cifrar, podemos firmar digitalmente documentos, del mismo modo que una firma manuscrita identifica al autor, pero con garantías matemáticas. Para saber quién hay detrás de una clave pública se usan los certificados digitales, emitidos por autoridades de confianza, algo parecido a un DNI digital.
Primeras grietas en la criptografía de clave públicaDurante años, estos sistemas han sufrido mejoras y correcciones, pero su base teórica parecía sólida… hasta que apareció el algoritmo de Shor. En 1997, el matemático estadounidense Peter Shor demostró que un ordenador cuántico suficientemente potente podría resolver con facilidad los problemas matemáticos en los que se basan Diffie-Hellman y RSA. Dicho de otro modo: las cerraduras actuales están diseñadas para ladrones clásicos, no para ladrones cuánticos.
Si ese ordenador existiera hoy, las comunicaciones bancarias y las que involucran secretos empresariales o datos gubernamentales podrían ser descifradas. Ese sería el temido Día Q.
¿Qué pasa tras Shor?Del mismo modo que el ordenador cuántico presenta problemas, también depara soluciones. Así, es posible aprovechar propiedades de la mecánica cuántica, como el principio de no clonación de estados cuánticos, para establecer protocolos de distribución cuántica de claves (QKD, por sus siglas en inglés) simétricas. También es factible aprovechar la capacidad de cómputo paralelo derivada de propiedades como la superposición de estados cuánticos.
Por otro lado, la denominada criptografía post-cuántica haría viable implementar criptografía de clave pública mediante problemas matemáticos que son de elevada complejidad para los ordenadores actuales. Entre tales problemas se encontraría el aprendizaje con errores o LWE (Learning With Errors), teoría de códigos, resolución de sistemas de ecuaciones no lineales en varias variables sobre cuerpos finitos, la inversión de funciones hash, etc.
No basta con remplazar un algoritmo por otroNo basta con sustituir una pieza. Cambiar la criptografía implica actualizar protocolos de comunicación (como los que protegen las webs seguras), aplicaciones (correo cifrado, mensajería instantánea) y también dispositivos físicos: routers, servidores, tarjetas inteligentes o sistemas industriales antiguos que no se pueden renovar fácilmente. Es como cambiar todas las cerraduras de una ciudad sin detener su actividad diaria.
Por eso, organismos como la Comisión Europea o el NIST en Estados Unidos están definiendo hojas de ruta y estándares para una transición gradual y flexible. La posibilidad de estar a merced de una ventaja estratégica por parte de actores o países externos ha hecho que a nivel europeo se esté promoviendo el desarrollo de tecnología y de procedimientos para empezar a desplegar criptografía resistente a ataques cuánticos.
También asegurar las máquinasY no solo hay que preparar los productos software: también hay que adaptar los dispositivos hardware de comunicaciones, almacenamiento y cómputo de información. El reto es aún mayor en sectores industriales con maquinaria, sistemas y productos antiguos (legacy), donde una actualización puede ser costosa o arriesgada. Además, los cambios en seguridad suelen tener efectos inesperados, lo que hace que muchas organizaciones retrasen decisiones críticas, aun sabiendo que el riesgo crece con el tiempo.
En general, los sectores productivos tienen cierta inercia frente a cambios de consecuencias no anticipables. Los cambios en arquitectura y productos de seguridad, sobre todo en lo relativo a la criptografía, suelen tener consecuencias no esperadas, y esto hace que se paralicen cambios necesarios.
Autonomía estratégica y capitalización del talentoNo sabemos cuándo llegará realmente el ordenador cuántico capaz de romper la criptografía actual, pero esperar sin prepararse no es una opción. Mientras ello ocurre es preciso invertir de forma adecuada tiempo y recursos para desarrollar competencias criptográficas y de desarrollo de hardware que nos permitan estar preparados frente a la irrupción de amenazas asociadas a la nueva computación.
La seguridad de un país o de una región depende de contar con talento, recursos y capacidad tecnológica propia. En el caso europeo, la fuerte dependencia de terceros en hardware y software de seguridad hace que invertir en conocimiento y autonomía estratégica sea clave para afrontar, con garantías, la llegada del Día Q.![]()
Sobre el autor: David Arroyo Guardeño, Científico Titular. Ciberseguridad y protección de la Privacidad. Instituto de Tecnologías Físicas y de la Información «Leonardo Torres Quevedo» (ITEFI).
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo La amenaza cuántica: hay que prepararse para el ‘Día Q’ se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2025: El misterio de la momia maldita

Acompaña a Gemma Marfany en una aventura fascinante de genética forense para desentrañar los misterios que rodean a una momia egipcia de hace 3200 años como ninguna otra: la momia que grita.
Gemma Marfany Nadal es catedrátrica de Genética de la Universitat de Barcelona. Posee una larga trayectoria como Investigadora Principal de un grupo de investigación de genética molecular humana centrado en el diagnóstico genético de enfermedades hereditarias.
Edición realizada por César Tomé López
El artículo Naukas Bilbao 2025: El misterio de la momia maldita se ha escrito en Cuaderno de Cultura Científica.
¿Por qué cuando subimos una montaña hace más frío?
Cuanto más subimos, más cerca del Sol estamos. Entonces, ¿por qué hace más frío? Foto: Peter Fitzpatrick / Unsplash., CC BY
Este artículo forma parte de la sección The Conversation Júnior, en la que especialistas de las principales universidades y centros de investigación contestan a las dudas de jóvenes curiosos de entre 12 y 16 años. Podéis enviar vuestras preguntas a tcesjunior@theconversation.com
Pregunta formulada por el curso de 3º de la ESO de Aranzadi Ikastola. Bergara (Gipuzkoa)
Imagínate que estás escalando una montaña en el Himalaya. Si miras hacia abajo, a lo lejos, ves frondosos bosques; mientras que si miras hacia arriba, ves cada vez más nieve y más glaciares. Cuanto más asciendes, más notas cómo baja la temperatura. ¿Te ha pasado alguna vez? Tal vez te has dado cuenta de que ocurre incluso en verano y en días soleados…
A primera vista puede parecer extraño: al subir, estamos ligeramente más cerca del Sol, así que ¿no debería hacer más calor? Sin embargo, la realidad es justo la contraria. Para entender por qué, necesitamos conocer mejor cómo se calienta la atmósfera, qué es la presión del aire y cómo se comportan los gases.
¿Cómo se calienta el aire realmente?Empecemos descartando una idea muy común. Aunque al subir una montaña nos alejamos del centro de la Tierra, la diferencia de distancia al Sol es mínima. La Tierra está a unos 150 millones de kilómetros del Sol, y una montaña de varios kilómetros de altura no cambia nada a esa escala. Por tanto, el descenso de temperatura no se debe a estar “más lejos” o “más cerca” del Sol.
Otra clave fundamental es entender que el aire no se calienta directamente por el Sol. La radiación solar atraviesa la atmósfera casi sin calentarla y llega hasta el suelo. El suelo absorbe esa energía y luego la emite en forma de calor (radiación infrarroja), haciendo que suba la temperatura del aire que está en contacto con él.
Por eso, el aire más caliente suele encontrarse cerca de la superficie terrestre y no en las capas altas de la atmósfera.
La presión atmosférica y la densidadLa atmósfera es una mezcla de gases que tienen masa y, por tanto, peso. A nivel del mar, el aire soporta el peso de toda la columna de aire que tiene encima, lo que produce una alta presión atmosférica. A medida que subimos en altitud, hay menos aire por encima, así que la presión disminuye. Esto hace que el aire sea menos denso, es decir, que sus moléculas estén más separadas.
Y resulta que la densidad del aire es clave para la temperatura. Cuando las moléculas de un gas están más juntas, chocan más entre sí y pueden transferir mejor la energía térmica. En cambio, cuando están más separadas, almacenan menos energía térmica.
El enfriamiento adiabáticoHemos visto, entonces, que cuando una masa de aire asciende, la presión externa disminuye. Como consecuencia, el aire se expande. Al expandirse, el gas realiza trabajo (empuja el aire que lo rodea) y utiliza parte de su energía interna para ello. El resultado es una disminución de la temperatura, incluso, aunque no se pierda calor hacia el exterior. Este proceso se llama enfriamiento adiabático y es uno de los mecanismos más importantes de la meteorología.
En términos aproximados, cuando el aire asciende sin intercambiar calor con el entorno y si que se produzca condensación, su temperatura desciende unos 9,8 °C por cada 1 000 metros (es lo que se llama gradiente adiabático seco).
Sin embargo, en la atmósfera real, lo habitual es que, durante el proceso de ascenso, se condense parte del vapor de agua que existe. En este caso, el descenso medio es de unos 6,5 °C por cada 1 000 metros, lo que se conoce como gradiente térmico vertical.
Menos efecto “manta” en alturaEl aire actúa como un aislante térmico. Cuanto más denso es, mejor retiene el calor. En las zonas bajas, la atmósfera funciona como una especie de manta que impide que el calor del suelo se escape rápidamente al espacio.
En las montañas, al haber menos aire, este efecto es mucho menor. El calor se pierde con mayor facilidad, especialmente, durante la noche. Esto explica por qué las temperaturas nocturnas en alta montaña pueden ser extremadamente bajas.
El papel del suelo, la nieve y el vientoEl tipo de superficie también influye. En las montañas, es frecuente encontrar roca desnuda, suelos pobres o nieve. La nieve tiene un alto albedo –medida de la capacidad de una superficie para reflejar la radiación solar–. Es decir, refleja gran parte de la radiación solar que recibe. Así, al reflejar más energía y absorber menos, el suelo se calienta poco y transmite menos calor al aire.
Por otro lado, en altura, suele haber más viento debido a las diferencias de presión y a la ausencia de obstáculos. El viento no reduce la temperatura real del aire, pero sí aumenta la pérdida de calor del cuerpo humano al eliminar la capa de aire caliente que rodea la piel. Esto provoca una sensación térmica de frío mayor, aunque los grados sean los mismos.
¿Existen excepciones?Sí. En algunas situaciones se produce una inversión térmica, en la que el aire frío queda atrapado en los valles y el aire más cálido se sitúa por encima. En estos casos, puede hacer más frío abajo que en lo alto de la montaña. Sin embargo, estas situaciones son temporales y no cambian la regla general.
Lo habitual es que haga más frío al subir una montaña y, como hemos visto, esto ocurre porque la atmósfera se comporta de forma diferente con la altura: la presión disminuye, el aire se expande y se enfría, hay menos capacidad para retener calor y el suelo aporta menos energía térmica. Un excelente ejemplo de cómo las leyes de la física y la química influyen directamente en nuestra vida cotidiana.
La Cátedra de Cultura Científica de la Universidad del País Vasco colabora en la sección The Conversation Júnior.![]()
Sobre el autor: Ibai Ieltxu Rico Lozano, Profesor en el Grado en Geografía y Ordenación del Territorio de la EHU / Glaciólogo / Guía de Montaña UIAGM, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Por qué cuando subimos una montaña hace más frío? se ha escrito en Cuaderno de Cultura Científica.
Primer contacto… en la Tierra
¿Y si no estamos buscando en el lugar adecuado? ¿Y si antes de plantearnos cualquier intento de comunicación con una civilización extraterrestre deberíamos intentar entendernos con las otras especies que pueblan nuestro planeta? Se sabe que cetáceos, aves, elefantes, pulpos utilizan formas de comunicación que apenas estamos aprendiendo a descifrar y que se encuentran profundamente ligadas a la corporalidad, al entorno, al modo de existencia… No son humanas, no se articulan en lenguaje humano y, sin embargo, cumplen perfectamente la función de transmitir información relevante entre individuos, coordinar grupos o estructurar relaciones sociales complejas. La ciencia ficción, así como las metáforas y tropos de los que hace uso este género llevan décadas explorando esta cuestión: la de intentar comunicarnos con «algo» que no entendemos, y la mayor parte de las veces no plantea la cuestión como una imposibilidad técnica, sino como un choque, bien cultural, bien biológico, entre otros enfoques.
La comunicación es la excusa que le permite a la ciencia ficción hablar de diferentes maneras de ser, estar y entender el mundo. A veces el conflicto pasa por asumir que el lenguaje no es separable del cuerpo ni del entorno. En Embassytown (2011), de China Miéville, conseguir comunicarse con los Ariekei es una cuestión, por un lado, de que su lenguaje está anclado a su fisiología —tienen dos bocas y dos cerebros sincronizados, algo indispensable para poder entenderse con ellos—, y, por otro, de que son una especie incapaz de mentir ni de separar el lenguaje de la realidad —no utilizan, por ejemplo, metáforas—. En esa misma línea, Ursula K. Le Guin en El nombre del mundo es bosque (1972) sugiere que a veces el problema no es hablar ni transmitir, sino escuchar, y que el canal comunicativo puede ser el propio medio en el que se vive, no un «código» abstracto. Otras obras insisten en que el obstáculo no está solo en el cuerpo físico, sino en las categorías cognitivas desde las que se ordena la experiencia. Probablemente, la gran mayoría haya visto La llegada (2016) —basada en el relato «La historia de tu vida» (1998), de Ted Chiang— y recuerde cómo la percepción no lineal del tiempo de los heptápodos es esencial para entender su idioma; se nos exige cambiar por completo de marco mental. Por otro lado, en Babel-17 (1966), de Samuel R. Delany, el lenguaje no solo describe el mundo, sino que le da estructura. Hay otras historias que van más allá y ponen en duda que comunicación implique necesariamente comprensión, empatía o consciencia, como Visión ciega (2006), de Peter Watts. Por no mencionar a uno de los escritores que más exploró las fronteras de la comunicación interespecie, Stanislaw Lem, como podemos ver en Edén (1959), Solaris (1961), El invencible (1964), La voz del amo (1968), Fiasco (1986)… Pero no es necesario, en cualquier caso, irse a otro planeta para enfrentarse a lo desconocido. A Ray Nayler no le hizo falta en La montaña en el mar (2023), porque para él, lo alienígena no es lo que está más allá de la Tierra, sino, simplemente, aquello a lo que no prestamos atención. En conjunto, todas estas historias apuntan a lo mismo: entender al «otro» implica, para empezar, desconfiar de nuestras intuiciones sobre qué es lenguaje, qué es significado y qué condiciones hacen posible la comunicación.
Muchas novelas de ciencia ficción han explorado cómo se relacionan el lenguaje y la comunicación con la propia existencia.
Pero ¿qué tiene que ver todo esto con la ciencia y con nuestros intentos de comunicarnos con otras especies terrestres? Como siempre, más de lo que parece. Porque las preguntas que lleva planteando décadas la ciencia ficción son las mismas que se plantea hoy la ciencia: ¿cómo podemos comunicarnos con una forma de vida que no comparte nuestras categorías cognitivas, sensoriales ni simbólicas?
Desde que, alrededor de las décadas de los sesenta y setenta se demostrara que los cantos de las ballenas jorobadas seguían ciertos patrones, se planteó que los cetáceos podían estar utilizando sistemas complejos de comunicación. Fue un tema que estuvo bastante de moda durante un tiempo. Personalidades como Carl Sagan se aproximaron a él —en su caso, estudiar el posible lenguaje de los delfines era una especie de «ensayo general» para poder enfrentarnos algún día a la comunicación con formas de vida extraterrestres— y la comunicación con ballenas también forma parte importante de la trama de Star Trek IV: Misión salvar la Tierra (1986). Hoy, la cuestión está más viva que nunca gracias al Proyecto CETI[1] (Cetacean Translation Initiative), que, desde 2020, intenta descifrar el lenguaje acústico de los cachalotes gracias a un equipo pluridisciplinar formado no solo por biólogos marinos y lingüistas, sino por perfiles diversos dentro del ámbito de la computación y la inteligencia artificial. Gracias a los métodos actuales —hidrófonos, etiquetado contextual y modelos de aprendizaje automático— pueden recopilar grandes volúmenes de datos acústicos y analizarlos con modelos similares a los que hoy se están utilizando para representar el lenguaje humano con modelos de IA. En este caso, no se trata tanto de buscar palabras o frases que puedan asemejarse a las que nosotros usamos, sino de buscar patrones, de detectar estructuras jerárquicas, regularidades… y estudiar cómo se relacionan con las dinámicas sociales de estos animales.
Un cachalote hembra y su cría. Entender cómo se comunican estos animales podría ayudarnos a entender la complejidad de sus relaciones sociales.Foto:: Gabriel Barathieu CC BY-SA 2.0
El momento en el que ha aparecido un proyecto como CETI no es casual. Por primera vez en la historia tenemos datos, cantidades ingentes de datos, a nuestra disposición, así como capacidad para analizarlos. El uso de modelos de inteligencia artificial en este campo nos permite, además, buscar patrones reduciendo el sesgo de imponer categorías humanas, algo que, como bien nos enseñó la ciencia ficción, es el primer prejuicio que deberíamos eliminar al abordar una empresa como esta. El Earth Species Project se fundó en 2017, precisamente, con ese propósito, pero con una visión más amplia que CETI: no se limita a cachalotes, sino que cualquier especie de nuestro planeta tiene cabida. Han desarrollado incluso su propio gran modelo del lenguaje «de la naturaleza»: NatureLM-audio. BirdNet, por otro lado, es un proyecto que detecta y clasifica sonidos de aves tanto para uso científico como general haciendo uso de redes neuronales, y cuenta con una aplicación móvil a la que cualquier ciudadano que quiera colaborar con el proyecto —o disfrutar de él— puede acceder. Por último el Elephant Listening Project, estudia la comunicación de los elefantes africanos mediante vocalizaciones infrasonoras y vibraciones del suelo, un pequeño recordatorio de que, tal y como propusieron Le Guin y Miéville, el canal comunicativo puede ser el propio entorno y escuchar puede implicar ir más allá de las impresiones sensoriales a las que estamos acostumbrados.
Esquema del funcionamiento de NatureLM-audio. Fuente: Robinson et al. (2025) / MIT License / Earth Species ProjectComo ya adelantó la ciencia ficción, estos proyectos demuestran que, con toda probabilidad, entender al «otro» implica, para empezar, dejar de hablar en nuestro propio idioma e intentar salirnos de nuestro propio mundo comunicativo, sensorial, físico y cultural. Quizá el lenguaje, en general, no sea solo lo que nosotros entendemos por lenguaje. Quizá traducir no sea siempre el verbo más adecuado para describir lo que supone entender formas de comunicación de especies distintas a la nuestra. Y quizá los alienígenas estén más cerca de lo que pensamos.
Bibliografía
Robinson, D., Miron, M., Hagiwara, M., y Pietquin, O. (11 de noviembre de 2024). Introducing NatureLM-audio: An audio-language foundation model for bioacoustics. Earth Species Project.
Robinson, D., Miron, M., Hagiwara, M., & Pietquin, O. (2025). NatureLM-audio: An audio-language foundation model for bioacoustics. En Proceedings of the International Conference on Learning Representations (ICLR 2025). OpenReview.
The Care Project Foundation (8 de junio de 2022). A secret language: Infrasonic communication in elephants. The Care Project Foundation.
Nota:
[1] De nuevo, CETI evoca a SETI, la búsqueda de inteligencia extraterrestre.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo Primer contacto… en la Tierra se ha escrito en Cuaderno de Cultura Científica.
Los triángulos isoareales del artista concreto Max Bill
A ninguna de las personas que lea habitualmente los artículos del Cuaderno de Cultura Científica, en particular, los pertenecientes a la sección Matemoción, le sorprenderá la afirmación de que el diseñador, artista polifacético y educador suizo Max Bill (1908-1994), figura central de arte concreto, utilizó las matemáticas (teorema de Pitágoras, banda de Moebius, figuras geométricas planas –polígonos, círculos y otras curvas- y espaciales –esferas, toros y poliedros-, el hipercubo, sucesiones de números, combinatoria, etcétera) como herramienta de creación artística.
Quince variaciones sobre un mismo tema [variación 1] (1938), del artista concreto Max BillEn esta entrada vamos a centrarnos en una serie de obras de este artista concreto que consisten en rombos con ángulo interior recto, es decir, cuadrados girados con un vértice hacia arriba y otro hacia abajo, que están divididos en diferentes triángulos, como la pintura que mostramos más abajo. Más aún, vamos a reflexionar sobre el área de algunos de esos triángulos, cuestión fundamental en el proceso creativo de las mismas, como podemos apreciar por el título de la siguiente obra, Unidad de colores con la misma superficie (1972), que fue expuesta en la Fundación Juan March dentro de la exposición Max Bill (2015).
Unidad de colores con la misma superficie (1972), del artista concreto Max Bill
Además, la herramienta que vamos a utilizar para analizar estas obras es muy sencilla, se trata de la fórmula del área de un triángulo, esto es, “base por altura, dividido por dos”.
La fórmula del área de un triángulo
La fórmula clásica para calcular el área de un triángulo es muy sencilla y fácil de demostrar. Para calcular el área de un triángulo solo se necesita conocer la longitud de uno de los lados del triángulo, que vamos a tomar como su base (el lado horizontal en la siguiente imagen), y la de su altura, es decir, del segmento perpendicular a la base (o a su prolongación) que la une con el vértice opuesto. Entonces, el área está dada por la expresión matemática “(longitud de la) base por (longitud de la) altura, dividido por dos”, como se muestra en la siguiente imagen.
Fórmula clásica del cálculo del área de un triángulo
Además de la sencillez de la fórmula, esta es fácil de entender y demostrar. La demostración consiste en duplicar el triángulo, juntar las dos partes para construir un paralelogramo, que de forma sencilla se transforma en un rectángulo de las mismas base y altura que el triángulo original. En consecuencia, su área, el doble que la del triángulo original, es igual al producto de la base por la altura, como se muestra en la siguiente imagen.
Demostración gráfica de la fórmula del área de un triángulo
Una cuestión para tener en cuenta es que la base del triángulo puede ser cualquiera de sus tres lados, cada uno de los cuales tendrá asociada una altura diferente, de lo que se desprende que se tienen tres expresiones distintas, auque emanan de la misma fórmula, que proporcionan el área del triángulo. En la siguiente imagen se muestran las tres expresiones para un triángulo ABC.

En el ejemplo del triángulo anterior, las tres alturas son interiores, están dentro del triángulo. Sin embargo, la altura puede ser también uno de los lados, si el triángulo es rectángulo, o estar fuera del triángulo, cuando el ángulo es obtuso, mayor de 90 grados, en cuyo caso la altura une un vértice con la prolongación del lado opuesto al mismo.
Una altura de un triángulo puede ser interior, frontera (cuando es uno de los lados) o exterior
Esta sencilla y clásica fórmula para calcular el área de un triángulo es muy antigua, podemos decir que tan antigua como la propia geometría, ya la conocían en Mesopotamia, el Antiguo Egipto, la Antigua China o la Grecia Clásica.
Los triángulos de Max Bill con la misma superficie
Antes de analizar la pintura al óleo Unidad de colores con la misma superficie (1972), de Max Bill, mencionada en la introducción de esta entrada, analizaremos un par de obras más sencillas, que se citan en el libro Las matemáticas como herramienta de creación artística (Catarata-FESPM, 2023).
La primera es la serigrafía Reflejos triangulares (1972), que como se muestra en la siguiente imagen, es un rombo cuadrado formado por triángulos generados al unir un vértice lateral del rombo con puntos igualmente espaciados en un lado opuesto.
Serigrafía Reflejos triangulares (1972), del artista concreto Max Bill
Todos los triángulos de esta obra, cuyos colores son azul, verde, amarillo y rojo, cuatro en la parte superior, sobre la horizontal central (diagonal del cuadrado), y cuatro en la parte inferior, tienen la misma superficie. Para probar esto, vamos a fijarnos solo en los cuatro que están en la parte superior, que son esencialmente iguales a los de la parte inferior.
Si rotamos la parte superior del cuadrado de manera que los lados de este sean verticales y horizontales, como en la siguiente imagen, podemos observar que la altura de los cuatro triángulos es la misma, mientras que las bases, aunque sean distintas, tienen la misma longitud. En conclusión, los cuatro triángulos tienen la misma superficie.

A continuación, se analiza la serigrafía 12 triángulos de cantidades iguales en el cuadrado (1990). Esta obra formó parte de la exposición Max Bill, Obras de arte multiplicadas como originales (1938-1994), organizada por la Fundación Juan March en 2015. Podéis verla en su catálogo, al que se puede acceder online, y que es esencialmente la misma que la que aparece en la siguiente imagen.
Serigrafía Sin título (1988), del artista concreto Max Bill
Para ver que todos los triángulos que aparecen en esta obra tienen la misma área, a pesar de que son bastante diferentes unos de otros, vamos a ir por partes. Para empezar, solo consideraremos los seis triángulos de la parte superior, que se pueden juntar de dos en dos formando tres triángulos, como aparecen en la siguiente imagen, que son isoareales, puesto que, como los mostrados en la anterior obra, “tienen la misma base y altura”.

Ahora, cada uno de esos tres triángulos está dividido, a su vez, en dos triángulos más pequeños de la misma superficie. Esta división se realiza trazando un segmento que va del vértice superior al punto medio del lado opuesto, lo que va a garantizarnos que los dos triángulos tienen la misma área, lo cual se deduce utilizando, de nuevo, la fórmula del área de un triángulo.
Así, el triángulo de arriba del todo (azul claro) se divide en los triángulos A y B, como se muestra en la siguiente imagen, dos triángulos que tienen sus bases de la misma longitud y que comparten la altura h1, por lo tanto, al calcular “base por altura partido por dos” se obtiene el mismo resultado. Lo mismo ocurre para los otros dos triángulos (verde y morado claros).

Unidad de colores con la misma superficie
Analicemos, a continuación, la obra de Max Bill titulada Unidad de colores con la misma superficie (1972), con la que empezábamos esta entrada. En esta ocasión, vamos a darle la vuelta al análisis y vamos a plantearlo como un reto matemático.
Para empezar, el cuadrado de esta obra mide 120 centímetros de lado. Además, uno de los lados está dividido en dos partes de longitudes (a, b) y el otro en tres partes de longitudes (x, y, z), de manera que cada mitad del cuadrado (arriba y abajo) está dividida en cuatro triángulos (azul, verde, naranja y rojo) con la misma superficie.

Entonces, podemos plantearnos el siguiente problema.
Problema: ¿Cómo se han dividido los lados del cuadrado, es decir, cuánto valen las longitudes x, y, z, a y b, para que los triángulos que se generan en esta pintura tengan efectivamente la misma superficie, si el lado del cuadrado mide 120 centímetros?
Tengamos en cuenta que esto fue lo que se tuvo que plantear el artista Max Bill a la hora de realizar esta obra, para dividir los lados del cuadrado de manera que se cumpliera lo que establece el título.
Resolvamos este sencillo problema en tres etapas.
- Como los triángulos azul y verde (de la parte superior) tienen base x e y, respectivamente, y la altura es la misma para ambos, b, entonces el hecho de que tengan la misma área implica que x = y.
- El triángulo formado por la unión de los triángulos azul y verde, cuya base es b y su altura es x + y, tiene el doble de superficie que el triángulo naranja, que tiene base a y altura x + y, de donde se concluye que b = 2a.
- El triángulo formado por la unión de los triángulos azul, verde y naranja, con base x + y y altura a + b, tiene el triple de superficie que el triángulo rojo, cuya base es z y altura a + b, luego se concluye que x + y = 3z. Como x = y, puede decirse también que 2x = 3z.
Ahora, si denotamos por L la longitud del cuadrado, que sabemos que es 120 centímetros, se tiene que a = L/3 (40 cm), b = 2L/3 (80 cm), x = 3L/8 (45 cm), y = 3L/8 (45 cm), z = L/4 (30 cm).
Los triángulos de Max Bill con distinta superficie
La última parte de esta entrada la vamos a dedicar a un par de obras en las cuales las áreas de los triángulos, aunque diferentes, están relacionadas mediante una sucesión de proporciones.
Otra obra que formó parte de la exposición Max Bill, Obras de arte multiplicadas como originales (1938-1994), organizada por la Fundación Juan March en 2015, fue la litografía Irradiación (1973).
Litografía Irradiación (1973), del artista concreto Max Bill
Esta pieza, cuyo cuadrado está en una posición habitual, es decir, los lados están en vertical y horizontal, está formada por tres tipos de triángulos, cada uno de los cuales aparece en las cuatro pequeñas regiones cuadradas en las que podemos dividir el cuadrado de la litografía. Además, cada color (amarillo, verde claro, azul y verde oscuro) comparte un triángulo de cada tipo, luego la superficie de cada color es la misma.

Veamos cual es la relación entre las superficies de los tres tipos de triángulos. Para ello nos fijamos en los triángulos de uno de los pequeños cuadrados, como se muestra en la anterior imagen. Podemos considerar que sus bases tienen longitudes m/3, 2m/3 y m (si el lado del cuadrado mide 2m), mientras que las alturas correspondientes a esas bases tienen la misma longitud en los tres casos, m. De nuevo, calculamos las áreas de estos tres triángulos mediante la sencilla fórmula, obteniendo los valores m2/6, 2m2/6 y m2/2, es decir, la cantidad m2/6 multiplicada por la sucesión de proporciones 1, 2 y 3. Por lo tanto, el triángulo mediano tiene el doble de superficie que el triángulo pequeño, mientras que el grande tiene el triple.
La última obra es la pintura al óleo que aparece con el título Irradiación generada por cuatro de color cuanta idéntico (1972-1973) en el catálogo de la exposición Max Bill que tuvo lugar en el Museo Español de Arte Contemporáneo (Madrid), en 1980, monografía que contiene el interesante artículo de Max Bill titulado La concepción matemática en el arte de nuestro tiempo (de 1949).
Pintura al óleo Irradiación generada por cuatro de color cuanta idéntico (1972-1973), del artista concreto Max Bill
Esta pieza, como ocurría con la anterior litografía, Irradiación (1973), está compuesta por triángulos con un vértice común en el centro del rombo cuadrado, como una irradiación de rayos de luz que emanan de ese centro. Son treinta y seis triángulos, de los cuales nueve se apoyan en cada uno de los lados, de distintos tamaños y distintos colores (azul, verde, amarillo y rojo). Los curioso de este óleo es que las superficies de los nueve triángulos que se apoyan en cada lado está relacionadas con la sucesión de Fibonacci (véanse las entradas Fibonacci está en todas partes (I), Fibonacci está en todas partes (II) y Fibonacci está en todas partes (III)), más concretamente, si tomamos como área unidad el del triángulo más pequeño, que se apoya en uno de los vértices del rombo, entonces las áreas de los nueve triángulos toman los nueve primeros valores de la sucesión de Fibonacci
1, 2, 3, 5, 8, 13, 21, 34, 55.
Esto se debe a que los nueve triángulos tienen la misma altura, trazada desde el centro del rombo, pero las bases tienen la particularidad de que la longitud de cada base es igual a la suma de las longitudes de las bases de los dos triángulos anteriores (en el sentido contrario a las agujas del reloj).
Serigrafía Composición geométrica (1979), del artista concreto Max Bill
Bibliografía
1.- R. Ibáñez, Las matemáticas como herramienta de creación artística, Libros de la Catarata – FESPM, 2023.
2.- Max Bill, El pensamiento matemático del arte de nuestro tiempo, 1949.
3.- Valentina Anker, Max Bill ou la recherche d´un art logique, Editions l´Age d´Homme, 1979
4.- Catálogo de la exposición Max Bill, obras de arte multiplicadas como originales (1938-1994), Museu Fundación Juan March, Palma (febrero-mayo 2015) y Museo de Arte Abstracto Español, Cuenca (junio-septiembre, 2015). Fundación Juan March y Editorial de Arte y Ciencia, Madrid, 2015.
5.- Catálogo de la exposición Max Bill, obras de arte multiplicadas como originales (1938-1994), Fundación Juan March, Madrid (octubre 2015 – enero 2016). Fundación Juan March y Editorial de Arte y Ciencia, Madrid, 2015.
6.- Catálogo de la exposición Max Bill, Museo Español de Arte Contemporáneo, Madrid, Ministerio de Cultura / Dirección General de Patrimonio Artístico, Archivos y Museos, Febrero 1980.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los triángulos isoareales del artista concreto Max Bill se ha escrito en Cuaderno de Cultura Científica.
