Una nueva especie de ameba bate el récord de resistencia al calor
En plena ola de frío puede resultar reconfortante tratar sobre la increíble resistencia al calor de algunos seres vivos. Determinadas arqueobacterias proliferan a altas temperaturas en surgencias geotérmicas y en los respiraderos hidrotermales del fondo marino, donde la presión hidrostática permite que el agua alcance temperaturas muy por encima de los 100 ºC. El récord lo ostentaba la cepa 121 de Geogemma barossii, así llamada porque fue capaz de duplicar su población mientras permanecía durante 24 h en un autoclave a 121°C. Más recientemente, se descubrió en chimeneas hidrotermales del golfo de California otra arqueobacteria, Methanopyrus kandleri, capaz de reproducirse a 122°C.
Es impensable para los eucariotas[1] sobrevivir en estas condiciones. La temperatura regula el metabolismo, influye en el pH, la actividad enzimática y las propiedades de las membranas. A partir de un cierto punto, las proteínas se desnaturalizan y pierden su estructura tridimensional. Por esto, los eucariotas, y particularmente los animales, tienen límites mucho más bajos de resistencia al calor.
Figura 1. A la izquierda el poliqueto Alvinella pompejana, habitante de los respiraderos hidrotermales oceánicos. Probablemente es el único animal que soporta de forma constante temperaturas superiores a 60°C en una parte de su cuerpo. A la derecha la hormiga plateada del Sahara (Cataglyphis bombycina, arriba) y la hormiga roja del desierto de Australia (Melophorus bagoti, abajo, obreras y un reproductor). Son los animales terrestres con mayor resistencia al calor, manteniéndose activas por encima de los 50°C. Imágenes: Chen et al. (2024) Marine Biodiversity doi: 10.1007/s12526-024-01408-w, CC BY 4.0; Bjørn Christian Tørrissen, CC BY-SA 3.0; y Heterick et al. (2017) ZooKeys doi: 10.3897/zookeys.700.11784, CC BY 4.0.Es cierto que los tardígrados, cuando entran en criptobiosis, sobreviven a temperaturas de 150°C, pero se trata de estados de resistencia que implican una casi completa deshidratación (solo mantienen el 3% del agua corporal). En condiciones normales no se diferencian demasiado de otros animales frente al calor. Para encontrar a los campeones en este terreno volveremos a los respiraderos hidrotermales y a los desiertos. El anélido poliqueto Alvinella pompejana, descubierto en 1980 cerca de las islas Galápagos (Figura 1), vive en tubos adheridos a las paredes de las chimeneas hidrotermales. Su cuerpo está recubierto por una gruesa capa de mucus que funciona como aislante térmico y proporciona alojamiento a bacterias simbióticas que constituyen su alimento. Alvinella genera dentro del tubo una corriente de agua que incorpora fluido caliente del manantial, rico en sulfuro, y se mezcla con agua fría y oxigenada, nutriendo así a sus bacterias. Se ha descrito que el gusano soporta en su base temperaturas de 60°C, que podrían llegar a los 80°C según otras estimaciones. En el resto del cuerpo la temperatura es menor (40-50°C), pero Alvinella es, de momento, el animal que soporta mayores temperaturas de forma sostenida.
En el medio terrestre existe una cierta competencia entre dos especies de hormigas por ostentar el título de campeona de la termorresistencia. Se trata de la hormiga plateada del Sahara (Cataglyphis bombycina) y la hormiga roja del desierto de Australia (Melophorus bagoti) (Figura 1). Esta última probablemente supera a su congénere africana, y su afición al calor es especialmente llamativa. Las hormigas rojas salen a buscar alimento cuando la temperatura del suelo llega a los 56°C y la del aire alcanza los 43.9°C. Sin embargo, las hormigas cesan completamente su actividad recolectora durante el invierno austral y parte de la primavera. Se ha descrito que continúan buscando alimento cuando el suelo alcanza los 70°C y el aire, a la altura de la hormiga, supera los 50°C. Estas hormigas solo alcanzan el pico de actividad cuando su temperatura corporal es de 46°C. Se ha comprobado en laboratorio que sobreviven tras pasar una hora a 54°C y que la máxima temperatura corporal que soportan es de 56,7°C.
Como hemos dicho, las proteínas son muy sensibles al calor y suelen perder funcionalidad a partir de los 45°C, temperaturas que no soportan la mayoría de los insectos. ¿Cómo se adaptan estas hormigas? Las proteínas de choque térmico (HSP por heat shock proteins) se encuentran en todos los seres vivos y se sintetizan en respuesta al estrés celular, sea térmico o de otros tipos. Su función es la protección y reparación de proteínas, evitando su desnaturalización. A diferencia de otros organismos, en las hormigas del desierto las HSP se producen de forma permanente, y no como consecuencia del estrés térmico. Otras adaptaciones son unas patas largas que alejan el cuerpo de la superficie del suelo, hidrocarburos muy resistentes al calor sobre la cutícula y un desplazamiento muy rápido (hasta 1 m/s en Cataglyphis), generando un flujo de aire sobre el cuerpo que ayuda a disipar el calor.
El motivo de tratar aquí estos temas es que se acaba de descubrir un nuevo récord en la resistencia de los eucariotas al calor. Un equipo liderado por Ángela Oliverio, experta en organismos extremófilos de la Universidad de Syracuse (Nueva York), describe en BioRxiv las extraordinarias propiedades de una nueva especie de ameba (Incendiamoeba cascadensis) aislada en manantiales geotérmicos del Lassen Volcanic National Park de California. En estos manantiales, con temperaturas de 49-65°C, proliferan bacterias que son fagocitadas por una comunidad de amebas.
Figura 2. Incendiamoeba cascadensis, la nueva especie de ameba aislada en manantiales geotérmicos de California, observada con microscopía electrónica de barrido. Se muestran dos morfologías, amebiforme y vermiforme. Es el eucariota que soporta las mayores temperaturas, manteniendo su actividad hasta los 64°C y sobreviviendo, en forma de quiste, a 70°C. Escala: 5 μm. De Beryl Rappaport et al. (2025 BioArxiv doi: 10.1101/2025.11.24.690213v1. CC BY-NC-ND 4.0.En cultivos de laboratorio se observó que Incendiamoeba se multiplicaba a 63°C, permanecía activa a 64°C, y solo empezaba a formar quistes por encima de los 66°C. Aunque estos quistes se expusieran a 70°C, las amebas volvían a su actividad al bajar la temperatura, pero no se recuperaban a temperaturas superiores. Otros experimentos mostraron que las amebas eran termófilas obligadas. A 40°C no eran capaces de reproducirse, y su temperatura óptima estaba entre los 55-57°C.
La comparación del genoma de Incendiamoeba con el de otras amebas no termófilas mostró, como era de esperar, un gran número de proteínas de choque térmico y otras encargadas de la reparación del ADN. En general, la resistencia de las proteínas de esta especie al calor se reveló muy superior a la de otras amebas.
Hasta ahora solo algunos hongos y algas rojas soportaban temperaturas cercanas a los 60°C, por lo que Incendiamoeba cascadensis ha extendido los límites de resistencia al calor de la vida eucariota hasta límites insospechados.
Referencias
Beryl Rappaport, H., Petek-Seoane, N.A., Tyml, T. et al. (2025). A geothermal amoeba sets a new upper temperature limit for eukaryotes. BioRxiv [preprint]. https://www.biorxiv.org/content/10.1101/2025.11.24.690213v1.
Nota:
[1] Los organismos con núcleo celular y orgánulos especializados, es decir, todos los seres vivos menos bacterias y arqueas.
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga.
El artículo Una nueva especie de ameba bate el récord de resistencia al calor se ha escrito en Cuaderno de Cultura Científica.
Nanopartículas reparadoras, una estrategia para hacer frente al alzhéimer
Cada año se detectan más de 10 millones de nuevos casos de alzhéimer y hoy en día no existe ningún tratamiento efectivo contra dicha enfermedad. En octubre de este año, se ha presentado un tratamiento experimental contra el alzhéimer en un artículo publicado en la famosa revista Signal Transduction and Targeted Therapy. Dicha terapia está basada en las nanopartículas A40-POs, y supone un cambio de paradigma.
La enfermedad de Alzheimer es el tipo de demencia más común, y, desde el punto de vista molecular, se observa una acumulación excesiva de la proteína β-amiloide. La proteína amiloide hereditaria (PAA) está presente en la membrana de las neuronas, y ciertas enzimas presentes en dicho entorno (la β-secretasa en primer lugar, y la γ-secretasa en segundo) procesan la proteína, creando un fragmento de proteína o péptido denominado β-amiloide, conformado por 40 o 42 aminoácidos. La β-amiloide no es muy soluble, y se acumula en el espacio extracelular formando estructuras similares a placas fibrilares. Cuando dichas fibras se unen a las neuronas, provocan muerte celular, y así es como la enfermedad desgasta el cerebro.
Se han realizado diversos ensayos para evitar el mencionado proceso bioquímico, sea a partir de la recuperación de las células de la glía encargadas de lavar el entorno extracelular o sea buscando la inhibición de las enzimas que producen β-amiloide. En este caso, sin embargo, el equipo investigador del Instituto de Bioingeniería de Cataluña (IBEC) y del Hospital West China de la Universidad de Sichuan (WCHSU) ha tratado de reenfocar la forma de procesar la proteína β-amiloide.
Esquema de transporte de β-amiloide del encéfalo a la sangre mediante LRP1 (low-density lipoprotein receptor-related protein 1) a través de las células endoteliales de los vasos sanguíneos. Fuente: Chen J. et al (2025) Signal Transduct Target Ther. doi: 10.1038/s41392-025-02426-1El cerebro es un órgano muy sensible, y está protegido por la barrera hematoencefálica, que es la encargada de regular la interfaz entre la sangre y el cerebro. Se encuentra formada por las células endoteliales que conforman los vasos sanguíneos, así como por los astrocitos que se encuentran situados sobre ellos. Las células endoteliales de los vasos sanguíneos del cerebro se encuentran firmemente sujetas las unas con las otras, y, encima de ellas, se encuentras los astrocitos, cerrando todavía de manera más firme dichos enlaces. Es por ello por lo que solo unas pocas moléculas que transitan por la sangre llegan a las células del cerebro. Dicho traslado selectivo no discurre solamente de la sangre al espacio celular, ya que también ocurre del espacio celular del cerebro a la sangre, de manera que los desechos que se crean en el espacio extracelular en el cerebro se expulsan a la sangre a través de unos receptores que se encuentran en las células endoteliales. Por lo tanto, la célula endotelial es la encargada de regular la interfaz entre la sangre y el cerebro.
En el caso de la enfermedad de Alzheimer, se ha observado que dicha barrera se encuentra dañada y las células endoteliales no son capaces de trasladar las placas fibrilares de β-amiloide del cerebro a la sangre, para después poder expulsarlas. Las células endoteliales sanas cuentan con un receptor llamado LRP1 en su membrana exterior, que recoge las fibras de β-amiloide y las transporta a la sangre. En el caso de esta enfermedad, las células endoteliales de la barrera hematoencefálica están dañadas, y no cuentan con receptores LPR1. Los mencionados equipos de investigación chinos y catalanes han desarrollado una nanopartícula llamada A40-POs. Dicha nanopartícula llega hasta las células endoteliales de la barrera hematoencefálica, y renueva la expresión del receptor LRP1, por lo que las células endoteliales son capaces a través de los nuevos receptores LRP1 de captar las fibras de β-amiloide del cerebro y transportarlas a la sangre, para que luego puedan ser expulsadas del cuerpo. Los ensayos se han realizado en ratones que han desarrollado la enfermedad de Alzheimer, y una hora después de inyectar las nanopartículas en el cerebro, se ha conseguido eliminar el 60% de β-amiloide acumulado. Asimismo, en algunos casos, se ha conseguido eliminar la totalidad de las placas fibrilares tras un tratamiento de 6 meses de duración.
A pesar de que puede parecer una estrategia interesante y esperanzadora, deberemos analizar detalladamente si esta nueva terapia funciona de la misma manera en otras especies animales y en humanos.
Referencias:
Chen J, Xiang P, Duro-Castano A, Cai H, Guo B, Liu X, Yu Y, Lui S, Luo K, Ke B, Ruiz-Pérez L, Gong Q, Tian X, Battaglia G. (2025) Rapid amyloid-β clearance and cognitive recovery through multivalent modulation of blood-brain barrier transport Signal Transduct Target Ther. doi: 10.1038/s41392-025-02426-1
Guo X, Yue R, Cui Z, Wang S, Jia T, Li W, Zhang W, Shan L, Li C. (2025) Advances of therapeutic strategies for Alzheimer’s disease J Neurol. doi: 10.1007/s00415-025-13456-8.
Sobre el autor: Iker Badiola Etxaburu es doctor en biología, Profesor Pleno en la Facultad de Medicina y Enfermería de la EHU, y director de la Cátedra de Cultura Científica de la EHU
El artículo Nanopartículas reparadoras, una estrategia para hacer frente al alzhéimer se ha escrito en Cuaderno de Cultura Científica.
Grafeno
El grafeno, un material tan ligero como resistente y con propiedades extraordinarias, promete revolucionar la tecnología del futuro.
Los vídeos “Hitos científicos del siglo XXI” muestran los mayores descubrimientos y avances científicos de las últimas décadas en su sección del programa de divulgación científica Órbita Laika, en colaboración con la Cátedra de Cultura Científica de la Universidad del País Vasco.
Ficha técnica:
Producción ejecutiva: Blanca Baena
Guion: José Antonio Pérez Ledo
Dirección: Aitor Gutierrez
Grafismo: Cristina Serrano
Música: Israel Santamaría
Producción: Olatz Vitorica
Doblaje: K 2000
Locución: José Antonio Pérez Ledo
El artículo Grafeno se ha escrito en Cuaderno de Cultura Científica.
Computadores analógicos, digitales, clásicos y cuánticos
La digitalización masiva es un error irreflexivo y anticientífico, que nos puede arrastrar a la virtualidad, no a la realidad. En ciencia observamos la naturaleza real, realizamos experimentos reales, establecemos teorías que explican dichas observaciones y que prevén otros resultados no observados, los cuales podremos verificar (o no) con otros experimentos reales. Además, cuando desconocemos los fundamentos científicos profundos de sistemas complejos nos servimos de útiles métodos computacionales para tratar de simular la realidad de la mejor manera posible.
Desde la antigüedad se han construido dispositivos que usan fenómenos mecánicos, eléctricos o hidráulicos para simular análogamente la realidad. Estos son los computadores analógicos, como por ejemplo el antiguo mecanismo de Anticitera, el Analizador Diferencial, o el FERMIAC [1].
El FERMIAC inventado por Enrico Fermi en 1947 en el Laboratorio Nacional de Los Alamos. Usaba el conocido algoritmo estadístico de Monte Carlo para calcular transporte de neutrones. Fuente: Wikimedia CommonsElectrónica analógica y digital
Aunque los computadores analógicos tienen milenios de antigüedad, éstos experimentaron un avance generalizado en el siglo XX, primero con el descubrimiento del electrón, que condujo a la construcción de diodos y triodos mediante tubos de vacío, y después con la aparición de la electrónica de estado sólido, que permitió construir diodos, transistores y amplificadores operacionales capaces de procesar información analógica en paralelo.
Respecto a los computadores digitales, hacia el final de la década de 1960 éstos solo eran accesibles para grandes compañías o gobiernos. Sin embargo, pequeños laboratorios de humildes universidades como la Universidad de Bilbao fundada en 1968, podían disponer de computadores analógicos, capaces de realizar complejos cálculos y simulaciones de propósito general, de enorme utilidad para cualquier rama de la ciencia.
Computadores analógicos EAI180 de Electronic Associates, Inc., en el Depto. de Electricidad y Electrónica de la Facultad de Ciencia y Tecnología de la EHU (entonces Universidad de Bilbao). Foto: Victor Etxebarria Ecenarro.Los computadores analógicos pueden procesar información continua mediante lógica no determinista y en tiempo real. Por ello, realizar funciones complejas, no lineales, continuas y en paralelo con sistemas analógicos es mucho más fácil que con sistemas digitales. Sin embargo, al no trabajar con valores binarios 1 y 0, también pueden producir ruido más fácilmente que los computadores digitales. Este hecho, junto con el abaratamiento de los chips microprocesadores digitales parecieron hacer desaparecer la utilidad de la computación analógica.
Precisión, velocidad y tolerancia a errores
La distinción entre computadores analógicos y digitales no radica exclusivamente en sus mecanismos de procesamiento de información, sino también en la eficiencia, precisión y tolerancia a errores que podemos esperar en distintos tipos de cálculo y aplicaciones.
Los computadores digitales dan alta precisión en sus cálculos numéricos, ya que los datos binarios evitan inexactitudes. Esto supera en principio a cualquier computador analógico, ya que las señales analógicas que procesan pueden estar sometidas de inicio a imprecisiones.
Sin embargo, un computador analógico, al estar alimentado por flujo de señal continua, puede funcionar en tiempo real, de manera diferente a un computador digital, que procesa datos numéricos de forma secuencial. Además, un computador analógico es mucho más tolerante a errores: pequeñas variaciones en el flujo de datos de entrada no afectan drásticamente al resultado de la computación. Sin embargo, en un computador digital hay que detectar los datos binarios erróneos y corregirlos: si no, el resultado es inservible.
Computación clásica analógica o digital
Aunque la computación digital es claramente dominante, su empleo para procesar cada vez más cantidad de datos a mayor velocidad da lugar a excesos de gastos de energía y memoria, especialmente en las conocidas aplicaciones IA basadas en reconocimiento de patrones y en la generación estadística partiendo de enormes bases de datos.
Pero procesar gran cantidad de información para el reconocimiento de audio o imágenes es más fácil para los computadores analógicos: se trata de procesar directamente las propiedades físicas de las señales de audio o video. Así, un computador analógico puede realizar estas operaciones de forma más rápida y eficiente que los sistemas digitales, ya que no requiere la conversión de las señales analógicas a datos digitales. Esto hace que los computadores analógicos sean especialmente adecuados para tareas en las que la velocidad y la capacidad de manejar grandes conjuntos de datos en tiempo real sean fundamentales, aunque a costa de la alta precisión y versatilidad que ofrecen los sistemas digitales.
Además, si queremos modelar redes neuronales más realistas que las que hoy se usan en IA, no sólo existen neuronas que funcionan digitalmente, sino que de hecho la neurociencia nos explica que existen muchos más tipos de redes naturales -más bien analógicas- que pueden modelarse mejor con un computador analógico.
El principio de funcionamiento de la mente humana es más analógico que digital. El cerebro toma datos de otros sensores y redes analógicas y los utiliza para realizar sus cálculos, en lugar de acceder a ellos desde una memoria digital. Además, en lugar de un procesador digital de 256 bits, los sistemas analógicos utilizan procesadores analógicos de medida directa para realizar la misma operación. Este sistema analógico es más eficiente y disipa mucha menos energía.
Computación cuántica analógica o digital
Richard P. Feynman cuando estudiaba computación [2] decía que, si la naturaleza no es clásica sino cuántica, para simularla de forma realista, es mejor hacerlo con un computador cuántico.
La cuantización de magnitudes medibles parece sugerir que la realidad es digital, pero esto no lo sabemos. La constante de Planck y todas las asociadas son un sistema de unidades basado en las cantidades fundamentales determinadas por las leyes físicas, pero no hay nada en esto que implique una discretización del universo.
La pregunta más profunda asociada es si la realidad es entonces digital o analógica. La teoría completa de gravitación cuántica sigue siendo un problema no solucionado [3], y hay experimentos propuestos para detectar si el tiempo-espacio es discreto o continuo, digital o analógico [4].
Entre tanto, los computadores cuánticos digitales experimentan serios problemas no solo con la cantidad de qubits que pueden construirse, sino con el mantenimiento de su coherencia cuántica. Estos errores digitales deben detectarse y eliminarse. Perfeccionar los computadores cuánticos digitales requiere mantener la coherencia de los qubits, gestionar las tasas de error y abordar la complejidad del hardware, incluyendo puertas digitales. Por esta razón muchos grupos investigadores explotan las ventajas de la versión analógica de computadores cuánticos, para poder simular de forma realista la naturaleza [5]. Los computadores analógicos no están obsoletos, y dejemos claro que la virtualidad no es la realidad.
Referencias
[1] Fabrizio Coccetti (2016) The Fermiac or Fermi’s Trolley. Il Nuovo Cimento 39 C, 296. doi: 10.1393/ncc/i2016-16296-7
[2] Richard P. Feynman (1982) Simulating physics with computers. Int J Theor Phys 21, 467–488. doi: 10.1007/BF02650179
[3] Jarmo Mäkelä (2011) Is Reality Digital or Analog? arXiv:1106.2541 [physics.pop-ph] https://doi.org/10.48550/arXiv.1106.2541
[4] Todd A. Brun and Leonard Mlodinow (2019) Detecting discrete spacetime via matter interferometry. Phys. Rev. D 99, 015012. doi: 10.1103/PhysRevD.99.015012
[5] Daniel González-Cuadra, Majd Hamdan, Torsten V. Zache et al. (2025) Observation of string breaking on a (2+1)D Rydberg quantum simulator. Nature 642, 321–326. doi: 10.1038/s41586-025-09051-6
Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (EHU)
El artículo Computadores analógicos, digitales, clásicos y cuánticos se ha escrito en Cuaderno de Cultura Científica.
Los viajes interplanetarios de Emilio Herrera Linares
Si a muchos les suena a día de hoy el nombre de Emilio Herrera Linares, es porque, en los últimos tiempos, se ha recuperado su figura como inventor de la «escafandra estratonáutica» o, en otras palabras, del traje de astronauta. Pero, por si eso no fuera suficiente, hay más, mucho más. Emilio Herrera, además de un pionero de la aviación y de la ingeniería aeroespacial —amén de muchas otras cosas— fue uno de nuestros mayores visionarios.
Nació en 1879 en Granada, y se formó como ingeniero militar en un momento en que la aviación formaba más parte del mundo de los sueños que del mundo real. Eso no le impidió convertirse en uno de los primeros pilotos de avión en España —también pilotaba globos y dirigibles— ni, lo que es más importante, aspirar a volar, algún día, todavía más alto, más lejos. Tal vez a la Luna… o a Marte. Para Emilio Herrera, el viaje interplanetario no era una cuestión de posibilidad, sino de tiempo. Y en eso no se equivocó. No vivió lo suficiente como para ver llegar al Apollo 11 a la Luna —falleció en 1967—, pero sí para ver es pistoletazo de salida de la carrera espacial y cómo Yuri Gagarin se convertía en la primera persona en orbitar nuestro planeta desde el espacio. Esto es: cuando Emilio Herrera nació, ni siquiera existían los aviones, cuando murió, ya había naves espaciales.
Emilio Herrera junto a su escafandra estratonáutica y la escafandra completa. Estaba pensaba para vuelos en globo a gran altitud, pero la NASA, con el inicio del programa espacial, llegaría a interesarse por ella. Fuente: Dominio público.Con el título de «Cómo se realizarán, antes de cincuenta años, los viajes a la Luna», el 23 de abril de 1932 la revista Estampa publicó una entrevista a Emilio Herrera en la que este imaginaba, con todo lujo de detalles y de forma lo más realista posible respecto a la tecnología del momento, cómo podrían ser esos viajes interplanetarios del futuro. Y no se limitaba a descripciones vagas —de hecho, llegó a dar conferencias sobre este asunto—: habla de masas, combustibles, velocidades, trayectorias, tiempo… describía la fase de reentrada en nuestro planeta y daba detalles como que el primer paso no debería ser intentar llegar a la Luna directamente, sino enviar una misión tripulada que simplemente la rodeada, lo que, de hecho, sucedió décadas después.
Sin duda parece que se trata de una cosa irrealizable, pero yo soy optimista. Cuando era joven fui de los primeros que pilotaron aviones en España. Entonces, hablar de aviación era tanto como hacerse acreedor del calificativo de loco […]. Quienes hemos visto esta evolución fantástica de la aviación, podemos creer que estamos más cerca de los viajes interplanetarios que hace cincuenta años lo estábamos de la aviación.
¿Y acaso se equivocó? Bueno… en cierto modo sí, porque el viaje a la Luna, al menos, fue posible mucho antes de lo que él imaginó.
Entrevista a Emilio Herrera Linares en la revista Estampa. Se puede consultar completa en la hemeroteca digital de la Biblioteca Nacional de España.Fuente: Dominio público.
En la entrevista describe cada fase del viaje: la aceleración inicial, la separación de la primera etapa de los cohetes, la ingravidez que sentirían los tripulantes… e incluso se permite imaginar cómo se vería la Tierra desde el espacio, a miles de kilómetros de distancia de su superficie. Lamentablemente, y aunque seguramente llegó a ver algunas de las instantáneas realizadas desde la órbita por los primeros satélites, la primera imagen en color del planeta completo, tomada por el satélite ATS-3, no se publicó hasta dos meses después de su muerte; la icónica Earthrise, un año después.
No fue la primera foto de la Tierra desde el espacio, pero sí una de las más icónicas. Earthrise, se tomó durante la misión Apollo 8 el 24 de diciembre de 1968. Emilio Herrera Linares había fallecido hacía poco más de un año: el 13 de septiembre de 1967, a los 88 años. Fuente: NASAY, además, encontramos otros detalles que, al leerlos desde el futuro, pueden llegar a provocarnos una sonrisa, como cuando habla de la posibilidad de enviar un periódico a Marte —recordemos que estamos en 1932— y comenta:
Para advertir a los habitantes de Marte de la procedencia del envío, se dibujarían en el periódico un esquema del sistema planetario —señalando la Tierra y Marte—, y el camino recorrido por el cohete, un mapa de la Tierra, un mapa de Marte, una colección de figuras en colores, representando seres humanos, animales y plantas, paisajes, ciudades, casas, puentes, buques, trenes, aviones, dirigibles y demás muestras del progreso terrestre; figuras científicas como los cinco poliedros regulares; curvas principales, la figura del teorema de Pitágoras, una explicación científica del sistema de numeración decimal, etc.
¿Alguien más ha pensado en el disco dorado de las Voyager?
Leer esta entrevista a Emilio Herrera —dejando a un lado detalles como que el periódico al que me acabo de referir estaría impreso en tela de amianto para evitar su combustión durante el descenso a la superficie de Marte (algo que, en realidad, tendría mucho sentido)— es volver a una época donde los ingenieros españoles no solo inventaban, y lo hacían muy bien, sino que se permitían soñar. Sueños que, en muchos casos, se vieron truncados por la guerra.
Tal vez haya llegado el momento de recuperarlos, de recordarlos y, parafraseando el epitafio de la tumba del general Herrera, no llorarlos, sino imitarlos.
Bibliografía
Díaz Roncero, F. (23 de abril de 1932). Cómo se realizarán antes de cincuenta años los viajes a la Luna. Estampa, 224.
Martínez Ron, A. (16 de nayo de 2024). La capa ‘perdida’ de Emilio Herrera: “Esto es lo único que nos queda del primer traje espacial de la historia”. El Diario.
Polanco Masa, A. (5 de julio de 2007). La escafandra estratonáutica. Tecnología obsoleta.
Polanco Masa, A. (2025). El legado del ingenio: 365 grandes inventos españoles. Serendipia.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo Los viajes interplanetarios de Emilio Herrera Linares se ha escrito en Cuaderno de Cultura Científica.
El Pilish, poesía irracional con reglas extra
En la anterior entrada del Cuaderno de Cultura Científica titulada Poesía irracional, habíamos comentado que un poema, o un microrrelato, es irracional si la cantidad de letras de cada palabra se corresponde con el valor de cada dígito, en orden y hasta una cierta cantidad finita, de un número irracional, como π (la razón entre la longitud de una circunferencia y su diámetro), e (el número de Euler), ϕ (el número áureo) o la raíz de dos, √2, entre otros, o también, poemas en los que cada verso tiene tantas palabras como el valor de los dígitos del número irracional (aunque a esta cuestión ya le dedicaremos una entrada en el futuro).
Grafitti ficticio, creado con IA, de la fórmula más hermosa de las matemáticas, la fórmula de Euler, en la que aparecen los números irracionales π y e, además de 0, 1, la constante imaginaria i, así como los signos de la suma + y la igualdad =
El ejemplo más conocido y bonito en lengua española de poesía irracional asociada al número π (lo que algunos autores llaman pi-ema) es el poema del escritor y poeta colombiano Rafael Nieto París (1839-1899), publicado en el artículo titulado La cuadratura del círculo (Anales de Ingeniería, 2, 112-121, 1888), que ya se incluyó en la anterior entrada, pero que no me resisto a volver a incluirlo aquí.
Soy π, lema y razón ingeniosa [314159]
de hombre sabio, que serie preciosa [265358]
valorando enunció magistral. [979]
Con mi ley singular bien medido [323846]
el Grande Orbe, por fin, reducido [264338]
fue al sistema ordinario usual. [32795]
Arquímedes, en ciencias preciado [0288]
crea π, monumento afamado, [4197]
y aunque intérmina dio valuación, [16939]
periferia del círculo supo, [9 3 7 5]
duplicando geométrico grupo, [105]
resolver y apreciarle extensión. [8209]
Teorema legó, memorable [749]
como raro favor admirable [4459]
de la espléndida ciencia inmortal; [23078]
y amplia ley, filosófica fuente [16406]
de profunda verdad y ascendente [28620]
magnitud, descubrió universal. [899]
El objetivo de esta entrada es realizar una breve introducción al Pilish, es decir, a la poesía irracional realizada en base a la constante matemática π, con una serie de reglas extra introducidas por el matemático, ingeniero de software y conocido escritor de creación literaria con constricciones Michael Keith (1955), principalmente en lengua inglesa.
Portada del libro Not A Wake: A Dream Embodying π’s Digits Fully for 10000 Decimals / No es un despertar: un sueño que encarna los dígitos de π por completo para 10.000 decimales, de Michael Keith, primer libro escrito por completo en PilishLos antecedentes del Pilish
Según Michael Keith (1955), en su página web CADAEIC.NET, uno de los primeros poemas irracionales con el número π escritos en inglés, a principios del siglo XX, es
How I need a drink, alcoholic in nature, after the heavy lectures involving quantum mechanics!
[Traducción: ¡Cómo necesito una copa, de naturaleza alcohólica, después de las pesadas clases sobre mecánica cuántica!]
Esta creación, que se apoya en los 15 primeros dígitos de la constante matemática [3,14159265358979], se debe al físico, matemático y astrónomo británico James Jeans (1877-1946).
Portada del número 3, del volumen 32, de la revista Literary Digest publicado, en 1906, en Nueva York
Aunque a principios del siglo XX ya aparecieron otros ejemplos en inglés de pi-emas. En el número 3, del volumen 32 (1906), de la revista estadounidense Literary Digest se recoge el siguiente pi-ema (con 31 dígitos de π) enviado por “Adam C. Orr, de Chicago”:
Now I, even I, would celebrate
In rhymes unapt, the great
Immortal Syracusan, rivaled nevermore,
Who in his wondrous lore
Passed on before
Left men his guidance how to circles mensurate.
[Traducción: Ahora yo, incluso yo, celebraría / con rimas inapropiadas, al gran / siracusano inmortal, sin rivales jamás, / quien en su maravillosa ciencia / transmitió ante / los hombres su guía sobre cómo medir círculos]
Los treinta y un dígitos utilizados son 3,141592653589793238462643383279. Como se puede observar aún no aparece ningún 0 en la expresión, ya que eso ocurre en el dígito que está en la posición treinta y tres. Y es precisamente la cifra 0 la que causa ciertos problemas a la hora de crear un poema irracional, como se comentará más adelante.
Estos mismos dígitos son los utilizados en otra creación que también aparece junto a esta en el artículo del Literary Digest. Estos poemas no solo son pi-emas, sino que están dedicados a uno de los sabios más importantes de la Antigua Grecia, el matemático Arquímedes de Siracusa (aprox. 287 – 212 a.n.e.), que realizó un gran avance en la aproximación al número π (véase la entrada ¿Es normal el número pi?).
Además, estos dos poemas eran una respuesta a otros dos poemas que se mencionaban en el número 20, del volumen 31 (1905), de esa misma revista, Literary Digest, uno en francés, el poema “Que j’aime à faire apprendre un nombre utile aux sages!” en su versión corta (que puede leerse en la entrada Poesía irracional, y que se remonta, como mínimo, a 1846), y el otro en alemán, que es el que se incluye a continuación.
Dir, O Held, O alter Philosoph, du Reisengenie!
Wie viele Tausende bewundern Geister
Himmlisch wie Du und göttlich!
Noch reiner in Aeonen
Wird das und strahlen
Wie im lichten Morgenrot!
[Traducción: ¡A ti, héroe, filósofo antiguo, genio viajero! / ¡Cuántos miles admiran espíritus / celestiales y divinos como tú! / Aún más puros en eones / se volverán y brillarán / como en el brillante amanecer.]
Este poema fue publicado, quizás originalmente, en el periódico alemán Frankfurter Zeitung en julio de 1905, por un “poeta y matemático alemán”, eso es todo lo que se conoce sobre el autor, y se publica ese mismo año en la revista Nature.
Siguiendo con los pi-emas en inglés, el siguiente fue publicado en 1914 en la revista Scientific American y utiliza 13 dígitos de la constante matemática.
See, I have a rhyme assisting
My feeble brain, its tasks ofttimes resisting
[Traducción: Mira, tengo una rima que ayuda a mi débil cerebro, cuyas tareas a menudo se resisten]
En muchos libros y artículos de divulgación matemática aparece la siguiente regla mnemotécnica para acordarse de los primeros decimales del número π “May I have a large container of coffee?” (¿Me podrías dar un recipiente grande de café?), pero no conozco ni el origen, ni el autor de la misma.
Página de la columna Computer Recreations de octubre de 1985 de la revista Scientific American, escrita por el matemático canadiense Alexander K. Dewdney, en la que aparecen algunos pi-emas
En la columna Computer Recreations (Recreaciones con ordenador) de octubre de 1985 de la revista Scientific American, escrita por el matemático canadiense Alexander K. Dewdney, se menciona una importante cantidad de creaciones irracionales con los primeros decimales del número π, entre las que está el siguiente ejemplo.
How I wish I could recollect pi.
Eureka! cried the great inventor.
Christmas pudding, Christmas pie
Is the problem’s very center.
[Traducción: Cómo quisiera poder recordar Pi. / ¡Eureka!, exclamó el gran inventor. / Pudín de Navidad, pastel de Navidad / Es el núcleo mismo del problema.]
El problema del cero
La mayoría de los pi-emas, sobre todo los más antiguos, no llegan hasta el dígito 33 del número π, puesto que en ese lugar se encuentra el primer cero de la expresión decimal de esta constante.
π = 3,1415926535897932384626433832795028841971693993751058209749445923078164062862089 …
El problema trivial que aparece con el cero es que escribir una palabra con 0 letras significaría no escribir ninguna palabra, por lo que los ceros pasarían desapercibidos en la creación literaria, como si no formasen parte de los dígitos de la constante matemática. Este problema ha sido resuelto de diferentes maneras por las personas que se han enfrentado a la creación literaria basada en el número π, la más sencilla, además de no incluir ninguna palabra, es construir pi-emas con menos de treinta y tres palabras, como los ejemplos mostrados aquí o en la anterior entrada.

En la página web Pi Philologi, de Antreas P. Hatzipolakis, se muestra una versión del poema “How I want a drink, alcoholic of course, after the heavy lectures involving quantum mechanics”, creada por “Alexander Volokh, David Tazartes, Steve LaCombe” en la cual el cero marca el final de cada verso, es decir, al terminar un verso siempre hay que añadir un “cero” en la expresión decimal.
El poema es el siguiente:
How I need a drink, alcoholic of course, after the tough
lectures involving quantum mechanics, but we did estimate
some digits by making very bad, not accurate, but so greatly
efficient tools!
By dropping valuable wood, a dedicated student — I, Volokh,
Alexander, can determine beautiful and curious stuff, O!
Smart, gorgeous me!
Descartes himself knew wonderful ways that could ascertain it too!
Revered, glorious — a wicked dude!
Behold an unending number — pi!
Thinkers’ ceaseless agonizing produces little, if anything.
For this constant, it stops not — just as e, I suppose.
Vainly ancient geometers computed it — a task undoable.
Legendre, Adrien Marie: «I say pi rational is not!»
Adrien proved this theorem.
Therefore, the doubters have made errors.
(Everybody that’s Greek.)
Today, counting is as bad a problem as years ago, maybe centuries even.
Moreover, I do consider that variable x, y, z, wouldn’t much avail.
Pi, imaginary, like i?
No, buffoon!
[Traducción: ¡Cómo necesito un trago, alcohólico, por supuesto, después de las duras / clases sobre mecánica cuántica! Pero sí que estimamos / algunos dígitos fabricando muy malas, imprecisas, pero enormemente / eficientes herramientas. / Dejando caer madera valiosa, un estudiante dedicado —yo, Volokh, / Alexander— puedo determinar cosas hermosas y curiosas, ¡oh! / ¡Qué inteligente y hermoso yo! / ¡El propio Descartes también conocía métodos maravillosos para determinarlo! / ¡Reverenciado, glorioso, un tipo malvado! / ¡Contemplen un número infinito: pi! / La incesante agonía de los pensadores produce poco, si acaso algo. / Para esta constante, no se detiene, igual que e, supongo. / En vano, los geómetras antiguos la calcularon, una tarea imposible. / Legendre, Adrien Marie: «¡Digo que pi racional no es!» / Adrien demostró este teorema. / Por lo tanto, los escépticos han cometido errores. / (Todos los que son griegos). / Hoy, contar es un problema tan grave como hace años, tal vez incluso siglos. / Además, considero que las variables x, y, z no servirían de mucho. / ¿Pi, imaginario, como i? / ¡No, bufón!]
La cantidad de letras de cada palabra en cada verso, junto con el cero final, que se corresponden con los dígitos de la constante geométrica, se muestran en la siguiente imagen.

En algunos casos se incluye una palabra que “recuerda” al cero. Así, en la versión de 1846 del poema francés “Que j’aime à faire apprendre un nombre utile aux sages!”, que incluye cinco versos (véase la entrada Poesía irracional [https://culturacientifica.com/2025/12/24/poesia-irracional/]), ese quinto verso se corresponde con los dígitos 50288 y dice así “Tirez circonférence au diamètre etcetera”, es decir, la palabra circunferencia se interpreta como cero. O, en el poema que David Soul incluye en su libro Somewhen (2011), es la palabra “nothing” (nada) la que simboliza el cero.
It’s a fact
A ratio immutable
Of circle round and width
Produces geometry’s deepest conundrum
For as the numerals stay random
No repeat lets out its presence
Yet it forever stretches forth
Nothing to eternity.
[Traducción: Es un hecho. / Una proporción inmutable. / Del círculo redondo y el ancho. / Produce el enigma más profundo de la geometría. / Pues, como los números siguen siendo aleatorios. / Ninguna repetición revela su presencia. / Sin embargo, se extiende para siempre. / Nada hacia la eternidad.]
Algunos autores se decantan por que sean signos de puntuación los que representen el cero. En el siguiente poema (basado en los primeros 402 dígitos de π), cualquier signo de puntuación, que no sea un punto, representa la cifra 0. Además, hay otra regla que se compartirá con el Pilish, que las palabras de más de nueve letras representan dos dígitos adyacentes (por ejemplo, la palabra de doce letras representa los dígitos 1 y 2 en la expresión decimal del número irracional). Este poema, con el título Circle Digits A Self-Referential Story (Los dígitos circulares, una historia auto-referencial), lo he visto en el libro Pi, A Source Book (Springer, 3e, 2004), de Lennart Berggren, Jonathan Borwein y Peter Borwein, atribuido a Michael Keith que lo habría publicado en la revista The Mathematical Intelligencer, en 1986. En la siguiente imagen podéis leerlo, tal cual aparece en el libro, es decir, con forma circular.

[Traducción: Durante un rato me quedé reflexionando sobre el tamaño de los círculos. La gran computadora central procesaba silenciosamente todo su código ensamblador. En mi interior, toda mi esperanza residía en descubrir una expansión difícil de alcanzar. Valor: pi. Se esperaban decimales pronto. Introduje nerviosamente un formato de procedimientos. La computadora central procesó la solicitud. Error. Lo volví a introducir y lo volví a escribir con cuidado. Esta iteración dio cero errores en las impresiones: éxito. Esperé atentamente. Pronto, impulsado por mis pensamientos, aparecieron mnemotécnicas narrativas que relacionaban los dígitos con el verbo. La idea parecía existir, pero solo de forma abreviada, típicamente en frases cortas. Insistí y decidí firmemente usar una suma de decimales, probablemente alrededor de cuatrocientos, ¡suponiendo que el código informático se detuviera pronto! Reflexionando sobre estas ideas, las palabras me atrajeron. Pero existía un problema con los ceros. Reflexionando más, apareció la solución. El cero sugiere un elemento de puntuación. ¡Muy novedoso! Mis pensamientos culminaron. Sin puntos, concluí. Todos los signos de puntuación restantes eran ceros. La primera respuesta de expansión de dígitos se presentó ante mí. Al examinar, algunos problemas surgieron desafortunadamente ¡Ese error estúpido! La impresión que tenía mostraba cuatro nueves como decimales principales. Evidentemente preocupante. Todos los números parecían incorrectos. Reparar el error requirió mucho esfuerzo. Un mnemotécnico pi con letras parecía realmente bueno. Contar todas las letras probablemente debería ser suficiente. Buscar un registro sería útil. En consecuencia, continué, esperando una buena respuesta final de la computadora. El primer número se mostró lentamente en la pantalla plana: 3. Bien. Los dígitos finales aparentemente también eran correctos. Ahora mi esquema de memoria probablemente sería implementable. La técnica fue elegida, elegante en su esquema: por autoreferencia, se aseguró una historia mnemotécnicamente útil. De repente apareció un título adecuado: «Dígitos del Círculo». Empecé tomando un bolígrafo. Las palabras emanaban con inquietud. Deseaba más sinónimos. Rápidamente encontré mi diccionario de sinónimos (junto a mí). Rogets es probablemente esencial para esto, decidí al instante. Escribí y borré más. El Rogets me ayudó muchísimo. Mi historia prosiguió (¡qué bonito!) impecablemente. El final, sobre todo, pronto llegaría con alegría. Así que esta historia que me ayuda a recordar está indiscutiblemente completa. Pronto encontraré un editor. Allí, confío en que la narración aparecerá inmediatamente, produciendo fama. FIN.]
Las reglas del Pilish
Pero la solución más frecuente con el problema del cero ha sido utilizar palabras con diez letras, o incluso más, añadiendo reglas extra en algunos casos, como el anterior poema o el de Rafael Nieto. De hecho, el matemático y escritor Michael Keith definió el Pilish básico con esa sencilla regla, los dígitos de la constante matemática que tomen valores no nulos, es decir, del 1 al 9, dan lugar a palabras con esa cantidad de letras, mientras que para el 0 se utilizan palabras con diez (10) letras.
La siguiente composición irracional, atribuida al ingeniero de caminos, economista y escritor Josep María Albaigés Olivart (1940-2014) en la página web Pi Philologi, de Antreas P. Hatzipolakis, sería un ejemplo de Pilish básico.
¿Qué? ¿Y cómo π posee infinidad de cifras? ¡Tiene que
haber periodos repetidos! Tampoco comprendo que, de una
cantidad poco sabida, se afirme cosa así tan atrevida.
Con mi tozudez descarada, asumo audazmente el abstruso problema.
¡Vaya! Y determino pulirlo y afinar,
mejorando los complejos versillos con ingenio feraz.
En su artículo Writing in Pilish, Keith plantea definir el Pilish estándar, como extensión del Pilish básico, debido a cadenas de dígitos como 1121 o 1111211, que dificultan la creación de poemas en Pilish básico. Por lo tanto, una composición de Pilish estándar cumple que cada palabra de N letras representa: el dígito N si N es menor que 10, es decir, la palabra tiene menos de diez letras; el dígito 0 si N es igual a 10; dos dígitos consecutivos si la palabra tiene más de diez letras, por ejemplo, una palabra con 12 letras representa dos dígitos, en concreto, 12.
Keith hace además un par de aclaraciones. El apóstrofe no se cuenta, así “couldn’t” es una palabra de 7 letras, mientras que cualquier signo de puntuación, que no sea un apóstrofe, por ejemplo, un guion, se cuenta como un espacio en blanco, así “fun-filled” son dos palabras, ya que el guion – es un espacio en blanco, luego se corresponde con los dos dígitos 36.
Ilustración del poema El cuervo, de Edgar Allan Poe, realizada por el dibujante británico John Tenniel (1820-1914)
En 1995, Michael Keith compuso un poema en Pilish estándar que era una versión del poema “El cuervo” del escritor estadounidense Edgar Allan Poe (1809-1849) y utilizaba 740 dígitos del número π. Como es un poema muy largo solo incluyo aquí la primera parte.
Poe, E. [31]
Near a Raven [415]
Midnights so dreary, tired and weary. [926535]
Silently pondering volumes extolling all by-now obsolete lore. [897932384]
During my rather long nap – the weirdest tap! [62643383]
An ominous vibrating sound disturbing my chamber’s antedoor. [27950288]
“This”, I whispered quietly, “I ignore”. [419716]
Perfectly, the intellect remembers: the ghostly fires, a glittering ember. [9399375105]
Inflamed by lightning’s outbursts, windows cast penumbras upon this floor. [8209749445]
Sorrowful, as one mistreated, unhappy thoughts I heeded: [92307816]
That inimitable lesson in elegance – Lenore – [406286]
Is delighting, exciting…nevermore. [2089]
Ominously, curtains parted (my serenity outsmarted), [986280]
And fear overcame my being – the fear of “forevermore”. [3482534211]
Fearful foreboding abided, selfish sentiment confided, [706798]
As I said, “Methinks mysterious traveler knocks afore. [21480865]
A man is visiting, of age threescore.” [1328230]
[…]
[Traducción: Poe, E. / Cerca de un cuervo / Medianoches tan lúgubres, cansadas y agotadoras. / Reflexionando en silencio sobre volúmenes que ensalzan toda la sabiduría ya obsoleta. / Durante mi larguísima siesta, ¡un golpe extraño! / Un ominoso sonido vibrante perturbó la antesala de mi habitación. / «Esto», susurré en voz baja, «lo ignoro». / Perfectamente, el intelecto recuerda: los fuegos fantasmales, una brasa brillante. / Inflamadas por los relámpagos, las ventanas proyectaban penumbras sobre este suelo. / Triste, como alguien maltratado, atendí a pensamientos infelices: / Esa inimitable lección de elegancia -Lenore- / Es encantadora, emocionante… nunca más. / Ominosamente, las cortinas se abrieron (mi serenidad superó), / Y el miedo se apoderó de mi ser: el miedo al «para siempre». Un presentimiento temeroso persistía, un sentimiento egoísta se confiaba, / Como dije, «Me parece que un viajero misterioso llama a la puerta. / Un hombre de sesenta años está de visita.»]
Por último, comentar que el libro Not A Wake: A Dream Embodying π’s Digits Fully for 10000 Decimals / No es un despertar: un sueño que encarna los dígitos de π por completo para 10.000 decimales, de Michael Keith, es el primer libro escrito por completo en Pilish, basado en los primeros 10.000 decimales de la constante matemática.
El artículo El Pilish, poesía irracional con reglas extra se ha escrito en Cuaderno de Cultura Científica.
Una isla muy navideña
El día de Navidad de 1643 el capitán británico William Mynors, de la Compañía de las Indias Orientales, navegó cerca de una pequeña isla con forma de Y situada en el Océano Índico, al sur de Java y Sumatra, a la que llamó, sorpresivamente, Christmas Island.
Localización de la Christmas Island (Isla de Navidad) en el Océano Índico. Imagen tomada de Google Maps.Aparte del nombre tan sugerente, esta pequeña isla, que actualmente pertenece a Australia, tiene otra particularidad que la hace muy especial: su historia geológica. Que, en el fondo, es la culpable de haber creado un minúsculo paraíso natural que ha provocado que dos terceras partes de la isla hayan sido declaradas Parque Nacional.
Esta historia comenzó hace unos 80 millones de años, cuando se puso en marcha un importante vulcanismo submarino en esta zona del Océano Índico. El magma ascendió hacia la superficie rompiendo la corteza hasta que la lava fue capaz de salir al exterior, pero en el fondo del mar. Ese contraste de temperaturas entre un fundido ardiente y un agua fría, provocó un enfriamiento rápido de la lava, generando rocas volcánicas. Al producirse erupciones continuas en el mismo sitio, las rocas se fueron acumulando unas encima de las otras, llegando a formar una estructura elevada conocida como monte submarino.
Tras 20 millones de años de actividad ígnea, se formó una acumulación vertical de más de 4500m de rocas volcánicas que llegó a superar la columna de agua, saliendo a superficie y dando origen a una nueva isla. En esta fase, los corales empezaron su labor, construyendo un importante atolón arrecifal que cubrió ese islote volcánico. Estas acumulaciones de coral han quedado preservadas como rocas sedimentarias carbonatadas, llamadas calizas, que sellan parcialmente las rocas volcánicas más antiguas.
El crecimiento coralino quedó temporalmente detenido hace entre 40 y 35 millones de años por un nuevo periodo de vulcanismo activo, que provocó que esas rocas volcánicas de nueva formación se entremezclasen con las calizas previamente depositadas. Pero pronto la calma precedió a la tormenta, el vulcanismo cesó y volvieron a crecer nuevos arrecifes de coral que fueron aumentando el tamaño de la isla, tanto en la vertical como en su extensión lateral.
Esquema de la sección vertical de la Christmas Island, con las rocas volcánicas en el centro de la isla, las calizas cubriéndolas y las cuevas atravesando las calizas. Las fechas negras indican el flujo del agua dulce en profundidad. La escala vertical está exagerada diez veces. Imagen modificada de Grimes, K.G. (2001). Karst Features of Christmas Island (Indian Ocean). Helictite 37, 41-58.Pero este crecimiento coralino no actuó de manera continua. Durante esta época geológica, en esta zona se produjeron numerosos ascensos y descensos del nivel marino que afectaron al desarrollo de los atolones. Por ejemplo, destaca un importe aumento del nivel del mar que sucedió hace unos 20 millones de años y que se vio reflejado en un hundimiento relativo de la isla. Estos cambios del nivel marino provocaron que la formación de arrecifes ocurriese como “a pulsos”, es decir, en varias fases temporales superpuestas, dando lugar a una morfología de las rocas calizas en terrazas, como si fuesen los peldaños de una escalera. Vamos, que los corales crecen, se mueren, vuelven a crecer, se vuelven a morir y así continuamente de acuerdo a la subida y la bajada del nivel del mar, generando parches de rocas carbonatadas dispuestos en bloques uno sobre el otro.
Hace unos 10 millones de años, cambió esta dinámica. Un descenso relativo del nivel del mar provocó que la isla quedase expuesta, deteniendo la nueva formación de arrecifes y dejando a la intemperie a las calizas que la cubrían. Y estas rocas tienen una particularidad: el carbonato cálcico del que están formadas reacciona con el agua de lluvia, que lleva dióxido de carbono disuelto, disolviéndose, valga la redundancia, tanto en superficie como en profundidad. Así, a lo largo de la superficie de la isla se ha ido formando un importante complejo de cuevas durante los últimos millones de años, en las que circula el agua dulce procedente de la lluvia que se infiltra en el subsuelo, llegando a salir al exterior en numerosas surgencias o manantiales. Incluso, en zonas bajas de la isla, el agua marina acaba entrando en algunas de estas cavidades, provocando una mezcla con esa agua dulce.
Imagen de una de las cuevas (The Grotto) formadas en las calizas de Christmas Island que actúa como depósito del agua dulce procedente de la lluvia. Foto: Wondrous World Images / Christmas Island National ParkEn momentos más recientes también se ha formado una nueva particularidad geológica en esta isla, aunque las culpables son las aves marinas. Estos animalitos defecan, por ser fina, sobre la superficie de las rocas expuestas, generando unas acumulaciones de heces muy ricas en fósforo que se llaman guano. Que acaba disolviéndose con el agua de lluvia y del mar, mezclándose con el carbonato de las calizas para producir depósitos de fosfatos (P2O5) endurecidos que recubren las rocas. Y que han sido uno de los principales intereses económicos de la isla desde finales del siglo XIX.
Aquí acaba mi relato, pero no la historia geológica de la Christmas Island, que aún continúa escribiéndose. Los arrecifes de coral crecen en los márgenes submarinos de la isla, las aves continúan acumulando excrementos en la superficie y el agua de lluvia no cesa de disolver las rocas en profundidad. Incluso, no se puede descartar que algunas intrusiones volcánicas intenten volver a salir a superficie para sumarse a la aventura. Lo que sí es seguro es que, este, es el mejor cuento de Navidad que podía traeros en estas fechas.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la EHU
El artículo Una isla muy navideña se ha escrito en Cuaderno de Cultura Científica.
De la A a la Z: un crucigrama con grandes protagonistas de las matemáticas
Hoy proponemos un crucigrama con los apellidos de veinticinco protagonistas de las matemáticas; son trece mujeres y doce hombres cuyos apellidos van de la A a la Z. Debajo aparecen las pistas ordenadas por orden alfabético de apellidos.
Crucigrama generado en The Teacher’s Corner
A (19 horizontal)
Especialista en geometría simpléctica, fue cooptada por el grupo Oulipo en 2009. Interesada por la historia de las matemáticas, publicó, entre otros, la correspondencia entre Henri Cartan y André Weil, y un libro dedicado a la matemática rusa Sofia Kovalevskaya.
B (15 vertical)
Es el nombre colectivo de un grupo de matemáticos franceses fundado a finales de 1934. Decidieron escribir una enciclopedia bajo el título de “Éléments de Mathématique” que buscaba presentar el conjunto de las matemáticas de manera sistemática. Aunque quedó incompleta, ha tenido una gran influencia en las matemáticas del siglo XX.
C (16 vertical)
Jugó un papel fundamental en la creación de la teoría de conjuntos. Desarrolló una teoría y una aritmética completas de conjuntos infinitos, llamados cardinales y ordinales, que ampliaron la aritmética de los números naturales. Propuso la llamada “hipótesis del continuo” en 1878.
D (13 vertical)
Esta matemática argentina es conocida fundamentalmente por su trabajo en geometría algebraica. En los últimos años ha centrado su trabajo en las aplicaciones de la geometría algebraica en el ámbito de la biología molecular.
E (12 vertical)
Creía que las matemáticas eran una actividad social, y llevaba una vida itinerante con el único propósito de escribir artículos matemáticos con otros matemáticos. Este matemático húngaro intentó resolver y propuso problemas en matemáticas discretas, teoría de grafos, teoría de números, análisis matemático, teoría de aproximación, teoría de conjuntos y teoría de probabilidad.
F (10 vertical)
Esta matemática gallega investigó sobre ocultaciones estelares por la Luna, medidas de estrellas dobles, medidas astrométricas y la determinación de pasos por dos verticales. Antes de la de Matemáticas, obtuvo las licenciaturas de Química y de Farmacia y consiguió el título de Maestra Nacional.
G (6 horizontal)
Realizó importantes contribuciones a la teoría de números y la teoría de la elasticidad. Aunque tenía un gran talento como matemática, su educación autodidacta no le permitió tener la base científica sólida que hubiera necesitado para sobresalir por sus aportaciones.
H (9 horizontal)
Considerado como uno de los fundadores de la topología moderna, contribuyó significativamente a la teoría de conjuntos, la teoría descriptiva de conjuntos, la teoría de la medida y el análisis funcional.
I (11 vertical)
Este matemático japonés es conocido por su influencia en la teoría de números algebraicos.
J (4 horizontal)
Sus cálculos de mecánica orbital como empleada de la NASA fueron cruciales para el éxito del primer vuelo espacial tripulado estadounidense y de los posteriores. Su trabajo incluyó el cálculo de trayectorias, ventanas de lanzamiento y rutas de retorno de emergencia para los vuelos espaciales del Proyecto Mercury.
K (14 horizontal)
De origen ruso, realizó contribuciones notables al análisis, las ecuaciones diferenciales parciales y la mecánica. En 1874, presentó tres trabajos (sobre ecuaciones en derivadas parciales, sobre la dinámica de los anillos de Saturno y sobre integrales elípticas) en la Universidad de Gotinga como tesis doctoral.
L (25 horizontal)
Este matemático noruego desarrolló en gran medida la teoría de la simetría continua y la aplicó al estudio de la geometría y las ecuaciones diferenciales. También realizó contribuciones sustanciales en álgebra.
m (8 vertical)
Sus temas de investigación incluyeron la teoría de Teichmüller, la geometría hiperbólica, la teoría ergódica y la geometría simpléctica. En 2014 recibió la Medalla Fields, convirtiéndose en la primera mujer en ganar el premio, así como la primera iraní.
N (20 vertical)
Esta matemática alemana realizó importantes contribuciones al álgebra abstracta. El teorema que lleva su nombre explica la conexión fundamental entre la simetría en física y las leyes de conservación.
O (3 vertical)
Fue una matemática soviética que realizó trabajos pioneros sobre la teoría de ecuaciones diferenciales parciales, la teoría de medios elásticos fuertemente no homogéneos y la teoría matemática de capas límite.
P (1 vertical)
Se le considera el creador del campo de la topología algebraica. Realizó también importantes contribuciones a la geometría algebraica, la teoría de números o el análisis complejo, entre otros. A principios del siglo XX formuló la conjetura que lleva su nombre y fue resuelta por Grigori Perelman en 2003.
Q (24 horizontal)
Se le conoce como el «primer arquitecto» de la K-teoría algebraica. Recibió la Medalla Fields en 1978.
R (23 horizontal)
A pesar de carecer prácticamente de formación académica en matemáticas puras, realizó importantes contribuciones al análisis matemático, la teoría de números, las series infinitas y las fracciones continuas, incluyendo soluciones a problemas matemáticos que en su época se consideraban irresolubles.
S (7 horizontal)
Fue una de las personas que debatieron sobre un hipotético planeta que perturbaba a Urano. Sus predicciones se cumplieron en 1846 con el descubrimiento de Neptuno. Tutora de Ada Byron, tradujo la “Mécanique Céleste” de Pierre-Simon Laplace al inglés, añadiendo además una completa explicación de las bases matemáticas contenidas en el texto.
T (17 vertical)
Su investigación abarca temas de análisis armónico, ecuaciones diferenciales parciales, combinatoria algebraica, combinatoria aritmética, combinatoria geométrica, teoría de la probabilidad, detección comprimida, teoría analítica de números y las aplicaciones de la inteligencia artificial en matemáticas. Obtuvo la Medalla Fields en 2006.
u (5 vertical)
Su investigación abarca, entre otras, la teoría geométrica de ecuaciones en derivadas parciales, el cálculo en variaciones, la teoría gauge, los sistemas integrables o las ecuaciones de Schrödinger no lineales. En 2019 consiguió el Premio Abel, siendo la primera mujer (y, de momento, la única) en recibir este galardón.
V (18 horizontal)
Fue galardonada con la Medalla Fields en julio de 2022. Esta matemática ucraniana es la segunda mujer en obtener este galardón que premiaba su trabajo sobre el empaquetamiento de esferas: resolvió en 2016 el problema del empaquetamiento en dimensión 8 y, en colaboración con otros investigadores, en dimensión 24.
W (21 horizontal)
Recibió en 1953 una de las primeras Becas Fulbright, con la que pudo estudiar en la Universidad de Yale (EE. UU.). Su investigación se centró principalmente en la teoría de grupos y en la teoría de álgebras de Lie. Desde 1983 permaneció apartada del mundo académico, al tener que regresar a su Galicia natal para atender a su madre enferma.
Y (22 horizontal)
Nacido en China, este matemático ha realizado importantes contribuciones a la geometría diferencial. En 1982 recibió una Medalla Fields por “sus contribuciones a las ecuaciones diferenciales, a la conjetura de Calabi en geometría algebraica, a la conjetura de masa positiva de la teoría de la relatividad general y a las ecuaciones reales y complejas de Monge-Ampère”.
Z (2 horizontal)
Fue un lógico y matemático alemán, cuyo trabajo tiene importantes implicaciones en los fundamentos de las matemáticas. En 1904 demostró el denominado teorema de buen orden.
Nota
Si quieres comprobar si has acertado los apellidos de estos veinticinco protagonistas de las matemáticas, puedes consultar el crucigrama resuelto en este enlace. Si te has quedado con ganas de más, prueba este.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia
El artículo De la A a la Z: un crucigrama con grandes protagonistas de las matemáticas se ha escrito en Cuaderno de Cultura Científica.
Las “matemáticas inversas” arrojan luz sobre por qué los problemas difíciles son difíciles
El uso de técnicas metamatemáticas ha permitido demostrar que ciertos teoremas que parecen distintos son, en realidad, lógicamente equivalentes.
Un artículo de Ben Brubaker. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
En las matemáticas inversas, los investigadores sustituyen los axiomas, los fundamentos de los sistemas matemáticos, por los teoremas que quieren demostrar. Ilustración Son of Alan / Quanta MagazineEn lo que respecta a los problemas difíciles, los científicos de la computación parecen estar atascados. Consideremos, por ejemplo, el famoso problema de encontrar la ruta circular más corta que pase exactamente una vez por cada ciudad de un mapa. Todos los métodos conocidos para resolver este «problema del viajante de comercio» son desesperadamente lentos cuando el mapa contiene muchas ciudades, y los investigadores sospechan que no existe una forma de hacerlo mejor. Sin embargo, nadie sabe cómo demostrarlo.
Desde hace más de 50 años, los investigadores en teoría de la complejidad computacional han intentado convertir afirmaciones intuitivas como «el problema del viajante de comercio es difícil» en teoremas matemáticos irrefutables, con escaso éxito. Cada vez más, también buscan respuestas rigurosas a una pregunta relacionada y más difusa: ¿por qué no han tenido éxito sus demostraciones?
Este trabajo, que trata el propio proceso de demostración matemática como un objeto de análisis matemático, forma parte de un campo conocido por su dificultad: la metamatemática. Los metamatemáticos suelen examinar los supuestos básicos, o axiomas, que sirven como punto de partida de todas las demostraciones. Modifican estos axiomas iniciales y estudian cómo los cambios afectan a los teoremas que pueden demostrarse. Cuando se aplica la metamatemática al estudio de la teoría de la complejidad, el objetivo es determinar qué pueden y qué no pueden demostrar distintos conjuntos de axiomas sobre la dificultad computacional. De este modo, los investigadores esperan comprender por qué sus intentos de demostrar que ciertos problemas son difíciles no han prosperado.
En un artículo publicado el año pasado, tres investigadores adoptaron un enfoque distinto. Invirtieron el método que los matemáticos han utilizado durante milenios: en lugar de partir de un conjunto estándar de axiomas para demostrar un teorema, sustituyeron uno de los axiomas por un teorema y demostraron ese axioma. Mediante este enfoque, conocido como matemática inversa, demostraron que muchos teoremas distintos de la teoría de la complejidad son, en realidad, equivalentes.
«Me sorprendió que consiguieran avanzar tanto», afirma Marco Carmosino, teórico de la complejidad en IBM. «La gente va a mirar esto y va a decir: “Esto es lo que me hizo entrar en la metamatemática”».
Demostraciones con palomas
La historia del artículo sobre matemática inversa comenzó en el verano de 2022, cuando Lijie Chen, teórico de la complejidad y actualmente profesor en la Universidad de California en Berkeley, estaba terminando su doctorado. Con más tiempo libre del habitual, decidió dedicar unos meses a estudiar metamatemática.
Lijie Chen ideó una manera de invertir la relación entre dos teoremas matemáticos. Foto: Hongxun Wu«Como me estaba graduando, no tenía mucho trabajo de investigación que hacer», explica Chen. «Pensé que debía aprender algo nuevo».
Durante sus lecturas, Chen empezó a reflexionar sobre una rama de la teoría de la complejidad llamada complejidad de la comunicación, que estudia cuánta información deben intercambiar dos o más personas para realizar determinadas tareas. Uno de los problemas más sencillos de este campo, conocido como el «problema de la igualdad», se asemeja a un juego colaborativo. Dos jugadores comienzan con cadenas independientes de ceros y unos, es decir, de bits. Su objetivo es utilizar la menor cantidad posible de comunicación para determinar si ambas cadenas son idénticas. La estrategia más simple consiste en que uno de los jugadores envíe la cadena completa para que el otro la compruebe. La pregunta es si existe alguna forma más eficiente de proceder.
Los teóricos de la complejidad demostraron hace décadas que la respuesta es negativa. Para resolver el problema de la igualdad, los jugadores deben enviar, como mínimo, un número de bits igual a la longitud de la cadena completa. Esta longitud constituye una cota inferior de la cantidad de comunicación necesaria.
Chen no se centraba tanto en la cota inferior del problema en sí como en la forma en que se había demostrado. Todas las demostraciones conocidas dependen de un teorema sencillo llamado principio del palomar, que establece que si se colocan más palomas que palomares, al menos un palomar contendrá más de una paloma. Aunque pueda parecer evidente, este principio es una herramienta muy poderosa en la teoría de la complejidad y en otros ámbitos de las matemáticas.
Chen encontró una pista sugerente: la relación entre el problema de la igualdad y el principio del palomar podría funcionar también en sentido inverso. Es sencillo utilizar el principio del palomar para demostrar la cota inferior del problema de la igualdad. La cuestión era si esa cota inferior podría utilizarse, a su vez, para demostrar el principio del palomar.
Una igualdad inquietante
Chen comentó su idea con Jiatu Li, que en aquel momento era estudiante de grado en la Universidad de Tsinghua y con quien había colaborado recientemente en otro artículo. Para formalizar la conexión, necesitaban elegir un conjunto de axiomas con el que trabajar. En metamatemática es habitual utilizar axiomas más restrictivos que los convencionales, ya que estos sistemas más débiles permiten identificar con mayor precisión las relaciones entre distintos teoremas. Chen y Li optaron por un conjunto de axiomas muy utilizado llamado PV1. PV1 es lo suficientemente potente como para demostrar por sí solo algunos teoremas importantes de la teoría de la complejidad computacional. Si se añade una versión concreta del principio del palomar como axioma adicional, también permite demostrar la cota inferior del problema de la igualdad. En diciembre de 2022, Li y Chen demostraron formalmente que, como Chen había sospechado, la demostración también funciona intercambiando el papel de ambos teoremas.
Igor Oliveira contribuyó a demostrar que muchos teoremas diferentes son equivalentes. Foto: Richard CunninghamQue la cota inferior del problema de la igualdad pueda demostrarse a partir del principio del palomar, y viceversa, implica que, dentro del marco lógico de PV1, ambos teoremas son equivalentes. Cuando Li y Chen comentaron el resultado con Igor Oliveira, teórico de la complejidad en la Universidad de Warwick, los tres se dieron cuenta de que este enfoque de matemática inversa podría aplicarse también a teoremas de otras áreas de la teoría de la complejidad. En los meses siguientes, demostraron de forma sistemática equivalencias entre muchos otros resultados.
«Al principio solo teníamos dos resultados equivalentes», explica Chen. «Ahora tenemos toda una red de ellos».
La conexión más llamativa relaciona la misma versión del principio del palomar con uno de los primeros teoremas que suelen estudiarse en los cursos introductorios de teoría de la complejidad. Este «clásico imprescindible», en palabras de Carmosino, establece una cota inferior sobre el tiempo necesario para que un tipo de ordenador teórico —una máquina de Turing de una sola cinta— determine si una cadena de ceros y unos es un palíndromo, es decir, si se lee igual de izquierda a derecha que de derecha a izquierda. Mediante la matemática inversa, Li, Chen y Oliveira demostraron que, dentro de PV1, este teorema es equivalente al principio del palomar.
«Si alguien me lo hubiera dicho, no lo habría creído», reconoció Chen. «Suena completamente absurdo».
Esta equivalencia resulta sorprendente porque ambos teoremas parecen, a primera vista, muy distintos. El principio del palomar no está vinculado de forma intrínseca al cálculo: es una afirmación elemental sobre conteo. La cota inferior para palíndromos, en cambio, se refiere a un modelo concreto de computación. El nuevo resultado sugiere que teoremas aparentemente específicos tienen un alcance mucho más general de lo que cabría esperar.
«Indica que estas cotas inferiores de complejidad que queremos comprender son mucho más fundamentales», señaló Oliveira.
Territorio inexplorado
Esta red de equivalencias también ha permitido clarificar los límites de PV1. Los investigadores ya tenían motivos para pensar que el principio del palomar no puede demostrarse a partir de los axiomas de PV1 por sí solos, por lo que los resultados de Li, Chen y Oliveira implican que los demás teoremas equivalentes probablemente tampoco sean demostrables en ese sistema.
«Me parece precioso», afirma Ján Pich, teórico de la complejidad en la Universidad de Oxford, que en 2014 obtuvo un resultado importante sobre la potencia de PV1. No obstante, advirtió que el enfoque de la matemática inversa puede resultar especialmente útil para revelar nuevas conexiones entre teoremas ya conocidos. «No nos dice gran cosa, hasta donde podemos afirmar, sobre la complejidad de enunciados que aún no sabemos cómo demostrar».
Comprender ese territorio inexplorado sigue siendo un objetivo lejano para los investigadores en metamatemática. Sin embargo, esto no ha reducido el entusiasmo de Li por el campo. Inició sus estudios de posgrado en el Instituto Tecnológico de Massachusetts en 2023 y recientemente escribió una guía de 140 páginas sobre metamatemática dirigida a teóricos de la complejidad. Es un ejemplo de una tendencia más amplia: tras décadas de relativa marginalidad, la metamatemática está atrayendo cada vez más atención por parte de una comunidad más amplia de investigadores, que aportan nuevas perspectivas al área.
«La gente está cansada de estar bloqueada», concluye Carmosino. «Es el momento de dar un paso atrás y trabajar en los fundamentos».
El artículo original, ‘Reverse Mathematics’ Illuminates Why Hard Problems Are Hard, se publicó el 1 de diciembre de 2025 en Quanta Magazine.
Traducido por César Tomé López
El artículo Las “matemáticas inversas” arrojan luz sobre por qué los problemas difíciles son difíciles se ha escrito en Cuaderno de Cultura Científica.
El lado oscuro de las hormigas: esclavistas, okupas e inductoras al matricidio
Polyergus lucidus. Foto: Gary D. Alpert, Harvard University – © Museum of Comparative Zoology, The President and Fellows of Harvard College / AntWikiEntre los himenópteros sociales (hormigas, abejas y avispas) ser reina no es una tarea fácil. Hay que aparearse con uno o varios machos, fundar una colonia, recluirse en ella y pasar todo el tiempo poniendo miles de huevos que serán atendidos por un creciente número de obreras. A cambio, las obreras cubrirán las necesidades de la reina, pero no parece una forma de vida muy atractiva.
Tal vez por este motivo es muy frecuente entre los himenópteros sociales y, en particular, entre las hormigas, buscar alternativas para que sean otros quienes se ocupen total o parcialmente de los descendientes de una reina. Estas estrategias se conocen como “parasitismo social”, y pueden ser más o menos extremadas. Aquí pueden descargar una excelente revisión de este tema.
Un caso frecuente de parasitismo social es el de la dulosis o esclavización de hormigas de una especie por otra diferente. Este comportamiento es practicado por más de cien especies pertenecientes a cuarenta linajes diferentes, lo que quiere decir que ha evolucionado múltiples veces de forma independiente. Las obreras de la especie esclavista organizan expediciones, asaltan otros hormigueros, y roban las pupas, trasladándolas al propio nido (Figura 1). Allí las cuidan hasta que se hacen obreras. Las secuestradas adoptan el comportamiento de sus captoras, colaboran en el mantenimiento de la colonia, en la búsqueda de alimento y, en ocasiones, en saqueos de otros hormigueros, incluso de los de su propia especie. Un ejemplo que tenemos en nuestra península es Polyergus rufescens, que esclaviza a hormigas del género Formica.
Figura 1. A la izquierda, obreras de Polyergus lucidus regresando de una expedición de robo de pupas de la especie Formica incerta. En el saqueo participan ejemplares de Formica asimilados a la colonia de Polyergus (flecha). Foto: James C. Trager CC BY-SA 3.0. A la derecha, reina de Polyergus lucidus con obreras de Formica archboldi. Foto: Adrian A. Smith / Entomological Society of America CC BY 2.5.Todavía más radical es lo que hacen algunas reinas, como las de la especie americana Polyergus breviceps. Es otra especie esclavista pero, ocasionalmente, las reinas se unen a la expedición en búsqueda de hormigueros ajenos. Cuando encuentran uno, evitan el ataque de las obreras liberando una feromona. Después buscan a la reina local, la matan, y se frotan contra ella para adquirir su “firma” química, básicamente unos hidrocarburos que recubren el caparazón de quitina (mimetismo químico). A partir de ese momento, las obreras se pondrán al servicio de la nueva reina, la alimentarán, y criarán su prole.
Menos truculentas son las reinas que podríamos llamar okupas[1], pertenecientes a géneros muy diversos (p.e. Tetramorium inquilinum) y que, en muchos casos, no producen obreras. Las reinas, de muy pequeño tamaño (2-3 mm), emiten señales que les permiten ser aceptadas en un hormiguero ajeno. Allí se encaraman sobre otras hormigas, particularmente sobre las reinas locales, y son alimentadas por las obreras con la dieta real. Sus huevos, de los que salen machos y las futuras reinas, son también cuidados por las obreras locales.
El caso que nos ocupa hoy es, probablemente, el más espectacular de todos. Se describe en un artículo recientemente publicado en la revista Current Biology por investigadores japoneses. Enfrentarse a la reina de un hormiguero ajeno implica riesgos, por la respuesta defensiva de las obreras y de la reina misma, que luchará a muerte contra la agresora. Para evitar estos riesgos, dos especies de hormigas asiáticas, Lasius orientalis y Lasius umbratus, han desarrollado una estrategia insólita para apoderarse de las colonias de dos especies cercanas, L. flavus y L. japonicus, respectivamente. En lugar de matar a la reina de estas especies, las rocían repetidamente con una sustancia procedente de su abdomen. El resultado es que las obreras consideran a su reina y madre como una invasora extraña, y la atacan sin piedad hasta matarla (Figura 2). Podemos ver todo el proceso en este vídeo incluido en el artículo de Current Biology (no recomendado para personas sensibles).
Figura 2. A: Hormiga reina de Lasius orientalis (negra) acercándose a la reina de L. flavus (rojiza). B-D: La reina de L. flavus es atacada repetidamente por sus propias obreras tras ser rociada con fluido abdominal por la reina invasora, y termina siendo partida en dos (D). E-F: El mismo comportamiento es registrado en L. umbratus y L. japonicus. De Shimada et al. (2025), cita completa en referencias. Licencia CC-BY 4.0.Los investigadores no han podido determinar la naturaleza de la sustancia que provoca el “golpe de estado”, aunque señalan como probable al ácido fórmico. En cualquier caso, la hormiga que ha inducido el matricidio es reconocida por la colonia como su reina, y será atendida en sus necesidades alimenticias y reproductivas.
El matricidio es muy excepcional en la naturaleza, aunque ha sido descrito en colonias de abejorros, algunas avispas, e incluso en las colmenas de abejas, cuando declina la capacidad reproductiva de la reina. La necesidad de reemplazar a la reina, y los intereses de las obreras en poner sus propios huevos (de los que solo saldrán machos), están detrás de estos comportamientos. Un “matricidio altruista” es practicado por algunos insectos (el dermáptero Anechura harmandi) y arácnidos. En situaciones de escasez de alimentos las madres se dejan devorar por sus crías. Pero el caso del género Lasius es el primero en el que un matricidio es inducido por otra especie, y por ello ha despertado un gran interés en el estudio de la evolución del comportamiento social de los animales.
Mientras terminaba la redacción de este texto se ha publicado un artículo en Nature Communications sobre otra especie del género Lasius, en concreto L. neglectus. Se describe como “altruista” el hecho de que las pupas de esta especie, cuando son infectadas por un patógeno, emiten señales que provocan su destrucción y eliminación por parte de las obreras que las cuidan, previniendo la extensión de la enfermedad. Esto me sugiere un comentario final: no tiene sentido aplicar valoraciones humanas hacia estos comportamientos. En la naturaleza no existe la crueldad, la perversidad, la generosidad o el sacrificio altruista. No hay un auténtico “lado oscuro” más allá del ser humano. Los comportamientos han sido modelados por procesos evolutivos que seleccionan las mejores estrategias para la supervivencia de la especie. Solo a nosotros nos toca distinguir la moralidad de nuestros comportamientos, y valorar si algunos de ellos no estarán reduciendo nuestras posibilidades de supervivencia como especie.
Referencias
Shimada, T., Tanaka, Y., Takasuka, K. (2025) Socially parasitic ant queens chemically induce queen-matricide in host workers. Curr Biol. 35(22):R1079-R1080. doi: 10.1016/j.cub.2025.09.037.
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga.
Nota:
[1] En la literatura científica se las conoce como inquilinas, pero dado que no hacen contribución alguna al hormiguero ajeno, tal vez el término de “okupas”, ya aceptado por la RAE, se ajuste más a la realidad.
El artículo El lado oscuro de las hormigas: esclavistas, okupas e inductoras al matricidio se ha escrito en Cuaderno de Cultura Científica.
El declive de las aves como indicador de declive medioambiental
Fuente: Pixabay
A mediados del siglo XX China se encontraba muy lejos del brillante pasado que, mil años atrás, la había convertido en la civilización más poderosa y avanzada del planeta. Su obstinación por el aislamiento, su abrupta renuncia a la navegación, sus constantes conflictos tanto internos como externos, su inmovilismo confuciano o su terquedad en mantener antiguas tradiciones la mantuvieron al margen de la mayoría de progresos y avances tecnológicos que las diferentes revoluciones políticas, sociales e industriales fueron aportando al mundo con el paso de los siglos. En 1958, el presidente Mao Zedong propuso una ambiciosa iniciativa para conseguir que el país avanzase pisando a fondo el acelerador. Aquel programa se denominó «El Gran Salto Adelante» (大跃进) y, como su nombre indica, pretendía recuperar el evidente atraso de China, no con pequeños pasitos y avances, sino poniendo toda la carne en el asador. La principal baza de Mao Zendong era contar con una enorme población, casi 700 millones en esos años. Si las potencias industrializadas producían acero en grandes cantidades China también sería capaz si millones de familias construían hornos caseros y juntaban todo el metal que encontrasen. El resultado fue decepcionante, la calidad del acero chino era mediocre y, en muchos casos, completamente inutilizable.
Otra de las grandes campañas del «Gran Salto Adelante» pretendía acabar con las frecuentes plagas que propagaban enfermedades y perjudicaban la producción, especialmente tres: mosquitos, ratas y moscas. Sin embargo, en la cultura tradicional china, el número 3 representa la armonía, el equilibrio, la buena suerte… la superstición imperante les hizo añadir otra especie a combatir para llegar al 4, un número que sí representa la muerte, la desdicha y la mala fortuna. Para honrar ese tradicional pensamiento mágico incluyeron a los gorriones entre las plagas a exterminar. Los gorriones picoteaban la fruta y se comían las semillas mermando las cosechas. Toda China se lanzó a matar gorriones, a veces con métodos bastante curiosos como por ejemplo usando ruido. Los campesinos hacían turnos golpeando tambores, cazuelas y lo que tuvieran a mano para impedir que los pájaros se acercasen a las cosechas. En este caso tuvieron bastante éxito y los gorriones casi fueron erradicados en un par de años. Lo que el Gran Salto no había previsto es que estas aves no solo comen semillas y fruta, sino también insectos. Sin sus depredadores naturales, las plagas de mosquitos, moscas y langostas «empezaron a proliferar alimentándose glotonamente de las plantas. No tardaron en aparecer nubes de langostas migratorias que caían sobre los cultivos, devorando todo a su paso; sus daños eran tan devastadores que el país pasó, entre 1958 y 1962, por una de las mayores hambrunas de los tiempos modernos cuyo balance rondó, según algunas estimaciones, los treinta millones de muertos».
Tendencia de las poblaciones de aves entre 1998 y 2024 para los programas de seguimiento (Sacre, Sacin, Noctua). Fuente: Informe SEO/BirdLife 2024
Los gorriones chinos de los años ‘60 deberían haberse convertido en un contundente ejemplo de lo que sucede cuando se alteran los delicados equilibrios de la naturaleza y, sin embargo, tan solo unas décadas más tarde, no parece que hayamos aprendido demasiado del grave error del Gran Salto Delante de Mao Zedong. La disminución generalizada de las poblaciones de aves en la mayoría de regiones del mundo es un fenómeno bien documentado que no está teniendo la atención que merece.
En nuestro país, por ejemplo, la Sociedad Española de Ornitología (SEO/BirdLife) acaba de publicar el informe más reciente del estado de las aves en España (2024) con unos datos ciertamente preocupantes: desplome histórico de aves en todo el país. El seguimiento de aves de SEO se divide en tres grandes programas: SACRE (primavera), SACIN (invierno) y NOCTUA (aves nocturnas). En primavera, el 43 % de las especies presenta declive de sus poblaciones con respecto a 1998. Las especies invernales solo un 66 % presenta una situación estable y, finalmente, las nocturnas que presentan el peor estado de conservación, con más de la mitad de las especies en declive y ninguna en aumento. Ni siquiera nuestros gorriones se salvan de la debacle: en lo que va de siglo su número ha disminuido un 20 %.
Coincidiendo con este informe, la revista Nature ha publicado un importante estudio que analiza cómo los cambios causados por el ser humano en el uso del suelo (agricultura, urbanización y deforestación) afectan a la diversidad funcional de las aves desplegando serias consecuencias para los ecosistemas que dependen de ellas. Trabajos anteriores ya indicaban que el cambio de uso de la tierra es el principal factor implicado en el declive de las aves a nivel mundial.
Muestreos e impactos del cambio de uso de la tierra en las aves a nivel mundial | Weeks, Thomas L., et al. (2025) Land-Use Change Undermines the Stability of Avian Functional Diversity Nature doi: 10.1038/s41586-025-09788-0. CC BY 4.0El estudio es uno de los mayores que se han realizado hasta la fecha y los investigadores recopilaron datos de 3696 especies diferentes de aves en 1281 lugares repartidos por el mundo. Usaron rasgos morfológicos (como el tamaño del cuerpo o la forma del pico y alas) que se relacionan con la forma en laque las aves contribuyen a funciones ecológicas, ya sea dispersando semillas, controlando plagas de insectos, etc…
Las conclusiones del trabajo publicado confirman que el cambio en el uso del suelo reduce la cantidad de aves pero añade un elemento fundamental: también debilita la capacidad de los ecosistemas para resistir y recuperarse de nuevos impactos. Los errores del pasado parecen regresar con fuerza añadiendo un nuevo indicador: en temas medioambientales siempre tropezamos con las mismas piedras.
Referencias y más información:
Amin Maalouf (2024) El laberinto de los extraviados: Occidente y sus adversarios Alianza Editorial
SEO/BirdLife «Programas e informes de seguimiento de aves en España»
Weeks, Thomas L., et al. (2025) Land-Use Change Undermines the Stability of Avian Functional Diversity Nature doi: 10.1038/s41586-025-09788-0
Sobre el autor: Javier «Irreductible» Peláez es escritor y comunicador científico. Autor de «500 Años de Frío» (2019) y «Planeta Océano» (2022). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.
El artículo El declive de las aves como indicador de declive medioambiental se ha escrito en Cuaderno de Cultura Científica.
La importancia de comunicar los sesgos

El pasado 15 de mayo tuvo lugar el principal evento sobre comunicación de la ciencia con perspectiva de género. La tercera edición de Género y comunicación de la ciencia se celebró en la Torre Iberdrola en Bilbao, consolidándose como un espacio para el diálogo y la reflexión en torno a cómo incorporar y mejorar la perspectiva de género en la comunicación científica.
La jornada estuvo organizada por la Cátedra de Cultura Científica de la UPV/EHU, con la colaboración del Departamento de Ciencia, Universidad e Innovación del Gobierno Vasco, Iberdrola y EITB. Está dirigida a profesionales de la comunicación, así como a todas aquellas personas interesadas en la comunicación inclusiva y cómo abordarla desde diferentes enfoques.
Las conferencias magistrales de esta edición se centraron en la inteligencia artificial (IA) y los sesgos de género, abordando propuestas para avanzar hacia una inteligencia artificial feminista.
En este contexto Gisela Baños pronunció la conferencia: La importancia de comunicar los sesgos.
Gisela Baños es física teórica por la Universidad de Leipzig, trabaja en el mundo editorial como escritora y correctora. Lleva más de una década estudiando las relaciones entre ciencia, tecnología y ciencia ficción y haciendo divulgación al respecto. Es colaboradora habitual de la sección Fronteras del Cuaderno de Cultura Científica, entre otros medios.
Edición realizada por César Tomé López
El artículo La importancia de comunicar los sesgos se ha escrito en Cuaderno de Cultura Científica.
La península ibérica está girando en el sentido de las agujas del reloj
Los recientes registros de terremotos y satélites ponen de manifiesto la manera en que interactúan la placa eurásica y la africana, así como las posibles consecuencias de su colisión en la península ibérica.
Las placas tectónicas pueden concebirse como grandes fragmentos móviles situados sobre la superficie terrestre. El desplazamiento continuo de estas placas genera esfuerzos significativos que se manifiestan en forma de deformación o de terremotos en sus límites. «La placa eurásica y la africana convergen a un ritmo de 4–6 mm al año. La frontera entre ambas es muy nítida tanto en el océano Atlántico como en la zona de Argelia, mientras que al sur de la península ibérica resulta mucho más difusa y compleja», explica Asier Madarieta, investigador de la Universidad del País Vasco/Euskal Herriko Unibertsitatea (EHU).
En el Mediterráneo occidental, el dominio de Alborán determina integralmente la configuración de la frontera entre las placas eurásica y africana. Esta región se está desplazando hacia el oeste y favorece el desarrollo del arco activo de Gibraltar, conectando la cordillera Bética con la del Rif. «Hasta ahora no conocíamos con precisión la naturaleza de la frontera en esta zona, y continúa siendo objeto de debate cuáles son los procesos geodinámicos que tienen lugar allí», señala Madarieta.
Fuente: Asier Madarieta-Txurruka et al (2025) Gondwana Research doi: 10.1016/j.gr.2025.08.020Esfuerzo y deformación
En un estudio encabezado por el investigador de la EHU, se han caracterizado los procesos dinámicos más relevantes que se desarrollan en esta frontera difusa entre las placas eurásica y africana: «Hemos analizado la relación entre la tensión de la corteza terrestre y la deformación superficial en el sector occidental del Mediterráneo, en la frontera entre ambas placas situadas entre la península ibérica y el noroeste de África», explica el investigador del Grupo de Investigación Procesos Hidro-Ambientales (IDH). Para ello, han calculado los campos de esfuerzo y deformación de la región «a partir de los datos de los terremotos registrados en los últimos años y de la información sobre la deformación obtenida mediante datos satelitales».
La comparación entre esfuerzo y deformación permite comprender de manera más completa los procesos geodinámicos y tectónicos. En el estudio se han obtenido numerosos datos nuevos sobre la frontera entre las placas eurásica y africana, lo que ha permitido «una mejor definición». De este modo, «hemos podido determinar qué segmentos fronterizos están ya afectados por la colisión entre Eurasia y África y cuáles siguen condicionados por el desplazamiento hacia el oeste del arco de Gibraltar», explica el doctor Madarieta.
Giro horario«Los nuevos datos confirman que la península ibérica está girando en el sentido de las agujas del reloj», señala. «De los datos obtenidos se desprende que el arco de Gibraltar juega un papel importante en la frontera entre Eurasia y África. La deformación provocada por la colisión entre Eurasia y África al este del estrecho de Gibraltar es absorbida por la corteza del arco de Gibraltar, lo que impide que dichos esfuerzos se transmitan hacia la península ibérica. «En cambio, al oeste del estrecho se produce un choque directo entre Iberia (placa euroasiática) y la placa africana, lo que creemos que puede favorecer que los esfuerzos se transmitan hacia el suroeste de Iberia. Esto empujaría la península por dicha zona y provocaría su giro en sentido horario».
Fallas activas de IberiaLos campos de esfuerzo ofrecen información sobre los procesos geodinámicos, mientras que los de deformación muestran cómo responde y se deforma la superficie terrestre bajo dichos esfuerzos. «Sin embargo, no resulta sencillo identificar la estructura geológica particular que provoca esta deformación», puntualiza. Con los nuevos datos es posible acotar las zonas donde se encuentran —o podrían encontrarse— las fallas activas, es decir, aquellas estructuras capaces de generar terremotos. «En Iberia hay áreas donde se observa una deformación significativa o donde ocurren terremotos, pero desconocemos qué estructuras tectónicas están activas en dichos emplazamientos. Estos nuevos campos de esfuerzo y deformación nos indican hacia dónde debemos dirigirnos para buscar estas estructuras. De esta forma, podremos determinar qué tipos de pliegues y fallas existen, cómo se producirá su movimiento, qué tipo de terremotos pueden generar y qué magnitud podrían alcanzar».
En la península ibérica se está desarrollando la base de datos relativa a las fallas activas de Iberia (QAFI, Quaternary Active Fault database of Iberia). Pese al enorme trabajo realizado, aún queda un largo camino por recorrer en diversas zonas, especialmente en el oeste de los Pirineos (Navarra) y en el sector occidental del arco de Gibraltar, entre Cádiz y Sevilla. Por lo tanto, resulta imprescindible llevar a cabo estudios geológicos y geofísicos detallados en estos territorios, al objeto de identificar, caracterizar y evaluar el potencial sísmico de las estructuras responsables de la deformación», señala Madarieta.
Una pequeña ventana de la evolución geológicaSe sabe que los cambios geodinámicos son extremadamente lentos y que los datos satelitales y los registros sísmicos precisos, por su parte, son relativamente recientes. «Estos datos nos ofrecen tan solo una pequeña ventana de la evolución geológica. La mayoría de los registros sísmicos de alta precisión surgen a partir de 1980, y los datos satelitales precisos se obtienen únicamente a partir de 1999, mientras que los procesos geodinámicos se miden en millones de años. Es por ello por lo que resulta fundamental realizar análisis integrados de todas las fuentes de información disponibles», afirma.
El investigador sostiene que la base de datos generada en el estudio ha complementado las bases de datos previamente empleadas, lo que contribuye a «incrementar la fiabilidad de los resultados y conclusiones». A partir de ahora, «los datos aumentarán de forma exponencial; entre otros aspectos, será posible calcular con mayor precisión las deformaciones, incluso en áreas donde la información disponible es limitada».
Referencia:
Asier Madarieta-Txurruka, Juan F. Prieto, Joaquín Escayo, Federico Pietrolungo, José A. Peláez, Jesús Galindo-Zaldívar, Jesús Henares, Federica Sparacino, Gemma Ercilla, José Fernández, Mimmo Palano (2025) New insights on active geodynamics of Iberia and Northwestern Africa from seismic stress and geodetic strain-rate fields Gondwana Research doi: 10.1016/j.gr.2025.08.020
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La península ibérica está girando en el sentido de las agujas del reloj se ha escrito en Cuaderno de Cultura Científica.
El memex: la idea que intentó adelantarse a su tiempo
A veces nuestros intentos de predecir el futuro pecan de optimistas —sobre todo en lo referente a la integridad humana a la hora de utilizar cualquier nuevo invento potencialmente revolucionario—, pero otras veces, se quedan muy cortos al tratar de imaginar lo que luego se ha convertido en realidad. Esto último es lo que le sucedió al pionero de la computación analógica Vannevar Bush cuando trató de imaginar una solución a un problema que empezó a ser más que acuciante tras la Segunda Guerra Mundial: el vertiginoso crecimiento de la producción científica, que hizo indispensable que idear nuevas formas de organizar, almacenar y acceder al conocimiento.
Vannevar Bush, aunque bastante visionario, siempre ha sido una figura controvertida por su contribución al esfuerzo bélico durante la Segunda Guerra Mundial. Fuente: Dominio público / OEM Defense
Un registro, para que le sea útil a la ciencia, debe ampliarse continuamente, debe almacenarse y, sobre todo, debe consultarse. Hoy en día hacemos el registro de forma convencional mediante la escritura y la fotografía, seguidas de la impresión, pero también grabamos en película, en discos de cera y en cables magnéticos.
En mayo de 1945, Bush escribió un artículo para The Atlantic Montly titulado «As we may think», donde apareció por primera vez una idea que, aunque nunca se llevó a cabo, sí inspiró a la generación de informáticos, ya digitales, que llegó después: el memex.
Un memex es un dispositivo en el que un individuo puede almacenar todos sus libros, registros y comunicaciones, y que está mecanizado de modo que puede consultarse con enorme rapidez y flexibilidad.
Podríamos pensar en un ordenador, en algún tipo de libro electrónico o incluso en internet, y lo cierto es que la cosa iba por ahí. Pero lo realmente divertido del artículo de Vannevar Bush es lo tremendamente corto que se quedó respecto a lo que estaba por venir en realidad. Aunque algo llegó a ver, porque vivió hasta 1974, así que estuvo allí cuando se produjo la invención del transistor y el desarrollo de los primeros ordenadores digitales… pero no deja de resultar hasta tierna la ingenuidad que mostró en 1945.
El memex era un dispositivo tan analógico como el analizador diferencial —el gran invento de Vannebar Bush, un computador analógico electromecánico capaz de resolver ecuaciones diferenciales de hasta dieciocho variables—. Tal vez fue por eso que su imaginación no pudo ir más allá, no pudo evitar ser un hijo de su tiempo y de la forma de hacer las cosas de entonces. Le faltó el salto mental cualitativo que permitiría muy pronto la invención del transistor y los circuitos integrados. El memex era, así, una especie de escritorio «inteligente» con un mecanismo interno que permitía almacenar microfilmes con información y proyectarlos en pantallas translúcidas. Se controlaba a través de una serie de teclas y palancas que permitían hacer búsquedas y, no solo eso, sino enlazar documentos entre sí. Esa fue, en realidad, la genialidad de Bush, no el aparato en sí.
El memex, según aparecía ilustrado en «As we may think». Fuente: The Atlantic Monthly
«La mente humana […] opera por asociación», escribió. Su intención era reproducir esa característica en el memex para facilitar la búsqueda de información, en lugar de indexar los contenidos, por ejemplo, por orden alfabético, palabras clave u otra característica similar. De esta manera cada usuario podía crear su propio mapa de conocimiento. En otras palabras, se anticipó al hipertexto, a la exploración no lineal de la información que hoy prácticamente define internet.
No por casualidad el memex de Vannebar Bush fue una de las piedras angulares sobre la que se empezaría a construir internet, una posibilidad que él no supo ver en aquel momento. Habló de que se crearían enciclopedias y libros en microfilm especialmente pensados para aquel aparato, que se podrían ampliar e incluso anotar… pero, al menos en aquel artículo, no planteó la posibilidad de que varias máquinas pudieran conectarse entre sí o incluso compartir información.
Quienes sí advirtieron el potencial de aquel concepto fueron personajes como Douglas Engelbart, inventor del ratón y el sistema NLS (oN-Line System);[1] Ted Nelson, que acuñó el término «hipertexto» en los años sesenta y usó el concepto en su proyecto Xanadu,[2] y Tim Berners-Lee, el artífice de la World Wide Web.
De izquierda a derecha, Douglas Engelbart, Fuente: CC BY-SA 3.0/SRI International; Ted Nelson, Fuente: CC BY-SA 4.0/Belinda Barnet; y Tim Berners-Lee, Fuente: CERN
Vannevar Bush había nacido en 1890 —la mayor parte de los «padres de la computación» lo harían a comienzos del siglo XX, así que fue el maestro de muchos de ellos— y, aún así, supo ver el potencial de aquellas máquinas analógicas que podrían, algún día, ayudarnos a pensar y ampliarían nuestra limitada memoria humana. Hacia el final de su artículo, escribía:
Sin duda se han ignorado dificultades técnicas de toda clase, pero también se han pasado por alto medios aún desconocidos que podrían aparecer en cualquier momento y acelerar el progreso técnico con tanta violencia como lo hizo la llegada de la válvula termoiónica.
Amén; el transistor se inventó justo dos años después.
Bibliografía
Berners‑Lee, T. (s. f.). Frequently asked questions by the Press [FAQ]. W3C.
Bush, V. (julio de 1945). As we may think. The Atlantic Montly.
Bush, V, (1967). Science is not enough. William Morrow & Company.
Nelson, T. (1981). Literary machines. Mindful Press.
Notas:
[1] El NLS fue un entorno digital que permitía que varios usuarios trabajaran sobre el mismo documento a la vez, conectar documentos mediante hiperenlaces de forma similar al memex, tenía una rudimentaria interfaz gráfica con la que se interaccionaba gracias al primer ratón.
[2] Se trataba, básicamente, de una especie de gran enciclopedia que recogería todo lo que se había escrito, y que consistiría en una gran cantidad de ordenadores interconectados.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo El memex: la idea que intentó adelantarse a su tiempo se ha escrito en Cuaderno de Cultura Científica.
A vueltas con el equipaje de mano (II)
En la anterior entrada del Cuaderno de Cultura Científica titulada A vueltas con el equipaje de mano (I) estuvimos hablando de las medidas de las maletas de cabina. En la actualidad cada compañía aérea tiene establecidas unas medidas concretas (ancho x largo x alto) para el equipaje de mano que debe ser utilizado en sus aviones. Por ejemplo, para British Airways y EasyJet son 25 x 45 x 56 cm, para Iberia son 25 x 40 x 56 cm, para Lufthansa 23 x 44 x 55 cm, para Vueling y Ryanair 20 x 40 x 55 cm, para American Airlines 23 x 36 x 56 o para Air Europa, Air France o KLM 25 x 35 x 55 cm, que, aunque todas puedan estar alrededor de unas ciertas medidas, tienen diferencias significativas en algunos casos.

Como comentábamos en la anterior entrada, hace unos años, y aún hay compañías que lo mantienen, existía una norma general (que era el estándar internacional de la IATA = Asociación Internacional de Transporte Aéreo), por encima de las recomendaciones particulares de cada compañía (que, en algunos casos, en aquella época eran algo menores que las actuales), que consistía en que las medidas de la maleta de cabina debían ser tales que su suma no excediera los 115 centímetros, es decir, ancho + largo + alto (de la maleta) debía medir menos, o igual, que 115 cm. Esto es,
![]()
siendo x = ancho, y = largo, z = alto.
Un dispositivo para controlar las maletas
Como pusimos de manifiesto en la reflexión final de la anterior entrada, el problema estaba en que siendo la norma general ancho + largo + alto menor, o igual, que 115 cm, el dispositivo que utilizaba cada compañía para controlar si las maletas de los pasajeros cumplían la normativa era un dispositivo con forma de paralelepípedo (caja rectangular, como en la siguiente imagen) con las medidas de su recomendación, que en aquella época se ajustaban a que la suma de las medidas (ancho, largo y alto) fuese 115 cm. Así, la caja de Iberia estaba adaptada para las medidas que recomendaba en esa época 20 x 40 x 55 cm, pero en esa caja podían tener problemas las maletas recomendadas por Spanair (25 x 40 x 50 cm) o Air Europa (25 x 35 x 55 cm), que eran más anchas, de 25 cm, así como maletas con otras medidas, incluyendo la maleta cúbica de 38,33 cm de lado, que, aunque fuese extraña y difícil de incluir en la zona de equipaje de mano (véase la entrada A vueltas con el equipaje de mano (I)), estaba dentro de la norma general.

Por este motivo, cuando hace unos cuantos años (alrededor de 2010) preparé mi charla Matemáticas para andar por casa, me planteé la siguiente cuestión:
¿Es posible diseñar un dispositivo para que la compañía aérea compruebe que las medidas del equipaje (sin medirlas) cumplen la norma general?
puesto que el sistema de la caja rectangular realmente no era efectivo. De hecho, quizás por este motivo se ha ido eliminando la norma general de que ancho + largo + alto sea menor, o igual, que 115 cm, por medidas más concretas, en algunos casos algo mayores, que dan más flexibilidad.

La solución para la regla general no era la estructura de caja rectangular utilizada, que como fuente de información orientativa podía ser válida, o estar tomando las medidas de cada maleta, que hubiese convertido el sistema en un suplicio para las trabajadoras de la compañía aérea, sino un dispositivo que, como veremos, derivaba del conocimiento de lo que son las coordenadas cartesianas y la ecuación cartesiana de un plano.
No se trata en esta entrada de intentar establecer un mecanismo que se podía, o no, haber utilizado, sino mostrar como el análisis matemático de un problema puede ofrecer una solución al mismo. Una vez obtenida esa solución la empresa implicada puede decidir desarrollarla, o no, en función de múltiples factores que tendrá que tener en cuenta.
El problema en dos dimensiones
Para intentar simplificar la cuestión y facilitar su comprensión, vamos a pensar en el problema en dos dimensiones, en cuyo caso, en lugar de una maleta tendremos un objeto rectangular (cuyas dimensiones son el ancho y el largo), por ejemplo, el marco de una fotografía o un cuadro.

Por lo tanto, una regla equivalente al estándar de IATA para las maletas podría ser que la suma de las medidas del marco sea menor, o igual, que 35 centímetros. De esta manera entrarían dentro de lo permitido medidas habituales como 13 x 18 cm o 15 x 20 cm. En consecuencia, se trata de crear un dispositivo para controlar que los marcos de las fotografías cumplan esa regla. Pensemos que quizás, esto podría ser útil en una fábrica de marcos para separar los marcos por tamaños o alguna otra situación equivalente.
Para analizar matemáticamente esta cuestión vamos a introducir primero las coordenadas cartesianas del plano y después la ecuación de una recta en el plano utilizando las coordenadas cartesianas.
Coordenadas cartesianas
Para definir estas coordenadas en el plano debemos de partir de dos rectas perpendiculares, que van a ser los denominadas “ejes de coordenadas” (el eje X o eje de abscisas –horizontal– y el eje Y o eje de ordenadas –vertical–), a cuyo punto de corte se le denomina origen (O). Entonces, las coordenadas cartesianas (rectangulares) permiten determinar la posición de cada punto del plano P en función de dos números (x, y) que expresan la distancia del punto a los dos ejes coordenados (x la distancia del punto P al eje Y e y la distancia al eje X). En esta imagen vemos algunos ejemplos que nos ayudan a entender mejor esta idea (el signo negativo indica si se está en una parte o en otra respecto a los ejes, aunque para lo que nos ocupa aquí solo hablaremos de coordenadas positivas). Por ejemplo, el punto (3,2) dista 3 unidades del eje Y y 2 unidades del eje X.

Nos podemos cuestionar el motivo por el cual es útil hablar de coordenadas cartesianas en este problema. Seguramente, la imagen anterior nos dará ya una idea del motivo. Imaginemos que tenemos un plano coordenado y colocamos un marco de manera que uno de sus vértices esté apoyado en el origen y dos de sus lados estén apoyados en los ejes coordenados, como en la siguiente imagen, de manera que el ancho se apoye en el eje X y el largo en el eje Y.

De esta manera, como se muestra en la imagen anterior, las medidas del marco de una fotografía (x, y), siendo x el ancho e y el largo, determinarán el punto P = (x, y) del plano, que es la posición del vértice opuesto al apoyado en el origen. Y recíprocamente, dado un punto cualquiera del plano P = (x, y), este determinará las medidas concretas de un marco fotográfico, colocado como en la situación anterior.
La ecuación de una recta
Dicho esto, ahora vamos a explicar qué es la ecuación algebraica de una recta del plano coordenado. Dada una recta del plano, se pueda asociar a la misma una ecuación de la forma ax + by + c = 0, donde a, b y c son números reales (como las rectas que aparecen en la siguiente imagen: x – y – 1 = 0, 3x + 2y – 6 = 0). ¿Cómo funciona la ecuación de la recta? Si tenemos un punto P de coordenadas (x, y), este estará en la recta si los números x e y satisfacen la ecuación, y no estará en ella si no la cumplen. Por ejemplo, los puntos (4, 3), (3, 2) y (0, –1) están en la recta x – y – 1 = 0, ya que (4) – (3) – 1 = 0, (3) – (2) – 1 = 0 y (0) – (–1) – 1 = 0, mientras que el punto (0, 3), no está en ella, por ser (0) – (3) – 1 = – 4, que no es 0; y de la misma manera, los puntos (0, 3) y (2, 0) está en la recta 3x + 2y – 6 = 0, pero no el punto (3, 2).

Pero la ecuación de una recta nos da más información. Consideremos de nuevo la recta 3x + 2y – 6 = 0 y veamos que pasa con los puntos que no están sobre ella, como (4, 3), (3, 2), (0, 0) o (–2, –1):
3(4) + 2(3) – 6 = 12, 3(3) + 2(2) – 6 = 7,
3(0) + 2(0) – 6 = –6, 3(–2) + 2(–1) – 6 = –14,
de manera que, en los dos primeros el valor de la ecuación 3x + 2y – 6 es positivo, mientras que en los dos siguientes es negativo.

Lo que ocurre es que la ecuación de la recta, en este caso 3x + 2y – 6 = 0, divide al plano en tres regiones distintas, la recta y las dos regiones a cada lado de la misma. Los puntos (x, y) de la recta satisfacen que 3x + 2y – 6 = 0, mientras que los puntos a un lado de la recta satisfacen la desigualdad 3x + 2y – 6 > 0, mientras que los puntos al otro lado de la recta satisfacen que 3x + 2y – 6 < 0. Y esto ocurre en general para cada recta.
Un dispositivo para controlar los marcos
Empecemos recordando que la condición establecida para que los marcos pasen el filtro (o sean considerados pequeños en la fábrica) es que
![]()
siendo x = ancho del marco, y = largo del marco. Pero si miramos la anterior desigualdad desde la óptica de lo visto hasta ahora podemos afirmar lo siguiente.
Consideremos un marco de fotografía concreto, cuyas medidas sean a centímetros de ancho y b centímetros de largo. Este marco se corresponderá, según lo visto, con el punto (a, b) del plano coordenado. Por otra parte, tenemos la ecuación de la recta x + y = 35 (véase la siguiente imagen), dada por las condiciones aplicadas a los marcos fotográficos. Si las coordenadas de nuestro punto (a, b) satisfacen la ecuación la ecuación x + y = 35, entonces el punto está sobre la recta (las medidas del marco a y b satisfacen que a + b = 35, esto es, ancho más largo es igual a 35 centímetros), si verifican que x + y > 35, entonces el punto estará por encima de la recta (las medidas del marco no satisfacen la condición fijada), mientras que si satisfacen que x + y < 35, el punto estará por debajo de la recta (las medidas del marco sí cumplen la condición fijada).

De manera, que podemos observar gráficamente que el marco de medidas (15, 15), es decir, ancho y largo igual a 15 cm, satisface las condiciones establecidas, por estar situado debajo de la recta, así como el marco de medidas (15, 20), que está en la recta, pero no el marco de medidas (20, 30), situado encima de la recta.
En consecuencia, ya tenemos las ideas necesarias para diseñar un dispositivo para controlar que el tamaño de los marcos cumpla esa condición establecida. Este estaría formado por una estructura fija formada por dos lados rectangulares de más de 35 centímetros de largo (una especie de escuadra de dos brazos), junto con una tapa o puerta móvil, unida a la parte vertical de la estructura fija por una bisagra colocada a 35 cm de la base y apoyada en la parte horizontal, a 35 cm de la tabla vertical (utilizando el teorema de Pitágoras sabemos que la tapa tendría una longitud de 35 cm multiplicado por la raíz cuadrada de 2, es decir, unos 49 centímetros).

Le he pedido a Gemini que me haga una versión realista del dispositivo. No es que se ajuste del todo a lo que le he pedido, pero quizás con esta imagen os hagáis una mejor idea del mismo, aunque mi idea era un dispositivo apoyado en una superficie plana horizontal, para trabajar mejor con el mismo.

¿Cómo funcionaría el dispositivo? Dado un marco cualquiera, abriríamos la tapa del dispositivo y lo meteríamos dentro apoyándolo en la esquina. Si la tapa cerrase, esto significaría que el marco cumpliría la regla de que la suma de las medidas del marco sea menor, o igual, que 35 centímetros, como en la siguiente imagen.

Mientras que, si la tapa no cerrase, porque lo impide el marco, querría decir que las medidas del marco excederían las que se han fijado en la norma, como se ilustra en la siguiente imagen.

Regreso al dispositivo para controlar las maletas
Una vez entendido el dispositivo bidimensional para controlar las medidas de los marcos de fotografías, o estructuras rectangulares en general, podemos comentar brevemente cual sería el dispositivo para las maletas de mano, o paralelepípedos (cajas rectangulares) en general. La idea es la misma, pero con tres dimensiones, en lugar de dos.
De forma análoga a como ocurría en dimensión dos, ahora las medidas de una maleta / caja rectangular (x, y, z), siendo x el ancho, y el largo y z el alto, determinarán el punto P = (x, y, z) del espacio tridimensional coordenado, que es el vértice opuesto al apoyado en el origen (0,0,0). Y recíprocamente, dado un punto cualquiera del plano P = (x, y, z), este determinará las medidas concretas de una maleta / caja rectangular.

Ahora debemos observar, de manera análoga a lo ocurrido en dimensión dos, que la ecuación x + y + z = 115, derivada de las condiciones generales sobre las maletas, es la ecuación de un plano del espacio tridimensional, que se ilustra en la siguiente imagen. Luego, un punto P = (x, y, z) está en el plano si se cumple la ecuación, estará debajo del plano si x + y + z < 115 y estará por encima del plano si x + y + z > 115.

En consecuencia, el dispositivo ahora está muy relacionado con la imagen anterior. Estará formado por tres trozos de planos que se cortan perpendicularmente (en la siguiente imagen las zonas en gris), junto con una tapa triangular cuyos vértices están a 115 cm del vértice origen (de intersección de los tres planos), cuya bisagra estará en el vértice superior para poder abrir esa tapa triangular. El funcionamiento, por lo visto, será igual al de los marcos, si metemos la maleta y se cierra la tapa, estará en las condiciones determinadas (x + y + z menor, o igual, que 115 cm), pero si no cierra la tapa la maleta no puede subirse al avión como equipaje de mano.

Esta era la idea básica con la que se podía haber construido un dispositivo para el control de las maletas de cabina. Por supuesto, con mejoras reales, como mejorar el punto de bisagra. Pero la idea que quería transmitiros es que las matemáticas nos pueden ayudar a aportar soluciones concretas a cuestiones concretas.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo A vueltas con el equipaje de mano (II) se ha escrito en Cuaderno de Cultura Científica.
Baterías de estado sólido para un futuro eléctrico
La electrificación del transporte ya no es solo una idea de futuro; se ha convertido en una transformación en marcha que está redefiniendo la movilidad y acelerando la transición hacia sistemas más sostenibles y menos dependiente de los combustibles fósiles. Para que este cambio sea realmente efectivo, es fundamental disponer de sistemas de almacenamiento energético capaces de ofrecer mayor autonomía, mejores niveles de seguridad y una vida útil más prolongada, sin que ello suponga un aumento excesivo de los costes ni un retroceso en sostenibilidad. Hasta ahora, las baterías de litio-ion han sido las grandes protagonistas. Su combinación de alta densidad energética, buena estabilidad y durabilidad las ha situado en el centro del desarrollo del vehículo eléctrico. Sin embargo, la expansión acelerada de la movilidad eléctrica y la integración masiva de energías renovables están empezando a revelar sus límites. La necesidad de reducir aún más los tiempos de carga, ampliar la autonomía y reforzar la seguridad está impulsando la búsqueda de alternativas capaces de llevar el rendimiento de las baterías un paso más allá.
Baterías de estado sólidoEn este contexto, las baterías de estado sólido se han consolidado como una de las líneas de desarrollo más prometedoras. La ventaja más destacada es que dejan atrás los electrolitos líquidos, compuestos por disolventes orgánicos inflamables, y los reemplazan por electrolitos sólidos, que resultan mucho más seguros y toleran mejor el estrés térmico. Este cambio supone un avance notable en seguridad. Además, abre la posibilidad de utilizar materiales más avanzados, como el litio metálico en el ánodo, que ofrece una capacidad energética muy superior a la de los materiales convencionales en base de carbón. Sin embargo, la transición hacia sistemas completamente sólidos aún está lejos de ser inmediata. Fabricar electrolitos sólidos cerámicos extremadamente finos, garantizar interfaces químicamente estables y dominar procesos de producción complejos sigue siendo un desafío tecnológico. Por esta razón, la industria está apostando por soluciones intermedias que combinan componentes líquidos y sólidos, permitiendo avanzar hacia el estado sólido sin necesidad de rediseñar por completo las líneas de producción de celdas de litio-ion actuales.
Este enfoque combinado se basa en electrolitos que inicialmente se encuentran en estado líquido y son capaces de infiltrarse completamente en los poros de los electrodos, para luego solidificarse dentro de la celda. Esta estrategia representa un paso pragmático y estratégico en la transición hacia baterías de estado sólido, ya que permite formar interfaces continuas y estables, algo que resulta mucho más difícil de conseguir con electrolitos sólidos preformados (membranas sólidas). La solidificación in situ no solo mejora la conducción iónica, sino que también minimiza espacios vacíos o irregularidades que podrían afectar la eficiencia y la seguridad de la batería. Además, esta estrategia es compatible con los procesos industriales ya existentes en la producción de baterías de litio-ion, lo que facilita su integración y reduce los costes y complicaciones asociados. Gracias a esta combinación de realismo industrial y avance tecnológico, las arquitecturas semi-estado-sólido, semi-SSB en inglés, están emergiendo como una alternativa sólida para mejorar el rendimiento de las baterías en aplicaciones de movilidad eléctrica y almacenamiento estacionario.
La familia de celdas Gen4a
Estructura de la familia de celdas tipo semi-SSB Gen4a. Fuente: CIDETECEn este contexto, en CIDETEC Energy Storage trabajamos en el desarrollo de dos familias de celdas de tipo semi-SSB que aportan ventajas complementarias. La primera (Gen4a) aprovecha la tecnología de litio-ion, utilizando una arquitectura electroquímica ya conocida, con grafito en el ánodo y materiales activos tipo LiNixMnyCozO2 (x+y+z=1) en el cátodo, pero incorporando un electrolito híbrido (sal de litio + carga inorgánica + polímero + disolvente) que se convierte en sólido mediante un proceso de polimerización in situ después del ensamblaje. Este proceso uniformiza la interfaz interna y reduce la resistencia de contacto, además de ser compatible con electrodos de alta densidad de carga sin requerir presiones elevadas durante el ensamblaje. En conjunto, esta aproximación ofrece estabilidad, seguridad y facilidad de fabricación, lo que la hace especialmente adecuada para su implementación industrial a corto plazo. Los prototipos de celda desarrollados en formato pouch de 5 Ah han mostrado un rendimiento estable durante cientos de ciclos: se han alcanzado hasta 300 ciclos con un 80 % de capacidad retenida bajo un protocolo de testeo de 0,33C/0,33C a 25 °C. Las densidades energéticas de estas celdas, alrededor de 240 Wh/kg y 700 Wh/L, se sitúan en niveles comparables a los de las baterías comerciales más avanzadas. Además, la tecnología ha sido ya escalada a prototipos de 25 Ah manteniendo sus buenas prestaciones, consolidando su papel como una tecnología puente hacia sistemas de estado sólido más sofisticados.
La familia de celdas Gen4b
Estructura de la familia de celdas tipo semi-SSB Gen4b. Fuente: CIDETECLa segunda línea (Gen4b) de desarrollo explora la integración de litio metálico como ánodo, un material cuya capacidad específica es muy superior a la del grafito y que permitiría incrementar de forma notable la densidad energética de las celdas. El uso de litio metálico con electrolitos líquidos presenta desafíos importantes, como la formación de dendritas y la inestabilidad de la interfaz, pero las arquitecturas semisólidas ofrecen un entorno más rígido y seguro para la deposición del litio. La polimerización in situ del electrolito mejora el contacto con el cátodo y contribuye a una mayor durabilidad del sistema. Los prototipos desarrollados en esta línea, basados en un electrolito gel-polimérico, han mostrado un comportamiento electroquímico prometedor a temperatura ambiente. En pruebas realizadas sobre celdas tipo pouch de 4,6 Ah, se han alcanzado densidades energéticas gravimétricas y volumétricas del orden de 350 Wh/kg y 1000 Wh/L, respectivamente, valores notablemente superiores a los de las baterías de litio-ion convencionales y muy atractivos para aplicaciones que demandan gran autonomía, como los vehículos eléctricos de largo recorrido.
Un salto cualitativo robustoLa evolución hacia baterías de estado sólido no solo es un reto técnico, sino también un proceso en el que la química y la ingeniería deben avanzar de manera coordinada para ofrecer soluciones eficientes, asequibles, sostenibles y seguras. En este sentido, las arquitecturas semi-SSB representan un paso decisivo para acelerar esta transición. Por un lado, la variante basada en litio-ion ofrece una opción robusta, compatible con la industria actual y capaz de mejorar el rendimiento sin elevar los costes. Por otro, la versión basada en litio metálico abre la puerta a un salto cualitativo en densidad energética. Juntas, ambas tecnologías constituyen un camino realista hacia las baterías de estado sólido del futuro, un camino que permitirá desarrollar sistemas de almacenamiento más seguros y duraderos, reforzando al mismo tiempo la competitividad tecnológica de la industria y contribuyendo al avance global hacia una movilidad verdaderamente sostenible.
Sobre los autores: Dra. Mónica Cobos, investigadora del equipo de baterías de estado sólido, y Dr. Andriy Kvasha, líder del equipo de estado sólido en CIDETEC Energy Storage.
Sobre CIDETEC Energy Storage: Es una organización de investigación y desarrollo especializada en tecnologías avanzadas de baterías, que diseña, desarrolla y testea las baterías del futuro desde hace 30 años. Su experiencia abarca toda la cadena de valor. CIDETEC es miembro de Basque Research and Technology Alliance (BRTA).

Basque Research & Technology Alliance (BRTA) es una alianza que se anticipa a los retos socioeconómicos futuros globales y de Euskadi y que responde a los mismos mediante la investigación y el desarrollo tecnológico, proyectándose internacionalmente. Los centros de BRTA colaboran en la generación de conocimiento y su transferencia a la sociedad e industria vascas para que sean más innovadoras y competitivas. BRTA es una alianza de 17 centros tecnológicos y centros de investigación cooperativa y cuenta con el apoyo del Gobierno Vasco, SPRI y las Diputaciones Forales de Araba, Bizkaia y Gipuzkoa.
El artículo Baterías de estado sólido para un futuro eléctrico se ha escrito en Cuaderno de Cultura Científica.
Retrato de mundos efervescentes
Cuando observamos la enorme diversidad de satélites que están en órbita alrededor de los planetas del Sistema Solar exterior, a los geólogos nos encanta buscarles sus fracturas, como si estuviésemos interesados en darles costura. Durante mucho tiempo hemos interpretado esas señales, junto con otras muestras de deformación en sus cortezas, como la prueba inequívoca de que existe -o existió- un océano subterráneo. Parecía que esta lógica siempre estaba de nuestro lado: cuando un océano interior se congela o el hielo de la corteza comienza a fundirse, provoca unos esfuerzos y una deformación en la corteza que acaba rompiéndola por algunos puntos como si fuese el frágil cascarón de un huevo. Lo que no se consideraba hasta ahora era que los océanos de los mundos océano podrían entrar en ebullición.
Pero un nuevo estudio publicado en Nature Astronomy por Rudolph et al. (2025), propone un mecanismo por el cual los océanos subterráneos de las pequeñas lunas heladas podrían «hervir» debido a la despresurización, creando un interior rico en volátiles que pueda esconder -o disfrazar- la actividad tectónica e incluso de provocar fenómenos criovolcánicos explosivos.
Para comprender mejor esto que acabo de decir, primero tenemos que fijarnos en el “extraño” comportamiento -disculpen mi excesivo uso de las comillas hoy- del agua. A diferencia de la mayoría de las sustancias, el agua se expande cuando se congela, permitiendo que el hielo flote, y se contrae cuando se funde.
Esto tiene una consecuencia muy importante para estos satélites cuya corteza está formada por hielo. Cuando esta comienza a engrosarse porque hay menos calor disponible, el agua se convierte en un hielo que ocupa un mayor volumen, presurizando al océano que hay por debajo y al mismo tiempo generando una serie de esfuerzos que acaban agrietándola, como por ejemplo vemos en Europa. Y, por cierto, de una manera similar, las cortezas de los cuerpos rocosos también sufren de la formación de sistemas de fracturas durante su etapa de enfriamiento.
Pero, ¿qué ocurre cuando es al revés? Cuando la corteza de hielo adelgaza, tal vez debido a un aumento de las temperaturas del agua del océano subterráneo, la transformación del hielo al agua reduce el volumen y la corteza de hielo es, de repente, demasiado grande para el interior que cubre. Durante este proceso, la corteza comienza a ajustarse y comprimirse “hacia adentro”, como intentando ajustarse al océano, provocando una inmensa tensión compresiva en el hielo mientras que al mismo tiempo se reduce la presión en el océano de agua líquida que hay debajo.
Imagen de Mimas, el satélite de Saturno. Además de su enorme parecido con la “estrella de la muerte” de Star Wars, se aprecia una superficie completamente cubierta de cráteres, un síntoma que suele estar asociado a cuerpos geológicamente inactivos o con poca actividad, incapaces de rejuvenecer su superficie. Imagen cortesía de NASA/JPL/Space Science Institute.Esto ha llevado a los investigadores a observar una sorprendente divergencia en la forma en la que los distintos satélites podrían soportar las tensiones que provoca el aumento o la disminución de la capa de hielo y descubrieron que el resultado que vemos en la superficie depende en gran medida del tamaño del satélite.
En el caso de los cuerpos helados más pequeños como Mimas, Encélado o Miranda, la física del océano da un giro radical antes de que la superficie tenga la oportunidad de resquebrajarse. Debido a que estas lunas tienen una gravedad bastante baja, la presión en la superficie de los océanos es también relativamente baja. A medida que la capa de hielo pierde espesor al calentarse el océano y la presión dentro de las aguas del océano también disminuye, el agua alcanza un umbral crítico conocido como punto triple, un estado en el cual coexisten las fases de hielo, agua líquida y el vapor.
En estas condiciones, el océano comienza, literalmente, a hervir. No se trata de la misma ebullición del agua cuando ponemos una olla de agua a calentar para hacer un caldo en un frío día de invierno y que en este caso estaría provocado por el calor, sino más bien un fenómeno de ebullición por descompresión, similar a lo que le ocurre el agua cuando la introducimos en una cámara de vacío.
El océano existente en estos satélites herviría para compensar el vacío creado por el deshielo, amortiguando las tensiones que se generan y evitando que la corteza se rompa, algo así como un air-bag geológico. Esto implica que una luna como Mimas podría albergar en su interior un océano en crecimiento sin la necesidad de que en su superficie aparezcan zonas de deformación ni fracturación.
Y al mismo tiempo resolvería la paradoja de por qué este pequeño satélite -cuyo parecido con la estrella de la muerte es abrumador- según los últimos datos de libraciones podría tener un océano de reciente formación en su interior, a pesar de que su superficie es muy antigua y está llena de cráteres y no hay señales de la reactivación de procesos internos.
Las implicaciones para un mundo como Encélado también son profundas: Sabemos que es un mundo tremendamente activo, atestiguado por sus geiseres, su joven superficie y por los sistemas de fracturas. Y es que este estudio sugiere que el mecanismo de ebullición podría ser el principal motor de estos chorros de agua que se en ocasiones llegan a los cientos y miles de kilómetros de distancia. Un fenómeno realmente espectacular.
A medida que la presión del océano permite la aparición un entorno parecido al vacío, los gases disueltos como el dióxido de carbono, el metano o el nitrógeno se separarían, burbujeando fuera del agua del océano de una forma muy similar a cuando abrimos una botella de gaseosa. Estos gases que se están separando crearían una capa flotante y rica en volátiles en la interfaz entre la corteza de hielo y el océano.
Imagen de Encélado donde se aprecia perfectamente la gran actividad de los geiseres que funcionan en las proximidades de su polo sur. Imagen cortesía de NASA/JPL/Space Science Institute.Esta mezcla gaseosa, de manera natural, tiende a ascender. Los investigadores proponen que estos gases podrían subir a través del hielo a través las fracturas o como fenómenos diapíricos, donde un hielo más plástico y lleno de burbujas de gas ascendería como la cera en una lámpara de lava. Este mecanismo evita un problema que desde hace mucho tiempo existe en física planetaria: como conseguir que las fracturas se propaguen desde la base de la corteza de hielo hacia la superficie, cuando el hielo en las partes inferiores suele estar a mayor temperatura y comportarse de manera dúctil y no frágil.
La flotabilidad que proporcionan estos gases que escapan del agua suministraría la fuerza necesaria para propagar las fracturas desde el interior hacia la superficie, y también podría ser un mecanismo válido para explicar los geiseres que vemos hoy día. Por lo tanto, estos podrían ser el resultado directo de la “ebullición” del océano a medida que la capa de hielo va adelgazando.
Sin embargo, la historia cambia drásticamente cuando hablamos de cuerpos más grandes: El estudio marca un límite claro entre cuerpos con un radio de unos 300 kilómetros o menos y los más grandes. En los mundos de mayor tamaño, como pueden ser Titania, Oberon o Japeto, la gravedad ejerce una fuerza mayor, y la presión litostática que ejerce el hielo que recubre el océano es mucho mayor también. Como consecuencia de esto, a medida que las capas de hielo adelgazan, la presión del océano nunca desciende lo suficiente como para alcanzar el punto de ebullición, pero la tensión compresiva que se acumula en la capa de hielo se vuelve insoportable.
Entonces, en estos mundos más grandes, el hielo falla mecánicamente mucho antes de que el agua pueda hervir y emitir todos esos gases disueltos que actúen como un cojín que amortigüe a la corteza, que sufrirá procesos tectónicos compresivos, en los cuales esta se deforma y se fractura. Los investigadores señalan que algunos sistemas montañosos en Titania y la gran cordillera ecuatorial de Japeto serían precisamente cicatrices de estos procesos. Aunque hay muchas teorías sobre la formación de esta última, como podría ser la caída del material de un anillo que ya no existe sobre la superficie, el fallo compresional de una corteza cada vez más delgada aparece como una explicación físicamente viable, como si Japeto hubiese sido un acordeón cósmico.
Esto nos deja abierta una nueva línea para la investigación: los cuerpos más pequeños pueden ser buenos ocultando sus océanos, mientras que las lunas más grandes si suelen mostrar señales en su corteza, como grandes sistemas de fracturas y cordilleras montañosas.
Imagen de Japeto donde se aprecia perfectamente su cordillera ecuatorial y que, según este estudio, podría ser la señal de un océano subterráneo. Imagen cortesía de NASA/JPL/Space Science Institute.Para llevar a cabo este estudio, los científicos usaron modelos numéricos para simular la evolución térmica y mecánica de estos cuerpos. Asumieron el adelgazamiento de la corteza de hielo en aproximadamente un 10%, un valor razonable teniendo en cuenta los últimos datos que conocemos de calentamiento por mareas o por cambios en las resonancias orbitales, capaces a su vez de traducirse en una mayor energía disponible y, por lo tanto, de mayor temperatura en el océano y la corteza de hielo.
Tampoco podemos olvidar el destino del vapor generado en estos océanos. Cuando el agua entra en ebullición, se genera una capa de vapor de agua y de otros gases. Ya que el interior está bajo alta presión -en comparación con la superficie- el comportamiento de esta capa de gas puede ser bastante complejo. Aunque el vapor de agua podría recondensarse al ascender hasta la capa de hielo más fría, el resto de los gases -como el nitrógeno, el metano o el dióxido de carbono- seguirían en estado gaseoso bajo estas condiciones.
Estos gases podrían acumularse en capas de hielo poroso o incluso formar clatratos -unas estructuras que actúan como una jaula capaz de atrapar moléculas de gas- que luego podrían ascender rápidamente. Este detalle también sugiere que el diapirismo, como mencionamos anteriormente, también podría ser un mecanismo importante de transporte de calor y materiales entre el interior y el exterior de estos cuerpos.
Mosaico de imágenes de Miranda, el satélite de Urano, a partir de imágenes tomadas por la Voyager 2 en enero de 1986. Se aprecia perfectamente la enorme diferencia que hay entre las zonas más antiguas y cubiertas de cráteres y las más recientes, que parecen parches cosidos sobre su superficie, dejando unas costuras muy marcadas. Imagen cortesía de NASA/JPL/USGS.La existencia de estos procesos nos ofrece una nueva perspectiva para estudiar un cuerpo como Miranda, una luna de Urano. Miranda es algo parecido a un Frankenstein geológico, un mosaico de distintos terrenos que parecen cosidos entre si como los parches de un pantalón. Los investigadores sugieren en este estudio que los fenómenos de rejuvenecimiento de la superficie de Miranda implican la existencia de un océano -en el pasado- que podría haber estado alimentado por una convección que se vería facilitada o potenciada por la ebullición del océano. Si la capa de hielo de Miranda sufrió un rápido adelgazamiento debido a una resonancia orbital temporal o pasajera, la ebullición resultante podría haber impulsado la caótica transformación de su superficie.
Esta investigación podría cambiar radicalmente que tipo de señales buscamos cuando investigamos la existencia de océanos más allá de la Tierra. Anteriormente, la ausencia de sistemas de fracturas en Mimas llevó a muchos a suponer que se trataba de un bloque sólido de hielo, como un cubito. Ahora sabemos que pueden existir océanos ocultos en los que la física de la ebullición es capaz de enmascarar o de incluso inhibir la actividad tectónica, al menos a simple vista.
Esto nos lleva a considerar que la ausencia de pruebas no es necesariamente una prueba de ausencia de un océano. Por el contrario, en mundos más grandes como Titania, la presencia de cordilleras fruto de la compresión podría ser la revelación de un océano moribundo o en proceso de adelgazamiento, más que de un mundo geológicamente muerto, como a veces se han interpretado.
De cara a futuras misiones, este nuevo marco podría servirnos para planificar mejor los destinos y que instrumentos hemos de incorporar para estudiar estos océanos, o al menos que deberíamos hacer para poder detectarlos, pero también debe recordarnos que a veces algunos detalles sutiles son capaces de hacernos cambiar la interpretación geológica de algunos mundos que, a pesar de darlos por muertos, podrían estar muy vivos.
Referencias:
Rudolph, M. L., Manga, M., Rhoden, A. R., & Walker, M. (2025) Boiling oceans and compressional tectonics on emerging ocean worlds Nature Astronomy doi: 10.1038/s41550-025-02713-5
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Retrato de mundos efervescentes se ha escrito en Cuaderno de Cultura Científica.
La brecha entre la obediencia imaginada a la autoridad y la real
Estás en una sala. Frente a ti, un hombre de bata blanca te dice que pulses el botón que provocará una descarga eléctrica. Al otro lado de la pared, alguien grita de dolor. Tus manos tiemblan. La autoridad insiste. ¿Qué harás?
No es una película. Es un escenario muy parecido al que vivieron cientos de personas en el famoso experimento de Stanley Milgram (1963). Lo perturbador es que la mayoría obedeció.
Décadas después, cuando los psicólogos preguntamos a la gente qué haría en ese mismo contexto, casi todos aseguran que se plantarían mucho antes de hacer daño a otro ser humano. Sin embargo, los datos cuentan otra historia.
La ilusión de resistirLa mayoría nos vemos como más éticos y valientes que la media: un sesgo de superioridad ilusoria. También tendemos a minimizar el poder de las circunstancias y a sobrevalorar los rasgos personales: llamado error fundamental de atribución (Ross, 1977). El resultado es una confianza ingenua: “Yo no sería de los que aprietan el botón”.
Es tal la autoridad que asociamos a una bata blanca y un estetoscpio al cuello, que el uso de actores caracterizados así es una herramienta muy eficaz en la venta de suplementos, medicamentos, servicios sanitarios o seguros de salud. Solo siendo conscientes del sesgo de autoridad podemos minimizar la obedencia indebida y tomar decisiones más objetivas. Foto: Usman Yousaf / Unsplash
Dos condiciones, dos realidades
El experimento de Milgram se ha replicado muchas veces, la brecha entre lo que la gente imagina y lo que hace es consistente:
En la investigación de Mazzocco et al. (2025), cuando se preguntó a las personas cuánto obedecerían en una situación tipo Milgram, predijeron tasas mucho más bajas (20,9 % para sí mismos y 36,8 % para “otra persona”) que lo que realmente se observa en experimentos controlados. En el estudio de Burger (2009), que replicó parcialmente el paradigma de Milgram, el 70 % de los participantes obedeció hasta el máximo permitido.
La consecuencia es brutal: en nuestra cabeza somos héroes; ante la bata blanca, obedecemos tanto como en 1963.
¿Por qué nos equivocamos tanto?- Distancia emocional. Imaginar un dilema moral no genera la misma activación fisiológica que vivirlo; sin adrenalina, es fácil ser valiente.
- Presión situacional silenciosa. En la situación real, señales como la bata, la seriedad del investigador… legitiman la orden y reducen el conflicto interno.
- Brújula ética atenuada. Un estudio con EEG encontró que, al obedecer, disminuye la actividad theta frontal-medial previa a infligir daño: la sumisión silencia alertas internas antes de que se enciendan.
Un sabio dijo: “no nos elevamos a la altura de las expectativas, caemos a la altura de nuestro entrenamiento”.
- Entrenamiento en asertividad. Situaciones reales donde practicamos decir “no” bajo autoridad percibida.
- Micro‑actos de desobediencia. Rechazar pequeñas órdenes injustas en la vida diaria refuerza el músculo moral.
- Entornos que refuercen la voz crítica. Equipos o amistades que celebren la integridad, no el conformismo.
- Educación sobre sesgos. Conocer nombres y mecanismos facilita detectarlos en tiempo real.
No te sentarán ante un generador de shocks, pero cada día te enfrentas a la misma brecha entre intención y acción: decir “no” a un compromiso mal planteado, cuestionar una orden dudosa, no dejarte arrastrar por un “aceptar todo”.
La bata blanca cambia de forma: a veces un “es urgente”, otras un proceso diseñado para que no pienses. Y casi siempre obedecemos más de lo que creemos.
Esta brecha explica nuestra frustración vital: expectativas altas, ejecución tibia. La narrativa que construimos sobre nosotros mismos no sobrevive al contacto con los hechos.
La pregunta no es si resistirás, sino qué entrenamiento y qué alianzas estás creando hoy para resistir cuando de verdad importe.
Referencias
Burger J. M. (2009). Replicating Milgram: Would people still obey today? The American psychologist, 64(1), 1–11. doi: 10.1037/a0010932
Caspar, E. A., & Pech, G. P. (2024). Obedience to authority reduces cognitive conflict before an action. Social neuroscience, 19(2), 94–105. doi: 10.1080/17470919.2024.2376049
Ebert, J., Winzer, P., & Müller, C. (2025). Reducing the Hypothetical Bias in Measuring Willingness to Pay for Mobile Communication Products. Journal of Theoretical and Applied Electronic Commerce Research, 20(2), 122. doi: 10.3390/jtaer20020122
Mazzocco, P. J., Reitler, K., Little, L., Korte, J., Ridgill, M., & Stalnaker, X. (2025). Milgram shock‑study imaginal replication: How far do you think you would go? Current Psychology. doi: 10.1007/s12144-025-07962-1
Ross, L. (1977). The intuitive psychologist and his shortcomings: Distortions in the attribution process. In L. Berkowitz (Ed.), Advances in experimental social psychology (Vol. 10, pp. 173–220). Academic Press.
Sobre el autor: David Carcedo es divulgador, psicólogo sanitario en Donostia y coordinador de sección de laboratorio en el BCBL.
El artículo La brecha entre la obediencia imaginada a la autoridad y la real se ha escrito en Cuaderno de Cultura Científica.
La viscosidad altera la música de las estrellas
Ilustración artística de la fusión de dos estrellas de neutrones, proceso que genera ondas gravitacionalesFuente: University of Warwick/Mark Garlick, CC BY 4.0, Wikimedia CommonsLas ondas gravitacionales son vibraciones del propio espacio-tiempo, ondas que se propagan tras sucesos muy violentos como la fusión de agujeros negros o de estrellas de neutrones. Estas ondas, tan débiles que apenas deforman los detectores más sensibles de la Tierra, también atraviesan planetas, gases y estrellas. Pero ¿qué ocurre cuando una de esas ondas pasa a través de objetos que no son rígidos, sino fluidos y, por tanto, viscosos?
Recordemos que la viscosidad mide la resistencia de un fluido a fluir y es una expresión de la existencia de fuerzas de rozamiento internas y, por lo tanto, de cómo disipa energía. Así, un líquido muy viscoso, como la miel, amortigua las vibraciones más rápido que el agua. Las estrellas y otros objetos compactos como los planetas, aunque puedan parecer sólidos, son en realidad fluidos extremadamente densos. Algunas partes de su interior —como el núcleo de una estrella de neutrones— pueden comportarse como un líquido con cierta viscosidad.
La viscosidad altera…En un nuevo estudio los autores han modelado la interacción de las ondas gravitacionales y la materia siguiendo las leyes de la relatividad general, pero incluyendo los efectos de la viscosidad. De esta manera han podido calcular cómo se propagan las perturbaciones a través de las estrellas y cómo se ve afectada la onda gravitacional al atravesarlas.
El resultado principal es que, como era de esperar, la viscosidad absorbe parte de la energía de la onda. Si la materia fuera un fluido ideal, sin viscosidad, la onda las atravesaría casi sin alteración; pero si hay fricción interna, la onda deja parte de su energía en la estrella. Simplificando, es como si la onda gravitacional hiciera vibrar el interior de la estrella y esa vibración se fuera convirtiendo en calor.
Cuando la viscosidad es pequeña, la absorción es débil. Si se incrementa, la onda empieza a perder más energía dentro de la estrella. S la materia es muy viscosa la onda puede incluso reflejarse parcialmente, igual que una ola rebota contra un muro. Los autores demuestran que, para ciertos valores, la reflectividad puede parecerse a la de un agujero negro.
Sin embargo, alcanzar esos niveles de viscosidad extrema no es fácil: si se exagera, el modelo empieza a violar principios básicos de la relatividad, como la causalidad. En otras palabras, la materia no puede ser infinitamente viscosa sin dejar de tener sentido físico. Por eso, aunque el hallazgo es fascinante, no implica que existan objetos capaces de reflejar ondas gravitacionales de manera perfecta; más bien marca los límites teóricos de lo que la física permite.
…la música de las estrellasEl estudio también muestra que la viscosidad cambia las notas naturales de vibración de las estrellas. Igual que una campana produce tonos característicos cuando se la golpea, una estrella vibra en modos característicos cuando una onda gravitacional la alcanza. La presencia de viscosidad altera ligeramente esas frecuencias y los tiempos en los que las oscilaciones se amortiguan. La viscosidad introduce un nuevo tipo de vibraciones internas, propias del material viscoso, que podrían dejar señales específicas en la radiación gravitacional emitida por el sistema. Detectar esas huellas sería una manera de estudiar las propiedades internas de las estrellas más densas sin necesidad de observarlas directamente.
Desde el punto de vista astrofísico, los cálculos muestran que el efecto de absorción o calentamiento que una onda gravitacional produce en una estrella es minúsculo en la mayoría de los casos. Incluso en las colisiones más energéticas del universo, la cantidad de energía que una onda transfiere a una estrella es despreciable. Aun así, en entornos muy extremos —por ejemplo, cerca del centro de una galaxia activa o dentro de cúmulos donde las ondas gravitacionales son intensas—, estos efectos podrían tener un papel interesante y observable.
Imitadores de agujeros negrosEl artículo toca dos grandes temas actuales. El primero es la idea de que ciertos objetos extremadamente compactos, pero sin horizonte de sucesos, podrían imitar el comportamiento de los agujeros negros. Si son lo bastante viscosos, podrían reflejar parte de las ondas gravitacionales y producir ecos en las señales que registran detectores como LIGO o Virgo. El segundo es la posibilidad de que la viscosidad y la rotación generen superradiancia, un fenómeno en el que una onda sale del objeto amplificada, robándole energía a su rotación. Este mecanismo podría producir inestabilidades o patrones característicos en las observaciones futuras.
Este trabajo demuestra que la viscosidad no es un detalle menor: influye en cómo las estrellas absorben, reflejan o incluso amplifican las ondas que las atraviesan. También recuerda que, para interpretar correctamente las señales detectadas en la Tierra, debemos tener en cuenta la microfísica de las estrellas y los efectos disipativos que pueden modificar esas vibraciones del espacio-tiempo.
Es un paso más hacia una astronomía gravitacional más completa, en la que no sólo observamos cómo las ondas viajan por el universo, sino también cómo los distintos tipos de materia responden a ellas, revelando su estructura interna y, quizás, las propiedades más sutiles de la gravedad misma.
Referencias:
Valentin Boyanov, Vitor Cardoso, Kostas D. Kokkotas, and Jaime Redondo-Yuste (2025) Dynamical Response of Viscous Objects to Gravitational Waves Phys. Rev. Lett. doi: 10.1103/smlr-v7b2
Sumanta Chakraborty (2025) Viscous Stars Can Reflect Gravitational Waves like Black Holes Do Physics 18, 169
César Tomé López (2019) Ondas (serie) Cuaderno de Cultura Científica
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La viscosidad altera la música de las estrellas se ha escrito en Cuaderno de Cultura Científica.
El violento nacimiento de Venus
Cuando hablamos en términos coloquiales muchas veces nos referimos al planeta Venus como una especie de gemelo de nuestro planeta, pero la realidad nos dice que de gemelos más bien tienen poco. Quizás sí podríamos llamarlos hermanos, ya que ambos son planetas rocosos y tienen un tamaño, composición y densidad similar.
A pesar de este aparente parecido son dos mundos antagónicos. La Tierra es un planeta templado, con océanos de agua líquida y casquetes polares, mientras que Venus sería lo más parecido al infierno: Un mundo con temperaturas que se acercan a los 500 ºC rodeado por una densa e irrespirable atmósfera de dióxido de carbono, nitrógeno y dióxido de azufre.
Pero hay muchas más diferencias, alguna de ellas muy llamativas. El día de Venus dura nada más y nada menos que 243 días terrestres y, por si fuese poco, gira sobre sí mismo al revés. Bueno, en sentido contrario al de la Tierra y al de la mayoría de los planetas. Y hay un detalle más que fascina a los científicos y del que todavía no tenemos una respuesta clara al porqué: Venus está solo, no tiene ni un solo satélite natural que quizás hubiese podido ser clave para estabilizar su giro e incluso su clima.
Imagen de Venus tomada en luz visible por la sonda Messenger en junio de 2007. Así lo veríamos con nuestros propios ojos si estuviésemos en sus proximidades, con una capa de nubes que oscurece de manera perpetua su superficie. Cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington..¿Cómo pudieron ambos planetas empezar siendo tan parecidos y evolucionar hacia mundos tan diferentes? Un nuevo estudio publicado por Bussmann et al. (2025) parece haber sido capaz de traer una nueva teoría para explicar las causas y al menos resolver -aparentemente- estas dos últimas diferencias mediante la simulación de un impacto gigante contra la superficie de Venus cuando el Sistema Solar era mucho más joven.
Los inicios del Sistema Solar fueron realmente agitados. Las simulaciones sobre la formación de nuestro sistema planetario muestran que las últimas etapas de su formación estuvieron probablemente dominadas por colisiones de una magnitud inimaginable.
De hecho, la teoría más ampliamente aceptada sobre la formación de nuestra propia Luna tiene mucho que ver con esto, ya que incluye un cuerpo del tamaño de Marte chocando con nuestra proto-Tierra. Y no sería raro pensar que Venus hubiese sufrido un destino similar, pero… ¿qué tipo de impacto podría haber dejado a Venus tal y como lo conocemos hoy?
Para responder a esta pregunta, los científicos han ejecutado una serie de modelos numéricos que permiten analizar con gran nivel de detalle la física de estas grandes colisiones. Crearon un proto-Venus diferenciado en dos capas con un núcleo de hierro que formaría un 30% de la masa del planeta y un manto rocoso que ocuparía el 70% restante.
Tras la creación de este gemelo digital, comenzaron a “dispararle” cuerpos planetarios de distintos tamaños, con distintos ángulos y velocidades. La clave no era el hacer una sola simulación, sino explorar el amplio abanico de posibilidades en cuanto a los parámetros de impacto. En total realizaron 81 simulaciones diferentes variando los parámetros más importantes para ver que pasaba.
Como decíamos en el párrafo anterior, dispararon contra el proto-Venus cuerpos de distintos tamaños, desde cuerpos de tan solo 0.01 veces la masa terrestre hasta otros del tamaño de Marte y con una masa de 0.1 veces la de nuestro planeta. También variaron las velocidades de colisión en un rango entre los 10 y los 15 km/s, suficientes para alcanzar la velocidad de escape de Venus.
Mapa topográfico de Venus centrado en la longitud 270º. Si miramos la distribución de alturas -cuya leyenda esta en la parte inferior derecha de la imagen- veremos que se parece muy poco a la de nuestro planeta, donde hay una fuerte distribución bimodal donde se distinguen los continentes y las cuencas oceánicas. Imagen cortesía de NASA/JPL/USGS.También cambiaron las condiciones iniciales de este proto-Venus. Ya que no sabemos cómo podría haber sido este embrión planetario antes de la gran colisión, probaron también con diferentes periodos de rotación, desde uno de cero horas -es decir, con el planeta sin girar sobre si mismo- hasta uno en el que el día tan solo duraba dos horas y media, más rápido que Júpiter. También probaron distintas geometrías de impacto, desde unas colisiones “frontales” hasta otras más oblicuas y tangenciales capaces de añadir o restar momento angular al planeta.
El primer objetivo de los investigadores era el intentar resolver el misterio de la lenta velocidad de rotación y su sentido “inverso”. Para considerar que habían dado en el clavo, el escenario del impacto no necesitaba producir una velocidad de rotación como la actual, que es equivalente a 243 días terrestres. Solo necesitaban que la velocidad de rotación tras el impacto fuese de aproximadamente de 2 días o más.
Este es el umbral conservador que marcan algunos modelos de como podría haber sido la velocidad de rotación de Venus en el pasado. Y es que un Venus girando tan lentamente, con una atmósfera tan densa como la actual, permitiría que las mareas gravitatorias y térmicas que provoca la atmósfera sobre la superficie sirviesen como un freno que, a lo largo de miles de millones de años, frenase al planeta hasta la velocidad de rotación de hoy día, como un enorme lastre.
Curiosamente, los científicos se dieron cuenta que un gran número de los escenarios de impacto simulados son capaces de generar este resultado sin problemas. Si el proto-Venus no giraba sobre sí mismo antes del impacto, la solución era directa: una colisión frontal con un objeto del tamaño de Marte sería suficiente. Pero con un cuerpo pequeño, incluso con un impacto muy tangencial podría dejar al planeta con periodos de rotación superiores a las 48 horas.
Venus es un mundo tan diferente al nuestro que incluso tiene formas geológicas que no se parecen en nada a las de la tierra, como estos pancake domes o, en traducción libre conocidos como “domos tortita” y que parecen ser domos de lava formados por la erupción de una lava muy viscosa, en este caso situados en Alpha Regio. Imagen cortesía de NASA/JPL.Pero más llamativos fueron los resultados cuando simularon el impacto con un Venus girando sobre sí mismo. En este caso, el cuerpo que impactaba contra el proto-Venus tenía no solo que cambiar su velocidad de rotación, sino también de invertirla.
Para conseguir este efecto, se necesitaba un impacto oblicuo que golpease al planeta en contra de su dirección de rotación, algo que en las simulaciones es un escenario posible. Eso sí, en el caso de un Venus con una rotación muy rápida -el escenario de 2.5 horas- necesitaría de múltiples impactos para frenarlo e invertir su rotación, algo mucho más difícil desde el punto de vista estadístico.
Y ahora que tenemos resuelta la primera parte del puzle, ¿Por qué Venus no tiene un satélite natural? Estos mismos impactos son capaces de lanzar una gran cantidad de materia a la órbita, formando anillos cuyos fragmentos pueden ir fusionándose para formar un satélite, como en el caso de la Tierra y la Luna.
No todo iba a ser tan fácil ni tan bonito para Venus. El estudio tiene una derivada muy importante: los investigadores han encontrado una fuerte correlación positiva entre el momento angular del sistema tras el impacto y la masa del disco de materia producido por el impacto. Es decir, si el impacto acelera mucho al planeta, también lanza hacia afuera una gran cantidad de materia, mientras que los impactos que dejan al planeta con una velocidad de rotación pequeña, la cantidad de materia que se expulsa al espacio es mucho menor.
También hay formas que nos son más familiares, como esta imagen de radar de Sapas Mons, un volcán que alcanza los 1500 metros y cuyas coladas de lava -en esta imagen de radar en tonos muy claros- nos recuerda mucho a una imagen cenital de los volcanes terrestres. Imagen cortesía de NASA/JPL.Aquí es donde se unen las dos partes del estudio, ya que los investigadores opinan que son las dos caras de una moneda. Los escenarios que fueron capaces de explicar por qué Venus gira tan lentamente son los mismos que no pudieron crear un gran disco de materia alrededor del planeta y que acabase formando un satélite.
Además, la estabilidad del disco de materia alrededor de los planetas depende de su distancia con respecto a la órbita síncrona del planeta, la altitud a la cual una satélite gira a la misma velocidad que el propio planeta, un caso similar al de los satélites geoestacionarios en el ecuador de la Tierra.
Para el caso de un Venus girando tras el impacto con un periodo de 48 o más horas, la órbita síncrona estaría muy lejos, en torno a unas 10 veces el radio del planeta. Los investigadores analizaron todos los discos de materia formados en las simulaciones observando que, en cada caso, la poca materia que acaba en órbita lo hacía muy dentro de la órbita síncrona.
Este material estaría, de algún modo, condenado. En vez de unirse formando un satélite con una vida prolongada -en tiempo geológico, claro- las fuerzas de marea irían acercándolo a Venus. Este disco de materia iría lentamente haciendo una espiral descendente hacia el planeta, cayendo finalmente sobre su superficie.
Los resultados de este modelo no son un final en sí mismo, sino un inicio para comprender mejor la evolución de Venus. Un impacto de esta magnitud es capaz de “reiniciar” un planeta, ya que introduce una inmensa cantidad de energía cinética que, a su vez, se transforma en energía térmica, fundiendo grandes cantidades de la corteza y manto de Venus y alterando su evolución geodinámica.
Comprender mejor como Venus se ha ido enfriando, como se ha desarrollado la convección en el manto y conocer detalles que nos permitan entender el por qué, por ejemplo, no ha desarrollado una tectónica de placas, puede ser fundamental para por fin responder a la pregunta de por qué dos planetas que nacieron siendo tan iguales, acabaron teniendo un destino antagónico.
Referencias:
Bussmann, M., Reinhardt, C., Gillmann, C., Meier, T., Stadel, J., Tackley, P., & Helled, R. (2025) The possibility of a giant impact on Venus. Astronomy & Astrophysics doi: 10.1051/0004-6361/202555802
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo El violento nacimiento de Venus se ha escrito en Cuaderno de Cultura Científica.
