Cuidando nuestra salud oral protegemos el cerebro
Cuando pensamos en salud oral, solemos imaginar dientes blancos y encías firmes. Pero mantener una buena higiene bucal va mucho más allá de una cuestión estética: puede influir directamente en la salud de todo nuestro organismo.
Foto: Marcos Ramírez / UnsplashPorque lo que ocurre en la boca no se queda en la boca. Las bacterias que se acumulan en los dientes y encías pueden viajar por el cuerpo y tener consecuencias en órganos tan distintos como el corazón o el cerebro.
Una mala salud oral no solo favorece la aparición de caries, la pérdida de dientes o la inflamación de encías (gingivitis): también puede agravar enfermedades crónicas como la diabetes, aumentar el riesgo de ciertos tipos de cáncer e incluso contribuir al desarrollo de enfermedades cardiovasculares, cerebrales y neurodegenerativas.
En concreto, se ha observado que las personas que padecen periodontitis –una inflamación crónica de las encías causada por la acumulación de placa bacteriana– presentan más posibilidades de desarrollar complicaciones en otras partes del cuerpo. Los datos son claros: un paciente con periodontitis no tratada tiene 2,5 veces más riesgo de sufrir un ictus y casi 3 veces más de probabilidades de padecer una enfermedad cardíaca en comparación con quienes mantienen una buena salud bucodental.
Además, la inflamación crónica asociada con la periodontitis también podría contribuir al deterioro cognitivo, como ocurre en el alzhéimer.
Alzhéimer: el olvido que lo cambia todoEl alzhéimer es la causa más frecuente de demencia neurodegenerativa. A nivel mundial, más de 57 millones de personas viven con demencia, de las cuales entre el 60 % y el 70 % padecen alzhéimer. En España, afecta a unas 800 000 personas, y se estima que su prevalencia se duplicará en los próximos 20 años.
Aunque aún no conocemos su causa exacta, sí sabemos que influyen tanto la genética como factores ambientales, incluido nuestro estilo de vida. Y es aquí donde aparece una conexión inesperada: el cuidado de las encías podría desempeñar un papel protector frente al deterioro cognitivo.
Bacterias, seres invisibles que dejan huellaLa boca alberga unas 770 especies de microorganismos que componen la microbiota oral. En equilibrio, esta comunidad bacteriana cumple funciones beneficiosas. Pero cuando la higiene es deficiente o existen factores que alteran ese equilibrio, las bacterias patógenas se multiplican, favoreciendo la aparición de enfermedades como la enfermedad periodontal.
La gingivitis, la forma más leve, afecta hasta al 90 % de la población y puede revertirse con una correcta higiene. Sin embargo, si progresa, puede convertirse en periodontitis, una afección crónica, inflamatoria e irreversible con consecuencias que van mucho más allá de la pérdida de dientes.
Las bacterias implicadas, especialmente Porphyromonas gingivalis, y las moléculas inflamatorias que el sistema inmunitario libera al intentar combatirlas pueden viajar por la sangre y alcanzar órganos distantes, como el cerebro. Allí pueden contribuir a procesos inflamatorios y al desarrollo o progresión de enfermedades neurodegenerativas como el alzhéimer.
De hecho, varios estudios recientes refuerzan la hipótesis de esa conexión. En modelos animales, la exposición prolongada a toxinas de bacterias como Porphyromonas gingivalis ha inducido neuroinflamación, acumulación de proteína beta-amiloide y deterioro de la memoria, tres características típicas del alzhéimer.
En humanos, también se ha hallado evidencia sorprendente: la cantidad de bacterias orales en el tejido cerebral de personas fallecidas con esa patología es hasta siete veces mayor que en quienes no padecían la enfermedad.
Cepillarse: una rutina que podría proteger nuestra menteAsí pues, dedicar apenas 10 minutos al día a la higiene oral es una inversión para la salud futura. Cada vez que olvidamos cepillarnos, las bacterias se multiplican y pueden acabar en otras partes del cuerpo con efectos imprevisibles.
Cepillarse los dientes, usar hilo dental y acudir regularmente al dentista no solo cuida la sonrisa: también puede ayudar a proteger el corazón, el cerebro y, posiblemente, la memoria. El alzhéimer borra recuerdos, pero hay algo que conviene no olvidar: cuidar de nuestra boca es cuidar de nuestra mente.![]()
Sobre las autoras: Teresa Morera Herreras, Profesora agregada del Departamento de Farmacología, EHU; Ane Murueta-Goyena, Profesora Adjunta del Departamento de Neurociencia, EHU; y Unai Fernández Martín, Investigador predoctoral, EHU
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Cuidando nuestra salud oral protegemos el cerebro se ha escrito en Cuaderno de Cultura Científica.
La Geología por la que pasean las ánimas
En estas fechas, aparte del maratón de películas de terror de la noche de Halloween, me encanta rememorar una fantástica historia convertida en auténtica leyenda por la pluma de Gustavo Adolfo Bécquer, y en una preciosa canción por el grupo español de folk metal Saurom, «El Monte de las Ánimas».
Esta historia nos relata que, en esa zona, siglos atrás tuvo lugar una cruenta batalla entre caballeros templarios y nobles castellanos, cuyas almas no encontraron descanso, por lo que sus espíritus vagan errantes en la Noche de Todos los Santos (que, según la versión de Bécquer, no es la noche del 31 de octubre, sino la que va del 1 al 2 de noviembre) para llevarse consigo a toda aquella persona que ose pasar por allí en ese oscuro momento. Cosa que descubre Beatriz de manera atroz al perder a Alonso tras hacerle regresar al monte por la noche. Pero, ¿sobre qué materiales geológicos caminan esos fantasmas?
Detalle de las rocas que forman el Monte de las Ánimas (Soria). Imagen de Google Street View a la altura de la antigua Área de Descanso de la N-234 (Soria Sur) a las afueras de la ciudad, tomada de Google Maps.Si abandonamos las leyendas y nos vamos a la realidad, el monte de las Ánimas es una pequeña elevación del terreno situada a las afueras de la ciudad de Soria. Geológicamente hablando, esta zona forma parte de la denominada Cuenca de Almazán, que representa el límite oriental de la Cuenca del Duero, que abarca gran parte de la actual comunidad autónoma de Castilla y León. Y que también tiene una apasionante historia geológica.
Todo comenzó hace unos 80 millones de años, cuando la placa Ibérica chocó contra la placa Europea. Este proceso tectónico fue muy intenso en esta zona desde hace algo más de 60 millones de años hasta hace unos 40 millones de años, provocando la formación de tres grandes cadenas montañosas: el Sistema Ibérico al este, el Sistema Central al sur y la Cordillera Cantábrica al norte. El alzamiento de estas montañas dejó una zona deprimida en el centro, como si fuese una especie de cubeta, que es lo que en Geología denominamos cuenca sedimentaria.
Mapa geológico simplificado de la Cuenca del Duero, donde se remarca la localización de la Cuenca de Almazán (CA). Imagen modificada de Sastre Merlín, A., Montamarta Prieto, G., de Miguel Vela, F., Vicente Lapuente, R., Alejandre Alcalde, V. y Acosta Molinero, J.A. (2025) Deza: un balcón sobre la cuenca de Almazán. Guía del Geolodía 25 Soria, 8 pp.La principal característica de estas cuencas sedimentarias continentales rodeadas por elevaciones montañosas es que actúan como si fuesen unas bañeras, recibiendo el agua y los materiales (barro, arena y fragmentos de rocas) transportados por los ríos y arroyos que bajan por sus laderas. Y la Cuenca de Almazán no se quedó atrás, acumulando estos aportes montañosos durante más de 20 millones de años.
Esto provocó la formación de diferentes medios ambientes según nos alejamos de las montañas, debido a la energía que tenía el agua para poder arrastrar los materiales geológicos. Aquí es donde entran la física de fluidos y, sobre todo, la gravedad. Cuando un arroyo o riachuelo caía por la ladera de la montaña tenía una gran energía, lo que le permitía arrastrar grandes fragmentos de rocas, granos de arena de diferente tamaño y mucho barro. Pero, al llegar al pie de la ladera, cuando la pendiente disminuye, ya no tenía tanta energía, por lo que depositaba los materiales más grandes y pesados en el margen de su cauce, arrastrando sólo los sedimentos más finos hasta, finalmente, únicamente poder circular el agua casi limpia. De esta forma, junto a las laderas de las montañas se acumulaban rocas y arena de grano grueso mezcladas con barro, en unas estructuras llamadas abanicos aluviales, porque nos recuerdan a un abanico abierto si las miramos desde arriba. A su lado se formarían unas llanuras aluviales con arena más fina y arcilla y, al final, nos encontraríamos con lagos carbonatados poco profundos que, en muchas ocasiones, serían temporales.
Con el tiempo, estos sedimentos se convirtieron en diferentes tipos de rocas que, desde el pie de las laderas hasta las zonas centrales de la cuenca, serían: conglomerados y areniscas de grano grueso en los antiguos abanicos aluviales; areniscas de grano medio-fino y lutitas en las llanuras aluviales; y margas y calizas en los lagos carbonatados.
A) Zonación ambiental de una cuenca sedimentaria continental desde la cordillera hasta la zona central de la misma; y B) detalle de los ambientes sedimentarios formados en la Cuenca de Almazán. Imágenes modificadas de Huerta, P. (2006) El Paleógeno de la cuenca de Almazán. Tesis Doctoral. Universidad de Salamanca. Memoria (339 pp.), Anexo 1 y Anexo 2.Pero la historia no terminó aquí. En los últimos millones de años, el Duero fue capaz de abrirse camino hasta su desembocadura en el océano Atlántico. Siguiendo con el símil, fue como si le quitásemos el tapón a las bañeras que eran la Cuenca del Duero y su pequeño apéndice, la Cuenca de Almazán. Así, los lagos efímeros se desecaron y los arroyos y riachuelos que surgían de las montañas se convirtieron en afluentes del propio Duero, transformándose en los principales agentes de la última fase de esta historia: la erosión. Esta agua que antes depositaba sedimentos, desde entonces está robando lo que una vez poseyó, arrasando con las rocas formadas en esta zona. Pero no a todas les afecta por igual: las más resistentes, como los conglomerados, las areniscas de grano más grueso y las calizas, resisten mejor la erosión; mientras que las rocas más débiles, como las lutitas o las margas, son arrastradas sin compasión.
Entonces, ¿qué ha pasado con el Monte de las Ánimas? Pues se trata de antiguos abanicos aluviales que transportaban agua, cantos, arena y barro procedentes de las montañas situadas justo al norte de Soria. Hoy en día, esas rocas soportan el embate del agua de lluvia resistiéndose a la erosión con mayor ahínco que los materiales que tiene a su lado, por lo que permanece en pie como una pequeña elevación que vigila la ciudad.
Así que, volviendo a la pregunta del inicio, los templarios y caballeros castellanos que visiten nuestro mundo en la noche de difuntos, caminarán sobre conglomerados, areniscas y arcillas de hace unos 20 millones de años. Pero si queréis ir a comprobarlo, os recomiendo que esperéis a que sea de día, por si acaso. Y recordad ataos bien al hombro la banda de color azul, no vaya a ser que la perdáis durante vuestro paseo…
Agradecimientos:
Quiero dar las gracias a mi colega Jone Mendicoa por darme la idea para este artículo después de una interesante conversación sobre literatura y música camino a un concierto.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la EHU
El artículo La Geología por la que pasean las ánimas se ha escrito en Cuaderno de Cultura Científica.
Una apuesta engañosa
A Julene, como buena bilbaína, le encanta hacer apuestas.
Está en clase de geografía, un tanto aburrida, escuchando al profesor López que está explicando el funcionamiento de las redes hidrográficas terrestres. Para intentar vencer la apatía, propone a su compañero de pupitre, Mikel, apostar sobre los números que va a mencionar el docente a lo largo de su lección. Así, Julene invita a Mikel a apostar diez euros en un juego que tratará sobre los siguientes nueve números que mencionará el profesor, números que hacen referencia a longitudes (en kilómetros) de ríos u otras corrientes fluviales.
Fuente: FreepikJulene propone las reglas del juego a Mikel
Julene comenta los términos de la apuesta a Mikel:
Te propongo tener en cuenta únicamente la primera cifra significativa de las longitudes de los cursos de agua que mencione el profesor. Yo me quedaré con el conjunto de las tres primeras cifras A = {1, 2, 3} y tú con el conjunto de las otras seis cifras B = {4, 5, 6, 7, 8, 9}. Ganará, y recibirá los diez euros del otro, quien tenga en su conjunto la primera cifra que haya aparecido con mayor frecuencia en la lección.
Para aclarar su propuesta, Julene continúa argumentando para convencer a Mikel de que está siendo generosa con él:
Si las nueve longitudes mencionadas son, por ejemplo, 243 km, 876 km, 1222 km, 92 km, 4330 km, 982 km, 3445 km, 2122 km y 832 km (cuyos primeros dígitos son 2, 8, 1, 9, 4, 9, 3, 2 y 8), tú ganarías porque en el anterior listado de primeros dígitos hay cinco números del conjunto B, el tuyo, y sólo cuatro del conjunto A, el mío.
Julene es una jugadora astuta y, con su propuesta de juego y el ejemplo que hábilmente ha expuesto, ha conseguido que Mikel crea que es sencillo para él ganar los diez euros de la apuesta. Al fin y al cabo, el conjunto que le corresponde (el conjunto B) tiene seis dígitos y el de Julene (el conjunto A) solo posee tres. Así que, convencido de que tiene muchas posibilidades de ganar los diez euros, Mikel acepta el juego de Julene.
Pero se equivoca; de hecho, Julene tiene una mayor probabilidad de ganar. ¿Cómo puede ser esto cierto?
Con las reglas de Julene, a Mikel no le conviene jugarEfectivamente, Julene ha conseguido embaucar a Mikel; con sus reglas, ella sabe que tiene bastantes probabilidades de quedarse con los diez euros de su compañero.
La explicación de la ventaja de Julene en este juego tiene que ver con la llamada ley de Benford (o ley del primer dígito) que se refiere a una distribución de frecuencia estadística observada empíricamente en muchas fuentes de datos numéricos (como en el caso de la medida de la longitud de ríos). Esta ley dice que la cifra 1 aparece en primera posición con mucha mayor frecuencia que el resto de los números. Además, según crece el primer dígito, es menos probable que se encuentre en la primera posición.
La ley de Benford establece que la probabilidad de que un número obtenido de un determinado dato comience con el dígito d es de:

En la práctica, la frecuencia de aparición de cada número es de:

Si la apuesta consistiera en jugar con un único número, Julene ganaría con una probabilidad de a = p(1) + p(2) + p(3) = 0,602 (0,301 + 0,176 + 0,125 = 0,602). Por lo tanto, Mikel ganaría con una probabilidad de b = 1 – a = 0,398.
Pero la apuesta tiene en cuenta nueve números, no solo uno. Así, la probabilidad de que Julene gane es la probabilidad de que, entre los nueve números que mencionará el profesor durante su clase, haya al menos cinco (cinco, seis, siete, ocho o nueve números) pertenecientes al conjunto A = {1, 2, 3}. Dicho de otro modo, de los números significativos mencionados por el docente, como mucho cuatro pertenecerán al conjunto B = {4, 5, 6, 7, 8, 9} asignado a Mikel, que perdería así la apuesta.
La probabilidad de que haya k números de A = {1, 2, 3} entre los nueve números utilizados por el profesor (probabilidad de k éxitos en una repetición de 9 experimentos) es de:

que involucra un coeficiente binomial (cantidad de subconjuntos de k elementos escogidos de un conjunto de 9 elementos).
Así, la probabilidad de que Julene gane es de:

Tras hacer las operaciones indicadas en la anterior fórmula, el resultado es de 0,738. Así, Mikel tiene pocas probabilidades de ganar (1 – 0,738 = 0,262), y muchas de perder los diez euros de la apuesta… ¡Su compañera Julene “se la ha jugado”!
Nota
Adaptado de: Jean-Paul Delahaye, Rubrique des paradoxes précédents : La longueur des fleuves, Accromath 20.2 été-automne 2025
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia
El artículo Una apuesta engañosa se ha escrito en Cuaderno de Cultura Científica.
La teoría de juegos de cómo los algoritmos pueden hacer subir los precios
Estudios recientes revelan que incluso los algoritmos de fijación de precios más simples pueden encarecer las cosas.
Un artículo de Ben Brubaker. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Ilustración: Nash Weerasekera / Quanta MagazineImagina un pueblo con dos comerciantes de utensilios. Los clientes prefieren el utensilio más barato, así que los comerciantes compiten fijando precios bajos. Descontentos con sus escasas ganancias, se reúnen una noche en una taberna llena de humo para discutir un plan secreto: si suben los precios juntos en lugar de competir, ambos podrían ganar más. Pero ese tipo de acuerdo intencionado sobre precios, llamado colusión, lleva más de un siglo prohibido. Los comerciantes deciden no arriesgarse y todo el mundo sigue disfrutando de utensilios baratos.
Durante más de un siglo, la legislación estadounidense ha seguido este esquema básico: prohibir esos tratos a puerta cerrada y con ello preservar unos precios justos. Hoy no es tan sencillo. En amplios sectores de la economía los vendedores dependen cada vez más de programas informáticos llamados algoritmos de aprendizaje, que ajustan los precios de forma iterada en función de nuevos datos sobre el mercado. A menudo son mucho más simples que los algoritmos de “aprendizaje profundo” que impulsa la inteligencia artificial moderna, pero aun así pueden comportarse de formas inesperadas.
Entonces, ¿cómo pueden los reguladores garantizar que los algoritmos fijan precios justos? Su enfoque tradicional no servirá, porque se basa en encontrar una colusión explícita. “Los algoritmos desde luego no se están tomando copas juntos”, apunta Aaron Roth, científico informático de la Universidad de Pennsylvania.
Sin embargo, un artículo muy citado de 2019 mostró que los algoritmos podían aprender a coludir de forma tácita, incluso cuando no estaban programados para ello. Un equipo de investigadores enfrentó dos copias de un algoritmo de aprendizaje simple en un mercado simulado y les dejó explorar distintas estrategias para aumentar sus beneficios. Con el tiempo, cada algoritmo aprendió por ensayo y error a castigar cuando el otro bajaba los precios: respondía reduciendo su propio precio en una cuantía enorme y desproporcionada. El resultado final fue precios elevados, sostenidos por la amenaza mutua de una guerra de precios.
Aaron Roth sospecha que los problemas de la fijación de precios algorítmica podrían no tener una solución sencilla. «La conclusión de nuestro estudio es que resulta difícil determinar qué descartar», afirma. Foto cortesía de Aaron RothLas amenazas implícitas como esta también están en la base de muchos casos de colusión humana. Así que, si quieres garantizar precios justos, ¿por qué no exigir que los vendedores utilicen algoritmos incapaces de hacer amenazas?
En un trabajo reciente, Roth y otros cuatro científicos informáticos mostraron por qué eso puede no ser suficiente. Probaron que incluso algoritmos aparentemente benignos que optimizan su propio beneficio pueden a veces dar lugar a resultados perjudiciales para los compradores. “Aun así puedes obtener precios altos de maneras que, desde fuera, parecen razonables”, explica Natalie Collina, estudiante de posgrado que trabaja con Roth y coautora del nuevo estudio.
No todos los investigadores coinciden en las implicaciones del hallazgo —mucho depende de cómo se defina “razonable”—. Pero la investigación revela lo sutiles que pueden ser las cuestiones sobre fijación algorítmica de precios y lo difícil que puede resultar regularlas.
“Sin alguna sospecha de amenaza o de un acuerdo, es muy difícil que un regulador pueda entrar y decir: ‘Estos precios no parecen correctos’”, afirma Mallesh Pai, economista de la Universidad Rice. “Por eso creo que este artículo es importante.”
Sin arrepentimiento
El trabajo reciente estudia la fijación algorítmica de precios desde la óptica de la teoría de juegos, un campo interdisciplinar en la frontera entre la economía y la informática que analiza las matemáticas de las competiciones estratégicas. Es una forma de explorar los errores de los algoritmos de precios en un entorno controlado.
“Lo que intentamos hacer es crear colusión en el laboratorio”, explica Joseph Harrington, economista de la Universidad de Pennsylvania que escribió un influyente artículo de revisión sobre la regulación de la colusión algorítmica y que no ha participado en la nueva investigación. “Una vez que lo hacemos, queremos averiguar cómo destruir esa colusión.”
Natalie Collina y sus colegas han descubierto que los precios altos pueden surgir de maneras inesperadas. Foto: Nandan TumuPara entender las ideas clave conviene empezar con el simple juego de piedra-papel-tijera. Un algoritmo de aprendizaje, en este contexto, puede ser cualquier estrategia que un jugador use para elegir una jugada en cada ronda basándose en los datos de rondas anteriores. Los jugadores pueden probar distintas estrategias a lo largo del juego. Pero si juegan bien, acabarán convergiendo a un estado que los teóricos de juegos llaman equilibrio. En equilibrio, la estrategia de cada jugador es la mejor respuesta posible a la estrategia del otro, por lo que ninguno tiene incentivo a cambiar.
En piedra-papel-tijera, la estrategia ideal es sencilla: hay que jugar una jugada aleatoria cada ronda, escogiendo las tres posibilidades con la misma frecuencia. Los algoritmos de aprendizaje destacan cuando un jugador adopta un enfoque distinto. En ese caso, elegir jugadas en función de rondas anteriores puede ayudar al otro jugador a ganar más a menudo que si jugara al azar.
Supón, por ejemplo, que tras muchas rondas detectas que tu oponente —un geólogo— eligió piedra más del 50% de las veces. Si hubieras jugado papel cada ronda, habrías ganado más. Los teóricos de juegos se refieren a esta dolorosa constatación como arrepentimiento.
Los investigadores han diseñado algoritmos de aprendizaje sencillos que garantizan siempre que acabarás con arrepentimiento cero. Algoritmos de aprendizaje algo más sofisticados, llamados algoritmos “sin arrepentimiento por intercambio” (no-swap-regret), también garantizan que cualquiera que sea la acción de tu oponente, no podrías haberlo hecho mejor sustituyendo todas las ocurrencias de una jugada por otra (por ejemplo, jugando papel cada vez que en realidad jugaste tijera). En 2000, teóricos de juegos demostraron que, si enfrentas dos algoritmos sin arrepentimiento por intercambio en cualquier juego, acabarán en un tipo específico de equilibrio —uno que sería el equilibrio óptimo si solo jugaran una única ronda. Esa propiedad es atractiva porque los juegos de una sola ronda son mucho más simples que los de varias rondas. En particular porque las amenazas no funcionan ya que los jugadores no pueden ejecutarlas.
En un artículo de 2024, Jason Hartline, informático de la Universidad Northwestern, y dos estudiantes de posgrado tradujeron los resultados clásicos de 2000 a un modelo de mercado competitivo, donde los jugadores pueden fijar precios nuevos cada ronda. En ese contexto, los resultados implicaban que dos algoritmos sin arrepentimiento por intercambio se acabarían encontrando en precios competitivos cuando alcanzaran el equilibrio. La colusión sería imposible.
Sin embargo, los algoritmos sin arrepentimiento por intercambio no son las únicas estrategias de fijación de precios en los mercados en línea. ¿Qué ocurre cuando un algoritmo sin arrepentimiento por intercambio se enfrenta a un oponente distinto que también parece benigno?
El precio está equivocado
Según los teóricos de juegos, la mejor estrategia para jugar contra un algoritmo sin arrepentimiento por intercambio es simple: empieza con una probabilidad concreta para cada posible acción y, luego, en cada ronda elige una sola acción al azar, sin importar lo que haga tu oponente. La asignación ideal de probabilidades para este enfoque “no reactivo” depende del juego específico.
En el verano de 2024, Collina y su colega Eshwar Arunachaleswaran se propusieron encontrar esas probabilidades óptimas para un juego de fijación de precios entre dos jugadores. Hallaron que la mejor estrategia asignaba probabilidades sorprendentemente altas a precios muy elevados, junto con probabilidades menores distribuidas en una amplia gama de precios bajos. Si juegas contra un algoritmo sin arrepentimiento por intercambio, esta extraña estrategia maximizará tu beneficio. “Para mí fue una sorpresa total”, cuenta Arunachaleswaran.
Eshwar Arunachaleswaran y Collina obtuvieron su resultado al explorar las mejores respuestas a algoritmos de precios bien definidos. Foto: Paritosh VermaLas estrategias no reactivas parecen superficialmente inocuas. No pueden transmitir amenazas, porque no reaccionan a las jugadas del rival en absoluto. Pero pueden inducir a los algoritmos de aprendizaje a subir sus precios, y luego aprovecharse ocasionalmente vendiendo más barato que el competidor.
Al principio, Collina y Arunachaleswaran pensaron que este escenario artificial no sería relevante en el mundo real. Seguro que el jugador que usara el algoritmo sin arrepentimiento por intercambio cambiaría a otro algoritmo en cuanto se diera cuenta de que su competidor estaba obteniendo beneficios a su costa.
Pero al profundizar y al discutirlo con Roth y otros dos colegas, se dieron cuenta de que su intuición era errónea. Los dos jugadores en su escenario ya estaban en un estado de equilibrio. Sus beneficios eran casi iguales, y ambos eran tan altos como podían ser siempre que ninguno cambiara de algoritmo. Ninguno tenía incentivo a cambiar de estrategia, así que los compradores se quedarían atrapados con precios altos. Además, las probabilidades precisas no eran tan importantes. Muchas elecciones distintas conducían a precios elevados cuando se enfrentaban a un algoritmo sin arrepentimiento por intercambio. Es un resultado que cabría esperar de una colusión, pero sin que se viera ningún comportamiento colusorio.
Conviene ser tonto
¿Y qué pueden hacer los reguladores? Roth admite que no tiene respuesta. No tendría sentido prohibir los algoritmos sin arrepentimiento por intercambio: si todos usaran uno, los precios caerían. Pero una simple estrategia no reactiva podría ser una elección natural para un vendedor en un mercado en línea como Amazon, aunque conlleve el riesgo de arrepentimiento.
“Una forma de tener arrepentimiento es simplemente ser un poco tonto”, afirma Roth. “Históricamente, eso no ha sido ilegal.”
Para Hartline, el problema de la colusión algorítmica tiene una solución simple: prohibir todos los algoritmos de fijación de precios excepto los algoritmos sin arrepentimiento por intercambio que los teóricos de juegos han venido recomendando. Puede haber formas prácticas de hacerlo: en su trabajo de 2024, Hartline y sus colegas idearon un método para comprobar si un algoritmo tiene la propiedad de sin arrepentimiento por intercambio sin mirar su código.
Hartline reconoció que su solución preferida no evitaría todos los malos resultados cuando algoritmos sin arrepentimiento por intercambio compitieran con humanos. Pero sostiene que escenarios como el del trabajo de Roth no son casos de colusión algorítmica.
“La colusión es algo de doble vía”, dijo. “Fundamentalmente debe ser posible que un único jugador haga algo para no coludir.”
Sea como fuere, el nuevo trabajo deja muchas preguntas abiertas sobre cómo puede fallar la fijación de precios algorítmica en el mundo real.
“Aún no entendemos ni de lejos todo lo que quisiéramos”, dico Pai. “Es una cuestión importante para nuestro tiempo.”
El artículo original, The Game Theory of How Algorithms Can Drive Up Prices, se publicó el 22 de octubre de 2025 en Quanta Magazine.
Traducido por César Tomé López
El artículo La teoría de juegos de cómo los algoritmos pueden hacer subir los precios se ha escrito en Cuaderno de Cultura Científica.
Atracción (electroestática) fatal
En una entrega anterior de esta sección describíamos la curiosa estrategia del nematodo Caenorhabditis elegans para dispersarse en el medio. Estos pequeños gusanos forman torres para salvar espacios y, eventualmente, adherirse a insectos que los transporten a otros lugares. Parecía difícil superar esto, pero otro nematodo, Steinernema carpocapsae (Figura 1), acaba de proporcionarnos un caso aún más sorprendente. Con una longitud máxima de medio milímetro, este minúsculo gusano es capaz de saltar a una distancia superior a veinte veces su longitud corporal, con una velocidad inicial de 1.5 m/s, y adherirse a un insecto al que matará y consumirá. Si a esto le añadimos que rara vez falla en su objetivo, nos tenemos que preguntar cómo un animal, tan limitado en lo sensorial como en lo motor, tiene tanta puntería. Y la respuesta, totalmente inesperada, radica en la electroestática.
Figura 1. El nematodo Steinernema carpocapsae, individuo juvenil en fase infectiva. De Lu et al. (2017), doi: 10.1371/journal.ppat.1006302, CC BY 4.0.La electricidad estática está presente en muchos fenómenos biológicos. Los insectos voladores, por ejemplo, suelen cargarse positivamente por el roce con partículas presentes en el aire. De esta forma se facilita la recolección de polen por abejas, mariposas o colibrís. Eso sí, la carga eléctrica positiva de los insectos voladores aumenta su riesgo de enredarse en telarañas. La electricidad estática también está implicada en el vuelo de arañas, en ocasiones a cientos de kilómetros de distancia. Los filamentos de seda emitidos por estas arañas y cargados negativamente son atraídos por cargas eléctricas positivas en la atmósfera, como podemos ver en este vídeo.
Volvamos a S. carpocapsae. Este nematodo ha sido comercializado debido a su utilidad en la lucha biológica contra plagas de insectos. Cincuenta millones de gusanos pueden adquirirse en el mercado fitosanitario por unos 20 euros. A pesar de su pequeño tamaño, S. carpocapsae mata rápidamente (en 24-48 horas) a los insectos a los que ataca. Esta letalidad se debe a dos factores. Por un lado, transporta en su intestino bacterias simbióticas del género Photorhabdus o Xenorhabdus. Cuando el gusano penetra en su víctima, las bacterias son liberadas y proliferan rápidamente, produciendo toxinas y enzimas que degradan los tejidos del insecto. Al mismo tiempo, el nematodo produce otras sustancias tóxicas y supresoras del sistema inmune del insecto, que no puede defenderse de la infección bacteriana. Para completar el trabajo, las bacterias también segregan antibióticos que evitan la competencia de otras bacterias.
A estas alturas el insecto ha sido ya atacado por otros nematodos de la misma especie, que pasan de un estadio juvenil (el único de vida libre) a adultos de ambos sexos. Se aparean, ponen huevos y mantienen el ciclo hasta que el insecto ha sido completamente consumido. En ese momento los juveniles vuelven a asociarse con las bacterias (que solo pueden vivir en simbiosis con S. carpocapsae) y abandonan el cadáver para buscar otra víctima.
La pregunta que nos hacíamos al principio es, ¿cómo este pequeño gusano es capaz de saltar y adherirse a un insecto volador con precisión? La sorprendente respuesta acaba de aparecer en un artículo publicado en PNAS por investigadores estadounidenses. Es el propio insecto el que atrae al nematodo a causa de su carga eléctrica positiva, como vemos en este video.
Los experimentos se realizaron con moscas del vinagre conectadas a un filamento de cobre para proporcionarles carga eléctrica positiva (Figura 2A-C). De acuerdo con las medidas tomadas en insectos voladores, estas cargas suelen estar entre 10 y 200 picoculombios (pC), lo que equivale a voltajes entre 50 y 1000 voltios. En todos los experimentos, los nematodos saltarines aterrizaron sobre el insecto. Lo mismo sucedió cuando el insecto fue reemplazado por una bola metálica con la misma carga eléctrica.
Figura 2. A: Trayectoria del nematodo Steinernema carpocapsae. Tras el salto es atraído hacia la mosca, cargada positivamente. B: El nematodo se dobla como un resorte antes de saltar. C: Trayectoria registrada en 19 individuos, partiendo de dos alturas diferentes. Todos ellos impactan contra el insecto, independientemente de la dirección del salto. Los colores indican la velocidad en m/s. D: Modelo numérico basado en las observaciones anteriores (velocidad y dirección), pero asignando carga neutra a los gusanos. Solo en un caso se logra el contacto con el insecto. Los colores indican diferentes voltajes para la mosca, entre 100 y 700 V. E: Carga del nematodo por inducción. El insecto cargado positivamente polariza al gusano atrayendo cargas negativas. El sustrato actúa como toma de tierra y proporciona electrones que neutralizan las cargas positivas. Cuando el nematodo salta, su carga es negativa y es atraído hacia el insecto. Fuente: Ran et al. (2025), cita completa en referencias, CC BY 4.0.Para que la atracción electrostática sea eficaz, el nematodo debe tener carga eléctrica negativa, y los modelos numéricos mostraron que, en efecto, esta carga está alrededor de 0.1 pC. ¿Cómo se genera esta carga? La hipótesis más probable es que se deba a la inducción (Figura 2E). Cuando el insecto cargado positivamente se acerca, atrae cargas negativas del extremo más próximo del nematodo, con lo que el extremo contrario se carga positivamente. Ese extremo está en contacto con el sustrato, que actúa como toma de tierra y proporciona electrones que cancelan las cargas positivas. Por eso, todo el gusano, cuando salta hacia su objetivo, tiene carga negativa y es atraído hacia su víctima.
La pequeñísima carga negativa adquirida por inducción es esencial. De acuerdo con los modelos numéricos, cuando se simularon las trayectorias y las velocidades de los saltos, pero se asignó una carga nula a los gusanos, solo uno de los 19 intentos terminó con éxito (Figura 2D).
Resulta paradójico que la misma carga positiva que resulta útil, por ejemplo, para la recogida de polen, pueda ser fatal al atraer a nematodos parásitos. En cualquier caso, este descubrimiento ilustra la importancia de comprender mejor los fenómenos eléctricos en las interacciones animales.
Referencias
Ran, R., Burton, J.C., Kumar, S. et al. (2025). Electrostatics facilitate midair host attachment in parasitic jumping nematodes, Proc. Natl. Acad. Sci. U.S.A. doi: 10.1073/pnas.2503555122.
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga.
El artículo Atracción (electroestática) fatal se ha escrito en Cuaderno de Cultura Científica.
Nuestros ojos saben lo que hicimos el último verano
Foto: Eugene Golovesov en Unsplash
La miopía avanza de forma imparable en todo el mundo. Según la Organización Mundial de la Salud, para 2050 la mitad de la población mundial será miope. No se trata solo de llevar gafas: cuando esa afección visual progresa mucho, aumenta el riesgo de desprendimiento de retina, glaucoma o ceguera irreversible.
En España, por ejemplo, la ceguera miópica es la primera causa de afiliación a la ONCE. La pregunta es inevitable: ¿qué podemos hacer para frenar la epidemia?
Una “caja negra” de la exposición al solLa respuesta podría estar, literalmente, en nuestros ojos. Más en concreto, en un curioso fenómeno llamado autofluorescencia ultravioleta conjuntival (CUVAF por su denominación en inglés), que funciona como una especie de “caja negra” de la exposición solar que ha recibido cada persona.
(A) Demostración ‘in vivo’ del enfoque corneal de la luz periférica proveniente del lado temporal del ojo hacia el limbo y la conjuntiva nasal, con una intensidad luminosa mayor en comparación con el lado temporal. (B) Representación óptica del efecto de enfoque de la luz periférica que provoca la concentración de los rayos incidentes, al atravesar la cámara anterior, sobre la superficie límbico-conjuntival contralateral del ojo. (C) Representación de un caso CUVAF negativo (sin área de hiperautofluorescencia conjuntival). (D–E) Fotografías CUVAF negativas tomadas bajo luz ultravioleta (D) (longitud de onda máxima de 365 nm) y (E) una fotografía tomada con el modo BAF del Heidelberg Spectralis HRA+OCT (longitud de onda máxima de 488 nm). (F) Representación de un caso CUVAF positivo (muestra un área de hiperautofluorescencia que absorbe a 360 nm y emite en el espectro visible). (G–H) Fotografías CUVAF positivas en una imagen a color tomada bajo luz ultravioleta (G) y (H) con el Heidelberg Spectralis HRA+OCT.El CUVAF es un área de autofluorescencia en la conjuntiva (la parte blanca del ojo) que aparece cuando se ilumina con luz ultravioleta. Entonces, el ojo muestra manchas brillantes que delatan cuánto tiempo hemos pasado bajo la luz del sol.
Aunque esas manchas no son visibles a simple vista, quedan registradas de forma objetiva. Así, el CUVAF se ha convertido en un biomarcador fiable para saber cuántas horas al aire libre ha acumulado una persona a lo largo de su vida reciente.
Los científicos llevan años sospechando que la falta de luz natural es una de las grandes culpables del aumento de la miopía. Los niños que pasan más tiempo en interiores –ya sea frente al móvil, la tableta o los libros– tienen más riesgo de desarrollarla.
¿Por qué? La hipótesis más aceptada es que la luz solar estimula la liberación del neurotransmisor dopamina en la retina, y esa dopamina actúa como freno natural para que el ojo no crezca en exceso (además de controlar ciclos circadianos, hormonas, etc).
Otra posible causa es que cuando estamos en la calle miramos principalmente de lejos, de forma relajada y sin forzar los músculos de la acomodación (necesarios para ver de cerca), lo cual evita el crecimiento excesivo del ojo. Porque cuando esto último ocurre, la imagen no se enfoca nítidamente en la retina y aparece la miopía.
De los cuestionarios a la “memoria ocular”Hasta hace poco, los investigadores solo podían medir el tiempo que pasan los niños al aire libre preguntando a los padres o a los propios menores. Pero esos cuestionarios tienen muchas limitaciones: ¿quién recuerda con exactitud cuántas horas estuvo en el parque hace un mes?
El CUVAF resuelve este problema. Funciona como un registro objetivo de la exposición solar, independiente de la memoria o la percepción. Si un niño presenta poco CUVAF, significa que pasa poco tiempo en exteriores y, por tanto, que tiene más riesgo de ser miope.
Lo que dicen los estudiosVarios trabajos internacionales confirman su utilidad. Así, un metaanálisis con más de 3 600 personas de distintos países encontró que los miopes pasaban menos tiempo al aire libre y tenían áreas de CUVAF significativamente más pequeñas que los no miopes. Y en la Universidad de Navarra, un estudio con estudiantes de Medicina y de Ciencias Ambientales mostró que los segundos, que pasan más horas en el exterior por su carrera, tenían más CUVAF y la mitad de riesgo de desarrollar miopía.
Para conocer las repercusiones de este biomarcador en la edad infantil –la etapa más sensible para el crecimiento excesivo del ojo–, se llevó a cabo una investigación en más de 260 niños de entre 6 y 17 años. Los autores comprobaron que los miopes, efectivamente, pasaban menos tiempo al aire libre y presentaban menos CUVAF. Además, si el área de autofluorescencia de la conjuntiva era grande en relación a la edad, los menores estaban protegidos hasta 2,5 veces frente a la miopía y hasta 5 veces frente a la miopía alta.
Este hallazgo podría confirmarse en un estudio, actualmente en revisión, con más de 2 600 niños de la Comunidad de Madrid.
Imaginemos cómo podría usarse dicha información en la práctica clínica. En una revisión ocular, el oftalmólogo toma una imagen del CUVAF. Si el resultado muestra un área reducida, podría dar el siguiente consejo:
“Su hijo necesita al menos una o dos horas de juego al aire libre cada día. El mejor tratamiento ahora mismo es la luz natural, gratuita y sin efectos secundarios”.
En el futuro, las consultas de oftalmología podrían incorporar esa prueba rutinaria igual que hoy se mide la tensión ocular o el fondo de ojo.
No es solo cosa de niñosAunque la prevención en la infancia es clave, el CUVAF también puede ser útil en adultos jóvenes. Durante la universidad o los primeros años laborales, la miopía puede seguir progresando. Medir el CUVAF en esta etapa permite detectar a quienes mantienen un estilo de vida demasiado “de puertas adentro” y orientar cambios sencillos: salir a pasear, practicar deporte al aire libre, exponerse a la luz natural cada día.
Hay una metáfora muy bonita que usan algunos investigadores: el verano se borra de nuestra piel, pero permanece en nuestros ojos. Aunque la piel pierda el bronceado, el ojo conserva la huella del sol a través del CUVAF. Y esa huella no es un simple recuerdo: es una pista directa sobre nuestra futura salud visual.
Porque la miopía no es inevitable: aunque los genes juegan un papel, el ambiente es decisivo. Y entre los factores ambientales, el tiempo al aire libre es el más importante y modificable.![]()
Sobre el autor: Sergio Recalde Maestre es Director científico del laboratorio de oftalmología experimental de la Universidad de Navarra
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Nuestros ojos saben lo que hicimos el último verano se ha escrito en Cuaderno de Cultura Científica.
Un termómetro para medir la cuanticidad
El flujo de calor “anómalo”, que a primera vista parece violar la segunda ley de la termodinámica, ofrece a los físicos una forma de detectar el entrelazamiento cuántico sin destruirlo.
Un artículo de Philip Ball. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Una variante moderna del demonio de Maxwell puede actuar como una especie de catalizador, impulsando un flujo de calor de objetos cuánticos fríos a calientes. Ilustración: Daniel García / Quanta Magazine
Si hay una ley de la física que parece fácil de comprender, esa es la segunda ley de la termodinámica: el calor fluye espontáneamente de los cuerpos más calientes hacia los más fríos. Pero ahora, de forma suave y casi casual, Alexssandre de Oliveira Jr. acaba de mostrarme que, en realidad, no la entendía del todo.
«Toma esta taza de café caliente y esta jarra de leche fría», dijo el físico brasileño mientras estábamos sentados en una cafetería de Copenhague. «Ponlas en contacto y, efectivamente, el calor fluirá del objeto caliente al frío, tal como el científico alemán Rudolf Clausius formuló oficialmente en 1850». Sin embargo, en algunos casos —explicó de Oliveira— los físicos han descubierto que las leyes de la mecánica cuántica pueden hacer que el flujo de calor ocurra en sentido contrario: del frío al caliente.
Esto no significa realmente que la segunda ley falle, añadió mientras su café se enfriaba con tranquilidad. Lo que sucede es que la expresión de Clausius es el límite clásico de una formulación más completa, exigida por la física cuántica.
Los físicos empezaron a apreciar la sutileza de esta situación hace más de dos décadas y, desde entonces, han estado explorando la versión cuántica de la segunda ley. Ahora, de Oliveira, investigador posdoctoral en la Universidad Técnica de Dinamarca, y sus colegas han demostrado que el tipo de “flujo de calor anómalo” que se da a escala cuántica podría tener una aplicación tan práctica como ingeniosa.
Según afirman, puede servir como un método sencillo para detectar la cuanticidad —por ejemplo, para saber si un objeto está en una superposición cuántica de varios estados observables posibles, o si dos objetos están entrelazados (es decir, sus estados son interdependientes)— sin destruir esos delicados fenómenos cuánticos. Una herramienta diagnóstica así podría usarse para verificar que un ordenador cuántico está utilizando realmente recursos cuánticos al realizar sus cálculos. Incluso podría ayudar a detectar aspectos cuánticos de la fuerza de la gravedad, uno de los grandes objetivos de la física moderna.
Según los investigadores, basta con conectar un sistema cuántico a un segundo sistema capaz de almacenar información sobre él, y a un sumidero térmico (un cuerpo capaz de absorber mucha energía). Con esta disposición, se puede aumentar la transferencia de calor al sumidero más allá de lo que permitirían las leyes clásicas. Midiendo simplemente lo caliente que está el sumidero se podría detectar la presencia de superposición o entrelazamiento en el sistema cuántico.
Más allá de las posibles aplicaciones prácticas, la investigación pone de manifiesto un nuevo aspecto de una profunda verdad sobre la termodinámica: la forma en que el calor y la energía se transforman y se desplazan en los sistemas físicos está íntimamente ligada a la información —a lo que se sabe o puede saberse sobre dichos sistemas—. En este caso, “pagamos” el flujo de calor anómalo sacrificando información almacenada sobre el sistema cuántico.
«Me encanta la idea de que las magnitudes termodinámicas puedan señalar fenómenos cuánticos», afirma la física Nicole Yunger Halpern, de la Universidad de Maryland. «El tema es fundamental y profundo».
El conocimiento es poder
«Es imposible que una máquina autónoma, sin la ayuda de ningún agente externo, transmita calor de un cuerpo a otro a una temperatura más alta», escribió Rudolf Clausius (en alemán) en 1850. Fue la primera expresión de la segunda ley de la termodinámica. Foto: Theo Schafgans/Dominio públicoLa conexión entre la segunda ley de la termodinámica y la información fue explorada por primera vez en el siglo XIX por el físico escocés James Clerk Maxwell. Para su consternación, la segunda ley de Clausius parecía implicar que los focos de calor acabarían disipándose por todo el universo hasta que desapareciesen todas las diferencias de temperatura. En ese proceso, la entropía total del universo —en términos simples, una medida de su desorden y falta de estructura— aumentaría inexorablemente. Maxwell comprendió que esa tendencia acabaría eliminando toda posibilidad de aprovechar los flujos de calor para realizar trabajo útil, y que el universo alcanzaría un equilibrio estéril, dominado por un zumbido térmico uniforme: la llamada “muerte térmica”. Esa perspectiva ya era bastante inquietante por sí misma, pero resultaba especialmente inaceptable para el devoto cristiano Maxwell. En una carta a su amigo Peter Guthrie Tait en 1867, afirmó haber encontrado una manera de “abrir un agujero” en la segunda ley.
Imaginó un diminuto ser (más tarde apodado demonio) capaz de ver el movimiento de las moléculas individuales de un gas. El gas llenaría una caja dividida en dos compartimentos por una pared con una trampilla. Abriendo y cerrando la trampilla selectivamente, el demonio podría separar las moléculas que se mueven más rápido en un lado y las más lentas en el otro, creando así un gas caliente y otro frío, respectivamente. Al actuar según la información obtenida sobre el movimiento molecular, el demonio reduciría la entropía del gas, generando un gradiente de temperatura con el que podría realizarse trabajo mecánico, como empujar un pistón.
Los científicos estaban seguros de que el demonio de Maxwell no podía violar realmente la segunda ley, pero se tardó casi un siglo en comprender por qué. La respuesta es que la información que el demonio recoge y almacena sobre los movimientos moleculares acabaría llenando su memoria finita. Para seguir funcionando, tendría que borrar y reiniciar esa memoria. El físico Rolf Landauer demostró en 1961 que ese borrado consume energía y genera entropía —más entropía de la que el demonio reduce mediante su selección—. El análisis de Landauer estableció una equivalencia entre información y entropía, lo que implica que la información misma puede actuar como un recurso termodinámico: puede transformarse en trabajo. Los físicos demostraron experimentalmente esta conversión de información en energía en 2010.
Incómodo con la segunda ley de la termodinámica, el físico escocés James Clerk Maxwell inventó un experimento mental sobre un demonio omnisciente que aún hoy nos brinda nuevas perspectivas. Imagen: The Print Collector/Heritage ImagesPero los fenómenos cuánticos permiten procesar información de formas que la física clásica no permite —esa es, de hecho, la base de tecnologías como la computación cuántica y la criptografía cuántica—. Y por eso la teoría cuántica altera la versión convencional de la segunda ley.
Aprovechando las correlaciones
Los objetos cuánticos entrelazados comparten información mutua: están correlacionados, de modo que podemos conocer propiedades de uno observando el otro. Eso, por sí mismo, no es tan extraño; si observas uno de un par de guantes y ves que es el izquierdo, sabes que el otro es el derecho. Pero un par de partículas cuánticas entrelazadas difiere de los guantes en un aspecto esencial: mientras que la lateralidad de los guantes está fijada antes de mirar, en las partículas no es así, según la mecánica cuántica. Antes de medirlas, no está decidido qué valor de una propiedad observable tiene cada partícula del par entrelazado. En ese momento solo conocemos las probabilidades de las posibles combinaciones de valores (por ejemplo, 50 % izquierda-derecha y 50 % derecha-izquierda). Solo cuando medimos el estado de una partícula esas posibilidades se resuelven en un resultado concreto. En ese proceso de medición, el entrelazamiento se destruye.
Si las moléculas de un gas están entrelazadas de esta manera un demonio de Maxwell puede manipularlas con más eficacia que si todas se movieran independientemente. Si el demonio sabe, por ejemplo, que cada molécula rápida que ve venir está correlacionada de tal modo que otra rápida la seguirá al instante, no necesita observar la segunda partícula antes de abrir la trampilla para dejarla pasar. El coste termodinámico de (temporalmente) desafiar la segunda ley se reduce.
En 2004, los teóricos cuánticos Časlav Brukner, de la Universidad de Viena, y Vlatko Vedral, entonces en el Imperial College de Londres, señalaron que esto significa que las mediciones termodinámicas macroscópicas pueden utilizarse como un “testigo” para revelar la presencia de entrelazamiento cuántico entre partículas. Bajo ciertas condiciones, mostraron que la capacidad calorífica de un sistema o su respuesta a un campo magnético aplicado debería llevar la huella del entrelazamiento, si este existe.
De manera similar, otros físicos calcularon que se puede extraer más trabajo de un cuerpo caliente cuando hay entrelazamiento cuántico en el sistema que cuando es puramente clásico.
Y en 2008, el físico Hossein Partovi, de la Universidad Estatal de California, identificó una consecuencia particularmente llamativa del modo en que el entrelazamiento cuántico puede cuestionar las intuiciones derivadas de la termodinámica clásica. Descubrió que la presencia de entrelazamiento puede incluso invertir el flujo espontáneo de calor de un objeto caliente a uno frío, aparentemente subvirtiendo la segunda ley.
Esa inversión es una forma especial de refrigeración, explica Yunger Halpern. Y, como ocurre siempre con la refrigeración, no es gratuita (y por tanto no viola realmente la segunda ley). Clásicamente, refrigerar un objeto requiere trabajo: hay que bombear el calor en dirección contraria consumiendo combustible, compensando así la entropía perdida al enfriar el cuerpo frío y calentar el caliente. Pero en el caso cuántico —sigue Yunger Halpern—, en lugar de quemar combustible para lograr la refrigeración, «se queman las correlaciones». Es decir, a medida que avanza el flujo de calor anómalo, el entrelazamiento se destruye: las partículas que inicialmente tenían propiedades correlacionadas se vuelven independientes. «Podemos usar las correlaciones como un recurso para empujar el calor en dirección opuesta», añade.
Vlatko Vedral es uno de los creadores de la idea de utilizar mediciones termodinámicas como «testigo» para revelar la presencia de entrelazamiento cuántico entre partículas. foto: Cortesía de Vlatko VedralDe hecho, el “combustible” aquí es la información misma: concretamente, la información mutua de los cuerpos calientes y fríos entrelazados.
Dos años más tarde, David Jennings y Terry Rudolph, del Imperial College de Londres, aclararon lo que sucede. Mostraron cómo puede reformularse la segunda ley de la termodinámica para incluir el caso en que existe información mutua, y calcularon los límites sobre cuánto puede modificarse —e incluso invertirse— el flujo de calor clásico mediante el consumo de correlaciones cuánticas.
El demonio sabe de cuanticidad
Cuando entran en juego los efectos cuánticos la segunda ley deja de ser tan sencilla. Pero ¿podemos hacer algo útil con la forma en que la física cuántica flexibiliza los límites de las leyes termodinámicas? Esa es una de las metas de la disciplina llamada termodinámica cuántica, en la que algunos investigadores buscan fabricar motores cuánticos más eficientes que los clásicos o baterías cuánticas que se carguen más rápidamente.
Patryk Lipka-Bartosik, del Centro de Física Teórica de la Academia Polaca de Ciencias, ha buscado aplicaciones prácticas en la dirección contraria: usar la termodinámica como herramienta para explorar la física cuántica. El año pasado, él y sus colaboradores vieron cómo materializar la idea de Brukner y Vedral (2004) de utilizar propiedades termodinámicas como testigo del entrelazamiento cuántico. Su esquema involucra sistemas cuánticos calientes y fríos correlacionados entre sí, y un tercer sistema que media el flujo de calor entre ambos. Podemos pensar en este tercer sistema como en un demonio de Maxwell, solo que ahora posee una “memoria cuántica” que puede estar entrelazada con los sistemas que manipula. Al estar entrelazados con la memoria del demonio, los sistemas caliente y frío quedan efectivamente vinculados, de modo que el demonio puede inferir información de uno a partir de las propiedades del otro.
Patryk Lipka-Bartosik ha explorado cómo utilizar mediciones termodinámicas para detectar efectos cuánticos. Foto: Alicja Lipka-BartosikUn demonio cuántico así puede actuar como un tipo de catalizador, facilitando la transferencia de calor al aprovechar correlaciones que de otro modo serían inaccesibles. Es decir, al estar entrelazado con los objetos caliente y frío, el demonio puede detectar y explotar todas sus correlaciones de manera sistemática. Y, de nuevo como un catalizador, este tercer sistema vuelve a su estado original una vez completado el intercambio de calor entre los objetos. De esta forma, el proceso puede potenciar el flujo de calor anómalo más allá de lo que sería posible sin dicho catalizador.
El artículo publicado este año por de Oliveira, junto con Lipka-Bartosik y Jonatan Bohr Brask, de la Universidad Técnica de Dinamarca, utiliza algunas de estas mismas ideas, pero con una diferencia crucial que convierte el sistema en una especie de termómetro para medir la cuanticidad. En el trabajo anterior, la memoria cuántica —el demonio— interactuaba con un par de sistemas cuánticos correlacionados, uno caliente y otro frío. Pero en este nuevo trabajo se coloca entre un sistema cuántico (por ejemplo, una red de bits cuánticos, o qubits, entrelazados en un ordenador cuántico) y un sumidero térmico sencillo con el que el sistema cuántico no está directamente entrelazado.
Como la memoria está entrelazada tanto con el sistema cuántico como con el sumidero, puede de nuevo catalizar un flujo de calor entre ellos más allá de lo posible clásicamente. En ese proceso, el entrelazamiento dentro del sistema cuántico se convierte en calor adicional que fluye hacia el sumidero. Así, medir la energía almacenada en el sumidero (equivalente a leer su “temperatura”) revela la presencia de entrelazamiento en el sistema cuántico. Pero, dado que el sistema y el sumidero no están entrelazados entre sí, la medición no afecta al estado del sistema cuántico. Este recurso elude la conocida dificultad de que las mediciones destruyen la cuanticidad. «Si intentaras simplemente medir el sistema [cuántico] directamente, destruirías su entrelazamiento antes incluso de que el proceso se desarrollara», explica de Oliveira.
Los físicos Alexssandre de Oliveira Jr. (izquierda) y Jonatan Bohr Brask (derecha) colaboraron con Patryk Lipka-Bartosik en un nuevo esquema para detectar la cuántica sin destruirla. Foto: Jonas Schou Neergaard-NielsenEl nuevo esquema tiene la ventaja de ser simple y general, señala Vedral, ahora en la Universidad de Oxford. «Estos protocolos de verificación son muy importantes», dice: cada vez que una empresa de computación cuántica anuncia un nuevo dispositivo, siempre surge la cuestión de cómo —o si— saben realmente que el entrelazamiento entre los qubits está contribuyendo al cálculo. Un sumidero térmico podría actuar como detector de tales fenómenos cuánticos simplemente a través de su cambio de energía. Para implementar la idea, podría designarse un qubit como la memoria cuyo estado revele el de otros qubits, y luego acoplar ese qubit de memoria a un conjunto de partículas que funcionen como sumidero, cuya energía se pueda medir. (Vedral añade una salvedad: es necesario tener un control muy preciso del sistema para asegurarse de que no haya otras fuentes de flujo de calor que contaminen las mediciones. Además, el método no detectará todos los estados entrelazados.)
De Oliveira cree que ya existe un sistema adecuado para poner a prueba su idea experimentalmente. Él y sus colegas están en conversaciones con el grupo de investigación de Roberto Serra en la Universidad Federal del ABC, en São Paulo (Brasil). En 2016, Serra y sus colaboradores utilizaron las orientaciones magnéticas, o espines, de los átomos de carbono e hidrógeno en moléculas de cloroformo como bits cuánticos entre los que podían transferir calor.
Usando este montaje, dice de Oliveira, debería ser posible aprovechar un comportamiento cuántico —en este caso la coherencia, es decir, que las propiedades de dos o más espines evolucionan en fase entre sí— para modificar el flujo de calor entre los átomos. La coherencia de los qubits es esencial para la computación cuántica, así que poder verificarla detectando un intercambio de calor anómalo sería muy útil.
Las implicaciones podrían ser aún mayores. Varios grupos de investigación intentan diseñar experimentos para determinar si la gravedad es una fuerza cuántica, al igual que las otras tres fuerzas fundamentales. Algunos de estos esfuerzos consisten en buscar entrelazamiento cuántico entre dos objetos generado únicamente por su atracción gravitatoria mutua. Tal vez los investigadores puedan explorar ese entrelazamiento inducido por la gravedad mediante simples mediciones termodinámicas sobre los objetos, verificando así (o no) que la gravedad está realmente cuantizada.
Para estudiar una de las cuestiones más profundas de la física —concluye Vedral—, «¿no sería maravilloso poder hacerlo con algo tan sencillo y macroscópico como esto?».
El artículo original, A Thermometer for Measuring Quantumness, se publicó el 1 de octubre de 2025 en Quanta Magazine. Cuaderno de Cultura Científica tiene un acuerdo de distribución en castellano con Quanta Magazine.
Traducido por César Tomé López
El artículo Un termómetro para medir la cuanticidad se ha escrito en Cuaderno de Cultura Científica.
Rarezas quiméricas: dientes fuera de la boca con funciones sexuales
El Diccionario de la lengua española define “quimérico” como fabuloso, fingido o imaginado sin fundamento, pero aquí nos referimos a una sorprendente peculiaridad recién descubierta en las quimeras u holocéfalos, un pequeño grupo de peces marinos. Los machos de estos peces son el único caso conocido de formación de dientes fuera de la cavidad bucal, unos dientes que usan para sujetar a la hembra durante la cópula.
Vayamos por orden y comencemos por tratar el origen de los dientes en los vertebrados. Los primeros vertebrados aparecieron en el Cámbrico, hace unos 520 millones de años. Carecían de mandíbulas y su cuerpo era blando y vulnerable, pero muy pronto adquirieron una especie de caparazón de hueso dérmico (peces ostracodermos). Este caparazón está cubierto por unos pequeños tubérculos constituidos por dentina (una forma compacta de hueso) y recubiertos por un tipo de esmalte (enameloide). Son los llamados “odontodos” (Figura 1). Cuando los peces desarrollaron mandíbulas a partir del esqueleto branquial, hace unos 420-430 millones de años, aprovecharon los odontodos para fijarlos a las mandíbulas y formar los dientes[1].
Figura 1. Los odontodos del caparazón de los peces ostracodermos son el origen evolutivo tanto de los dentículos dérmicos de los elasmobranquios como de los dientes. En cambio, las escamas de los teleósteos derivan del hueso dérmico de dicho caparazón. Se pensaba que las espinas del tenáculo de las quimeras derivaban de los dentículos dérmicos (flecha discontinua), pero un nuevo estudio sugiere que se originaron a partir de dientes. Se han utilizado imágenes de Damouraptor, Gasmasque y Cohen et al. (2025), cita completa en referencias, con licencia CC BY 4.0.Los peces armados de mandíbulas y dentadura aumentaron de tamaño y llegaron a ser los predadores dominantes durante el periodo Devónico. Paralelamente, el caparazón óseo defensivo disminuyó su importancia, dando lugar a las escamas de los peces (Figura 1). En el grupo de los condrictios (elasmobranquios -es decir, tiburones y rayas- y quimeras) estas escamas retienen la composición de los odontodos primitivos, formados por dentina y un recubrimiento muy duro similar al esmalte dentario. Por eso, el cuerpo de los elasmobranquios actuales está cubierto de dentículos dérmicos derivados de los odontodos. En las quimeras, cuyo linaje se separó muy pronto del de los elasmobranquios, la mayor parte de la piel los ha perdido pero se mantienen en los apéndices copuladores.
Las quimeras forman un grupo muy reducido de peces marinos, alrededor de 50 especies de aguas profundas. A diferencia de tiburones y rayas no tienen dientes individuales, ya que se sueldan formando placas dentarias. Sí comparten con elasmobranquios la fecundación interna, y los machos disponen de una serie de apéndices copuladores en la región pélvica para sujetar a la hembra. Además, los machos tienen un curiosísimo apéndice, el tenáculo, situado entre los ojos, y dotado de unas fuertes espinas (Figura 2). Todo parece indicar que su función es también ayudar en la cópula y se consideraba que sus espinas eran dentículos dérmicos modificados, como los de los apéndices pélvicos.
Hasta ahora. Un estudio publicado en PNAS por investigadores estadounidenses sugiere que el tenáculo está provisto de auténticos dientes, lo que constituiría el único caso conocido entre los vertebrados en que los dientes se desarrollan fuera de la cavidad bucal.
Figura 2. Macho de quimera (Hydrolagus collei) y detalle del tenáculo. Modificado de Cohen et al. (2025), cita completa en referencias, con licencia CC BY 4.0.El estudio consistió en una descripción del desarrollo embrionario del tenáculo en machos de la quimera Hydrolagus collei (Figura 2). Los dientes del tenáculo se desarrollan a partir de una estructura llamada lámina dental, que es la responsable de formar los dientes seriados en los elasmobranquios (recordemos que las quimeras tienen los dientes soldados en placas). Ni los dentículos dérmicos ni las escamas de los apéndices copuladores pélvicos de las quimeras se desarrollan a partir de una lámina dental. Por otro lado, el desarrollo de dientes en elasmobranquios (pero no el de los dentículos dérmicos) requiere la expresión del gen Sox2 (característico de las células madre dentales) y la activación de la proteína b-catenina. Pues bien, estos dos elementos están presentes en el desarrollo de los dientes del tenáculo (Figura 3). Más interesante aún, la expresión de Sox2 se mantiene en la lámina dental del tenáculo adulto, exactamente igual que sucede en las mandíbulas de elasmobranquios. Esta expresión en adultos permite la formación continua de dientes característica de tiburones y rayas.
Figura 3. A la izquierda se muestran tres etapas en el desarrollo del tenáculo. Se observa la lámina dental (DL) y los dientes (T) formándose en el interior del tejido. Células de la lámina dental expresan Sox2 (marcador de células madre dentales) y b-catenina. La figura I corresponde a un adulto, y revela que la expresión de Sox2 se mantiene en la lámina dental. Esto es lo mismo que sucede en elasmobranquios, permitiendo una formación continua de dientes en adultos. A la derecha, reconstrucción de la quimera fósil Helodus simplex. Los dientes del largo tenáculo encajan en la sínfisis mandibular. Modificado de Cohen et al. (2025), cita completa en referencias, con licencia CC BY 4.0.¿Cómo es posible que se formen dientes en una estructura localizada entre los ojos, en animales que, además, carecen de dientes aislados en las mandíbulas? La respuesta parece estar en una quimera fósil, Helodus simplex, que vivió hace 315 millones de años y que sí tenía dientes aislados (Figura 3). Los machos de Helodus poseían un largo tenáculo situado en la región etmoidea, y su extremo alcanzaba la sínfisis entre las dos mandíbulas superiores. Es concebible que el epitelio de ese extremo del tenáculo adquiriera capacidad odontogénica durante el desarrollo. A lo largo de la evolución, el tenáculo habría mantenido la capacidad de formar dientes pero se habría reducido en longitud hasta el tamaño actual, al tiempo que los dientes mandibulares terminaron soldándose en placas.
Las quimeras mitológicas eran monstruos híbridos que combinaban partes de distintos animales. Este insólito descubrimiento acerca de dientes extrabucales nos muestra cómo la realidad de la naturaleza puede igualar, si no superar, a la imaginación humana.
Referencias
Cohen, K.E., Coates, M.I., Fraser, G.J. (2025). Teeth outside the jaw: Evolution and development of the toothed head clasper in chimaeras. Proc Natl Acad Sci U S A. doi: 10.1073/pnas.2508054122.
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga.
Nota:
[1] Es la llamada hipótesis “de fuera a dentro”. Un modelo alternativo, menos apoyado, es que los dientes proceden de una dentición faríngea que ya estaba presente en ostracodermos.
El artículo Rarezas quiméricas: dientes fuera de la boca con funciones sexuales se ha escrito en Cuaderno de Cultura Científica.
¿Cuándo podremos decir que “hemos encontrado vida en Marte”?
Las manchas de leopardo encontradas en el crater Jerezo de Marte podrían indicar que, hace miles de millones de años, las reacciones químicas en esta roca podrían haber sustentado vida microbiana. Foto:NASA/JPL-Caltech/MSSS, CC BYUna roca moteada, bautizada como “Cheyava Falls” y situada en un antiguo cauce fluvial del cráter Jezero, ha encendido de nuevo una pregunta antigua con traje moderno: ¿hay o hubo vida en Marte?
Entre minerales rojos e indicios orgánicos, la NASA acaba de anunciar el hallazgo de posibles biofirmas en un roca marciana. El comunicado ha desatado el frenesí, pero en ciencia es un frenesí cauto.
Este es un análisis –con los pies en los datos– sobre pistas, escalas de certeza y lo que significaría oír, por fin, un “sí, esto es vida extraterrestre”. Pero aún no ha llegado el momento.
Los indicios de vida en MarteDesde hace años, la NASA ha ido informando de hallazgos que se acercan a lo que podría parecerse a una huella de vida.
En 1976, las sondas Viking realizaron los primeros experimentos biológicos en Marte. Sus resultados fueron intrigantes, pero también muy polémicos, y no se consideraron una prueba concluyente de vida. Desde entonces, ninguna misión ha vuelto a llevar experimentos tan directos. La lección de Viking es clara: en la exploración del planeta rojo, conviene mantener la curiosidad… pero también la cautela en las expectativas.
En 2018, la NASA informó de indicios de vida orgánica en barro antiguo de Marte. Entonces el rover Curiosity detectó en el cráter Gale moléculas orgánicas preservadas en lutitas lacustres (un tipo de roca sedimentaria, compuesta por partículas muy finas de arcilla y limo que se depositaron en el fondo de los lagos) de aproximadamente 3500 millones de años, así como una variación estacional del metano de fondo. Son ingredientes y pistas, pero no es propiamente vida.
En el estudio reciente, la NASA informa que en la zona conocida como Bright Angel, el instrumento SHERLOC del rover Perseverance también identificó la presencia de moléculas orgánicas, mientras que el instrumento PIXL mapeó minerales como vivianita y greigita en un lodo rico en hierro, fósforo y azufre.
Pero este tipo de mezcla puede formarse tanto por la acción de microorganismos como por procesos puramente químicos. Así que puede ser un indicio de vida, o no.
Esa ambigüedad es justo lo que resalta la síntesis publicada en Nature, que subraya cómo estos hallazgos mantienen abierto el debate sobre si Marte albergó vida o no.
Las muestras de metanoAnteriormente, el Curiosity detectó variaciones locales y estacionales en la presencia de metano en el planeta vecino, algo que también podría asociarse con una biofirma. Sin embargo, el orbitador europeo TGO (de la misión ExoMars) no ha encontrado prácticamente nada: sus mediciones ponen un límite global muy estricto, menos de 0,05 partes por mil millones.
El reto ahora es conciliar ambos resultados: ¿se trata de pequeñas emisiones superficiales que la atmósfera elimina rápidamente, o de mediciones que están sesgadas por factores aún desconocidos? La ciencia sigue en curso y la respuesta todavía no está cerrada.
¿Qué sería una prueba irrefutable?Tras varias decepciones, la comunidad científica ha elaborado una “escala de confianza” para detectar vida, llamada Confidence of Life Detection (CoLD).. Es como una escalera de siete peldaños: primero se detecta una posible señal y después hay que descartar contaminación; demostrar que la biología sería viable en ese entorno; excluir explicaciones no biológicas; encontrar otra señal independiente; derrotar hipótesis alternativas… y, por último, conseguir confirmación por distintos equipos. ¿Cómo se sube esa escalera? No con un único hallazgo espectacular, sino con varias pruebas que, juntas, formen un caso sólido.
Una química orgánica compleja con homoquiralidad (se refiere a moléculas que tienen una estructura no superponible con su imagen especular, similar a la de nuestras manos) sería un buen indicio, porque es extremadamente difícil de generar sin vida.
Otro rastro lo darían los isótopos: variaciones en elementos como el carbono o el azufre que, dentro de su contexto geológico, se ajusten a lo que esperaríamos de procesos biológicos. Sin ese contexto, el isótopo puede engañar.
También podrían encontrarse texturas microscópicas que recuerden a células o biofilms, siempre asociadas a moléculas orgánicas e isótopos de “firma biológica”.
Una sola pista nunca basta: se necesitan varias, y que se repitan de manera independiente, con instrumentos distintos.
Lo ideal sería confirmar en la Tierra, con muestras traídas de Marte bajo protocolos estrictos para evitar contaminación. Al final, no se trata de obtener una foto espectacular, sino un expediente coherente y abrumador.
De Europa a Venus¿Y en qué otros mundos podría asomarse la vida? Estos son los candidatos:
- Europa (Júpiter). Es el favorito: oculta un océano salado bajo el hielo. la misión Europa Clipper, que llegará hacia 2030, hará casi 50 sobrevuelos para estudiar si allí existen condiciones habitables. No busca vida directamente, pero sí comprobar si podría haberla.
- Encélado (luna de Saturno). Sus espectaculares géiseres conectan el océano interno con el espacio. Allí se ha detectado fósforo en abundancia, un nutriente esencial para la vida. Es, literalmente, un laboratorio natural abierto.
- Titán (luna de Saturno). Con su atmósfera densa y rica en compuestos orgánicos, es un lugar único para explorar química prebiótica. La misión Dragonfly despegará a finales de esta década (si no entra en el grupo de recortes de Donald Trump) y aterrizará hacia mediados de los 30, para estudiar si podrían darse formas de bioquímica distintas a las terrestres.
- Venus. En sus nubes se han detectado posibles rastros de fosfina, aunque el debate sigue abierto. Para unos es una señal sugerente; para otros, un artefacto de las observaciones. El debate es un buen antídoto contra el autoengaño.
En ciencia y tecnología, aceleraríamos las misiones de retorno de muestras y desarrollaríamos sistemas de contención de máximo nivel, además de nuevas herramientas para detectar formas de vida “no terráqueas”; en filosofía, nos obligaría a dejar de confundir singularidad con privilegio; en religión, probablemente inspiraría lecturas más inclusivas de la creación, más que crisis de fe; en política y ética, reforzaría la necesidad de no contaminar otros mundos ni traer riesgos a la Tierra.
Y en lo cotidiano, se abriría la puerta a nuevos materiales, sensores y biotecnologías
Pero más allá de lo práctico, nos brindaría una cura contra el provincianismo: nos recordaría que no somos el centro del universo.
¿Cuándo podríamos afirmarlo rotundamente?Hay dos ventanas realistas. En primer lugar, hacia la década de 2030. El rover europeo Rosalind Franklin, cuyo lanzamiento está previsto para 2028, llegará a Marte en unos cinco años. Está diseñado para perforar hasta dos metros bajo la superficie, donde la radiación no ha destruido los compuestos más delicados. Con su instrumento MOMA podría encontrar moléculas orgánicas complejas, señales de quiralidad (esa preferencia por una “mano” molecular que suele asociarse a la vida) y posibles texturas biológicas. No será fácil, pero las posibilidades están ahí.
La segunda ventana sería el retorno de muestras. La misión conjunta de NASA y ESA, que busca traer rocas marcianas a la Tierra, se ha encarecido y retrasado, por lo que lo más probable es que su “veredicto de laboratorio” no llegue antes de la década de 2040.
Eso sí, incluso si la roca Cheyava Falls ofrece biofirmas tentadoras, la confirmación no llegará con un único indicio. Habrá que recorrer toda la “escalera CoLD”: descartar explicaciones no biológicas y repetir pruebas de forma independiente, idealmente en laboratorios terrestres. El calendario es incierto. Mientras tanto, el escepticismo no supone un freno: es la dirección en la que vamos.
Si la vida marciana existe o existió, nos esperará, no tiene nuestras prisas. Y si no existió nunca, el hallazgo más grande será comprender por qué aquí sí. Esa respuesta también nos pertenece y entusiasma.![]()
Sobre el autor: José Ygnacio Pastor Caño, Catedrático de Universidad en Ciencia e Ingeniería de los Materiales, Universidad Politécnica de Madrid (UPM)
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Cuándo podremos decir que “hemos encontrado vida en Marte”? se ha escrito en Cuaderno de Cultura Científica.
La química del olfato vibra
Respiramos más de 20.000 veces al día. Es un mecanismo inconsciente y automático, imprescindible para sobrevivir. Al inhalar, obtenemos el oxígeno que nuestro cuerpo necesita para funcionar, lo transformamos en CO2 y lo exhalamos. Sin embargo, junto al oxígeno, entran en nuestro organismo otras muchas moléculas como nitrógeno, bacterias o virus. Toda esta mezcla nos aporta una ingente cantidad de información sobre nuestro entorno, tanta que contamos con un sentido especializado para poder descifrarla: el olfato.
Gracias a él, somos capaces de identificar con los ojos cerrados a quien tenemos al lado, sortear un peligro inminente, o viajar de golpe a un verano de la infancia. Pero, ¿cómo funciona este gran detective alojado en nuestra nariz?
La química Elixabete Rezabal, experta en química física y profesora titular en la facultad de Química de la EHU, lo explicó durante el decimoquinto aniversario de Naukas Bilbao, en una charla dedicada a la química que se esconde tras este misterio.
© Iñigo Sierra | Cátedra de Cultura Científica de la EHU.La teoría clásica del olfato
La teoría clásica sostiene que al fondo de la nariz y cerca del cerebro tenemos una serie de proteínas receptoras que captan las moléculas procedentes del exterior. Si una de ellas encaja de la forma adecuada, se activa una señal que nuestro cerebro reconoce como un olor.
“Nos han contado que oler es como meter la llave correcta en la cerradura nasal: si la llave encaja, la cerradura se abre y la señal pasa al cerebro, y nosotros detectamos ese olor”, explicó Rezabal. Por esta teoría, que describe el funcionamiento del olfato, los investigadores Linda Buck y Richard Axel recibieron el Premio Nobel de Medicina en 2004.
Sin embargo, como subrayó la química, esta explicación no siempre funciona. ¿Qué ocurre, por ejemplo, con las moléculas que tienen casi la misma forma, pero huelen de manera radicalmente diferente? Pongamos el caso de una molécula formada por un grupo alcohol, compuesto por un oxígeno unido a un hidrógeno. Puede oler a hierba recién cortada. No obstante, si sustituimos ese oxígeno por un azufre, la geometría se mantiene, pero el olor se convierte en el de un huevo podrido. La forma, por tanto, no basta para explicar cómo procesamos los olores.
© Iñigo Sierra | Cátedra de Cultura Científica de la EHU.Para ofrecer una respuesta, Rezabal expuso la atrevida teoría del biofísico Luca Turin y su equipo de colaboradores del MIT, quienes en 1996 propusieron una teoría alternativa en la que planteaba que nuestra nariz no detecta la forma de las moléculas, sino sus vibraciones a nivel cuántico.
¿Y si lo que olemos son vibraciones?
Su hipótesis partía de la idea de que las moléculas no solo tienen una geometría, sino que no paran de moverse. A temperatura ambiente, vibran de manera constante, pero no de cualquier manera. Esto, en palabras de Rezabal, se debe a que “la energía vibracional está cuantizada, lo que quiere decir que sólo ciertos modos de vibración están permitidos, cada uno con su energía”.
El agua es un buen ejemplo. Se trata de una molécula simple que, debido a su geometría, tiene tres modos de vibración, “tres pasos de baile”, cada uno con una energía asociada. Si recibe la cantidad exacta de energía del entorno, puede vibrar de otra manera y subir al siguiente escalón. Y así hasta alcanzar el tercer nivel.
© Iñigo Sierra | Cátedra de Cultura Científica de la EHU.Por su parte, el agua deuterada -conocida como agua pesada- es idéntica en su forma al agua, con la salvedad de que los átomos de hidrógeno son sustituidos por deuterio, que incorpora un neutrón, además de un protón, en su núcleo. Esto hace que los átomos sean más pesados y que las energías necesarias para pasar de un modo de vibración a otro sean diferentes. En definitiva, la forma es la misma, en cambio, sus vibraciones no lo son.
En la mente de Turin, si el olfato se basa en las vibraciones, se debería poder distinguir el agua del agua pesada. Para comprobar su teoría, él y su equipo realizaron experimentos con un animal de olfato extremadamente fino, la mosca de la fruta.
Acertó. Estos insectos se acercaban al agua y se alejaban del agua pesada. Entonces, ¿qué hace nuestra nariz para detectar este fenómeno cuántico?
A partir de este curioso experimento, se desarrolló el concepto del túnel cuántico de la nariz. Un mecanismo que aprovecha las propiedades cuánticas de los electrones para identificar moléculas basándose en sus vibraciones, de manera similar a ciertos espectrómetros de laboratorio, como la espectroscopía de túnel inelástico de electrones, Inelastic Electron Tunneling Spectroscopy (IETS), en inglés.
La nariz, un espectrómetro biológico
“Esta teoría actual lo que propone es que cuando la molécula se une, hay un electrón que tiene que pasar de una parte de la proteína a otra, lo que genera una transferencia de energía que manda una señal al cerebro”, resumió.
© Iñigo Sierra | Cátedra de Cultura Científica de la EHU.Hay que tener en cuenta que la molécula siempre estará vibrando o “bailando” en su nivel más bajo de energía, pero si la energía que necesita para saltar al siguiente modo de vibración coincide exactamente con la que tiene que liberar el electrón para poder moverse, la transferencia se produce y se activa el olor en nuestro cerebro. En cambio, si la energía que necesita la molécula odorífera para subir de escalón no es la misma que requiere el electrón, no habrá transferencia y, por tanto, el olor no se activará.
Más allá de la curiosidad científica, Turin aplicó este concepto de la teoría de la vibración olfativa para fundar Flexitral, una empresa -ya extinta- al servicio de la industria de la perfumería. ¿Cómo? Calculando los modos vibracionales de las moléculas, el biofísico libanés era capaz de sustituir compuestos carísimos, apreciados por los perfumistas por su particular aroma, por otros más baratos que vibraban del mismo modo y, por tanto, olían igual.
Rezabal cerró su intervención en Naukas Bilbao 2025 recordando que la mecánica cuántica, aunque pueda parecernos lejana, está más presente en nuestra vida cotidiana de lo que podamos imaginar, ya que “muchos fenómenos de nuestro cuerpo se basan en principios cuánticos”. Y, en el caso del olfato, todo apunta a que el secreto está en la vibración.
Si no ve correctamente el vídeo, use este enlace.
Sobre la autora: María Larumbe es periodista y responsable de comunicación de la Cátedra de Cultura Científica de la Universidad del País Vasco / Euskal Herriko Unibersitatea.
El artículo La química del olfato vibra se ha escrito en Cuaderno de Cultura Científica.
Las veladuras blancas de los óleos contemporáneos
En las pinturas al óleo pueden producirse alteraciones por las interacciones entre sus componentes químicos y por factores externos: por ejemplo, pueden aparecer sustancias blanquecinas en todo el cuadro o en algunas partes concretas. Sin embargo, estas veladuras blancas no siempre tienen el mismo aspecto y pueden tener diferentes orígenes. “Estas sustancias que blanquean la superficie de las obras de arte no solo afectan a la estética, sino que también son un problema de conservación, y es muy importante saber qué las produce para poder resolver el problema”, explica Erika Tarilonte, investigadora de la Facultad de Bellas Artes de la Universidad del País Vasco / Euskal Herriko Unibertsitatea (EHU).
Veladuras blancas
Sin título (1971) de Santos Iñurreta. Óleo sobre lienzo (114×146 cm). Fuente: Erika Tarilonteet al. (2025) Journal of Cultural Heritage doi: 10.1016/j.culher.2025.06.007La obra Sin título del pintor vasco Santos Iñurrieta (1950-2023) es un óleo sobre lienzo no barnizado que está cubierta en gran parte por una sustancia blanquecina homogénea y frágil. A partir de este cuadro, los investigadores del grupo FARMARTEM de la EHU han llevado a cabo el estudio analítico más completo hasta la fecha para identificar los fenómenos de blanqueo de la superficie de los óleos contemporáneos. “Hemos definido una metodología multianalítica exhaustiva que nos permitirá analizar algunos fenómenos de degradación y conservar las pinturas”, explica Tarilonte. Este estudio supone un gran paso para hacer frente a uno de los problemas más importantes de la conservación del arte contemporáneo en la actualidad.
Jabones plúmbicos
Erika Tarilonte tomando una micromuestra. Fuente: EHUEn primer lugar, el estudio histórico-artístico de las obras de Iñurrieta ha demostrado que estas veladuras blancas no son intencionadas por parte del artista y, a partir de ahí, los investigadores han analizado diferentes hipótesis: «Pueden ser hongos, o el efecto de la cristalización de sales, la migración de ácidos grasos, la exudación de ceras, los jabones metálicos… Los análisis efectuados por nosotros han demostrado que los jabones plúmbicos son la principal causa de las veladuras blancas en las pinturas, y que probablemente fuera un secante de plomo el origen del plomo”, afirma la investigadora. El proceso de formación de jabones plúmbicos se produce dentro de la capa de pintura, “pero poco a poco, con el tiempo, va aflorando y aparece la veladura blanca. Da la impresión de que la obra está cubierta de niebla”.
Conocer para intervenirLa investigación ha permitido obtener una amplia información sobre los materiales y las técnicas que el artista empleó en la pintura. “Ahora sabemos qué capas pictóricas tiene la obra, cómo son, qué espesor tienen, qué granulometría, qué pigmentos ha utilizado exactamente, qué aditivos, qué aglutinantes, etc. Tras esta investigación, lo sabemos todo sobre la obra de arte, y hoy en día eso es muy importante para poder intervenir”. Según la investigadora de la EHU, ese ha sido el primer paso: “La obra de arte está así ahora, pero sabemos que el original no era así. El siguiente paso natural sería intervenir en la obra, limpiarla y dejarla como era en su origen”.
El estudio multianalíticoEl estudio multianalítico para detectar el origen de las veladuras blancas en las pinturas al óleo ha uncluido análisis microbiológicos diversos, radiografías, estudios de fluorescencia, análisis químicos de micromuestras, microscópicos, espectroscópicos, tomografías computarizadas, cromatografías, etc. Como resultado la investigación ha puesto a disposición de la comunidad científica y artística información detallada sobre la utilidad de cada una de estas técnicas y la información específica que aporta cada una de ellas.
Fuente: Erika Tarilonteet al. (2025) Journal of Cultural Heritage doi: 10.1016/j.culher.2025.06.007De hecho, “la flexibilidad de esta metodología multianalítica nos ha permitido comprobar que algunas técnicas que no aportan resultados significativos para los jabones metálicos pueden aportar, sin embargo, información útil para otros fenómenos de veladura”, afirma Tarilonte. Por ejemplo, ahora están trabajando con otra obra: Sin título, de Alberto González (1978). “Esta obra también tiene veladuras blancas, pero su morfología es diferente: presenta puntos blancos en un color azul determinado”, explica la investigadora. Una de las principales hipótesis de los investigadores es que “la cristalización de sales ha sido el origen de estas acreciones. Gracias a la metodología que hemos desarrollado, vamos a poder usar únicamente las técnicas analíticas más interesantes para analizar la cristalización de las sales, en lugar de utilizar todas. Ahora sabemos qué tipo de información que nos da cada técnica y, por lo tanto, a la hora de analizar otras obras de arte, solo elegiremos aquellas que sean más útiles en cada caso. Hemos conseguido dar la opción de adaptarnos a cada caso”.
A pesar de los grandes avances en este campo, “todavía hay que investigar mucho sobre las causas y mecanismos que provocan las veladuras. Este trabajo servirá para desarrollar mejores estrategias de conservación de las pinturas al óleo y para investigar remedios eficaces para el cuidado de las obras de arte a largo plazo”, explica la investigadora de la EHU.
Referencia:
Erika Tarilonte, Oskar González-Mendia, Ilaria Costantini, Kepa Castro, Itxaso Maguregui (2025) A multi-analytical approach for the identification of surface whitening phenomena in contemporary oil painting and its application to metal soaps Journal of Cultural Heritage doi: 10.1016/j.culher.2025.06.007
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Las veladuras blancas de los óleos contemporáneos se ha escrito en Cuaderno de Cultura Científica.
Whole Earth Catalog: la versión analógica de internet
«¿Dónde buscabais la información antes de que existiera internet?» es una pregunta que a algunos nos ha hecho sentir viejos alguna vez. No tiene importancia, la normalización del uso de los grandes modelos del lenguaje ya hará que se sientan viejos los mismos que la formulan. Pero, efectivamente, hace no tanto vivíamos sin internet… y sobrevivimos. Hasta finales de los noventa, tratar de aprender algo nuevo implicaba, bien buscar a alguien que pudiera enseñarte, o bien una visita a una biblioteca, a una librería… y muchísimo tiempo. Es posible que la idea de contar con una especie de repositorio del conocimiento que nos permitiera un acceso rápido a la información se remonte a la biblioteca de Alejandría. Y es que, salvando las distancias, y dentro de sus limitaciones, ¿no era exactamente eso?
Pero lo cierto es que las bibliotecas no ofrecen el acceso rápido, directo y práctico al conocimiento que ofrece, por ejemplo, un tutorial de YouTube. El Whole Earth Catalog, editado por Steward Brand en la California de los años sesenta y setenta, sí lo hizo, y probablemente, por primera vez en la historia.
En plena efervescencia cultural y social, con los movimientos en defensa de los derechos civiles, la contracultura hippie, la expansión de la música y el arte experimentales, y un creciente interés por estilos de vida más libres, sostenibles y autónomos, surgió la necesidad de medios que ofrecieran un acceso rápido al conocimiento práctico y a herramientas que facilitaran la autosuficiencia —pensemos en las comunas hippies autogestionadas—. Como ciudadanos de un mundo muy diferente al de sus padres, la mayoría de aquellos jóvenes no sabía cómo construir una casa, cultivar sus propios alimentos o reparar los aparatos que utilizaba a diario… y tampoco había internet para buscar cómo se hacía. Steward Brand, que se movía en el corazón de ese ambiente, les dio los recursos que buscaban.
Steward Brand en 2020. Créditos: CC BY 2.0/Christopher Michel
En 1966, y en plena alucinación psicodélica producida por el LSD, Brand tuvo una especie de revelación: si la humanidad pudiera ver una imagen de la Tierra completa desde el espacio, cambiaría su percepción del planeta y eso despertaría una conciencia global que lo transformaría todo —existían entonces imágenes de nuestro planeta tomadas desde la órbita, pero fragmentadas y de poca calidad—. Así que inició una campaña por campus universitarios de todo el país con el eslogan: «Why haven’t we seen a photograph of the whole Earth yet?» (‘¿Por qué no hemos visto todavía una fotografía de la Tierra entera?’) para que la NASA publicara una foto completa de nuestro planeta flotando en el vacío. Se disfrazó, vendió chapas y panfletos… y parece que dio resultado, porque al año siguiente, la NASA publicó la imagen que pedía y que tomó el satélite ATS-3 el 10 de noviembre del año siguiente.
Primera fotografía en color de la Tierra al completo, tomada por el satélite ATS-3 el 10 de noviembre de 1967. Fuente: NASA
Esta anécdota es importante porque esta fotografía sería la que aparecería en la portada del primer número del Whole Earth Catalog, que se publicó en el otoño de 1968.
Primer número del Whole Earth Catalog y primera página, con una especie de manifiesto sobre el propósito de la publicación. Fuente: Whole Earth Index / fair useSería bastante complicado definir qué era el Whole Earth Catalog, porque no entraría en la categoría de panfleto ni de revista ni de libro, me atrevería a decir que podría parecerse más a una guía telefónica de recursos de lo más… heterodoxo. Así, podíamos encontrar manuales de construcción, guías de jardinería y agricultura, planos y materiales para aprovechar fuentes de energía alternativas, recetas de cocina y remedios naturales, lecciones de programación, referencias a libros de todo tipo —ciencia, filosofía, artes, sociología…—, contactos y direcciones de expertos… Merece bastante la pena echarle un vistazo. Todo el material se encuentra digitalizado en Whole Earth Index.
El Whole Earth Catalog, aunque nunca se distribuyó de forma masiva, sí se convirtió en el símbolo de un colectivo de jóvenes que buscaba plantear alternativas al mundo que les había tocado vivir. Un mundo en el que el desarrollo tecnológico ya había mostrado su peor cara, pero también era una oportunidad para tratar de hacer las cosas de una manera más auténtica y sostenible. Su periodo de mayor auge fue la década de los setenta, aunque el último número, una edición por el trigésimo aniversario, se publicó en 1998… cuando internet ya estaba llegando a nuestras vidas. Y del mundo de internet y de aquella California en la que se gestó Silicon Valley llega el crossover de hoy.
Uno de los estudiantes que formó parte de aquella experiencia, dijo, ya de adulto, que el Whole Earth Catalog había sido «algo así como Google en formato libro, treinta y cinco años antes de que Google existiera». Lo hizo durante el discurso de graduación de la Universidad de Stanford el 12 de junio de 2005, junto con otra frase que pasaría a la historia, y que aparecía en la contraportada del número de octubre de 1974 del Whole Earth Catalog:
Whole Earth Index / fair use
Bibliografía
Kabil, A. (29 de mayo de 2018). Seeing the whole earth from space changed everything. Long now.
Markoff, J. (2022). Whole Earth. The many lives of Steward Brand. Penguin Press.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo Whole Earth Catalog: la versión analógica de internet se ha escrito en Cuaderno de Cultura Científica.
¿Es el número 13 un número nefasto?
En la anterior entrada del Cuaderno de Cultura Científica titulada Propiedades matemáticas del número 13 iniciamos una pequeña serie, de dos entradas, sobre un número que causa miedo o rechazo entre muchas personas, aunque para muchas otras es un número de la suerte, el número 13.
Esa primera entrada la dedicamos a las propiedades matemáticas del número trece, que como se comentaba, es un número primo, miembro de la famosa sucesión de Fibonacci, solución al problema de los collares de dos colores, un número poligonal centrado, perteneciente a dos ternas pitagóricas e incluso a las familias de los números felices y los de la suerte, entre otras propiedades.
La solución al problema de los collares (o pulseras) para 6 cuentas (de dos colores distintos) es 13
Esta segunda entrada la vamos a centrar en las supersticiones, creencias y miedos alrededor del número 13, un número que increíblemente ha sido eliminado de la numeración de los pisos de los hoteles, de las filas de los aviones o de las calles de algunas poblaciones, pero que también se ha considerado por muchas personas como un número de buena suerte.
Triscaidecafobia
Aunque este término no esté recogido en el Diccionario de la Real Academia Española, la triscaidecafobia es el miedo irracional al número 13. De hecho, esta palabra se deriva de las palabras griegas treiskaideka, “trece”, o más concretamente “tres y diez”, y fobia, “miedo” o “temor”. También se suelen utilizar los términos tredecafobia o tridecafobia, aunque son menos habituales que el anterior.
La superstición alrededor del número 13 es lo que ha provocado que muchos hoteles y edificios a lo largo del mundo, con más de trece plantas, hayan decidido eliminar la planta 13 de los mismos, como los hoteles Waldorf Astoria o The Plaza en Nueva York (EE.UU.), o el rascacielos londinense One Canada Square.
La triscadecafobia estaba muy extendida en Estados Unidos a finales del siglo XIX y principios del XX, época en la que se empezaron a construir los rascacielos. Tanto las constructoras, como los hoteles, se dieron cuenta que era más difícil vender o alquilar un piso situado en la planta número 13, o que los clientes de un hotel quisieran reservar una habitación en esa planta. Como el dinero manda, rápidamente se empezó a no incluir la denominación de planta 13 en muchos rascacielos, que pasaban directamente de la planta 12 a la planta 14.
Cuadro de botones de un ascensor de un edificio en el que no hay planta 13, luego tampoco botón en el ascensor para la misma
Por supuesto, la planta número 13 en estos rascacielos sí existe, solo se ha suprimido el nombre “planta 13”, se ha sustituido por el nombre “planta 14” y se han trasladado los nombres de las demás plantas, pero eso parece que calma a los que sufren de triscaidecafobia.
Pero la triscaidecafobia no se manifiesta solo en los hoteles. Muchas ciudades del mundo han eliminado el número 13 de algunas sus calles. Por ejemplo, varias de las calles de Londres no tienen portal número 13, entre ellas Fleet Street, Oxford Street, Park Lane, Praed Street, St James’s Street, Haymarket y Grosvenor Street, según se menciona en el libro London The Biography (2000), del escritor y crítico británico Peter Ackroyd. Además, según el sitio web inmobiliario británico Zoopla, las casas cuyo número es el 13 son más baratas que sus vecinas con números 11, 12, 14 o 15 (de media una cantidad de 4.500 euros, según un estudio publicado en 2011, que serían unos 6.500 euros en la actualidad). Dicho estudio dice más aún, comenta que el 28% de las calles de Gran Bretaña no tienen el temido número 13. Siguiendo con Londres, podemos comentar que la famosa atracción turística London Eye, la noria más alta de Europa, posee 32 cápsulas, numeradas entre 1 y 33, ya que, una vez más, se ha eliminado el número 13.
La atracción turística London Eye, al lado del río Támesis, en Londres. Fotografía de KhamtranMedios de transporte
Pero los rascacielos o las calles de las ciudades no son los únicos ejemplos en los cuales se ha eliminado el odiado número 13. Muchas compañías aéreas han suprimido la fila 13 de sus aviones para evitar el malestar de sus clientes supersticiosos, como la aerolínea francesa Air France, la aerolínea estadounidense United Airlines, la británica British Airways o la española Iberia, entre muchas otras, como la aerolínea alemana Lufthansa que no solo ha eliminado esta fila, sino también la fila 17, ya que el número 17 también es considerado nefasto en Italia.
Dibujo del interior de un avión AIRBUS de la compañía Luftansa, en el que puede apreciarse que no hay fila 13, se pasa de la fila 12 a la fila 14
Pero podemos hablar de otros medios de transporte. Por ejemplo, la empresa de transporte público de Madrid, la EMT (Empresa Municipal de Transportes de Madrid), que tiene más de doscientas líneas de autobuses, no tiene precisamente la línea 13 entre ellas. Entre las líneas 1 (Cristo Rey – Prosperidad) y 100 (Moratalaz – Valderrivas), están todos los números incluidos, salvo el número 13. Se pasa de la línea 12 a la línea 14. Aunque, el 23 de junio de 2011, de forma puntual y con motivo de la celebración de un festival internacional de magia, circuló un autobús con el número 13 (conocido como la “línea mágica”) con un recorrido circular alrededor del Retiro llevando a magos que iban realizando trucos de magia a lo largo de su recorrido.
En Madrid no hay línea 13 de autobuses, aunque durante un día, el 23 de junio de 2011, circuló un bus mágico, con magos realizando trucos de magia, que llevó el número 13
Siguiendo con Madrid, en la actualidad existen doce líneas de metro, entre la línea 1, azul claro (Pinar de Chamartín – Valdecarros), y la línea 12, dorado (circular). Como se explica en el artículo Así sería la línea 14 del Metro de Madrid: el trayecto fantasma que nunca fue, publicado por el periódico El Español (enero, 2024), en 2003 se planeó, con la apertura de Metrosur, la creación de la línea 14 del Metro de Madrid que conectaba la capital con Alcorcón, Móstoles, Leganés, Getafe y Fuenlabrada. De esta forma se saltaba de la línea 12 a la línea 14. Sin embargo, esta línea se quedó en proyecto y nunca se realizó. En diferentes medios se ha hablado de la construcción de nuevas líneas, en particular de la línea 13, pero ya veremos que nombre recibe cuando se haya construido.
Superstición en la Fórmula 1
Preparando esta entrada he descubierto que en la Fórmula 1 no se utiliza el número 13. En las competiciones de Fórmula 1 los coches se identifican con un número entre 2 y 99, pero ya no se utiliza el número 13. En el pasado sí se utilizó este número, pero se produjeron dos accidentes mortales en años consecutivos de pilotos que conducían coches con el número 13, el belga Paul Torchy en 1925 y el italiano Giulio Masetti en 1926, que tuvieron como consecuencia que se dejase de utilizar el nefasto 13.
En el artículo La maldición del número 13 en la Fórmula 1, publicado en el periódico deportivo MARCA (noviembre 2024), se comenta que desde entonces solo se ha utilizado en cuatro ocasiones. El piloto alemán Mauritz von Strachwiz en la clasificación del Gran Premio de Alemania de 1953, pero no consiguió la clasificación. El piloto mexicano Moisés Solana, en su debut en el Gran Premio de México de 1963, que terminó en el puesto 11, a pesar de que su coche tuvo problemas y acabó quemándose a falta de ocho vueltas. Por su parte, la piloto británica Divina Galica utilizó el número 13 en su coche para el Gran Premio de Gran Bretaña de 1976, pero tampoco consiguió clasificarse. Y, por su parte, el piloto venezolano Pastor Maldonado utilizó el número 13 durante las temporadas de 2014 y 2015, aunque no tuvo mucha suerte, ya que tuvo 28 abandonos, 16 de los cuales fueron con el dorsal 13 en su coche. Desde entonces ningún piloto ha vuelto a utilizar este número.
Fotografía del accidente del coche, con el número 13, conducido por el piloto Paul Torchy durante el Gran Premio de San Sebastián de 1925, en el que falleció el piloto. Fotografía del libro Circuito de Lasarte. Memorias de una pasión, de Ángel ElberdinEl documento nacional de identidad
La superstición también es el motivo por el cual no existe el documento nacional de identidad con el número 13, como ya explicamos en la entrada Un código detector de errores: la letra del DNI. Cuando se creó el documento nacional de identidad, en tiempos del dictador Francisco Franco (1892-1975), este se quedó con el número 1, su mujer Carmen Polo con el número 2 y su hija Carmen Franco el número 3. Por su parte, la familia real tiene reservados los números que van del 10 al 99. El rey emérito Juan Carlos I tiene el 10 y la reina Sofía el 11. Las infantas Elena y Cristina tienen el 12 y el 14, el rey Felipe VI tiene el número de DNI 15, la princesa Leonor el 16 y la infanta Sofía el 17. Se saltaron el 13, seguramente por motivos supersticiosos.
Documento Nacional de Identidad del dictador español Francisco Franco con el número 1El origen de la superstición
Podemos preguntarnos por el origen de la superstición que existe alrededor del número 13, el motivo por el cual se considera que es un número de mala suerte, que causa rechazo e incluso miedo entre muchas personas.
Aunque no está claro cuál es este origen, pero podemos aportar algunos elementos que podrían estar relacionados con el mismo.
Por una parte, los calendarios lunisolares son calendarios que utilizan tanto el ciclo lunar, para establecer la duración de los meses (el ciclo lunar es de 29,5 días), como el ciclo solar para establecer la duración del año (que recordemos que es de 365,25 días). Si dividimos 365,25 entre 29,5 nos da 12,38, motivo por el cual en el calendario lunisolar un año tiene 12 o 13 meses. En concreto, suelen tener 12 meses (a la repetición de doce meses lunares se le llama año lunar), pero a algunos años se les añade otro mes, el 13, para ajustarse a los años solares y compensar el déficit.
Por ejemplo, así ocurría en los calendarios lunisolares de los sumerios y babilonios en Mesopotamia (sobre el III milenio a.n.e.) o en el calendario chino (sobre el siglo XIV a.n.e.), entre otros. Lo cual hacía que ese mes decimotercero fuera especial, así como los años que lo contenían, como ocurre hoy en día con los años bisiestos, y el 29 de febrero. Aunque esto hace que ese mes 13 sea un mes especial, pero no necesariamente que se considere nefasto, pudiendo incluso ser considerado favorable.
El dodecaedro es uno de los cinco sólidos platónicos, que, según el filósofo griego Platón (siglos V-IV, a.n.e.), fue utilizado para crear el universo. Imagen de KoenB
Algunos autores hablan de que el número 13 (que es un número primo) tenía una connotación negativa desde la antigüedad por ser el número que seguía al 12 (número con muchos divisores, 2, 3, 4, 6), un número considerado perfecto, muy utilizado en diferentes culturas y con connotaciones positivas (sobre este número podéis leer la entrada El sistema duodecimal, o si los humanos hubiésemos tenido seis dedos en las manos).
Pero normalmente la relación del 13 con la mala suerte se asocia con la última cena, de Jesús y sus doce apóstoles. Resulta que el apóstol Judas Iscariote, que llegó en último lugar siendo el comensal número 13 a la mesa, fue el que traicionó a Jesús. De ahí que se considere de mala suerte que haya 13 personas en una misma mesa. También dentro del cristianismo nos encontramos que el capítulo 13 del Apocalipsis de San Juan es el dedicado a la bestia del apocalipsis (anticristo).
La última cena (1495-1498), del polímata italiano (de la ciudad-estado de Florencia) Leonardo da Vinci (1452-1519)
Curiosamente, el dios nórdico Loki, que estaba resentido con los demás dioses, fue el invitado número 13 en llegar a un banquete en el Valhala y engañó a otro invitado para que matara al dios Baldur, segundo hijo del dios Odín, el dios principal de la mitología nórdica. Además, la carta 13 del Tarot es la muerte.
Sentarse a la misma mesa
Hay muchas personas supersticiosas que no se sientan a una mesa si el número de comensales es 13. Por ejemplo, el que fuera presidente número 32 de los Estados Unidos de América, Franklin D. Roosevelt (1882-1945), era muy supersticioso, nunca viajaba el día 13 de cualquier mes, ni se sentaba a una mesa en la que hubiese 13 comensales. La secretaria personal de Roosevelt, Grace Tully (1900-1984), en su biografía sobre el presidente de los Estados Unidos, FDR: My Boss / FDR: Mi Jefe (1949), lo explicaba así:
El Jefe era supersticioso, especialmente con el número trece y la costumbre de encender tres cigarrillos con una sola cerilla. En varias ocasiones recibí invitaciones de última hora para asistir a un almuerzo o una cena porque una baja de última hora o una incorporación tardía había hecho que la lista de invitados pasase a trece.
Fotografías del político estadounidense Franklin D. Roosevelt, durante una campaña electoral de 1944 (fotografía del fotógrafo estadounidense Leon Perskie), y del escritor francés Victor Hugo en 1876 (fotografía del periodista y fotógrafo francés Étienne Carjat), ambos muy supersticiosos con el número 13 y el número de comensales en una mesa
Otro presidente de Estados Unidos que también padecía de triscadecafobia era el presidente Herbert C. Hoover (1874-1964), presidente número 31.
El escritor francés Victor Hugo (1802-1885), autor de Los Miserables (1862), también era una persona supersticiosa, que no se sentaba a una mesa con 13 comensales. De hecho, el escritor francés Richard Lesclide (1825-1892), quien fuera secretario de Victor Hugo durante sus últimos diez años de vida, menciona esta superstición en el libro de recuerdos Propos de table de Victor Hugo / Comentarios de mesa de Victor Hugo, 1885:
La única superstición que Victor Hugo confiesa es la que le impide reunir a trece personas en su mesa, incluyéndose a sí mismo. No discute la cuestión; cuenta multitud de casos y circunstancias en los que el número trece ha sido fatal para él y para sus hijos. Como es muy fácil ser doce o catorce a la mesa, es habitual no sentarse trece a cenar.
Cuando, de improviso, por casualidad, se alcanza el número desafortunado, se hace cenar a los niños en una mesa pequeña, lo que no siempre les divierte.
Otro escritor con una relación complicada con el sexto número primo es el escritor de terror estadounidense Stephen King (1947), quien en unas declaraciones afirmó lo siguiente:
El número 13 nunca deja de recorrerme la espalda, arriba y abajo, con su frío dedo. Cuando escribo, nunca dejo de trabajar si la página es la número 13 o un múltiplo de 13; sigo escribiendo hasta llegar a un número seguro. Siempre doy los dos últimos pasos de la escalera trasera como uno solo, convirtiendo el 13 en 12. Al fin y al cabo, hasta 1900 más o menos, la horca inglesa tenía 13 peldaños. Cuando leo, no me detengo en las páginas 94, 193 o 382, ya que la suma de estos números da 13.
Parece ser que Napoleón Bonaparte también tenía triscaidecafobia y nunca iniciaba un viaje o programaba eventos importantes en viernes, y sobre todo en viernes 13.
El Club del Trece
Mientras que el presidente número 32 de los Estados Unidos de América, Franklin D. Roosevelt, era muy supersticioso, su primo lejano Theodore Roosevelt (1858-1919), presidente 26 de los Estados Unidos de América, era todo lo contrario. De hecho, formó parte de un curioso club, El club del trece (The Thirteen Club), que tenía como objetivo combatir la superstición relacionada con este número.
Ilustración de la primera reunión del Club del trece, que tuvo lugar el viernes 13 de enero de 1882, a las 20:13, en la habitación número 13 del Knickerbocker Cottage (Manhattan, Nueva York)
El viernes 13 de enero de 1882, a las 20:13, en la habitación número 13 del Knickerbocker Cottage (Manhattan, Nueva York) tuvo lugar la primera reunión fundacional de El Club del trece (The Thirteen Club), organizada por el capitán William Fowler (1827-1897), en la que se reunieron los trece primeros miembros de este club. En el artículo Friggatriskaidekaphobes Need Not Apply / Los friggatriscaidecafobicos no necesitan postularse (2012), publicado en la web The New York Historical, se menciona que los invitados, para llegar a la mesa, tuvieron que pasar por debajo de una escalera y bajo un cartel que decía “Morituri te Salutamus” (es decir, los que vamos a morir te saludamos). Trece velas iluminaban la mesa sobre la que se sirvieron los trece platos que formaban parte del menú de esa noche. Los saleros yacían volcados sobre la mesa, pero estaba estrictamente prohibido echar una pizca de sal derramada por encima del hombro. Y los discursos durante la cena se limitaron a 13 minutos. A partir de entonces, todos los 13 de enero se celebró la cena anual de El Club del trece en la habitación 13 del Knickerbocker Cottage.
El segundo año, 1883, el Club ya contaba con 169 miembros (que recordemos que es 13 veces 13, 13 x 13 = 169). El club fue creciendo, por ejemplo, en 1887 ya contaba con 487 miembros. Entre sus miembros más famosos han estado cuatro presidentes de los Estados Unidos, presidente 21, Chester Arthur (1829-1886), presidente 22 y 24, Grover Cleveland (1837-1908), presidente 23, Benjamin Harrison (1833-1901) y el presidente 26, Theodore Roosevelt.
El menú de la cena anual de El Club del trece de 1899
Poco a poco se fue extendiendo la idea de El Club del trece y se abrieron clubs similares en Chicago, Londres o París, entre otros sitios. El club es sus inicios estaba formado únicamente por hombres, aunque sus miembros empezaron a animar a las mujeres a participar en algunas celebraciones especiales (aunque bajo su idea de que las mujeres eran “el sexo más supersticioso”). Finalmente, las mujeres acabaron formando sus propios clubs del trece.
El compositor Richard Wagner
No sabemos si el compositor, director de orquesta y escritor alemán Richard Wagner (1813-1883) tenía miedo del número 13, lo consideraba un número de la suerte o le era indiferente, lo que sí sabemos, como he podido leer en el tercer volumen de los Mathematical Circles / Círculos matemáticos, del matemático y divulgador estadounidense Howard W. Eves (1911-2004), es que el compositor alemán tenía una relación especial con este número.
Fotografía del compositor alemán Richard Wagner tomada en 1870 por el fotógrafo alemán Josef Albert (1825-1886)
Su nombre, Richard Wagner, tiene doce letras; nació en 1813, que además de ser el año 13 del siglo xix, sus dígitos suman 13, 1 + 8+ 1 + 3 = 13; compuso 13 óperas, entre ellas Tristán e Isolda (1865), El anillo del Nibelungo (1876) o Tannhäuser, que Wagner terminó el 13 de abril de 1845 y su estreno (de la versión revisada) fue el 13 de marzo de 1861, en París; otra de sus grandes óperas Parsifal (1882), la acabó el 13 de enero de 1882; su ópera La valquiria (1870) se estrenó el 26 de junio de 1870, siendo 26 el doble de 13; el Festival de Bayreuth (Alemania) dedicado a las óperas del compositor Richard Wagner, y que él mismo diseñó y promovió, fue inaugurado el 13 de agosto de 1876 con la representación completa de El anillo del Nibelungo; finalmente, Richard Wagner murió el 13 de febrero de 1883.
Un número de la suerte
Aunque el número 13 es considerado, por muchas personas, como un número nefasto, también hay quienes consideran que es un número que transmite buena suerte.
Como comentábamos en nuestra anterior entrada sobre el número XIII la cantante estadounidense Taylor Swift (1989) considera este es un número de la suerte que ha estado presente en momentos muy importantes de su vida, desde su nacimiento, el 13 de diciembre. Esto empezó a ser público cuando en su tour de 2009/2010, que precisamente se llamaba Fearless Tour / Tour sin miedo, la artista se pintó el número 13 en su mano. Cuando le preguntaron sobre esta cuestión, Swift contestó:
El significado del número 13 en mi mano… Me lo pinto en la mano antes de cada concierto porque el 13 es mi número de la suerte, por muchas razones. Es muy curioso.
Nací un día 13. Cumplí 13 años un viernes 13. Mi primer álbum fue disco de oro en 13 semanas. Mi primera canción que fue número uno tenía una introducción de 13 segundos. Cada vez que he ganado un premio, me han sentado en el asiento 13, en la fila 13, en la sección 13 o en la fila M, que es la decimotercera letra.
Su relación con el trece ha ido creciendo desde entonces. En una conversación publicada entre Taylor Swift y el músico británico Paul MacCartney, miembro de los Beatles, la cantante afirma “Me encantan los números. Los números gobiernan todo mi mundo. Los números 13, … 89 es uno importante. Hay otros que me parecen…”.
Incluso el simétrico de 13, es decir, 31, es importante para ella. Cuando cumplió 31 años, el 13 de diciembre de 2020, escribió en una red social “Desde que tenía 13 años, me emocionaba cumplir 31 porque es mi número de la suerte al revés, por eso quería sorprenderos con esto ahora”. Se estaba refiriendo a su álbum Evermore (2020) que acababa de publicar, pocos meses después de su anterior álbum Folklore (2020), el primero con 16 canciones y el segundo con 15 canciones, en total, 31 temas para el año 2020.
Su pasión por el número 13 ha seguido aumentando con el paso del tiempo.

Aunque el número 13 suele asociarse con la mala suerte en el deporte, también hay quienes lo consideran un número favorable, como el exjugador profesional de fútbol americano Dan Marino (1961) que lució el número 13 tanto en la Universidad de Pittsburg en sus años universitarios, como en su exitosa carrera profesional en los Miami Dolphins, de hecho, además de todos sus records y premios, es uno de los jugadores que está en el Salón de la Fama de la NFL. Otro ejemplo, es el jugador de fútbol alemán Gerd Müller (), jugador del Bayern de Múnich, que lució el número 13 jugando con la selección alemana, en particular en el Mundial de 1970 (en el que fue el máximo goleador del torneo), la Eurocopa de 1972 (en el que Alemania se proclamó ganadora) y el Mundial de 1974 (que también ganó Alemania).
Pero no solo hay personas que consideran que el 13 es un número de la suerte, también en distintos países, sociedades y culturas. Por ejemplo, el número 13 no es visto con miedo en China. Su significado es muy positivo. En el idioma mandarín, la pronunciación del 13 (shí sān) se asemeja a las palabras para “definitivamente vibrante” o “crecimiento asegurado”, lo que lo convierte en un número asociado a la prosperidad y el éxito. Por esta razón, no es raro ver el 13 en direcciones, teléfonos o incluso en el precio de productos.
En el Tibet no solo se considera al 13 como un número afortunado, más aún es un número sagrado. En la antigua cosmogonía tibetana se consideraba que el cielo estaba compuesto de 13 capas, siendo la última capa, la número 13, la asociada con la pureza espiritual. Además, los budistas tibetanos realizar la Kora (peregrinación) alrededor del monte sagrado Kailash trece veces es un ritual que purifica los pecados y trae felicidad y fortuna.
Para los budistas tibetanos, realizar la Kora (una peregrinación ritual) alrededor del monte Kailash, una montaña sagrada, 13 veces es una práctica de gran devoción. Se cree que completar este ritual purifica los pecados y trae una gran felicidad y fortuna.

Bibliografía:
1.- R. Ibáñez, La gran familia de los números, Libros de la Catarata, 2021.
2.- Alicia Bonilla, Así sería la línea 14 del Metro de Madrid: el trayecto fantasma que nunca fue, El Español, 2024.
3.- Javier Pazos, La maldición del número 13 en la Fórmula 1, MARCA, 2024.
4.- Ángel Elberdin, Circuito de Lasarte. Memorias de una pasión, Kutxa, 1998.
5.- Lamberto García del Cid, Números notables, el 0, el 666 y otras bestias numéricas, El mundo es matemático, RBA, 2010.
6.- Five Men Who Hated (or Loved) the Number 13, Smithsonian Magazine, 2012.
7.- Joseph Ditta, Friggatriskaidekaphobes Need Not Apply, New York Historical, 2012.
8.- Clara Giaimo, The 1880s Supper Club That Loved Bad Luck, Atlas Obscura, 2017.
9.- Howard H. Eves, Mathematical Circles, vol. 3, The Mathematical Association of America (MAA), 2003.
10.- Joyann Jeffrey, MC Suhocki, Ariana Brockington, The full history of Taylor Swift and her ‘lucky number’ 13, TODAY, 2024.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo ¿Es el número 13 un número nefasto? se ha escrito en Cuaderno de Cultura Científica.
El misterio de la materia oscura: ANAIS y COSINE desafían la señal de DAMA/LIBRA
La materia oscura, uno de los mayores enigmas de la cosmología moderna, no emite ni absorbe luz, lo que la hace invisible a nuestros telescopios. Sin embargo, los astrónomos estiman que constituye cerca del 85 % de la materia del universo, deduciendo su existencia por sus efectos gravitacionales en la rotación de galaxias, la formación de cúmulos y la distribución de materia a gran escala.
Durante décadas, los científicos han intentado detectar partículas de materia oscura mediante experimentos que buscan señales de colisiones con núcleos atómicos en detectores ultrasensibles. Sin embargo, un análisis conjunto de los experimentos ANAIS-112 (España) y COSINE-100 (Corea del Sur) ha desafiado la única señal persistente que, hasta ahora, parecía indicar una detección directa: la reportada por el experimento DAMA/LIBRA.
Fuente: ESO/M. Kornmesser, CC BY 4.0 / Wikimedia Commons
El caso DAMA/LIBRA y su enigmática variación anual
En 1997, el experimento DAMA/NaI, sucedido por su versión mejorada DAMA/LIBRA, reportó un hallazgo intrigante. Usando cristales de ioduro de sodio (NaI) en un laboratorio subterráneo para minimizar la interferencia de rayos cósmicos, ambos detectaron una variación estacional en la tasa de eventos: un aumento en verano y una disminución en invierno.
Esta oscilación, conocida como modulación anual, parecía consistente con la hipótesis de que la Tierra, al orbitar el Sol, atraviesa un “viento” de materia oscura que rodea nuestra galaxia. En ciertos meses, el movimiento de la Tierra se alinea con el del Sol, aumentando el flujo de partículas de materia oscura que impactan el detector; en otros, el efecto se reduce. Durante más de dos décadas, esta señal se mantuvo estable, llevando a algunos físicos a considerarla la primera detección directa de materia oscura.
Sin embargo, otros experimentos, que empleaban materiales y técnicas distintas, no encontraron señales compatibles. Esto generó escepticismo en la comunidad científica, que comenzó a sospechar que la modulación de DAMA/LIBRA podría deberse a un efecto ambiental o instrumental no identificado.
La réplica de ANAIS-112 y COSINE-100
Diseño esquemático del experimento ANAIS-112, en el que pueden apreciarse los nueve módulos cilíndricos que contienen cada uno 12,5 kg de cristales de NaI ultrapuro. Fuente: ANAIS Experiment / Universidad de ZaragozaPara resolver esta controversia, los experimentos ANAIS-112, en el Laboratorio Subterráneo de Canfranc (España), y COSINE-100, en el Laboratorio Subterráneo de Yangyang (Corea del Sur), fueron diseñados para replicar la búsqueda de DAMA/LIBRA. Ambos utilizaron cristales de NaI, como DAMA, pero incorporaron mejoras técnicas para reducir el ruido de fondo y aumentar la sensibilidad. Tras varios años de recolección de datos, analizaron si sus detectores registraban la misma modulación anual.
Los resultados fueron claros: ni ANAIS-112 ni COSINE-100 observaron variaciones significativas en las tasas de detección que coincidieran con la señal de DAMA/LIBRA. Al combinar sus datos, los investigadores concluyeron, con una confianza estadística superior al 99,999 %, que la señal de DAMA no puede atribuirse a interacciones de partículas de materia oscura. Este hallazgo descarta la interpretación de materia oscura para la señal de DAMA/LIBRA.
Implicaciones para la física
Este resultado no implica que la materia oscura no exista. Su presencia sigue siendo crucial para explicar fenómenos cosmológicos, como la formación de galaxias y la dinámica de cúmulos. Sin embargo, los datos de ANAIS-112 y COSINE-100 indican que la modulación de DAMA/LIBRA probablemente se debe a otra causa, como radiación ambiental no identificada o efectos sistemáticos en los detectores.
La investigación sugiere que la materia oscura podría tener propiedades distintas a las asumidas, quizás interacciones aún más débiles que las que los detectores actuales pueden captar. Este revés impulsa a la comunidad científica a explorar nuevas estrategias, desde detectores más avanzados hasta modelos teóricos alternativos, para desentrañar el enigma de la materia oscura.
Un recordatorio de la actitud científica
Este episodio subraya un principio fundamental de la ciencia: un resultado, por intrigante que sea, debe ser reproducido de forma independiente para considerarse válido. La señal de DAMA/LIBRA, que durante años alimentó debates en la física de partículas y la cosmología, ha sido cuestionada con solidez por ANAIS-112 y COSINE-100. Lejos de ser un final, este resultado abre nuevas puertas para investigar uno de los mayores misterios del universo, con la promesa de descubrimientos que podrían revolucionar nuestra comprensión del cosmos.
Referencia:
COSINE-100 Collaboration & ANAIS-112 Collaboration (2025) Combined Annual Modulation Dark Matter Search with COSINE-100 and ANAIS-112 Phys. Rev. Lett. doi: 10.1103/9j7w-qp1c
El artículo El misterio de la materia oscura: ANAIS y COSINE desafían la señal de DAMA/LIBRA se ha escrito en Cuaderno de Cultura Científica.
Una nueva hipótesis sobre la formación de Mercurio
Mercurio es un planeta raro, y más si lo comparamos con el resto de los planetas rocosos. Para sus reducidas dimensiones -algo más de 1/3 del diámetro de nuestro planeta- es un planeta “pesado”. Esto nos ha hecho pensar que bajo su superficie se esconde un núcleo que podría albergar hasta el 70% de la masa total de Mercurio, mucho si lo comparamos con la Tierra, donde este porcentaje es de alrededor de un 30%.
Durante muchos años, los investigadores se han preguntado por el origen de esta diferencia tan marcada sin hallar una respuesta definitiva que convenza a toda la comunidad científica. Pero un nuevo estudio publicado por Franco et al. (2025) ofrece una visión alternativa a la teoría imperante sobre la formación de Mercurio, donde el planeta actual sería la consecuencia de un gran impacto. Más o menos.
Esta teoría dice que el Mercurio original, o proto-Mercurio, tendría aproximadamente el doble de tamaño que en la actualidad, pero que en algún momento de esos agitados primeros momentos de la historia de nuestro sistema solar se encontró de frente con un cuerpo mucho más pequeño. La colisión habría sido tan fuerte que una gran parte la corteza y el manto del protoplaneta habrían sido expulsados al espacio.
Mercurio visto a través de la sonda MESSENGER. Aunque por fuera puede parecerse mucho a nuestra Luna -salvando los mares-, lo cierto es que por dentro son cuerpos muy diferentes como atestiguan las grandes diferencias de densidad entre uno y otro. Quizás una de las cosas más llamativas de la imagen es la presencia de muchos cráteres con una eyecta clara que contrasta con la superficie más oscura. Imagen cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington.Pero esta versión de la historia tiene varios problemas: El primero es que las simulaciones de las colisiones sugieren que este tipo de encuentros capaces de arrancar la corteza y el manto de un planeta son bastante raras. Estos eventos tan energéticos requerirían que el cuerpo más pequeño que impacta sobre el otro tenga una órbita inusualmente excéntrica, algo que no es habitual -o poco frecuente- en los modelos de formación planetaria.
Además, una gran parte de los materiales expulsados por la colisión y que originalmente formarían parte del manto y de la corteza del protoplaneta, volverían a caer de nuevo sobre este, ayudando a formar de nuevo esas capas, al menos parcialmente.
Esto ha llevado a los científicos a buscar teorías alternativas en las que, aunque siga necesitándose una colisión, esta sea más tangente y no frontal, pero al igual que en el caso anterior, se necesitan unos parámetros orbitales muy específicos y poco probables según lo que sabemos hasta el momento gracias a los modelos de formación planetaria.
Y en este punto es donde entra este nuevo estudio a plantear otra solución al problema que nos plantea Mercurio. En lugar de ser una colisión de un cuerpo pequeño contra uno grande se han preguntado que pasaría si los dos cuerpos que chocaron tuviesen una masa similar. Y es que cuando estudiamos a fondo las simulaciones de formación de sistemas planetarios, vemos que los impactos gigantes son generalmente poco frecuentes, pero entre protoplanetas de un tamaño similar son mucho más comunes.
Para poder dar respuesta a esta cuestión, los autores de este estudio realizado una serie de simulaciones por ordenador en la que cada planeta no es un único objeto sólido, sino que está formado por miles de partículas individuales, cada una con propiedades como la velocidad, posición, la temperatura y el tipo de material del que están compuestas.
Además, en las condiciones iniciales del modelo hicieron que los planetas ya estuviesen diferenciados, es decir, que su interior estuviese formado por capas de distintas propiedades, como nuestro planeta hoy día. En este caso, el proto-Mercurio tendría unas dimensiones aproximadas de 2.4 veces el planeta actual y estaría formado por un 30% de hierro y un 70% de rocas formadas por silicatos, una composición que podríamos considerar típica para los cuerpos del Sistema Solar interior.
Fotogramas de la simulación en los que se puede apreciar distintos momentos de la colisión y el resultado de esta. Los colores muestran el manto y el núcleo de ambos protoplanetas. Fuente: Franco, P., et al. (2025) Nat Astron. doi: 10.1038/s41550-025-02582-y / fair useEl cuerpo con el que chocaría, en cambio, tendría un tamaño variable que oscila entre las 3.6 y las 10 veces el tamaño del Mercurio actual, pero con una composición idéntica a la que hemos comentado en el párrafo anterior. Hay diferencia de tamaños, pero no estaríamos ante un caso extremo como el propuesto en otros modelos, donde la diferencia es mucho más grande.
En vez de hacer miles de simulaciones al azar, analizaron los casos que podrían dar lugar a que el cuerpo más pequeño resultante de la colisión tuviese un tamaño similar al Mercurio actual, ejecutando las simulaciones ya con un rango de ángulos y velocidades de impacto mucho más acotado.
Pero no fue tan fácil. En las primeras simulaciones intentaron usar los ángulos de impacto que se denominan “críticos”, aquellos que requerirían la menor energía para conseguir el objetivo y, de hecho, las colisiones eran tan suaves que el proto-Mercurio acababa con una masa casi el doble de la que tiene hoy actualmente y con un porcentaje de hierro por debajo del 50%.
Así que probaron otra aproximación: redujeron el ángulo de impacto en un 30%, lo que supone que los cuerpos se tocan mucho más durante la colisión, haciendo que esta sea mucho más disruptiva. Y aquí se acercaron mucho más a lo que buscaban, con Mercurios resultantes que tenían una masa de hierro de aproximadamente el 60-65%. Estaban cerca, pero todavía no del todo.
Una doble cuenca de impacto sobre la superficie de Mercurio. Además, se puede ver perfectamente cadenas de cráteres secundarios que surgen radialmente desde esta cuenca. Cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington.Por último, probaron a realizar un tercer conjunto de simulaciones para afinar un poco más los modelos y que el resultado no fuese una destrucción completa de los cuerpos o una “fusión”. Y aquí es donde el acierto parecía evidente: Chocaron dos cuerpos -uno con masa de 0.13 veces la de la Tierra y otro de 0.20 veces- produciendo como resultado un cuerpo de 0.056 veces la masa de la Tierra… muy cerca del valor actual de Mercurio, que es de 0.055 y, además, un núcleo de hierro que pesaba aproximadamente el 68% de la masa total del planeta. Casi un gemelo idéntico.
Este nuevo estudio demuestra que incluso una colisión relativamente tangencial entre dos cuerpos similares sería una de las posibles formas de dar lugar al Mercurio que conocemos hoy, sobre todo porque no necesitamos que las configuraciones de las órbitas sean más exóticas ni tampoco cuerpos muy grandes. Y además, esto cuadra bastante bien con la imagen de un Sistema Solar donde embriones planetarios del tamaño de Marte chocaban unos contra los otros, destruyéndose y fusionándose hasta dar lugar a los planetas que conocemos hoy.
A pesar de esto, quedan dos grandes preguntas abiertas… especialmente a dónde fueron los restos de esta colisión y el por qué hay tantos elementos volátiles en la corteza de Mercurio. Pero, aun así, este nuevo modelo abre la puerta a comprender un poquito mejor la formación de un planeta que quizás, después de todo, no sea nada raro.
Referencias:
Franco, P., Roig, F., Winter, O.C. et al. (2025) Formation of Mercury by a grazing giant collision involving similar-mass bodies. Nat Astron doi: 10.1038/s41550-025-02582-y
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Una nueva hipótesis sobre la formación de Mercurio se ha escrito en Cuaderno de Cultura Científica.
¿Cómo se puede saber la apariencia de los dinosaurios si solo tenemos sus huesos?
Reconstrucción de un dinosaurio del género ‘Deinonychus’ con su plumaje, tal y como se piensa que era a la luz de los conocimientos actuales. Museo de Historia Natural LWL, en Münster (Alemania). Fuente:frantic00/Shutterstock/ uso editorial
Este artículo forma parte de la sección The Conversation Júnior, en la que especialistas de las principales universidades y centros de investigación contestan a las dudas de jóvenes curiosos de entre 12 y 16 años. Podéis enviar vuestras preguntas a tcesjunior@theconversation.com
Pregunta formulada por el curso de 2º de la ESO del Instituto de Educación Secundaria Miguel de Unamuno, en Vitoria-Gasteiz (Álava)
A veces, a los paleontólogos les llaman “cazadores de fósiles”. Sin embargo, George Gaylor Simpson, uno de los paleontólogos más influyentes del siglo XX, decía que “el cazador (o la cazadora) de fósiles no mata, resucita”. Resucitar en el sentido de hacer revivir, aunque sea en sentido figurado, animales extintos.
Es decir, la labor de los paleontólogos consiste en reconstruir mundos pasados a partir de las evidencias conocidas en el registro fósil.
Cómo “resucitar” un dinosaurio en tres pasosLos fósiles de dinosaurios que estudian los paleontólogos son principalmente de dos clases: restos esqueléticos, como huesos y dientes, y restos indirectos o icnofósiles. En esta última categoría entran las huellas fósiles (icnitas), los excrementos fosilizados (coprolitos), etc. En ocasiones excepcionales, pueden conservarse “partes blandas”: impresiones de la piel o restos orgánicos (tejidos blandos y proteínas).
El primer paso para conocer la apariencia en vida de un dinosaurio es reconstruir el esqueleto a partir de sus huesos y dientes fósiles. Muchas especies están basadas en restos parciales y, a menudo, desarticulados; los esqueletos articulados completos no abundan.
También hay que tener presente que los huesos fósiles pueden estar deformados o alterados debido a la llamada diagénesis (los procesos que experimentan los sedimentos durante su transformación en rocas sedimentarias). Cuando faltan elementos óseos, se tienen en cuenta las partes simétricas del mismo individuo y se completa con información basada en “parientes” vivos, como aves y cocodrilos.
El segundo paso es reconstruir los músculos y tejidos. Las marcas de inserción muscular en los huesos fósiles sirven para averiguar la forma y disposición de los músculos.
Y el paso final consiste en imaginar la apariencia externa del animal, como la piel (con la presencia de escamas o plumas), pero es la parte más especulativa. En ciertos casos, se pueden inferir rasgos que no se han conservado en el registro fósil haciendo una correlación con especies actuales (se llama principio de homología). Por ejemplo, la presencia de plumas en aves y otros dinosaurios terópodos sería un carácter heredado de un ancestro común.
Para realizar todos estos estudios se aplica la anatomía comparada, disciplina que consiste en comparar las semejanzas y diferencias de las estructuras anatómicas entre especies. Los estudios de biomecánica y paleoicnología (huellas fósiles) ayudan a reconstruir el movimiento de los dinosaurios y a deducir cómo se desplazaban y a qué velocidad lo hacían.
Propuesta de reconstrucción del icónico predador Tyrannosaurus rex: esqueleto, musculatura y aspecto externo, según R. J. Palmer, para el juego Saurian.Urvogel Games, LLCReconstruir el paisaje donde vivieron
Llegados a este punto, no basta con reconstruir el aspecto de un dinosaurio: también es importante conocer en qué entorno natural vivió cuando formaba parte de un ecosistema e interaccionaba con otros organismos.
Para ello es necesario identificar otros vestigios del yacimiento y entender el contexto geológico en que este se formó. Su estudio permitirá hacerse una idea del ambiente pasado y reconstruir un “paleopaisaje” con el dinosaurio como parte integrante del mismo.
Pero ¿de qué color eran los dinosaurios?Hasta hace poco, el color de la piel de los dinosaurios era una incógnita. Ahora podemos deducir ese rasgo gracias al estudio de la forma, tamaño y distribución de los melanosomas (pequeños órganos celulares que contienen pigmentos como la melanina, responsable del color cutáneo) mediante técnicas de vanguardia (microscopía electrónica) y comparando con el aspecto de las aves actuales.
Por ejemplo, Anchiornis, un pequeño terópodo, tendría plumas de diferentes colores: grises, blancas, negras, así como un copete rojizo. El plumaje de Microraptor, otro terópodo con plumas en las cuatro extremidades, sería de color oscuro y con un brillo iridiscente, como ocurre en algunos córvidos actuales.
Dinosaurios cuya piel no estaba cubierta de plumas, como el pequeño ceratopsio Psittacosaurus y el anquilosaurio Borealopelta, se han reconstruido atribuyéndoles un cuerpo de color marrón oscuro o rojizo. En ambos casos, lucen un vientre más claro: este patrón cromático, conocido como contrasombra o contracoloración, está presente en muchos animales y sirve para camuflarse.
Modelo del ornitisquio Psittacosaurus con piel escamosa y largos filamentos queratinosos en la cola. Está basado en un fósil del Cretácico Inferior de China (Jehol Biota) conservado en el Museo Senckenberg de Frankfort, en Alemania. El patrón de color o contrasombreado, con la parte dorsal más oscura que la ventral, servía probablemente de camuflaje.Imagen de Jakob Vinther et al. (2016) en Current BiologyTalento artístico con conocimiento de causa
Con todos los datos, los paleoartistas reviven en sus ilustraciones el aspecto de los dinosaurios y otros seres del pasado. Algunos son paleontólogos o trabajan en colaboración con ellos. Entonces, el talento artístico se combina con los conocimientos científicos para mostrar la posible apariencia en vida de animales que ya no existen.
Dependiendo de la naturaleza fragmentaria del registro fósil y de otros factores, estas obras tendrán siempre una parte de especulación. Las reconstrucciones de dinosaurios conocidos a partir de decenas de esqueletos pertenecientes a individuos en diferentes fases de crecimiento (juveniles, adultos, etc.), como el citado Psittacosaurus, estarán mejor fundamentadas que otras basadas en restos fragmentarios pertenecientes a un único individuo.
Evolución de la imagen de los dinosauriosLa imagen de los dinosaurios ha ido cambiando a lo largo del tiempo, ya que es un reflejo de los conocimientos científicos de cada época. Las primeras reconstrucciones del siglo XIX los muestran como gigantescos lagartos. Para Richard Owen, el inventor del término “dinosaurio” (1842), eran cuadrúpedos corpulentos parecidos a los mamíferos llamados mastodontes, como reflejan los modelos a tamaño natural del Crystal Palace Park, al sur de Londres.
Estatuas del dinosaurio iguanodonte en el Crystal Palace Park, Londres.Wikimedia Commons, CC BY
La iconografía de la segunda mitad del siglo XIX, basada en descubrimientos hechos en Norteamérica y Europa, representa a terópodos y ornitópodos como formas bípedas con aspecto de canguro. Durante la primera mitad del siglo XX, los esqueletos de dinosaurios montados en los museos los muestran con la cola apoyada en el suelo. Hay que esperar hasta los años 1960-1970, cuando se produjo una revolución conceptual en paleontología llamada “Renacimiento de los dinosaurios”, para tener una imagen más realista de estos animales.
Los esqueletos de los museos y las imágenes de cine y televisión modernas presentan a los dinosaurios en una posición más dinámica, con la columna vertebral horizontal y la cola levantada por encima del suelo.
Estas reconstrucciones tienen en cuenta las más recientes interpretaciones paleontológicas y representan a los dinosaurios como seres activos. En el momento de su estreno (1993), la película Parque Jurásico nos enseñó las reconstrucciones más modernas de la historia.
No obstante, la imagen de algunas criaturas de la saga no ha evolucionado a la par que las interpretaciones paleontológicas. Por ejemplo, los famosos “raptores” siguen teniendo una piel escamosa y prácticamente desprovista de plumas a pesar de que las evidencias fósiles indican que dinosaurios como los dromeosaurios estaban cubiertos de plumas o protoplumas.
Esto demuestra que, aunque el cine puede conseguir que la ciencia resulte más atractiva, los intereses científicos y cinematográficos no son necesariamente los mismos.
Reconstrucción moderna del dromeosaurio Deinonychus por el ilustrador Fred Wierum. A diferencia de los raptores de la saga Parque Jurásico, el cuerpo está cubierto de plumas, reflejo de los últimos descubrimientos en paleontología.Fred Wierum/Wikimedia Commons
En definitiva, es posible conocer la apariencia de los dinosaurios gracias a los conocimientos científicos que proporcionan los fósiles y a la utilización de técnicas modernas. Cuanto más completos sean los datos, menos especulativa será la reconstrucción. Los paleoartistas ayudan a recrear mundos poblados de aquellos asombrosos animales extintos y otros seres del pasado.
La Cátedra de Cultura Científica de la Universidad del País Vasco colabora en la sección The Conversation Júnior.![]()
Sobre el autor: Xabier Pereda Suberbiola, Investigador (Paleontología), Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Cómo se puede saber la apariencia de los dinosaurios si solo tenemos sus huesos? se ha escrito en Cuaderno de Cultura Científica.
Seguimos valiendo un potosí
Existe una expresión en el arraigo de frases castellanas que se lleva repitiendo durante siglos, pero que, desgraciadamente, se está perdiendo rápidamente en el acervo lingüístico moderno, y que a mí me encanta. Esta expresión reza así: “vale un potosí”. Con estas simples palabras nos estamos refiriendo a algo o alguien que tiene un enorme valor, hasta el punto de considerarlo como un auténtico tesoro. Pero, ¿de dónde viene esta palabra tan rara?
Aspecto actual de la Villa Imperial de Potosí (Bolivia), con el Cerro Rico al fondo. Foto: Parallelepiped09 / Wikimedia CommonsPara buscar la respuesta, debemos viajar a mediados del siglo XVI. En aquella época, los exploradores españoles que recorrían Sudamérica llegaron a la zona que ocupa la actual Bolivia. Allí se encontraron con una montaña en la que los pueblos indígenas explotaban varios minerales metálicos, entre ellos plata, a la que llamaron Cerro Rico por esa gran abundancia minera. Pero la población se refería a ese lugar con el término quechua “potoq” o “potojsi”, así que rápidamente esta localidad pasó a denominarse Potosí. En pocos años, esta explotación minera aportó toneladas de plata a la corona española, facilitando la expansión imperial por Sudamérica y convirtiendo a los buques que traían a la España peninsular [*] este preciado metal en auténticos objetos de deseo de piratas, bucaneros y corsarios. Incluso, Potosí tuvo una casa de la moneda para poder acuñar reales con la plata extraída del Cerro Rico. Y así es como la palabra potosí acabó convirtiéndose en sinónimo de riqueza desde finales del siglo XVI.
Reales de a 8 de plata acuñados en Potosí durante el siglo XVIII. Foto: Carlomorino / Wikimedia CommonsPero vamos a dejar la historia y pasemos a hablar de Geología. Si nos fijamos en el margen occidental de Bolivia, podemos encontrarnos con una serie de cordilleras que dibujan una pequeña curvatura y que están formadas, principalmente, por rocas depositadas en un fondo marino durante el Periodo Ordovícico, hace más de 400 millones de años. Pero lo más interesante empezó a ocurrir durante el Mioceno, hace más de 15 millones de años, cuando muchas estas montañas fueron sometidas a un importante vulcanismo, como le pasó a Cerro Rico. Cuando esos magmas empezaron a ascender hacia la superficie desde las cámaras magmáticas emplazadas bajo las cordilleras, lograron calentar las aguas subterráneas que circulaban junto a ellas, permitiendo además que varios de los elementos metálicos del magma acabasen disueltos en esos fluidos calientes. Estas aguas cargadas de elementos químicos circularon también hacia la superficie, pero, antes de salir al exterior, se enfriaron a poca profundidad, perdiendo la capacidad de transportar los elementos metálicos, que acabaron formando niveles mineralizados. Y aquí entra lo más importante, ya que este circuito de fluidos calientes generando mineralizaciones metálicas no se detuvo hasta que terminó la actividad volcánica, ya que el agua fría que se infiltraba en el terreno y circulaba bajo tierra, en cuanto se acercaba al magma, se convertía en nueva fuente de depósitos minerales.
Mapa geológico simplificado de Bolivia, donde se señalan la localización de Potosí (círculo blanco) y la distribución de la banda de yacimientos metálicos de la cordillera boliviana (línea negra discontinua). Imagen modificada de la Agencia Nacional de Hidrocarburos de Bolivia.Sé que, dicho así, este proceso puede parecer muy complejo. Pero, en realidad, es como si esta zona hubiese actuado como varias ollas a presión llenas de agua y con varios minerales metálicos en el fondo. Al poner las ollas al fuego, el agua de la parte inferior se calienta, disuelve los elementos metálicos y se los lleva consigo en su ascenso hasta la parte superior de la olla, donde se enfría, suelta los minerales y vuelve a bajar al fondo, para comenzar de nuevo su viaje.
Modelo conceptual simplificado del contexto geológico de las mineralizaciones de origen volcánico que se dan en lugares como Potosí y el resto de la banda de yacimientos metálicos de Bolivia. En rojo, fluidos profundos calientes; en azul, fluidos superficiales fríos. Fuente: González, O.A. (2010). Características principales de los depósitos epitermales en el noroeste de México, un análisis y comparación. Universidad de Sonora. CC-BY-NC-ND/ ScribdGracias a estos procesos volcánicos, en las cordilleras occidentales de Bolivia encontramos una banda con numerosos yacimientos de minerales metálicos entre los que encontramos elementos químicos tan preciados como la plata, el plomo, el zinc, el estaño o, incluso, el oro, en cantidades descomunales. Minerales que ya fueron explotados por los pueblos indígenas desde hace cientos de años, incluso antes de adquirir fama internacional a partir de mediados del siglo XVI por los conquistadores españoles, y que aún en la actualidad siguen siendo minados por el pueblo boliviano. Aunque las minas de Potosí han sido declaradas Patrimonio de la Humanidad y se han convertido en un tesoro turístico y nacional de Bolivia, por lo que la mayoría de las cooperativas mineras están abandonando la explotación de Cerro Rico, para asegurar su protección y conservación de cara a las generaciones futuras.
Para quienes os lo estéis preguntando, este dicho popular no aparece tal cual en el Quijote. En aquella España de finales del siglo XVI, la palabra potosí ya se había convertido en un sinónimo de algo valioso, así que Miguel de Cervantes la utilizó con ese significado en algunos de sus escritos. De esta forma, el propio ingenioso hidalgo la utiliza para asegurarle a su fiel escudero que, ni con todas las minas de potosí, podría pagarle el sacrificio que está a punto de realizar. Aprovechando que el manco de Lepanto vuelve a estar de moda gracias al cine, creo que es el momento más adecuado para recuperar esta expresión tan geológica que nunca debería abandonar el maravilloso mundo del dicho popular.
Agradecimientos:
Quiero dar las gracias a mis colegas y grandes amigas Iranzu Guede y Jone Mendicoa por darme la idea y las referencias científicas básicas para escribir este artículo. ¡Vosotras sí que valéis un potosí, chicas!
[*] Nota del editor: Debido a la influencia cultural anglosajona, muchas personas se refieren a la España de Ultramar como «colonias», cuando el Imperio Español nunca tuvo colonias, sino provincias (virreinatos) que eran parte integral del imperio, tan España era Potosí como Valladolid. Es similar al Imperio Romano, que tenía provincias, no colonias, y se distinguía así de Grecia, que sí tenía colonias (empórion, asentamientos comerciales; de esta palabra, por ejemplo, viene el nombre de la localidad de la costa catalana Ampurias, en catalán, Empúries). Una colonia es una empresa mercantil (o religiosa, como algunas inglesas en América) y, por tanto, privada y autónoma, aunque suele requerir un permiso del monarca para su implantación, y este está representado por un gobernador que vela por sus intereses económicos. Los virreinatos eran «tierra del rey», por eso los gobernaba un virrey, y eran una parte integral del estado. En la España americana se podía acuñar moneda en nombre del rey, como se hacía en la España europea. Como contraste, las pocas monedas acuñadas en las colonias inglesas de América no se hicieron con permiso del rey, y, finalmente, fueron expresamente prohibidas y la ceca clausurada. Toda esta explicación viene a cuenta de lo que se observa en la parte superior de los reales de a ocho españoles y permite entenderla: VTRAQUE (se escribe junto en latín, aunque se separa en la moneda por motivos estéticos) VNUM, ambos como uno.
El artículo Seguimos valiendo un potosí se ha escrito en Cuaderno de Cultura Científica.
Aprendiendo estadística a través de la danza
Llevo casi 10 años enseñando métodos de investigación en psicología, y puede ser un reto. Mis alumnos suelen decir que la estadística es la parte más aterradora de su carrera, que no les gustan las matemáticas y que no entienden por qué son tan importantes. Como muchos otros, intento que las clases y sesiones sean amenas y atractivas, y a menudo me encuentro rimando y, en general, moviéndome mucho; soy de esos profesores que se mueven mucho.
Intento presentar el material de forma visual siempre que sea posible, usando los brazos y todo el cuerpo para reforzar lo que digo, como, por ejemplo, formando posturas de diagrama de dispersión positivo/negativo o de distribución normal. A menudo resulta vergonzoso, pero parece efectivo. Bromeé con algunos colegas comentándoles que debería intentar enseñar estadística con baile y no se rieron. Esto me sorprendió.
Me preguntaba por qué enseñar así funcionaba (y seguía preguntándome por qué la gente no se reía). Quizás usar el movimiento en lugar de las palabras era una forma más sutil de presentar información que normalmente generaba ansiedad en la gente: basta con mencionar la palabra «estadística» a estudiantes de psicología para ver cómo el miedo se apodera de sus rostros y palidecen ligeramente.
En el año 2013, la psicóloga Lucy Irving (Middlesex University) lideró el proyecto Communicating Psychology to the Public through Dance (Comunicar la psicología al público a través de la danza), también conocido como Dancing statistics (Bailando estadística). Financiado por la British Psychological Society, este proyecto contó con la asesoría estadística del también psicólogo y profesor de métodos cuantitativos Andy Field (University of Sussex).
Varias capturas de pantalla del cortometraje sobre muestreo y error estándar.
Irving y Field produjeron cuarto cortometrajes en los que se introducen diferentes conceptos estadísticos: el muestreo y el error estándar, la varianza, la distribución de frecuencias y la correlación se explican por medio de ocurrentes bailes ideados por la coreógrafa Masha Gurina.
Este fue posiblemente el proyecto más inusual en el que participé como coreógrafa, pero también uno de los más emocionantes. Trabajando con un equipo de diez bailarinas y bailarines, una cineasta, el destacado psicólogo estadístico del Reino Unido, el profesor Andy Field, y la profesora de Psicología y Métodos de Investigación, Lucy Irving (fundadora y productora), he coreografiado películas que visualizan algunos conceptos estadísticos fundamentales para estudiantes de psicología. El resultado tuvo una excelente acogida en la comunidad psicológica, y me alegra mucho haber podido contribuir a la educación en este país.
En cada uno de los cortometrajes se explica cada uno de los momentos de la danza desde el punto de vista de la estadística, intentando aclarar esos conceptos que generan tanta “ansiedad” a algunas y algunos estudiantes.
Explicando el concepto estadístico de muestreo y error estándar
El muestreo es la técnica para seleccionar una muestra a partir de una población estadística y el error estándar es la desviación estándar (medida que cuantifica la variación o la dispersión de un conjunto de datos numéricos) de la distribución muestral (resultado de considerar todas las muestras posibles que pueden tomarse de una población) de un estadístico (una función medible).
Explicando el concepto estadístico de varianza
La varianza es una medida de dispersión; es una medida que indica cuánto se desvían los valores de un conjunto de datos respecto a su media. Es la media aritmética del cuadrado de las desviaciones respecto a la media de una distribución estadística.
Explicando el concepto estadístico de distribución de frecuencias
La distribución de frecuencias es una ordenación (en forma de tabla) de los datos estadísticos, que asigna a cada dato su correspondiente frecuencia.
Explicando el concepto estadístico de correlación
La correlación es una medida estadística que indica el grado de relación lineal entre dos variables numéricas. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores correspondientes de la otra. Recordemos que la correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad.
Los cortometrajes «Dancing Statistics» se diseñaron para guiar al público sin formación en danza a través de la observación y comprensión de coreografías cuidadosamente compuestas que demuestran conceptos estadísticos fundamentales.
¿Sirven estos videos para enseñar estadística? ¿Son únicamente un método de información divulgativo? En realidad, poco importa. Si ayudan a reducir esa “ansiedad” por esta materia, sin duda, ya son útiles. Además, en mi opinión, trabajar entre personas con formaciones tan diversas en un proyecto de este tipo, rompe estereotipos. ¿Están realmente tan lejos las matemáticas y el arte?
Referencias
- Lucy Irving, Statistics through the medium of dance, Significance, 14 enero 2014
- Avner Bar-Hen, Statistique et danse pour l’enseignement, Images des mathématiques, 20 julio 2014
- Elise Phillips, Any more Dancing Statistics?
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia
El artículo Aprendiendo estadística a través de la danza se ha escrito en Cuaderno de Cultura Científica.
Un solo agujero negro «desnudo» reescribe la historia del universo
El Telescopio Espacial James Webb ha descubierto un solitario agujero negro en el universo primitivo, con una masa equivalente a 50 millones de soles. Un descubrimiento trascendental: este objeto complica las teorías sobre el cosmos joven.
Un artículo de Charlie Wood. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Un agujero negro gigantesco, visto tres veces en esta imagen del JWST, aparece misteriosamente en el universo primitivo sin una galaxia a su alrededor. Imagen: Quanta Magazine / Fuentes: JWST/NASA/ESA/CSA y Lukas FurtakSe ha descubierto un agujero negro sin precedentes en el universo temprano. Es enorme y parece estar prácticamente solo, con pocas estrellas orbitándolo. El objeto, que podría representar una clase completamente nueva de enormes agujeros negros “desnudos”, pone en entredicho la comprensión tradicional del universo joven.
“Esto está completamente fuera de escala”, afirma Roberto Maiolino, astrofísico de la Universidad de Cambridge que ayudó a desvelar la naturaleza del objeto en un preprint publicado el 29 de agosto. “Es tremendamente emocionante. Es muy revelador.”
“Está empujando los límites de lo que creemos que puede ser cierto, de lo que creemos que puede ocurrir”, comenta Dale Kocevski, astrónomo del Colby College que no participó en la nueva investigación.
Los astrónomos detectaron el agujero negro desnudo usando el Telescopio Espacial James Webb (JWST), un mega-instrumento construido por la NASA y sus socios en parte para desvelar cómo se formaron las galaxias durante el primer millardo de años del universo. Este nuevo agujero negro, con una masa equivalente a 50 millones de soles y bautizado como QSO1, entra en conflicto con la visión provisional de que la formación galáctica no comenzaba con agujeros negros. Se creía que estos aparecían solo después de que las estrellas de una galaxia colapsasen gravitacionalmente en agujeros negros que luego se fusionaban y crecían. Pero Maiolino y sus colegas describen a un leviatán solitario, sin rastro de galaxia madre.
La pregunta ahora es cómo llegó a existir este agujero negro.
Roberto Maiolino, de la Universidad de Cambridge, ha dirigido un estudio que ha identificado definitivamente el nuevo objeto. Foto cortesía de Roberto MaiolinoLa posibilidad más emocionante —y polémica— se remonta a una propuesta de 1971 del físico británico Stephen Hawking: que los agujeros negros surgieron en la sopa primordial del propio Big Bang. En tal caso, el objeto habría permanecido en la oscuridad desde los primeros instantes del cosmos, esperando a que las estrellas y galaxias lo iluminaran.
QSO1 es uno de los cientos de objetos similares, apodados “pequeños puntos rojos”, que JWST ha detectado en sus primeros años explorando las profundidades del tiempo. Los astrofísicos aún no pueden afirmar si todos estos puntos son agujeros negros, y en general siguen desconcertados por la caótica infancia del universo. Pero las imágenes del telescopio sugieren un cosmos juvenil y alborotado que fabricó grandes agujeros negros y galaxias tanto en paralelo como de forma independiente, o quizás incluso un universo en el que los agujeros negros fueron de las primeras estructuras de gran escala en existir: burbujas oscuras en un té cósmico por lo demás homogéneo.
QSO1 y el resto de los pequeños puntos rojos “nos dicen que no sabemos nada”, afirma John Regan, teórico de la Universidad de Maynooth en Irlanda. “Ha sido realmente emocionante y electrizante para el campo.”
Puntos rojo pálidoLukas Furtak, astrónomo de la Universidad Ben-Gurion en Israel, supo que QSO1 era extraordinario en el mismo momento en que lo vio —o en que vio sus tres reflejos escondidos entre un cúmulo de manchas blancas de galaxias en una imagen tomada por JWST en 2023. “Es algo que destaca de inmediato”, apunta Furtak por Zoom, señalando tres motas rojas casi imperceptibles. “Aquí hay tres fuentes puntuales rojas: aquí, aquí y aquí arriba.”
En la imagen, una alineación fortuita de galaxias y materia oscura había doblado los rayos de luz de objetos de fondo, como lo haría una lente de cristal; esta “lente gravitatoria” revela objetos más profundos en el universo temprano de lo que el telescopio podría ver por sí solo. La lente amplía y estira lo que hay detrás, creando a veces múltiples imágenes. Furtak estaba cartografiando las formas alargadas de galaxias que la lente había proyectado en varios lugares cuando descubrió los tres puntos rojos de QSO1.
Los puntos le llamaron la atención porque no mostraban signos de estiramiento. Sabía que lo único que sigue viéndose como un punto pequeño y redondo tras ser estirado es algo aún más pequeño y más redondo. No era una galaxia, concluyó: debía de tratarse de un agujero negro, una concentración de masa tan densa que su gravedad crea una región de la que nada puede escapar.
Durante los seis meses siguientes, Furtak y sus colaboradores apuntaron el JWST hacia cada uno de los tres puntos rojos durante 40 horas para obtener un censo de los colores de la luz que emitían, es decir, su espectro. Ese estudio concluyó que QSO1 es muy probablemente un agujero negro brillante que concentra decenas de millones de masas solares en una región de como máximo 100 años luz de diámetro, tal como era cuando el universo tenía solo 750 millones de años. (Hoy el cosmos se acerca a los 14.000 millones de años).
El Telescopio Espacial James Webb, lanzado en 2021, ha detectado cientos de extraños agujeros negros y galaxias en el universo primitivo, revelando los caóticos primeros mil millones de años de historia cósmica. Foto: NASA/MSFC/David HigginbothamQSO1 fue uno de los primeros pequeños puntos rojos descubiertos. Hoy se conocen más de 300, y el debate sobre su naturaleza lleva dos años encendido. Presentan algunas características clásicas de agujeros negros brillantes, pero no todas. Y hasta ahora las estimaciones de sus masas eran algo indirectas. Como resultado, algunos astrofísicos han argumentado —como hizo un grupo en un análisis de más de 100 pequeños puntos rojos en agosto— que en realidad son galaxias extrañas sin agujeros negros.
“El campo ha estado obsesionado con ellos”, destaca Kocevski. “Rara vez se encuentran cosas que no puedes explicar.”
Ampliando el zoomEn diciembre de 2024, Maiolino, junto con Hannah Übler (ahora en el Instituto Max Planck de Física Extraterrestre) y otros colaboradores, enfocaron el JWST en QSO1 durante 10 horas más. Aumentaron la resolución del punto hasta convertirlo en una mancha pixelada y midieron los colores específicos que provenían de cada píxel. A partir de estos espectros calcularon la velocidad a la que el material brillante de cada píxel se movía hacia nosotros o se alejaba. Descubrieron que ese material —probablemente gas caliente— giraba en un torbellino furioso, confirmando los hallazgos preliminares de Furtak.
Su análisis detallado, descrito en dos preprints publicados en mayo y agosto, reveló definitivamente la identidad de QSO1.
Una de las pistas fue su masa. Al reconstruir el torbellino, el equipo midió directamente la masa del objeto alrededor del cual orbitaba: 50 millones de veces la del Sol. Este resultado coincidía con el de Furtak y su equipo. (Este logro ya es un gran avance: sugiere que el método indirecto, basado en el espectro global del objeto, funciona para agujeros negros jóvenes, algo que era motivo de debate).
Hasta la fecha, se han observado más de 300 «pequeños puntos rojos»: objetos misteriosos del universo primitivo que, en algunos aspectos, parecen grandes agujeros negros brillantes y, en otros, galaxias inusuales. Composición cortesía de Jorryt Matthee / Datos de los sondeos EIGER /FRESCO.Además, el grupo no encontró indicios de una galaxia estrellada alrededor de QSO1. El gas orbita el píxel central igual que la Tierra orbita el Sol, lo que indica que la masa está concentrada en un punto. El equipo estima que el agujero negro representa al menos dos tercios de la masa de QSO1, siendo el resto gas y quizá algunas estrellas dispersas. Regan, que no participó en la investigación, cree que esta estimación es conservadora y que QSO1 podría ser hasta un 90 % agujero negro. “Nunca hemos visto nada parecido”, afirma.
Por último, los espectros píxel a píxel mostraron que el gas que orbita el agujero negro es esencialmente hidrógeno puro, un elemento que se remonta al Big Bang. Las estrellas brillan fusionando hidrógeno en elementos más pesados y, cuando explotan, esparcen esos elementos por todas partes. QSO1 parece haber alcanzado su estado actual antes de que muchas estrellas cercanas vivieran y murieran.
“La explicación más plausible parece ser que el agujero negro se desarrolló antes que la galaxia”,apunta Marta Volonteri, teórica del Instituto de Astrofísica de París que participó en el análisis de QSO1.
Orígenes veladosUna de las principales tareas de los astrofísicos ahora será desentrañar cómo se formaron QSO1 y sus semejantes, y cómo se convirtieron en los agujeros negros supermasivos que hoy se encuentran en el centro de las galaxias. Estos agujeros negros supermasivos, con masas de hasta miles de millones de soles, ya anclaban galaxias al final del primer millardo de años del universo.
Los agujeros negros supermasivos llevan tiempo desconcertando a los astrofísicos. Saben que las galaxias pueden generar agujeros negros cuando sus estrellas más grandes agotan su combustible y mueren. Esos cadáveres estelares se fusionan y devoran gas y polvo, creciendo hasta formar un agujero negro gigante en el centro galáctico. El problema es que todo este proceso lleva tiempo, y resulta difícil imaginar que ocurra lo bastante rápido como para explicar los agujeros negros supermasivos que ya existían cuando el universo tenía apenas mil millones de años. Por ello, los teóricos llevan décadas ideando teorías alternativas sobre su formación.
Lukas Furtak, astrónomo de la Universidad Ben-Gurión de Israel, detectó inmediatamente el QSO1 en un campo de brillantes galaxias blancas. Foto: Sarah LibanoreAhora, QSO1 —que carece de galaxia visible— demuestra que debe de existir otro mecanismo.
¿Cómo podría el universo fabricar directamente agujeros negros gigantescos? El grupo de Maiolino se inclina por la propuesta de Hawking. El Big Bang produjo un universo infantil con regiones más densas que otras. Allí donde la densidad fue suficiente, el colapso directo podría haber formado un agujero negro, que luego crecería absorbiendo materia a su alrededor. Tras cientos de millones de años, algunos de estos agujeros negros “primordiales” podrían haber alcanzado tamaños colosales, parecidos a QSO1.
“Es la explicación más plausible que veo”, reconoce Volonteri. “Pero estoy segura de que en los próximos seis meses habrá mil personas proponiendo otras teorías.”
No tendrán que esperar seis meses. Incluso antes del descubrimiento de QSO1, Priyamvada Natarajan, astrofísica teórica de la Universidad de Yale, y colaboradores habían publicado ya dos teorías no primordiales que podrían explicar el origen de QSO1.
Diversas teorías podrían explicar el misterioso origen de QSO1. Priyamvada Natarajan, teórica de la Universidad de Yale, ha contribuido al desarrollo de algunas de ellas. Sasha Maslov para Quanta MagazineLa primera supone que el Big Bang produjo regiones densas que no colapsaron inmediatamente. En lugar de ello, evolucionaron en nubes de gas durante cientos de miles de años. La radiación residual del Big Bang impidió que estas nubes se enfriaran y fragmentaran en estrellas, permitiéndoles hacerse lo bastante masivas como para colapsar directamente en agujeros negros. En un artículo publicado en junio, un equipo liderado por Wenzer Qin en la Universidad de Nueva York denominó a estos gigantes de aparición algo más tardía “agujeros negros casi no primordiales”.
O quizá QSO1 sí surgió de una galaxia —una que se formó rápidamente, creó un gran agujero negro y luego desapareció. En 2014, Natarajan y Tal Alexander, del Instituto Weizmann de Ciencias en Israel, describieron un escenario en el que una estrella de una región especialmente densa colapsa en un gran agujero negro que luego “vaga” como Pac-Man, engullendo gas y creciendo hasta alcanzar un tamaño enorme. Las demás estrellas se extinguirían pronto, dejando al agujero negro gigante por su cuenta.
Ninguna de estas historias encaja perfectamente con QSO1, aunque todas son posibles. El único escenario prácticamente descartado es el clásico de estrellas colapsando, fusionándose y alimentándose de un disco de gas en órbita.
QSO1 no es el primer agujero negro no convencional detectado por JWST, aunque sí el más “desnudo”. Otro hallazgo notable se encuentra en una galaxia llamada UHZ1, formada menos de 500 millones de años después del Big Bang. Combinando observaciones de JWST con rayos X captados por el Observatorio de Rayos X Chandra en 2022, Natarajan y sus colaboradores concluyeron que UHZ1 también contiene más agujero negro que galaxia. Este y otros indicios llevaron al grupo a sostener que el agujero negro de UHZ1 nació cuando una nube de gas se saltó en gran medida la fase estelar y colapsó directamente, una teoría que también podría aplicarse a QSO1.
El reto —y la emoción— para los astrónomos es que están explorando por primera vez una nueva era de la historia cósmica, y descifrar el panorama está resultando complicado. Regan compara la situación con tratar de desarrollar toda una teoría sobre la humanidad basándose solo en adultos y adolescentes —las galaxias maduras que podíamos observar antes del lanzamiento del JWST. Observar los pequeños puntos rojos equivale a descubrir niños pequeños: entidades desordenadas y difíciles de interpretar en comparación con lo que conocíamos. “Es otro rollo”, comenta. “Van corriendo por ahí como locos.”
El artículo original, A Single, ‘Naked’ Black Hole Rewrites the History of the Universe, se publicó el 12 de septiembre de 2025 en Quanta Magazine. Cuaderno de Cultura Científica tiene un acuerdo de distribución en castellano con Quanta Magazine.
Traducido por César Tomé López
El artículo Un solo agujero negro «desnudo» reescribe la historia del universo se ha escrito en Cuaderno de Cultura Científica.
Casi inimaginable: Dos especies diferentes de hormiga derivan de una misma madre
“Casi inimaginable”. Así titulaba la revista Nature un comentario sobre un artículo publicado en esa misma revista el pasado 3 de septiembre. No era concebible, hasta ahora, que los descendientes de la hembra de una especie determinada pertenezcan a dos especies diferentes.
Esto es lo que se ha observado en las hormigas Messor ibericus, cuyas reinas engendran hormigas de su propia especie y machos de la especie Messor structor. Se trata de un descubrimiento tan insólito que no podemos dejar de comentarlo en este artículo de “Vida fascinante”.
M. ibericus es una especie de hormiga que habita en el sur de Europa, desde España hasta Bulgaria (Figura 1). Como sucede con otras especies similares, M. ibericus practica la “hibridogénesis social”, consistente en que las hormigas reina recurren a machos de otras especies cercanas para generar obreras híbridas.
Figura 1. Área de distribución de Messor ibericus señalando las colonias en las que se encuentran obreras híbridas de M. ibericus X M. structor. Inesperadamente, muchas de estas colonias se localizan en áreas geográficas donde no existen colonias de M. structor, por ejemplo en Sicilia, Grecia, España o sur de Francia. De Juvé et al. (2025), cita completa en referencias, licencia CC BY 4.0.En concreto, las reinas de M. ibericus se aparean con machos de su misma especie y con machos de M. structor procedentes de colonias cercanas (Figuras 2 y 3). En el primer caso se generan hormigas reina y en el segundo obreras híbridas y estériles. Además, los óvulos no fecundados de M. ibericus se desarrollan como hormigas macho. Recordemos que en las sociedades de hormigas y abejas, reinas y obreras tienen dos dotaciones cromosómicas (son diploides) mientras que los machos son haploides, es decir, tienen solo una dotación de cromosomas proporcionada por sus madres.
Figura 2. Macho de M. ibericus (izquierda) y macho clonal de M. structor procedente de una colonia de M. ibericus (derecha) y descendiente de una reina de esta última especie. Los linajes de estas dos especies divergieron hace más de cinco millones de años, como se muestra en el árbol filogenético. De Juvé et al. (2025), cita completa en referencias, licencia CC BY 4.0.Hasta aquí no hay nada especialmente novedoso. La hibridogénesis social, aunque poco frecuente, ya era conocida. El misterio consistía en que las áreas geográficas de estas dos especies, M. ibericus y M. structor, no se solapan (Figura 1). ¿Qué sucede donde solo hay colonias de M. ibericus? No debería haber hibridación pero resultó que, inesperadamente, las obreras seguían siendo híbridas y descendientes de un cruce M. ibericus/M. structor. El caso extremo lo constituyen las colonias de M. ibericus en Sicilia, una región situada a más de 1000 Km del área de distribución de M. structor. ¿Cómo es posible la hibridación si no hay colonias de esta especie a mano?
La solución al enigma ha sido desvelada por un equipo internacional liderado por Jonathan Romiguier, de la Universidad de Montpellier. Después de examinar 132 machos de 26 colonias de M. ibericus en territorios no habitados por poblaciones de M. structor, se observó que el 44% de los machos pertenecía a la especie M. ibericus, mientras que los demás eran claramente machos de M. structor (Figura 2). Estos machos nacen de huevos puestos por reinas de M. ibericus. La prueba está en el ADN mitocondrial, que se transmite solo por vía materna. El ADN mitocondrial de los machos de M. structor procede de hembras de M. ibericus las cuales, por tanto, son sus madres (Figura 3).
Figura 3. Arriba: en las regiones donde coexisten colonias de M. ibericus y M. structor, las reinas de M. ibericus se aparean con los machos de su misma especie para producir nuevas reinas, y con machos de M. structor para generar obreras híbridas. Esto se conoce como hibridogénesis social. Los machos derivan siempre de óvulos no fecundados, son haploides y tienen solo una dotación cromosómica (rectángulo vertical). Reinas y obreras tienen dos dotaciones cromosómicas (diploides). El ADN mitocondrial, que se hereda siempre de la madre, se representa como un pequeño círculo. Abajo: en las regiones donde las colonias de M. ibericus no coinciden con las de M. structor, las reinas mantienen una línea clonal de machos de M. structor generados a partir de óvulos sin núcleo materno (xenoparidad). Estos machos hacen posible la producción de obreras híbridas. Obsérvese que el ADN mitocondrial de estos machos, derivado de M. ibericus, no coincide con el de los machos originales. Basado en Juvé et al. (2025), cita completa en referencias, licencia CC BY 4.0.Lo que ha sucedido es que a partir de una situación inicial de hibridogénesis social, las reinas de M. ibericus, para poder mantener la colonia de obreras híbridas, han conseguido clonar una población constituida solo por machos de M. structor. El procedimiento de clonación probablemente implicó la producción de óvulos sin núcleo materno que, al ser fecundados por machos de M. structor, producen un linaje continuo de machos genéticamente idénticos (Figura 3). Esto casi podría considerarse una “domesticación” de M. structor, cuyos machos han quedado al servicio exclusivo de M. ibericus y no aportan nada a su propia especie. Estos machos “domesticados” ya no tienen vuelta atrás. Si son introducidos en colonias originales de M. structor, son considerados como invasores extraños y eliminados por las obreras, probablemente porque sus feromonas no son reconocidas.
Lo de “casi inimaginable” no era exagerado. Se calcula que los linajes de M. ibericus y M. structor se separaron hace cinco millones de años (Figura 2), y a pesar de ello, el mecanismo de clonación de machos desarrollado durante este tiempo por las reinas de M. ibericus, les ha hecho independientes de la coexistencia con colonias de M. structor, y les ha permitido extender hacia el sur y el norte su área de distribución (Figura 1). Los investigadores proponen ya un nuevo término, “xenoparidad” (literalmente: alumbramiento de extraños) para esta insólita modalidad reproductiva.
Referencias
Juvé, Y., Lutrat, C., Ha, A. et al. (2025). One mother for two species via obligate cross-species cloning in ants. Nature. doi: 10.1038/s41586-025-09425-w.
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga.
El artículo Casi inimaginable: Dos especies diferentes de hormiga derivan de una misma madre se ha escrito en Cuaderno de Cultura Científica.
