Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 32 mins 16 segs

Identificadas estrellas individuales en el universo distante

Vie, 2025/01/24 - 11:59

Un equipo internacional de astrónomos/as entre los que se encuentra el investigador Ikerbasque Tom Broadhurst, que desarrolla su trabajo en la Universidadd el País Vasco (UPV/EHU) y DIPC- Donostia International Physics Center- fotografió más de 40 estrellas individuales en una galaxia tan lejana que su luz ha tardado la mitad de la edad del universo en llegar hasta nosotros.

Arco del Dragón en Abell 370. Fuente: Hubble / NASA

Utilizando el Telescopio Espacial James Webb (JWST) de la NASA, observaron una galaxia a casi 6.500 millones de años luz de la Tierra, momento en que el universo tenía la mitad de su edad actual. En esta galaxia distante, el equipo identificó 44 estrellas individuales, visibles gracias al uso de lentes gravitacionales y a la alta sensibilidad del JWST. Este descubrimiento marca un logro sin precedentes: el mayor número de estrellas individuales detectadas en el universo distante. Además, abre una vía para investigar uno de los mayores misterios del universo: la materia oscura.

El equipo de astrofísicos localizó estas estrellas mientras inspeccionaban imágenes del JWST de una galaxia conocida como el Arco del Dragón, ubicada en la línea de visión desde la Tierra detrás de un cúmulo masivo de galaxias llamado Abell 370. Debido a la gravitación (por la inmensa masa de este cúmulo) se produce el llamado efecto de lente gravitacional, deformando la luz que nos llega de lo que esté detrás (el arco de dragón) y haciéndonos ver ese pasillo de proporciones cósmicas en lugar de la característica espiral. Que es lo que se vería sin ese efecto.

El equipo analizó los colores de cada una de las estrellas dentro del Arco del Dragón y descubrió que muchas son supergigantes rojas, similares a Betelgeuse en la constelación de Orión, que se encuentra en las etapas finales de su vida. Esto contrasta con descubrimientos anteriores, que identificaron predominantemente supergigantes azules, como Rigel y Deneb, que se encuentran entre las estrellas más brillantes del cielo nocturno. Según los investigadores, esta diferencia en los tipos estelares también destaca el poder único de las observaciones del JWST en longitudes de onda infrarrojas.

La mayoría de las galaxias, incluida la Vía Láctea, contienen decenas de miles de millones de estrellas. En galaxias cercanas como Andrómeda, las científicas y científicos pueden observar las estrellas una por una. Sin embargo, en galaxias a miles de millones de años luz, las strellas aparecen combinadas, ya que su luz debe viajar miles de millones de años antes de llegar a nosotros, lo que representa un desafío constante para los y las científicas que estudian cómo se forman y evolucionan las galaxias. Las galaxias que están muy lejos suelen parecer una mancha difusa y borrosa, y aunque estuvieran formadas por muchísimas estrellas individuales, hasta la fecha no había sido posible identificarlas una a una por las limitaciones de los telescopios.

Se espera que futuras observaciones con el JWST capturen más estrellas magnificadas en la galaxia del Arco del Dragón. Estos esfuerzos podrían conducir a estudios detallados de cientos de estrellas en galaxias distantes. Además, estas observaciones de estrellas individuales podrían proporcionar información sobre la estructura de las lentes gravitacionales e incluso arrojar luz sobre la esquiva naturaleza de la materia oscura, ya que como concluyen en un reciente artículo el equipo de la UPV/EHU-DIPC, formado por el propio investigador Ikerbasque Tom Broadhurst, junto a George Smoot, galardonado con el Premio Nobel de Física y la estudiante de doctorado Paloma Morillo, las posiciones de las estrellas en el arco del dragón implican que la materia oscura es similar a ondas en lugar de partículas pesadas.

Referencia:

Fudamoto, Y., Sun, F., Diego, J.M. et al. (2025) Identification of more than 40 gravitationally magnified stars in a galaxy at redshift 0.725. Nat Astron doi: 10.1038/s41550-024-02432-3

 

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Identificadas estrellas individuales en el universo distante se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¡Ni se te ocurra teletransportarme, Scotty!

Jue, 2025/01/23 - 11:59

Es posible que solo exista una persona en el mundo que no haya soñado alguna vez con teletransportarse a… bueno, a cualquier sitio: Leonard McCoy —Bones, para los amigos—, director médico de la nave USS Enterprise. Y, si nos atenemos a las leyes de la física, puede que en ese sentido fuera el más cuerdo de toda la tripulación, porque, aunque es posible que el sistema de teletransporte de Star Trek sea el más coherente que podemos encontrar en la ciencia ficción desde el punto de vista científico —y tampoco es que lo sea mucho—, pasa por alto detalles que podrían hacer que el viaje no fuera tan placentero y seguro como parece.

teletransporteEl actor DeForest Kelly, como el doctor Leonard McCoy; William Shatner, como el capitán Kirk, y Leonard Nimoy, como Spock en la sala del transportador de la USS Enterprise (Star Trek, TOS, 1968). Fuente: NBC Television

Existen innumerables manuales técnicos —ficticios, claro— en los que podemos encontrar información sobre cómo funcionan todos los sistemas de la nave Enterprise. En el escrito en 1991 por Rick Sternbach y Michael Okuda —el que tengo más a mano, aunque es el manual de la Enterprise de Picard—, se describe el funcionamiento de los teletransportadores en cuatro etapas:

  1. Programación de las coordenadas de destino y análisis del entorno. Algo bastante conveniente para que nadie acabe materializándose dentro de una roca o en un ecosistema mortal.

  2. Escáner de los átomos, a nivel individual, del sujeto al que se va a teletransportar.

  3. Almacenamiento en memoria y compensación del desplazamiento Doppler del haz de teletransporte debido al movimiento entre la nave y el lugar de destino.

  4. Envío del haz.

Suena bastante sensato, ¿no? Y lo es en bastantes sentidos, sobre todo en algunos detalles. No solo tienen en cuenta el efecto Doppler, sino la distorsión del espacio-tiempo en condiciones de curvatura, lo que haría imposible el teletransporte; el peligro de chocar contra el escudo deflector de otra nave si los tiene activados, o mi favorita: la imposibilidad de, a diferencia del replicador de alimentos que funciona a nivel molecular, utilizar el teletransportador para clonar personas, algo que, efectivamente, prohíbe la mecánica cuántica.

Pero vayamos poco a poco y veamos a qué nos referimos cuando hablamos de teletransporte en el mundo real —o en el mundo cuántico, para ser más precisos— y cómo funciona.

Cada cierto tiempo, de forma recurrente, aparece en los medios alguna noticia relacionada con este tema. Suelen ser ciertas: hemos logrado el teletransporte cuántico de partículas muchísimas veces. Ahora bien, de ahí a que podamos empezar a pensar en irnos de vacaciones al otro extremo del mundo utilizando este sistema hay un trecho.

En física cuántica, eso a lo que llamamos teletransporte es posible gracias a una de las propiedades más espeluznantes —según diría Albert Einstein— de las partículas: el entrelazamiento. Que dos partículas se encuentren entrelazadas solo significa que comparten la misma función de onda, por lo que, si actuamos sobre una, estamos actuado irremediablemente sobre la otra. Desarrollemos un poco esto: podríamos tener dos partículas diferentes, cada una con su propia función de onda, y sumarlas sin mayor problema; en ese caso, podríamos volver a separar cada componente si quisiéramos. En cambio, en el entrelazamiento no hay dos funciones de onda individuales, sino que el sistema de dos, tres, cuatro… o las partículas que sean está descrito por la misma ecuación, y es imposible hacer nada sobre ninguna de ellas sin que afecte al resto. Lo espeluznante, en realidad,no es que se puedan relacionar partículas de esta manera, sino que cualquier acción que se ejerza sobre una parte del sistema, se va a reflejar en el resto de componentes de manera inmediata, con independencia de si están en la misma habitación, en la Luna o en la galaxia de Andrómeda, algo que parece que desafía el límite de la velocidad de la luz. En realidad no es así, como veremos más adelante, ya que lo que podemos o no hacer con el entrelazamiento tiene sus limitaciones y enviar información es una de ellas.

teletransporteDos partículas entrelazadas comparten la misma función de onda. Esto quiere decir que cualquier operación que efectuemos sobre uno de ellos, le afectará al otro. Fuente: Mark Garlick / Science Photo Library

Perfecto, pero ¿cómo podemos usar esta propiedad para teletransportar cosas? Lo cierto es que hay que hacer algunos trucos. Tengamos en cuenta que, cuando hablamos de teletransporte cuántico lo que enviamos no son partículas materiales, sino estados, esto es, la información que describe la partícula y gracias a la cual podemos replicarla al otro lado.

Dejemos que Scotty y, por ejemplo, Spock, le amarguen un poquito la existencia a McCoy y hagan un pequeño experimento con él. Van a intentar teletransportarlo a la superficie del planeta al que acaban de llegar, pero utilizando las propiedades de la física cuántica en lugar del sistema habitual. Para ello, antes de nada, habrá que hacer algunos preparativos.

En primer lugar, haría falta un sistema auxiliar que ayudara con todo el proceso, así que Spock construye un par de tricorders que van a estar entrelazados. Se encontrarán metidos cada uno en una caja, en estado de superposición encendido/apagado, de tal manera que, si en un momento dado alguien abre una de las cajas, observa uno de ellos y ve que está encendido, sabrá que el de la otra caja está apagado. Spock le da un de los tricorders a McCoy y el otro se lo lleva él en una lanzadera a la superficie del planeta.

Centrémonos ahora en McCoy y su tricorder, y vamos a entrelazarlos entre sí también. Para que los estados no colapsen, Scotty encerrará a Bones con su dispositivo en la sala del teletransportador, cerrará la puerta y lo dejará ahí aislado, de tal manera que tendremos un estado de superposición conjunto: McCoy, desde ese momento, podría estar vivo o muerto —independientemente de que también esté muy enfadado— y su tricorder podría estar encendido o apagado. Así que habría cuatro estados posibles: McCoy vivo-tricorder encendido, McCoy muerto-tricorder apagado, McCoy vivo-tricorder apagado, McCoy muerto-tricorder encendido, que se denominan estados de Bell.

Ahora bien, como hemos dicho que el tricorder de McCoy está entrelazado, a su vez, con el que se llevó Spock a la superficie del planeta, sabemos que cualquier cosa que le pase a McCoy en la Enterprise influirá en el estado del tricorder de Spock.

Scotty empieza con el proceso de teletransporte, así que, a partir de este momento, debe tener mucho cuidado si no quiere cargarse a McCoy. Necesita enviarle a Spock información sobre lo que está pasando dentro de la sala del teletransportador, pero sin abrir la puerta ni obtener información directa de McCoy o su tricorder, porque, al ser un sistema cuántico, podría hacer que colapsara en un estado no deseado. Una estrategia que podría seguir sería hacer mediciones indirectas, utilizando los sensores de la Enterprise para averiguar si, en determinado momento, los dos se encuentran en estados similares como vivo/encendido o muerto/apagado, o si uno está «funcionando» y el otro no, sin especificar cuál es cuál… Este proceso se llama medida de Bell, y es una forma de obtener información de un sistema de dos partículas entrelazadas. En la práctica, los estados que le interesan a Scotty son aquellos en los que McCoy está vivo, y que, recordemos, debido al entrelazamiento guardarán relación también con el estado del tricorder de Spock. Solo hay un pequeño problema… aunque Scotty consiga acceder a uno de los estados en los que Bones está bien, cuando haga la medida de Bell, se lo tendrá que cargar igualmente.

Pero mantengamos la calma. Aunque McCoy desaparezca, para entonces su información habrá quedado codificada en los tricorders entrelazados, y Spock, con las instrucciones necesarias, que Scotty tendrá que enviarle por canales convencionales, podrá recuperarla y recrear a su compañero sano y salvo sobre la superficie del planeta en el que está.

Aquí la cosa se pone demasiado bizarra, porque, en esta analogía, lo que sucedería es que, cuando Spock abriera su caja para ver el estado de su tricorder, se encontraría a McCoy dentro, lo que es bastante antiintuitivo. Así que, llegados a este punto… llamemos a McCoy fotón C, al tricorder que se queda con él, fotón A, y al tricorder que tiene Spock, fotón B. Ahora el proceso de teletransporte en este universo paralelo de Star Trek quedaría así:

  1. Spock entrelaza los fotones A y B.

  2. Se lleva el fotón B consigo al planeta.

  3. Scotty quiere enviarle a Spock un fotón C que tiene en la Enterprise, así que lo entrelaza con el A, que se ha quedado él.

  4. Scotty hace una medida de Bell sobre el sistema C + A, destruyendo C en el proceso, pero haciendo que la información quede codificada en el sistema A + B.

  5. Le envía la información de su medida a Spock por medios convencionales.

  6. Spock recrea en su fotón B el estado de C.

Ahora todo parece algo más complicado que lo que vemos en televisión, ¿no? Por no mencionar que no podemos teletransportar nada a ningún lugar en el que no hayamos estado antes o, en su defecto, hayamos enviado una parte de nuestro sistema auxiliar entrelazado, que podría ser tremendamente complejo si estamos hablando de teletransportar a un ser vivo. Este tipo de teletransporte tampoco nos sirve para comunicarnos —de ahí que el límite de la velocidad de la luz no suponga un problema—, porque sin la información que Scotty le envía a Spock por canales sublumínicos, este no sabría qué tendría que hacer para recrear el estado del fotón que le quieren enviar.

Cuestión aparte es el destino que le esperaría al pobre McCoy o a cualquiera que se prestara como tribble de experimentos para probar este tipo de teletransporte: ¿seguro que el original que destruiríamos y la copia que recrearíamos serían la misma persona? Y sí, destruir el original es completamente necesario, porque, como comentamos más arriba, la física cuántica no permite hacer copias perfectas, solo puede existir una a la vez.

Aunque no soy tan tecnofóba como Bones, creo que, en este asunto, me voy a poner de su lado. En estos términos… ¡ni se te ocurra teletransportarme, Scotty! Dicho lo cual… larga vida y prosperidad a todos.

teletransporteNBC Television

Bibliografía

Bennett, C. H., Brassard, G., Crépeau, C., Jozsa, R., Peres, A. y Wootters, W. K. (1993) Teleporting an unknown quantum state via dual classical and Einstein–Podolsky–Rosen channels Physical Review Letters doi: 10.1103/PhysRevLett.70.1895

Sternbach, R., Okuda, M. y Roddenberry, G. (1991). Star Trek. TNG. Technical manual. Pocket Books.

.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo ¡Ni se te ocurra teletransportarme, Scotty! se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Los humanos, un Macguffin matemático

Mié, 2025/01/22 - 11:59

Siempre que escucho la palabra “Macguffin” mi mente se va hacia el gran cineasta británico Alfred Hitchcock (1899-1980), autor de grandes películas como La ventana indiscreta (1954), Vértigo (1958), Con la muerte en los talones (1959), Psicosis (1960) o Los pájaros (1963). Y más concretamente me remite al libro El cine según Hitchcock, que recoge la entrevista que le hizo el cineasta francés Francois Truffaut (1932-1984), un libro de cuya lectura he disfrutado en varias ocasiones.

MacguffinFotografía de la entrevista que hizo el cineasta francés Francois Truffaut al cineasta británico Alfred Hitchcock en 1962

 

¿Qué es el Macguffin?

El Macguffin, término acuñado por el maestro del suspense Alfred Hitchcock, es un objeto, persona, situación o suceso necesario para impulsar la trama y la motivación de los personajes, pero insignificante, sin importancia o irrelevante en sí mismo. Como diría Truffaut “es el pretexto”.

Por ejemplo, en las películas de espías suele ser un secreto o unos documentos, que hacen que la trama se desarrolle, pero que realmente da igual cuál sea el secreto o el contenido de los documentos. Como afirmó el propio Hitchcock, “el Macguffin es lo que persiguen los espías, pero al público le da igual”. En la película Con la muerte en los talones, el protagonista, encarnado por el actor estadounidense Cary Grant (1904-1986), es un agente publicitario que es confundido con un agente del gobierno por unos espías e intentan asesinarlo, motivando la huida del publicista para salvar su vida. Mientras que en la película Psicosis el Macguffin es el robo de un dinero y la posterior huida de su protagonista femenina, interpretada por la actriz estadounidense Vera Miles (1929), que provoca que se esconda en un pequeño hotel regentado por el tímido Norman Bates, que interpretaba el actor estadounidense Anthony Perkins (1932-1992), y que era realmente la parte central de la película. Otro ejemplo interesante es la estatuilla de la película El halcón maltés (1941), interpretada por Humphrey Bogart, Mary Astor y Peter Lorre, y basada en la novela negra homónima del escritor estadounidense Dashiell Hammett (1894-1961), que es el objeto de deseo de una serie de personajes de dudosa moral.

MacguffinCartel de la película Con la muerte en los talones (1959), dirigida por Alfred Hitchcock e interpretada por Cary Grant, Eva Marie Saint, James Mason y Martin Landau

Para finalizar con los ejemplos, un Macguffin esclarecedor, más moderno y en otro tipo de película, como es The Blues Brothers (1980), donde los personajes encarnados por los actores estadounidenses John Belushi (1949-1982) y Dan Aykroyd (1952), intentan conseguir el dinero necesario para salvar el orfanato en el cual se criaron, lo cual no es más que la excusa para realizar un viaje con el objetivo de reunir a los miembros de un grupo musical y llenar ese viaje de humor y música, buena música de blues y soul.

En el libro El cine según Hitchcock, el maestro del suspense explicaba el origen del término de la siguiente forma.

Y ahora, conviene preguntarse de dónde viene el “MacGuffin”. Evoca un nombre escocés y es posible imaginarse una conversación entre dos hombres que viajan en un tren. Uno le dice al otro: “¿Qué es ese paquete que ha colocado en la red?” Y el otro contesta: “Oh, es un Mac Guffin”. Entonces el primero vuelve a preguntar: “¿Qué es un Mac Guffin?” Y el otro: “Pues un aparato para atrapar a los leones en las montañas Adirondaks”. El primero exclama entonces: “¡Pero si no hay leones en las Adirondaks!” A lo que contesta el segundo: “En ese caso no es un Mac Guffin”.

Esta anécdota demuestra el vacío del Mac Guffin … la nada del Mac Guffin.

Los humanos, de Matt Haig

La novela a la que vamos a dedicar esta entrada del Cuaderno de Cultura Científica, Los humanos (2013), del escritor británico Matt Haig (1975), contiene un Macguffin matemático. Pero vayamos por partes. Primero presentemos brevemente a su autor.

Matt Haig es un periodista y escritor inglés, que escribe tanto para adultos, como para jóvenes. Estudió Inglés e Historia en la Universidad de Hull. Entre sus libros nos encontramos novelas como Los humanos (2013), Cómo detener el tiempo (2017), La biblioteca de la medianoche (2020) o La vida imposible (2024), cuya protagonista es matemática; libros para jóvenes como Shadow Forest: el bosque de las sombras (2007), El chico que salvó la navidad (2015), La duendecilla sincera (2018) o Evie, la amiga de los animales (2019), y libros de no ficción como Razones para seguir viviendo (2015), Apuntes sobre un planeta estresado (2018) o El libro de la esperanza (2021).

MacguffinFotografía de Matt Haig en el Edinburgh International Book Festival de 2024

 

Respecto a la novela Los humanos, lo primero es recomendar a las personas que estáis leyendo esta entrada que la leáis, no porque sea una novela relacionada con las matemáticas, sino porque es una novela interesante y muy divertida.

Pero para hablar de esta novela podemos empezar por la sinopsis escrita por la editorial:

El profesor Andrew Martin de la Universidad de Cambridge acaba de descubrir el secreto de los números primos, encontrando al mismo tiempo la clave que garantizará el fin de la enfermedad y la muerte. Convencidos de que los secretos de los números primos no pueden dejarse en manos de una especie tan primitiva como los humanos, los vonadorianos, una civilización extraterrestre mucho más evolucionada, envían a un emisario para hacer desaparecer a Martin y a su descubrimiento. Y así es como un vonadoriano con el aspecto externo de Martin aparece con la misión de matar a la esposa, al hijo y al mejor amigo del profesor, pero no puede dejar de sentirse fascinado por esa fea especie y sus costumbres incomprensibles.

Portada de la novela Los humanos, de Matt Haig (Roca Editorial, 2014)

El punto de partida de la novela es que el matemático y profesor de la Universidad de Cambridge (Gran Bretaña) Andrew Martin ha demostrado la llamada hipótesis de Riemann, uno de los problemas matemáticos abiertos, es decir, que está aún por resolverse, más importantes. De hecho, la hipótesis de Riemann es uno de los siete “problemas del milenio” que anunció el Instituto Clay de Matemáticas en el año 2000, con una recompensa de un millón de dólares para quien lo resolviese. Más aún, este problema ya estaba en la lista de los 23 problemas que recogió el matemático alemán David Hilbert (1862-1943) en el Congreso Internacional de Matemáticos de 1900, como problemas más importantes para el nuevo siglo xx.

Sin embargo, para una civilización extraterrestre, los vonadorianos, este es un conocimiento demasiado poderoso, que en manos de los humanos podría poner en peligro el equilibrio del universo y provocar su destrucción. Por este motivo, deciden reemplazar a Martin por un clon alienígena, que es realmente el protagonista de esta historia narrada por él mismo, y borrar toda evidencia de su descubrimiento, destruyendo los documentos relacionados con la demostración, los rastros digitales de la misma o las personas que hayan podido tener algún conocimiento de esta prueba, como la familia del matemático, su mujer y su hijo, y alguno de sus colegas.

Resulté ser un hombre casado de 43 años, la mitad exacta de una vida humana. Tenía un hijo. Era el profesor que acababa de resolver el enigma matemático más importante al que se habían enfrentado los humanos. Apenas tres horas antes había hecho progresar la especie humana más allá de lo que cualquiera habría podido imaginar.

La hipótesis de Riemann no es más que un pretexto, es decir, el Macguffin de esta historia, para contarnos de forma divertida cómo nos vería un extraterrestre a los terrícolas y hablar de lo que significa ser humano, del amor, la amistad, la familia, las relaciones humanas, los conflictos, la vida o la muerte.

Portada de la versión británica de la novela Los humanos / The humans (2013), de Matt HaigLas matemáticas de los vonadorianos

Antes de entrar en materia, un pequeño comentario sobre el hecho de que los vonadorianos son una civilización extraterrestre para la cual las matemáticas son extremadamente importantes y un conocimiento esencial para ellos. Para que nos hagamos una idea de esto, incluyo algunas sencillas citas de la novela, que son pensamientos del vonadoriano protagonista.

La primera:

Yo nunca quise que me mandasen aquí. Se trataba de una tarea que, tarde o temprano, alguien tenía que asumir y, después de la charla que di en el Museo de las Ecuaciones Cuadráticas –que muchos tacharon de blasfemia, de supuesto crimen contra la pureza matemática–, a los anfitriones [los dirigentes de los vonadorianos] les pareció el castigo perfecto.

La segunda:

Por supuesto, en teoría aquella era mi ciudad […]. La falta de imaginación geométrica me tenía fascinado: no había ni tan siquiera un decágono a la vista. […] Pronto aprendería que en las ciudades todo es una tienda. Son a los moradores de la Tierra lo que las cabinas de ecuaciones son a los vonadorianos.

La tercera:

Allá de donde venimos la tecnología que hemos creado sobre las bases de nuestro entendimiento supremo y exhaustivo de las matemáticas nos ha supuesto no solo la posibilidad de atravesar grandes distancias, sino también de reajustar nuestros propios componentes biológicos, renovarlos y reponerlos. Estamos equipados psicológicamente para tales progresos. Nunca hemos vivido una guerra civil. Nunca anteponemos los deseos individuales a las necesidades del colectivo.

En general, las citas matemáticas de la novela tienen un objetivo literario y no rigurosidad matemática. Por ejemplo, en cierto momento el vonadoriano clon de Andrew Martin se queja de que el orden de prioridad de las noticias en televisión es incomprensible para él y se sorprende de que no hable de “nuevas observaciones matemáticas” (lo cual es un comentario bastante indefinido y confuso) o de “polígonos todavía por descubrir” (también bastante impreciso e incluso que puede considerarse equívoco).

La hipótesis de Riemann

A pesar de que la hipótesis de Riemann es solamente una excusa para hablar de los humanos, de la humanidad, Matt Haig sí intenta explicar en la novela, de forma muy sencilla y bastante literaria, en qué consiste la misma o, al menos, algunas ideas relacionadas con ella.

Así, cuando el vonadoriano con aspecto de Andrew Martin descubre en el ordenador del matemático de la Universidad de Cambridge el documento que contiene la demostración de la hipótesis de Riemann, hay un pequeño capítulo de la novela dedicado a los números primos y su distribución dentro de los números naturales (por cierto que una introducción a estos temas puede leerse en las entradas del Cuaderno de Cultura Científica Buscando lagunas de números no primos y El poema de los números primos, así como en el libro La gran familia de los números, que se menciona en la bibliografía), que comentaremos a continuación, aprovechando el texto de la novela.

Pero antes, así es como describe Matt Haig al autor de la hipótesis, el matemático alemán Bernhard Riemann (1826-1866).

Aprendí algo más sobre Bernhard Riemann, un niño prodigio alemán horrorosamente tímido que vivió en el siglo xix y que, ya desde una edad temprana, demostró su habilidad excepcional con los números, antes de sucumbir a su carrera de matemático y a la serie de crisis nerviosas que minaron su adultez. Más tarde descubriría que ese era uno de los problemas fundamentales que tienen los humanos con la comprensión numérica: simple y llanamente, su sistema nervioso no está capacitado.

La verdad es que no dice gran cosa, salvo que era un niño prodigio y que “sufría crisis nerviosas”, sobre una de las grandes mentes matemáticas de la historia, que realizó avances revolucionarios en todas las áreas de las matemáticas en las que trabajó, en particular, el análisis matemático, la geometría diferencial y la teoría de números. Muchos son los conceptos y resultados matemáticos asociados a su nombre, como la integral de Riemann, las ecuaciones de Cauchy-Riemann, las superficies de Riemann, la geometría riemanniana, el tensor de curvatura de Riemann, la función zeta de Riemann o la hipótesis de Riemann, entre otras.

Caricatura de Bernhard Riemann, realizada por Gerardo Basabe de Viñaspre, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)Los números primos

Pero vayamos con los números primos. El primer párrafo sobre los mismos, que nos narra el vonadoriano, es el siguiente.

Los números primos vuelven a la gente loca, pero literalmente, sobre todo por la cantidad de enigmas que quedan sin resolver. Lo único que parecían saber es que un primo es un número entero que solo puede dividirse por 1 y por sí mismo, pero, más allá de eso, se dan de bruces con un problema tras otro.

La verdad es que es un comentario bastante simplista, puesto que viene a decir que el único conocimiento que se tiene sobre los números primos es su definición, es decir, que son aquellos números naturales que solamente se pueden dividir por 1 y por ellos mismos. Por ejemplo, el número 25 no es primo ya que se puede dividir por 5, mientras que el número 19 sí es primo, ya que solamente es divisible por el 1 y él mismo, al igual que lo son los números 2, 3, 5, 7, 11 y 13, entre otros. Sin embargo, los humanos llevamos más de dos milenios investigando sobre los números primos y obteniendo muchos e importantes resultados, como que existen infinitos números primos, como ya demostraron los antiguos griegos, que todo número natural se puede expresar de forma única como producto de números primos (el teorema fundamental de la aritmética), que la función contador de números primos, es decir, para cada número x, la cantidad de números primos menores o iguales que x se aproxima por la función x/Ln x (el teorema de los números primos), y así existen miles y miles de resultados más que podríamos añadir. Cabe mencionar que existen muchos libros dedicados solo a los resultados sobre los números primos, de los que mencionaremos aquí cuatro en clave más divulgativa, por si hay alguien interesado: 1) Prime Numbers, The Most Mysterious Figures in Math (David Wells, John Wiley & Sons, 2005); 2) The Little Book of Bigger Primes (Paulo Ribenboim, Springer Verlag, 2004); 3) La música de los números primos (Marcus du Sautoy, Acantilado, 2007); 4) Los números primos, un largo camino al infinito (Enrique Gracián, RBA, 2010).

Aunque después del párrafo anterior, sí menciona alguno de los conocimientos que la humanidad ha alcanzado sobre los números primos, casi siempre expresado de una forma más literaria, o incluso poética, que matemática. Por ejemplo, afirma que se conoce que hay infinitos números primos (la sencilla y hermosa demostración de los griegos podéis leerla en la entrada Buscando lagunas de números no primos), pero además menciona que son numerables, es decir, que se pueden contar (sobre los conjuntos infinitos podéis leer la serie de entradas titulada El infinito en un segmento: uno, dos y tres), de la siguiente forma.

Saben que el total de todos los números primos es igual al total de todos los números, pues ambos sumarían infinitos. Para el humano medio, esto constituye un hecho bastante desconcertante, pues ciertamente tienen que existir más números aparte de los primos. Tan imposible les resulta asimilar que, al enfrentarse al tema, más de uno se ha metido un revólver en la boca, ha apretado el gatillo y se ha volado los sexos.

Aquí realmente está mezclando dos temas apasionantes e importantes, primero que hay infinitos números primos, que puede entenderse bien por sí solo, pero a la vez nos habla de que hay tantos como números naturales, hecho que está relacionado con la dificultad de entender el infinito y sus paradojas, como lo mencionado, que una parte del conjunto (los números primos) tenga tantos elementos como todo el conjunto (los números naturales). Aunque este segundo tema es un poco complejo para las personas que lean la novela, es muy exagerado decir que “tan imposible les resulta asimilar que, al enfrentarse al tema, más de uno se ha metido un revólver en la boca, ha apretado el gatillo y se ha volado los sexos”, aunque tenemos que entender que esto es literatura y no divulgación de las matemáticas.

El siguiente párrafo dice lo siguiente:

Los humanos también han llegado a entender que los números primos se parecen mucho al aire terráqueo. Cuánto más arriba subes, menos hay. Por ejemplo, hay 25 números primos menores que 100, pero solo 21 entre 100 y el 200 y solo 16 entre 1.000 y 1.100. Sin embargo, a diferencia de aire en la Tierra, no importa lo mucho que subas en la escala de los números, siempre habrá algún número primo. Por ejemplo, 2.097.593 es primo y hay millones más entre ese y, pongamos, 4314398832739895727932419750374600193. En consecuencia, podemos decir que la atmósfera de los números primos recubre todo el universo.

La primera parte ofrece el primer comentario sobre la distribución de los números primos dentro de los naturales, que es el tema central sobre el que versa la hipótesis de Riemann. Y efectivamente es así. Como se comentaba en la entrada Buscando lagunas de números no primos, entre los 100 primeros números hay 25 primos, es decir, 1 de cada 4 números es primo. Sin embargo, si miramos entre los 1.000 primeros números, resulta que hay 168 que son primos, 1 de cada 6 números. Un porcentaje menor. Y así, como podemos ver en la siguiente tabla, según vamos ampliando la cantidad de números considerados, existe un menor porcentaje de números primos. Luego según vamos avanzando en la recta de números naturales, los números primos van siendo cada vez más infrecuentes, y los números compuestos van ocupando más el espacio dentro de los números naturales.

Tabla con la cantidad de números primos y frecuencia de los mismos para cantidades de números que son potencias de 10

 

Sin embargo, el segundo comentario solo es una forma diferente y poética de volver a afirmar que existen infinitos números primos.

La distribución de los números primos

El texto del capítulo “Números primos” sigue asi:

En 1859, no obstante, en la Academia de Berlín, un Bernhard Riemann cada vez más enfermo enunció la que sería la hipótesis más estudiada y celebrada de todas las matemáticas. Afirmaba que había un patrón, o al menos lo había para los primeros mil números primos. Y era bello, cristalino e involucraba algo llamado “función zeta”, una especie de máquina mental, una curva de aspecto complejo que servía para investigar las propiedades de los primos. Si los colocabas en ella, formaban un orden en el que nadie se había fijado con anterioridad: ¡un patrón! ¡La distribución de los números primos no era arbitraria!

Una vez más mencionemos que esto no es un texto de divulgación de las matemáticas, sino literatura, ya que lo afirmado en el anterior párrafo hay que cogerlo con pinzas, pero como lector tengo que entender la intención narrativa del autor de la novela.

Para empezar, podemos considerar que la hipótesis de Riemann es una de las conjeturas más importantes y estudiadas, no en vano estaba entre los 23 problemas de Hilbert (en 1900) y entre los siete problemas del milenio (en 2000), pero hay otros problemas matemáticos también importantes y muy estudiados, como el último teorema de Fermat, conjeturado por el matemático francés Pierre de Fermat (1601-1665) hacia 1637 y demostrado por el matemático británico Andrew Wiles en 1995 (puede leerse sobre esta cuestión en la entrada Euler y el último teorema de Fermat); la conjetura de Poicaré, formulada por el matemático francés Henri Poincaré (1854-1912) en 1904 y demostrada por el matemático ruso Gregori Perelman en 2006 (véase la entrada La conjetura de Poincaré-Perelman-Miander); o el problema del quinto postulado de Euclides y la existencia de las geometrías no euclídeas, un problema que tardó más de dos milenios en resolverse, por matemáticos como Nikolai Lobachevski (1752-1856) y János Bolyai (1802-1860); o incluso problemas matemáticos que permanecen abiertos, como la conjetura de Goldbach, formulada por el matemático prusiano Christian Goldbach (1690-1764) en 1742 (véase la entrada La conjetura de Goldbach); o cualquiera de los problemas del milenio, que son la conjetura de Birch y Swinnerton-Dyer, en teoría de números algebraica; la conjetura de Hodge, en geometría algebraica; la solución de las ecuaciones de Navier-Stokes de la mecánica de fluidos; el problema P = NP, en ciencias de la computación; la conjetura de Poncaré, en topología (ya resuelta en 2006); el problema de la masa en la teoría de Yang-Mills, en la teoría cuántica de campos; y la mencionada hipótesis de Riemann, en análisis complejo y teoría de números primos, que es una de las más importantes y conocida.

MacguffinCaricatura de David Hilbert, realizada por Enrique Morente, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)

Lo siguiente que vamos a comentar es la frase “afirmaba que había un patrón, o al menos lo había para los primeros mil números primos”, a la que podemos ponerle algunos peros matemáticamente hablando. Decir que había un patrón es ambiguo y simplista, aunque a Matt Haig le pueda valer para la novela.

Desde la matemática griega se ha intentado descubrir, sin éxito, la existencia de algún patrón en la distribución de los números primos dentro de los naturales, pero, como decía el matemático suizo Leonhard Euler (1707-1783), este será uno de esos misterios que la humanidad nunca será capaz de desvelar.

No existe ninguna fórmula que nos permita determinar cuál es el número primo n-ésimo, para cualquiera que sea la posición n, ni una expresión matemática que posibilite, conocidos todos los primos hasta uno dado, obtener el siguiente.

Aunque, una aproximación a la distribución de los números primos es el estudio de la función contador de números primos. Dado un número x se define pi(x) como la cantidad de primos menores, o iguales, que x. Si se observan los números primos hasta 100 se puede comprobar que pi(20) = 8 (que son 2, 3, 5, 7, 11, 13, 17 y 19) o pi(100) = 25 (que son, además de los anteriores, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73 79, 83 89 y 97). En la siguiente tabla se muestra el valor de la función contador de números primos (x) para las primeras potencias de 10, junto con la densidad (x) / x –la proporción de números primos respeto a los naturales, hasta x– y la frecuencia, x / (x) –cuántos números naturales hay por cada primo, hasta x–, que nos incide en la idea anterior de que cada vez hay menos números primos.

La primera aproximación a la distribución de los números primos vino de la mano del matemático alemán Carl F. Gauss (1777-1855), que, a la edad de 15 años, conjeturó que, aunque no se podía conocer con precisión el valor de la función contador de números primos (x), se podía aproximar con la ayuda de la función logaritmo neperiano. Este resultado, conocido como teorema de los números primos, establece que la función (x) se aproxima a la función x / Ln(x), cuando x tiende a infinito. Este teorema fue demostrado en 1896, de forma independiente, por el matemático francés Jacques Hadamard (1865-1963) y el belga Charles-Jean de la Vallé Poussin (1866-1962). Por ejemplo, si se considera x = 106, como Ln(106) es 6 multiplicado por Ln(10) = 2.30258509…, entonces x / Ln(x) es aproximadamente 72.382, siendo la cantidad de primos 78.498.

El propio Gauss dio una mejor aproximación a la función contador de números primos mediante la función logaritmo integral

Volviendo al caso de x = 106, mientras que la diferencia de x / Ln(x) con (x) es de 6.116 números, la variación del logaritmo integral Li(x), no os preocupéis ahora de su significado, es sólo de 130.

Pues resulta, que la hipótesis de Riemann, cuya formulación es bastante compleja y está relacionada con los ceros de la conocida función zeta de Riemann que se define sobre los números complejos (ya volveremos sobre ella en alguna futura entrada de Cuaderno de Cultura Científica), es equivalente al hecho de que el logaritmo integral es una “buena” aproximación.

MacguffinLa pizarra del programa La Revuelta, de David Broncano, en TVE, está relacionada con la hipótesis de Riemann, puesto que representa la función zeta de Riemann y la recta donde estarían, según la hipótesis, los ceros no triviales de dicha función. Sobre la pizarra podéis leer el artículo del diario.es titulado El misterio de la pizarra de Broncano: ¿qué pinta esta maravilla de las matemáticas en La Revuelta?Para terminar

Para cerrar esta entrada del Cuaderno de Cultura Científica, me gustaría incluir los puntos relacionados con las matemáticas del listado de los 97 “consejos para un humano” que escribe el vonadoriano con aspecto de Andrew Martin al final de la historia, que están escritos para “su hijo” (el de Andrew Martin).

Consejo 12: Los telediarios deberían abrir con noticias de matemáticas y seguir con poesía, y a partir de ahí, que hagan lo que quieran.

Consejo 59: Los números son bonitos. Los primos son bonitos. Ya lo entenderás.

Bibliografía

1.- Francois Truffaut, El cine según Hitchcock, Alianza editorial, 1974.

2.- Matt Haig, Los humanos, Roca Editorial, 2014.

3.- R. Ibáñez, La gran familia de los números, Libros de la Catarata, 2021.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Los humanos, un Macguffin matemático se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Primer plasma en el tokamak SMART de la Universidad de Sevilla

Mar, 2025/01/21 - 11:59

En el marco de un proyecto pionero en el camino hacia el desarrollo de la energía de fusión, el tokamak SMART ha generado con éxito su primer plasma. Este paso acerca a la comunidad internacional a la energía de fusión; una fuente de energía sostenible, limpia y prácticamente ilimitada.

Primer plasma en el SMall Aspect Ratio Tokamak – SMART – grabado con una cámara superrápida en el espectro visible. Fuente: Universidad de Sevilla

El tokamak SMART (SMall Aspect Ratio Tokamak) es un dispositivo de fusión experimental de última generación diseñado, construido y operado por el Laboratorio de Ciencia del Plasma y Tecnología de Fusión (PSFT) de la Universidad de Sevilla. Se trata de un tokamak esférico único en el mundo debido a su flexibilidad para generar plasmas con distintas formas. SMART ha sido diseñado para demostrar las propiedades físicas e ingenieriles únicas que los plasmas con forma de triangularidad negativa tienen en el camino hacia el desarrollo de plantas de energía de fusión compactas basadas en Tokamaks Esféricos.

SMART explora un camino potencialmente revolucionario al combinar plasmas de fusión de alto rendimiento con atractivas soluciones para su implementación en reactores de fusión super compactos. Fuente: Universidad de SevillaUna cuestión de triangularidad

La triangularidad describe la forma del plasma. La mayoría de los tokamaks funcionan con triangularidad positiva, lo que significa que la forma de la sección del plasma parece una D. Si la forma del plasma se asimila a una D invertida (como se aprecia en la imagen de abajo), tiene triangularidad negativa.

Render del Tokamak SMART con un plasma de triangulación negativa en el interior. Fuente: Universidad de Sevilla

Los plasmas con de triangularidad negativa presentan un rendimiento mejorado ya que suprimen las inestabilidades que degradan el confinamiento del reactor, evitando daños graves a la pared del tokamak. Además de ofrecer un alto rendimiento de fusión, la triangularidad negativa también presenta soluciones atractivas para el control de la potencia generada en las reacciones de fusión, dado que el calor que escapa se distribuye en un área mayor. Esto también facilita el diseño para futuras centrales eléctricas de fusión más compactas y eficientes.

Fusión compacta

SMART es el primer paso en la estrategia Fusion2Grid, liderada por el equipo PSFT y en colaboración con la comunidad internacional de fusión, que tiene como objetivo el diseño de una planta de potencia basada en fusión por confinamiento magnético más compacta y eficiente usando tokamaks esféricos con forma de triangularidad negativa. SMART será el primero de este tipo que funcionará a temperaturas de fusión.

El objetivo del tokamak SMART es proporcionar las bases científicas y tecnológicas para el diseño del reactor de fusión más compacto posible. Este primer plasma representa un logro importante para el proyecto, así como para el avance hacia este objetivo.

Referencia:

Dominguez-Palacios, J., Futatani, S., García-Muñoz, M. et al. (2025) Effect of energetic ions on edge-localized modes in tokamak plasmas. Nat. Phys. doi: 10.1038/s41567-024-02715-6

 

Edición realizada por César Tomé López a partir de materiales suministrados por la Universidad de Sevilla.

El artículo Primer plasma en el tokamak SMART de la Universidad de Sevilla se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El beso planetario de Caronte

Lun, 2025/01/20 - 11:59

Desde su descubrimiento en la década de los años treinta del siglo pasado y hasta el sobrevuelo de la sonda New Horizons en julio de 2015, Plutón y su sistema de satélites había sido poco más que un punto de luz, incluso en los telescopios más avanzados. Y es que si sumamos su pequeño tamaño -tiene un diámetro de apenas una sexta parte el de la Tierra- y su lejanía, era un cuerpo francamente difícil de estudiar.

Plutón tiene cinco satélites naturales conocidos: Caronte, Nix, Hidra, Cerbero y Estigia. Caronte fue descubierto a finales de la década de los 70, mientras que el resto fueron descubiertos a partir de los años 2000 -algunos ya en la segunda década-, lo que nos hace una idea de la diferencia de tamaños entre los satélites y que, cuanto más pequeños, más cuesta detectarlos desde una distancia tan grande.

Pero hoy vamos a centrarnos en Caronte que, proporcionalmente, es un satélite enorme para un planeta como Plutón. De hecho, tanto es así que su masa supera al 10% de la suma de las masas del sistema que forma con el planeta enano. Por ponerlo en contexto, en el caso del sistema Tierra-Luna, la masa de la Luna es tan solo de aproximadamente un 1.2%. Echando un vistazo a esta relación de masas, es normal que algunos autores incluso hayan considerado a Plutón y Caronte un sistema binario de cuerpos planetarios.

CaronteFigura 1. Imagen de Caronte tomada por la sonda New Horizons en 2015. Destaca en la imagen el color rojizo de Mordor Macula frente a los tonos grisáceos de la superficie, así como zonas con un número de cráteres relativamente bajo en algunas partes de su superficie. ¿Esconderá Caronte procesos geológicos de rejuvencecimiento? Cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute.

¿Y cómo surgió esta dispar pareja planetaria? La teoría más aceptada hasta el momento sugería un mecanismo de formación similar al de nuestra Luna, pero un nuevo estudio publicado en Nature Geoscience por Adeene Denton et al. (2025) propone una nueva teoría que los propios autores del estudio denominan “beso y captura”.

Volvamos por un momento a detallar los mecanismos de formación. Como decíamos en el párrafo anterior, la teoría más aceptada es la de un “gran impacto”. Es decir, en algún momento de la historia de Plutón, un cuerpo de un tamaño relativamente grande chocaría con este, lanzando una gran cantidad de materia a su órbita que, con el tiempo, iría uniéndose hasta formar Caronte. Pero, al igual que en nuestro sistema Tierra-Luna parece encajar este modelo, en el de Plutón y Caronte no parece funcionar del todo.

El mayor problema radica en explicar el tamaño que tiene Caronte ya que, al ser tan grande, requiere que la colisión tuviese unas condiciones muy específicas… casi “tocándose” suavemente, pero con una firmeza suficiente como para arrancar de ambos objetos una cantidad de materia suficiente para formar el satélite y al mismo tiempo no destruir por completo ninguno de los cuerpos en este proceso.

Pero, valga la redundancia, existe otro pero a la teoría del gran impacto en el caso concreto de Plutón: Las simulaciones de este tipo de impactos suelen dar como resultado la formación de más de un satélite, no solo de un gran satélite. Y cuando forman un satélite del tamaño de Caronte, lo hacen en una órbita más excéntrica y no tan circular como la que observamos.

CaronteFigura 2. Plutón y Caronte capturados en una sola fotografía. Impresiona ver la pequeña diferencia de tamaño, pero también la pequeña distancia que separa ambos cuerpos. Cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute.

Entonces, ¿cómo pudo formarse Caronte? Aquí es donde este nuevo trabajo parece responder a la pregunta de porque no comprendíamos del todo su origen. A los modelos existentes les faltaba tener en cuenta la resistencia de ambos cuerpos y las propiedades mecánicas de los materiales que los conformaban, ya que trataban a Plutón y Caronte como gigantescas esferas con la consistencia de un fluido, con una extrema facilidad para deformarse.

Pero no olvidemos que son cuerpos formados principalmente por hielos, con una estructura interna y cierta capacidad para soportar la deformación. Si queréis pensarlo de manera gráfica -y quizás algo grosera- pensad que pasaría si lanzásemos dos globos llenos de agua uno contra el otro o dos bolas de nieve. ¿Verdad que el resultado sería muy distinto?

Hagamos un viaje al pasado e imaginémonos a un proto-Plutón girando por el espacio y a un proto-Caronte en rumbo de colisión, pero en vez de pensar en una colisión frontal -y que probablemente habría sido muy destructiva- pensemos más en un roce entre ambos cuerpos, o lo que los autores han denominado como un “beso” cósmico”. Pero un beso en el sentido figurado, ya que incluso en estas condiciones la fuerza de la colisión es brutal… y aquí es donde viene la innovación que aporta este estudio.

Al chocar ambos cuerpos, la fricción en el punto de contacto entre ellos actúa como una especie de “freno”, provocando una desaceleración en el movimiento orbital relativo entre ambos y transfiriendo una gran cantidad de momento -en el sentido físico de la palabra- también.

CaronteFigura 3. Los satélites de Plutón comparados en tamaño. Se puede apreciar perfectamente la enorme diferencia de tamaño entre los más pequeños y Caronte. ¿Se formarían en el mismo impacto que dio lugar a Caronte? Imagen cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute.

Esta fricción provoca que ambos cuerpos conecten de manera temporal, formando una especie de cacahuete o muñeco de nieve rotando rápidamente. La resistencia de los materiales evitaría la mezcla completa del interior de ambos cuerpos, haciendo que ambos sigan siendo geoquímicamente distintos, con sus mantos y núcleos intactos casi por completo.

Poco a poco, la fuerza centrífuga y las de marea irían ayudando a separar al proto-Caronte de Plutón, algo que no fue instantáneo. Eso sí, comenzaría su andadura como satélite en una órbita muy cercana a la superficie de Plutón. Esto provocaría inmensas fuerzas de marea entre ambos cuerpos que ayudarían a que Caronte adquiriese una órbita circular, y no elíptica, como parecían mostrar modelos anteriores, otra de las piezas que no terminaba de encajar.

Este modelo de “beso y captura” no solo ofrece explicaciones que son capaces de satisfacer los parámetros orbitales, la existencia de los otros satélites menores que observamos hoy en día y el gran tamaño de Caronte, sino que además tiene una consecuencia que es muy interesante: Caronte podría ser tan antigua como Plutón, manteniendo una gran parte de su núcleo y su manto original, ya que -a diferencia del caso de la Tierra y la Luna- el grado de mezcla entre ambos cuerpos no fue tan importante, pudiendo servirnos como una ventana al estudio de otras zonas de nuestro sistema solar y a los procesos de un Sistema Solar Primitivo.

Referencias:

Denton, C.A., Asphaug, E., Emsenhuber, A. et al. (2025) Capture of an ancient Charon around Pluto. Nat. Geosci. doi: 10.1038/s41561-024-01612-0

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo El beso planetario de Caronte se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Las hormigas también pueden ser rencorosas

Dom, 2025/01/19 - 11:59

 

Nido de hormigas. Fuente: David Ballesteros CC

 

Las ventajas evolutivas del reconocimiento son incontables y han resultado claves para desarrollar un mundo de identidad y pertenencia. Saludamos al vecino del 4ºB por la mañana, dejamos prestado un bolígrafo a nuestro compañero de trabajo, cenamos en Nochebuena con los miembros de nuestra familia y desconfiamos del hombre que nos sigue de noche por un callejón. Cualquier colectivo, desde las tribus paleolíticas hasta nuestras modernas sociedades se han cimentado sobre la distinción entre el igual y el extraño. Pero esta capacidad no es única del ser humano, de hecho es un factor clave de unión y protección en todas las escalas de la vida. Desde nuestras diminutas células T, capaces de detectar y neutralizar las amenazas procedentes de otras células tumorales o virus, hasta los intrincados nexos que se producen en una manada de lobos.

En las especies eusociales esta habilidad es aún más pronunciada, aunque las formas de identificar a los miembros de su grupo pueden llegar a ser muy variadas. Las hormigas utilizan «los olores para distinguir entre los miembros de su propio nido y los de otros nidos, ya que cada nido tiene su propio olor específico». En estudios anteriores se demostró que las hormigas se comportan de manera más agresiva con sus vecinas más cercanas, un comportamiento lógico puesto que esta cercanía supone una mayor amenaza por el control de los recursos en los alrededores del nido. Son especialmente propensas a abrir sus mandíbulas y morder, a rociar ácido o incluso a matar a sus competidoras. Por otro lado, estas maniobras tan agresivas son menos frecuentes contra los nidos que están más lejos del suyo. Esto representa un claro ejemplo de aprendizaje asociativo en el que los insectos sociales son capaces de asociar una señal de olor con una recompensa o una amenaza.

Es más, la agresividad de las hormigas en su objetivo de defender su hogar está directamente relacionada con la distancia a la que se encuentra el nido que podría suponer un peligro.

Las agresiones se intensifican frente a miembros de nidos cercanos. Fuente: Bey et al (2024) / Current Biology

 

Sin embargo, un nuevo estudio publicado hace solo unos días en Current Biology ha dado un paso más y encontrado evidencias de aprendizaje no asociativo en la conducta de las hormigas. No solo detectan las señales características de un nido vecino (efecto del vecino desagradable) sino que son capaces de recordar individualmente a sus rivales más agresivos y adaptan su comportamiento específicamente a ese ejemplar.

Así lo ha demostrado un equipo de biólogos evolutivos de la Universidad alemana de Friburgo que enfrentaron repetidamente a un grupo de hormigas con competidoras de otro nido. Utilizaron hormigas negras de jardín (Lasius niger), muy frecuentes en Europa, América y Asia, que recogieron de diferentes nidos en los alrededores de su centro de investigación.

Las hormigas del grupo de control recordaron las experiencias negativas que tuvieron durante esos encuentros y cuando se encontraron con hormigas de un nido con las que previamente habían tenido encontronazos, recordaron esas experiencias negativas y se comportaron de manera más agresiva con esos adversarios. Por otro lado, esas mismas hormigas fueron menos agresivas con los miembros del nido rival con las que no habían mantenido ningún rifirrafe…

Las hormigas recuerdan a rivales con los que han tenido encuentros y modulan su agresividad al individuo rival. Fuente: Bey et al (2024) / Current Biology

 

Es lo que en términos populares denominaríamos «me he quedado con tu cara y ya nos veremos la próxima vez». El estudio resulta interesante porque confirma que «el aprendizaje asociativo juega un papel crucial en el reconocimiento tanto de sus compañeras de nido como de sus rivales», pero además muestra que la agresión recibida por una hormiga «actúa como estímulo de aprendizaje no asociativo que la hormiga probable asocia con la etiqueta de olor de su enemigo individualmente». En sus conclusiones, los investigadores añaden que este tipo de aprendizaje y memoria a largo plazo podría ayudarnos a entender mejor las complejas variaciones que las hormigas muestran no solo con sus rivales sino con sus compañeras de nido.

Referencias y más información

Mélanie Bey et al. «Associative learning of non-nestmate cues improves enemy recognition in ants». Current Biology (2024). DOI: 10.1016/j.cub.2024.11.054

Albert Ludwigs «Ants hold grudges, study suggests» Phys.org

Nota de prensa de la Universidad de Freigurg

Sobre el autor: Javier «Irreductible» Peláez  (Puertollano, 1974) es escritor y comunicador científico. Autor de 500 años de frío. La gran aventura del Ártico (Crítica, 2019) y Planeta Océano (Crítica 2022). Es uno de los fundadores de la plataforma Naukas.com, editor de ciencia en Yahoo España y Latinoamérica. Es guionista científico en los programas de televisión «El Cazador de Cerebros» y «Órbita Laika» de RTVE. Durante más de una década ha escrito en diferentes medios de comunicación (El País, El Español, National Geographic, Voz Populi). Es autor de los podcasts Catástrofe Ultravioleta y La Aldea Irreductible, y ha colaborado en diferentes proyectos radiofónicos y televisivos (Radio Nacional de España, Radio Televisión Canaria). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.

El artículo Las hormigas también pueden ser rencorosas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿A qué saben las rocas?

Jue, 2025/01/16 - 11:59

Es fácil creer que el único sentido que utilizamos para trabajar en Geología es la vista. Mirar el paisaje para comprender su historia; mirar una roca o un fósil para poder identificarlos; mirar a través de un microscopio para descubrir los secretos más pequeños de ese material… mirar, siempre mirar. Pero, en realidad, las geólogas y los geólogos utilizamos nuestros cinco sentidos para hacer nuestros estudios de la manera más completa posible. Sí, los cinco, el gusto también.

gustoAspecto de un pequeño arroyo de agua salada en Bardenas Reales de Navarra bajo unas fuertes condiciones de evaporación. El agua adquiere una coloración rojiza debido a la alta concentración de elementos químicos, que se van depositando en el fondo y los márgenes del cauce en forma de una fina película de tonos blancos y grises claros.

Si habéis leído algún otro artículo mío, ya sabréis que, dentro del ámbito científico, las personas que nos dedicamos a la Geología tenemos la fama de ser unas «chupa piedras». Y, como he dicho en otras ocasiones, es una fama más que merecida. Utilizamos nuestra propia saliva, muchas veces a partir de un lametón, sobre el corte fresco de una roca para que sea más fácil ver su estructura interna con la lupa de mano; arrimamos rocas a la punta de la lengua para comprobar si se nos pega y determinar así su porosidad; incluso, masticamos barro para estimar, de forma aproximada, el tamaño de grano de las partículas que componen ese sedimento. Pero también saboreamos los materiales geológicos para poder identificarlos.

Siempre nos han enseñado que el agua no tiene sabor, pero eso no es exactamente así. Si consumís agua mineral embotellada, seguro que tenéis una favorita que os gusta más que otra. En mi caso, como buena habitante de Solares (Cantabria), siempre digo que el resto de marcas no me saben a nada. Pues ese sabor que tienen las aguas embotelladas depende de su «mineralización», es decir, de los elementos químicos que lleva disueltos el agua. Y esos elementos solo los puede sacar de un lugar, las rocas que atraviesa el agua subterránea en su viaje bajo tierra. Así, el agua de Solares se considera «dura» al contener grandes cantidades de carbonato cálcico disuelto, lo que le confiere un sabor más intenso, debido a que atraviesa rocas calizas. Sin embargo, aguas que atraviesan rocas como los granitos son de «mineralización débil» y tienen un sabor muy suave. Además, esta composición química del agua mineral también va a determinar el sabor de los productos que se elaboren con ella, como la cerveza. Si queréis saber más sobre este tema, os aconsejo visitar el blog de mi querido y admirado compañero Andrés Díez Herrero llamado Geología de Segovia, porque os va a sorprender.

gustoEjemplos de los minerales más comunes que forman parte de las rocas evaporíticas: A) yeso, B) halita, C) carnalita, D) silvita. Imágenes: A) de Tõnis Saadre (Estonian Museum of Natural History), B) de Didier Descouens, C) de Miguel Sierra, y D) de Luis Miguel Bugallo Sánchez, todas ellas tomadas Wikimedia Commons.

Pero en el título no menciono el agua, sino las rocas, porque hay un tipo en particular en el que el gusto es el principal sentido empleado para identificar los minerales que la componen, al menos mientras estamos en el campo: las evaporitas. Se trata de unas rocas sedimentarias que, como su propio nombre indican, se forman por la evaporación de agua salada en medios tanto continentales (como los lagos salados) como marinos (por ejemplo, en lagunas costeras o albuferas) de zonas cálidas, donde la precipitación es escasa. Al evaporarse el agua, los elementos químicos disueltos en ella empiezan a aumentar su concentración, llegando a combinarse entre sí y a precipitar en forma de minerales que se van acumulando en el fondo de estos ambientes acuáticos.

Entre esos minerales precipitados encontramos yeso (CaSO4·1/2H2O), halita (NaCl), carnalita (KCl) y silvita (KMgCl3·6H2O). En un mundo ideal, estos minerales siguen una secuencia temporal de precipitación, apareciendo en finas capas superpuestas donde, además, cada mineral se puede diferenciar entre sí por su estructura cristalina y su color. Pero, en el mundo real, todos ellos aparecen entremezclados en las rocas evaporíticas, generalmente englobados en una masa arcillosa. En esos casos, sacamos la lengua para identificarlos, porque su sabor los delata: La halita es la famosa sal gema que utilizamos en la mesa para echarle a los alimentos, así que su sabor es salado; la silvita tiene un sabor entre salado y amargo; la carnalita es mucho más amarga, incluso con un tono picante; y el yeso…bueno, pues si le dais un lametazo a la pared, lo podréis saber. Así, gracias al gusto podemos hacernos una idea de los minerales que componen la roca.

Las evaporitas son las principales rocas que nos llevamos a la boca para que nuestro gusto nos de pistas sobre su composición mineral, pero no son las únicas. En ocasiones, también dejamos que nuestras pupilas gustativas nos vayan guiando cuando buscamos una mineralización metálica. Supongo que ya os imaginaréis el sabor que tienen esos materiales y, no, no es nada agradable, por eso os digo que solo lo hacemos cuando es estrictamente necesario.

gustoExterior de la denominada Montaña de Sal de Cardona (Barcelona), una gran formación evaporítica generada hace unos 37 Millones de años en la que se depositaron yeso, halita, carnalita y silvita, minerales que fueron explotados desde el Neolítico. Foto: Jordi Domènech i Arnau / Wikimedia Commons

Pero esta propiedad de saborear las rocas para identificar sus minerales tiene otra aplicación diferente a la de ayudarnos en los trabajos de campo: que las personas con discapacidad también puedan disfrutar de la Geología. Cuando estamos preparando actividades de divulgación de las Ciencias de la Tierra para personas con problemas de visión, siempre pensamos en el tacto, generando maquetas de las estructuras geológicas o haciendo moldes de minerales y fósiles, y en el oído, grabando audioguías inclusivas con descripción de las imágenes. Sin embargo, también podemos utilizar el gusto, como en el taller de cata de aguas creado por la Asociación Ciencia sin Barreras de la Facultad de Geología de la Universidad Complutense de Madrid. De esta manera, tenemos una herramienta más para hacer que la divulgación de la Geología sea plenamente inclusiva.

Para terminar, solo me queda repetir una reivindicación. Soy una orgullosa “chupa piedras”, porque es la única herramienta geológica que siempre llevo encima, nunca me va a fallar y me va a solucionar un montón de dudas. Eso sí, no vayáis chupando rocas a lo loco por el campo, hacedlo solo en aquellas que os diga una geóloga.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo ¿A qué saben las rocas? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Euclides y sus rivales modernos

Mié, 2025/01/15 - 11:59

Euclid and His Modern Rivals(1879) es una comedia en cuatro actos de Charles Lutwidge Dodgson, más conocido como Lewis Carroll. Considerado como el más famoso trabajo en geometría del lógico y matemático, se trata de una defensa de la geometría de Euclides frente a lo que denominó teorías matemáticas modernas.

Portada de Euclid and His Modern Rivals. El esquema de la izquierda sugiere el orden en el que se deberían explicar los postulados de Euclides en el aula. Fuente: Internet Archive.

 

Los matemáticos británicos consideraban que la geometría euclidiana era el estándar más alto de aprendizaje escolar. Con la llegada de las geometrías no euclidianas y la geometría proyectiva y los cambios en la enseñanza de las matemáticas en Francia, muchos matemáticos decidieron redactar sus propias versiones de la geometría de Euclides. Los “tradicionalistas”, entre los que se encontraba Dodgson, acusaron a estos autores de “destruir a Euclides”.

Dodgson realiza en esta obra un estudio minucioso de trece libros destinados a la enseñanza de la geometría elemental en las escuelas de aquella época. En estos manuales, respecto al libro de Los Elementos de Euclides, se modifica a veces algún axioma o una definición, en otros se cambia el orden de los teoremas, en ocasiones se abordan las demostraciones de manera diferente, en algunos se modifica el tratamiento de la teoría de las paralelas, etc. Para Dodgson, ninguno de estos cambios mejora el texto de Euclides.

Para realizar este análisis, que podría resultar tedioso de otra manera, como afirma el propio autor en la introducción, Dodgson recurre al rey Minos y a su hermano Radamantis, ambos hijos de Zeus y Europa, según la mitología griega. Recordemos que, junto al rey Éaco, Minos y Radamantis son los tres jueces del Hades. En su papel de árbitros estrictos, en Euclid and His Modern Rivals dialogan con dos fantasmas, el de Euclides y el del profesor alemán Herr Niemand, portavoz de los trece autores cuyos libros se examinan.

Litografía de los tres jueces de los muertos: Minos, Éaco y Radamantis (Ludwig Mack, Die Unterwelt, 1826). Fuente: Wikimedia Commons.

El matemático y geómetra griego Euclides en Alejandría aparece en la obra como un personaje modesto y, aunque convencido de la calidad de su obra, no tiene inconveniente en que se analice. Uno a uno, escena a escena, estos rivales modernos verán como sus textos se critican y se rechazan frente a Los Elementos de Euclides.

Lewis Carroll se sirve del humor y de los juegos de palabras para invalidar a los rivales de Euclides.

Los autores de los trece libros

Los trece libros de geometría (sus años de edición y sus autores) examinados por Dodgson en Euclid and His Modern Rivals son, en el orden en el que aparecen citados en el texto:

  1. Adrien-Marie Legendre y su Éléments de Géometrie (1860).

  2. William Desborough Cooley y su The Elements of Geometry, simplified and explained (1860).

  3. Francis Cuthbertson y su Euclidian Geometry(1874).

  4. Olaus Henrici y su Elementary Geometry : Congruent Figures(1879).

  5. James Maurice Wilson y su Elementary Geometry(1869).

  6. Benjamin Peirce y su An Elementary Treatise on Plane and Solid Geometry (1872).

  7. William Alexander Willock y su The Elementary Geometry of the Right Line and Circle (1875).

  8. William Chauvenet y su A Treatise on Elementary Geometry(1876).

  9. Elias Loomis y su Elements of Geometry and Conic Sectionsv ().

  10. John Reynell Morell y su Euclid simplified. Compiled from the most important French works, approved by the University of Paris (1875).

  11. Edward Morris Reynolds y su Modern Methods in Elementary Geometry (1868).

  12. Richard P. Wright y su The Elements of Plane Geometry (1871).

  13. Syllabus of Association for Improvement of Geometrical Teaching, Wilson’s ‘Syllabus’-Manual (1878).

Una anécdota

En 2000 Jimbo Wales creó Nupedia, un proyecto de enciclopedia libre basado en un ambicioso proceso de revisión por pares. Debido al lento avance del proyecto, en 2001 se creó un motor de wikiUseModWiki–vinculado a Nupedia cuya finalidad inicial era agilizar la creación de artículos de forma paralela, antes de que éstos pasaran al sistema de revisión por personas expertas. El éxito de aquel proyecto paralelo –Wikipedia– acabó eclipsando a Nupedia, que dejó de funcionar en 2003.

El primer logotipo de Wikipedia –conocido como Wiki logo Nupedia– se diseñó en 2001, superponiendo una frase de Lewis Carrollsobre un círculo, usando el efecto de ojo de pez para simular una esfera. La frase es una cita en inglés tomada del prefacio de Euclid and his Modern Rivals, que dice:

In one respect this book is an experiment, and may chance to prove a failure: I mean that I have not thought it necessary to maintain throughout the gravity of style which scientific writers usually affect, and which has somehow come to be regarded as an ‘inseparable accident’ of scientific teaching. I never could quite see the reasonableness of this immemorial law: subjects there are, no doubt, which are in their essence too serious to admit of any lightness of treatment – but I cannot recognise Geometry as one of them. Nevertheless it will, I trust, be found that I have permitted myself a glimpse of the comic side of things only at fitting seasons, when the tired reader might well crave a moment’s breathing-space, and not on any occasion where it could endanger the continuity of the line of argument.

[En un aspecto, este libro es un experimento y puede resultar un fracaso: quiero decir que no he creído necesario mantener en todo momento la gravedad del estilo que suelen adoptar los escritores científicos y que de alguna manera ha llegado a ser considerado como un “accidente inseparable» de la enseñanza científica. Nunca pude ver la razonabilidad de esta ley inmemorial: hay temas, sin duda, que son en esencia demasiado serios para admitir un tratamiento ligero, pero no puedo reconocer la Geometría como uno de ellos. Sin embargo, espero que se descubra que me he permitido vislumbrar el lado cómico de las cosas sólo en momentos apropiados, cuando el lector cansado bien podría anhelar un momento de respiro, y no en ninguna ocasión en la que pudiera poner en peligro la continuidad de la línea argumental.]

El discurso de despedida

Euclid and His Modern Rivals finaliza con el discurso de despedida de Euclides, tras el cual los fantasmas desaparecen y Minos se va a dormir:

The cock doth craw, the day doth daw’, and all respectable ghosts ought to be going home. Let me carry with me the hope that I have convinced you of the importance, if not the necessity, of retaining my order and numbering, and my method of treating straight Lines, angles, right angles, and (most especially) Parallels. Leave me these untouched, and I shall look on with great contentment while other changes are made while my proofs are abridged and improved, while alternative proofs are appended to mine and while new Problems and Theorems are interpolated.

In all these matters my Manual is capable of almost unlimited improvement.

[‘El gallo canta, el día amanece’ y todos los fantasmas respetables deberían regresar a casa. Permíteme llevarme conmigo la esperanza de haberte convencido de la importancia, si no la necesidad, de conservar mi orden y numeración, y mi método para tratar líneas rectas, ángulos, ángulos rectos y (muy especialmente) Paralelas. Déjadme esto intacto, y observaré con gran satisfacción cómo se realizan otros cambios, mientras mis pruebas se abrevian y mejoran, cómo se añaden pruebas alternativas a las mías y cómo se interpolan nuevos problemas y teoremas.

En todos estos asuntos mi Manual es susceptible de mejoras casi ilimitadas.]

Referencias

El artículo Euclides y sus rivales modernos se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Por qué los informáticos consultan oráculos

Mar, 2025/01/14 - 11:59

Los dispositivos hipotéticos que pueden responder preguntas con rapidez y precisión se han convertido en una potente herramienta en la teoría de la complejidad computacional.

Un artículo de Ben Brubaker. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

https://culturacientifica.com/app/uploads/2025/01/Oracle_Comp.mp4

Haz una pregunta a una Bola 8 Mágica, y te responderá con un sí, un no, o algo exasperantemente impreciso. La consideramos un juguete para niños, pero los teóricos de la computación emplean una herramienta similar. A menudo imaginan que pueden consultar dispositivos hipotéticos llamados oráculos, que pueden responder instantáneamente y de manera correcta a preguntas específicas. Estos experimentos mentales fantásticos han inspirado nuevos algoritmos y ayudado a los investigadores a mapear el paisaje de la computación.

Los investigadores que invocan oráculos trabajan en un subcampo de la informática llamado teoría de la complejidad computacional. Se ocupan de la dificultad inherente de problemas como determinar si un número es primo o encontrar el camino más corto entre dos puntos en una red. Algunos problemas son fáciles de resolver, otros parecen mucho más difíciles pero tienen soluciones que son fáciles de verificar, mientras que otros son fáciles para los ordenadores cuánticos pero aparentemente difíciles para los ordenadores ordinarios.

Los teóricos de la complejidad buscan entender si estas diferencias aparentes en dificultad son fundamentales. ¿Hay algo intrínsecamente difícil en ciertos problemas, o simplemente no somos lo suficientemente ingeniosos para encontrar una buena solución? Los investigadores abordan estas preguntas clasificando los problemas en «clases de complejidad» —todos los problemas fáciles van en una clase, por ejemplo, y todos los problemas fáciles de verificar van en otra— y demostrando teoremas sobre las relaciones entre estas clases.

Lamentablemente, mapear el paisaje de la dificultad computacional ha resultado ser, bueno, difícil. Así que, a mediados de la década de 1970, algunos investigadores comenzaron a estudiar qué pasaría si las reglas de la computación fueran diferentes. Ahí es donde entran los oráculos.

Al igual que las Bolas 8 Mágicas, los oráculos son dispositivos que responden inmediatamente preguntas de sí o no sin revelar nada sobre su funcionamiento interno. A diferencia de las Bolas 8 Mágicas, siempre responden sí o no, y siempre tienen razón: una ventaja de ser ficticios. Además, cualquier oráculo dado solo responderá un tipo específico de pregunta, como «¿Es este número primo?».

¿Qué hace que estos dispositivos ficticios sean útiles para entender el mundo real? En resumen, pueden revelar conexiones ocultas entre diferentes clases de complejidad.

Tomemos las dos clases de complejidad más famosas. Está la clase de problemas que son fáciles de resolver, que los investigadores llaman «P», y la clase de problemas que son fáciles de verificar, que llaman «NP». ¿Son todos los problemas fáciles de verificar también fáciles de resolver? Si así fuera, eso significaría que NP sería igual a P, y toda la encriptación sería fácil de romper (entre otras consecuencias). Los teóricos de la complejidad sospechan que NP no es igual a P, pero no pueden probarlo, aunque llevan más de 50 años intentando precisar la relación entre ambas clases.

Los oráculos les han ayudado a entender mejor con qué están lidiando. Los investigadores han inventado oráculos que responden preguntas que ayudan a resolver muchos problemas diferentes. En un mundo donde cada ordenador tuviera una conexión directa con uno de estos oráculos, todos los problemas fáciles de verificar también serían fáciles de resolver, y P sería igual a NP. Pero otros oráculos menos útiles tienen el efecto opuesto. En un mundo poblado por estos oráculos, P y NP serían demostrablemente diferentes.

Los investigadores han utilizado este conocimiento para obtener una mejor comprensión del problema P contra NP. Los primeros intentos para determinar la relación entre P y NP utilizaron un truco elegante llamado diagonalización, que había sido esencial para otros resultados importantes en la informática. Pero los investigadores pronto se dieron cuenta de que cualquier prueba basada en diagonalización también se aplicaría a cualquier mundo donde cada ordenador pudiera consultar el mismo oráculo. Esto resultó ser un problema, ya que los oráculos cambian la respuesta a la pregunta de P frente a NP. Si los investigadores pudieran usar la diagonalización para probar que P y NP son diferentes en el mundo real, la misma prueba implicaría que P y NP son diferentes en un mundo con oráculos, donde claramente son equivalentes. Esto significa que cualquier solución basada en diagonalización al problema de P contra NP sería autocontradictoria. Los investigadores concluyeron que necesitarían nuevas técnicas para avanzar.

Los oráculos también han sido útiles en el estudio de la computación cuántica. En las décadas de 1980 y 1990, los investigadores descubrieron formas de aprovechar la física cuántica para resolver rápidamente ciertos problemas que parecían difíciles para los ordenadores «clásicos» ordinarios. Pero, ¿estos problemas solo parecen difíciles o realmente lo son? Demostrarlo de una manera u otra requeriría técnicas matemáticas radicalmente nuevas.

Por ello, los investigadores han estudiado cómo los ordenadores cuánticos abordan los problemas que involucran oráculos. Estos esfuerzos pueden proporcionar evidencia indirecta de que los ordenadores cuánticos realmente son más poderosos que los clásicos, y pueden ayudar a los investigadores a explorar tareas cualitativamente nuevas en las que los ordenadores cuánticos podrían destacar. A veces, incluso pueden tener aplicaciones prácticas. En 1994, el matemático aplicado Peter Shor se inspiró en un reciente resultado sobre oráculos para desarrollar un algoritmo cuántico rápido para factorizar números grandes, una tarea cuya aparente dificultad sustenta los sistemas criptográficos que mantienen segura nuestra información en línea. El descubrimiento de Shor dio inicio a una carrera para construir ordenadores cuánticos potentes que continúa hasta el día de hoy.

Es difícil predecir el futuro de la teoría de la complejidad, pero no todas las preguntas sobre la trayectoria del campo son igualmente difíciles de responder. ¿Seguirán los investigadores consultando oráculos? Las señales apuntan a que sí.

 

El artículo original, Why Computer Scientists Consult Oracles, se publicó el 16 de enero de 2025 en Quanta Magazine.

Traducido por César Tomé López

El artículo Por qué los informáticos consultan oráculos se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Defensa insólita contra virus bacteriófagos: síntesis de un gen nuevo… y tóxico

Lun, 2025/01/13 - 11:59

Francis Crick, codescubridor de la doble hélice, definió como “dogma central de la Biología Molecular” el hecho de que la información genética fluya en una sola dirección, del ADN al ARN mensajero y de este último a la secuencia de aminoácidos en la proteína. Este dogma tuvo que ser revisado cuando se descubrieron las retrotranscriptasas o transcriptasas inversas, enzimas capaces de sintetizar ADN a partir de secuencias de ARN (Figura 1). Estas enzimas son producidas por retrovirus como el VIH-1 para insertar su información en el ADN de la célula infectada. También nosotros utilizamos la retrotranscriptasa para amplificar las secuencias de ADN conocidas como retrotransposones y trasladarlas de una parte del genoma a otra. De hecho, más del 40% de nuestro genoma está constituido por retrotransposones.

Figura 1. En el recuadro de la izquierda se muestra el llamado “dogma central de la Biología Molecular”: el flujo de información genética desde el ADN hacia la secuencia de aminoácidos que constituyen las proteínas, pasando por el ARN mensajero. A la derecha se muestra el caso excepcional del sistema DRT2. Un nuevo gen (Neo) es sintetizado a partir de la retrotranscripción repetida múltiples veces de un ARN no codificante. La proteína Neo no está por tanto codificada en el genoma bacteriano

Las bacterias también utilizan las retrotranscriptasas como medio para defenderse de los virus bacteriófagos, sus grandes enemigos naturales. Esta estrategia defensiva suele activarse cuando han fallado los mecanismos basados en la degradación del material genético vírico. Un ejemplo de estos mecanismos es el conocido sistema CRISPR-Cas, que en la actualidad constituye una tecnología sencilla y eficaz para la edición genética.

Si la infección vírica desborda esta primera línea de defensa, se activan procesos basados en retrotranscriptasas, descubiertos recientemente y mucho menos conocidos. Algunos de estos mecanismos defensivos se denominan retrones. Los retrones consisten típicamente en secuencias del cromosoma bacteriano que codifican un ARN que no contiene información para formar proteínas (ARN no codificante), una retrotranscriptasa y una proteína efectora, generalmente tóxica. En condiciones normales, la retrotranscriptasa sintetiza una cadena de ADN utilizando parte del ARN no codificante como plantilla. La molécula mixta de ADN y ARN mantiene inactiva la toxina. El sistema se altera en caso de infección vírica imparable, la toxina se activa y la bacteria se suicida (Figura 2).

Figura 2. Sistema defensivo contra bacteriófagos basado en retrones. El ADN se representa en rojo y el ARN en azul. Un ARN no codificante sirve de plantilla para que la retrotranscriptasa sintetice una cadena complementaria de ADN. El conjunto inhibe la actividad de una proteína efectora tóxica. La infección por bacteriófagos altera el sistema y la toxina queda libre, provocando la muerte de la bacteria y evitando la propagación del virus. Imágenes de Freepik, Inksyndromeartwork, y KES47, CC BY 4.0

Se podría pensar, ¿qué clase de defensa antivírica implica un suicidio celular? La clave está en que la muerte de la bacteria impide la multiplicación del virus y su transmisión al resto de la población bacteriana. Esta estrategia “kamikaze” se conoce como infección abortiva y beneficia al conjunto de la población a expensas del individuo infectado.

Otras defensas basadas en retrotranscriptasas son las DRTs (defense-associated retrotranscriptases). Una de ellas, la DRT2, constituía hasta ahora un enigma ya que, a diferencia de los retrones, solo está formada por el ADN que genera la secuencia de ARN no codificante y una retrotranscriptasa, sin ninguna proteína efectora. Dos artículos publicados simultáneamente en Science el pasado mes de octubre desvelaron la función de DRT2, y han supuesto una auténtica conmoción en medios científicos. El sistema se basa en algo excepcional: la síntesis de un nuevo gen, ausente en el genoma bacteriano original.

Ambos grupos de investigación, en la Universidad Columbia de Nueva York y en el Instituto Tecnológico de Massachusetts, utilizaron el mismo modelo, la bacteria Klebsiella pneumoniae. Comprobaron que la expresión de DRT2 provocaba la síntesis del ARN no codificante, que se pliega sobre sí mismo, y la retrotranscriptasa (Figura 3). Como sucede con los retrones, esta enzima genera la cadena de ADN complementaria de una parte del ARN. Pero, y aquí viene la sorpresa, cuando termina la síntesis, se produce un “salto” y la enzima vuelve a empezar la síntesis del ADN desde el principio. Este ciclo se repite una y otra vez, generando una cadena sencilla de ADN con múltiples secuencias repetidas, a la que se denominó ADN concatenado.

Figura 3. Sistema defensivo DRT2 contra bacteriófagos. El ADN se representa en rojo y el ARN en azul. En este caso no hay proteína efectora. La síntesis del ADN complementario se repite de manera cíclica creando una larga cadena de ADN concatenado. En caso de infección por bacteriófagos, aumenta exponencialmente la producción de este ADN y se sintetiza la cadena complementaria. El ADN se comporta como un nuevo gen (Neo) que se transcribe a ARN mensajero y se traduce a la proteína Neo. Esta proteína bloquea el crecimiento bacteriano evitando la propagación del virus

En caso de infección vírica suceden dos cosas (Figura 3). La síntesis de ADN concatenado aumenta miles de veces y, al mismo tiempo, se sintetiza la hebra complementaria, generando un ADN de doble cadena, como el del cromosoma bacteriano. Este ADN se comporta como un nuevo gen, denominado Neo1, que se traduce en una proteína con múltiples repeticiones de una secuencia de 40 aminoácidos. La predicción mediante Alphafold es que la proteína Neo está formada por un gran número de hélices. Esta proteína bloquea el crecimiento y la reproducción de la bacteria, evitando así la proliferación del virus.

Son muchas las incógnitas que permanecen, por ejemplo, qué tamaño puede alcanzar Neo, ya que la longitud de su gen no parece tener límites. Tampoco se sabe cómo Neo bloquea el crecimiento bacteriano. Lo que sí parece probable, según la comparación de secuencias que se ha hecho, es que este mecanismo esté presente en muchas otras bacterias.

Lo que resulta realmente llamativo de estos resultados es que a partir de un ARN no codificante se sintetice una secuencia de ADN que actúa como un gen extracromosómico que genera una proteína no codificada por el genoma bacteriano. Estamos, por tanto, ante un caso hasta ahora impensable de flujo de información genética entre el ADN y el ARN (Figura 1).

Referencias:

Tang, S., Conte, V., Zhang, D.J., et al. (2024). De novo gene synthesis by an antiviral reverse transcriptase. Science. Https://doi: 10.1126/science.adq0876.

Wilkinson, M.E., Li, D., Gao, A.F., et al. (2024). Phage-triggered reverse transcription assembles a toxic repetitive gene from a noncoding RNA. Science. Https://doi: 10.1126/science.adq3977.

Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga

Nota

1 Por never ending open reading frame, marco abierto de lectura sin fin. Un marco abierto de lectura es una secuencia de ADN con una señal de inicio de la traducción a proteína y una señal de terminación. El “sin fin” se debe a que, en este caso, la secuencia no tiene señales de terminación

El artículo Defensa insólita contra virus bacteriófagos: síntesis de un gen nuevo… y tóxico se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La teoría de cuerdas no ha muerto

Dom, 2025/01/12 - 11:59

Los físicos teóricos siguen buscando las matemáticas que puedan explicar las partículas y fuerzas del universo.

teoría de cuerdasLa teoría de cuerdas es una descripción matemática de la naturaleza que requiere que el espacio posea varias dimensiones adicionales más allá de las tres ordinarias. Estas dimensiones adicionales, demasiado pequeñas para percibirlas en la vida cotidiana, pueden adoptar muchas formas o geometrías posibles (representadas artísticamente aquí) que pueden influir en las propiedades del universo y de las partículas subatómicas. Ilustración: O. Knill & E. Slavkosky.

A los científicos que buscan los secretos del universo les gustaría hacer un modelo que mostrara cómo encajan todas las fuerzas y partículas de la naturaleza. Estaría bien hacerlo con piezas de Lego, pero quizá sería mejor conectarlo todo con cuerdas.

No cuerdas literales, por supuesto, sino pequeños bucles o fragmentos de energía vibrante. Y el “encaje” tiene que ser matemático, no mediante piezas de plástico que calzan unas con otras. Desde hace décadas, muchos físicos albergan la esperanza de que las ecuaciones que implican una “cuerda” especialmente diminuta puedan proporcionar la teoría que resuelva los últimos misterios subatómicos de la naturaleza.

La teoría de cuerdas, como se le llama, ha adquirido una especie de difusa aclamación cultural, apareciendo en populares programas de televisión como The Big Bang Theory  y NCIS. Entre los físicos, la reacción a la teoría ha sido variada. Tras varios descubrimientos prometedores en los años ochenta y noventa, las cuerdas cayeron en desgracia por no cumplir sus promesas. Una de ellas era encontrar la forma de incluir la gravedad en la teoría cuántica de las partículas subatómicas. Otra era revelar las matemáticas que demostrarían que las múltiples fuerzas fundamentales de la naturaleza son solo diferentes descendientes de una fuerza unificada. Promesas incumplidas.

Sin embargo, desde que la teoría de cuerdas dejó de ser el centro de atención, un grupo considerable de devotos se ha esforzado por atar todos los cabos sueltos. El éxito sigue siendo difícil de alcanzar, pero se han hecho verdaderos progresos. Las preguntas que se hacen los físicos no solo sobre los fragmentos más pequeños de materia, sino también sobre las propiedades de todo el universo, podrían ceder a los esfuerzos de los teóricos de cuerdas.

“Muchos de los problemas sin resolver de la física de partículas y la cosmología están profundamente entrelazados”, escriben los físicos Fernando Marchesano, Gary Shiu y Timo Weigand en el Annual Review of Nuclear and Particle Science de 2024. La teoría de cuerdas puede ser el camino para resolver esos problemas.

Teoría de cuerdas y modelo estándar

Uno de los principales enfoques en esta búsqueda es averiguar si la teoría de cuerdas puede explicar lo que se conoce como el modelo estándar de la física de partículas. Desarrollado en la última parte del siglo XX, el modelo estándar ofrece una especie de lista de todas las partículas básicas de la naturaleza. Algunas constituyen los bloques de construcción de la materia; otras transmiten fuerzas entre las partículas de materia y rigen su comportamiento.

Es bastante sencillo dibujar un gráfico que muestre esas partículas. Se necesitan 12 puntos para las partículas de materia: seis quarks y seis leptones. Se necesitan cuatro para las partículas de fuerza (conocidas colectivamente como bosones) y uno para el bosón de Higgs, una partícula necesaria para explicar por qué algunas partículas tienen masa. Pero las matemáticas que subyacen al gráfico son insondablemente complejas.

Esas ecuaciones funcionan magníficamente para explicar los resultados de prácticamente todo el comportamiento de la física de partículas. Pero el modelo estándar no puede ser toda la historia del universo. “A pesar del increíble éxito del modelo estándar a la hora de describir la física de partículas observada hasta las escalas de energía actualmente accesibles, existen argumentos convincentes de por qué es incompleto”, escriben Marchesano y colaboradores.

Por un lado, sus ecuaciones no abarcan la gravedad, que no tiene cabida en la tabla del modelo estándar. Y las matemáticas del modelo estándar dejan muchas preguntas sin respuesta, como por ejemplo por qué algunas de las partículas tienen las masas precisas que tienen. Las matemáticas del modelo estándar tampoco incluyen la misteriosa materia oscura que se esconde dentro y entre las galaxias, ni explican por qué el espacio vacío está impregnado de una forma de energía que hace que el universo se expanda a un ritmo acelerado.

Algunos físicos que investigan estos problemas creen que la teoría de cuerdas puede ayudar, ya que una versión de cuerdas del modelo estándar contendría matemáticas adicionales que podrían explicar sus deficiencias. En otras palabras, si la teoría de cuerdas es correcta, el modelo estándar sería solo un segmento de la descripción matemática completa de la realidad que hace la teoría de cuerdas. El problema es que la teoría de cuerdas describe muchas versiones diferentes de la realidad. Eso se debe a que las cuerdas existen en un reino con múltiples dimensiones del espacio más allá de las tres ordinarias. Algo así como la Dimensión Desconocida con esteroides.

Los teóricos de las cuerdas admiten que la vida cotidiana transcurre perfectamente en un mundo tridimensional. Por lo tanto, las dimensiones adicionales del mundo de cuerdas deben ser demasiado pequeñas para ser percibidas: tienen que encogerse, o “compactarse”, hasta alcanzar un tamaño submicroscópico. Es como si una hormiga que viviera en una gran hoja de papel percibiera una superficie bidimensional sin darse cuenta de que el papel tiene una tercera dimensión muy pequeña.

Las dimensiones extra de la teoría de cuerdas no solo deben encogerse, sino que también pueden encogerse en innumerables configuraciones diferentes, o geometrías, del vacío del espacio. Una de esas posibles geometrías podría ser la forma adecuada de las dimensiones encogidas para explicar las propiedades del modelo estándar.

“Las características, preguntas y enigmas del modelo estándar … pueden reformularse en términos de la geometría de las dimensiones extra”, escriben Marchesano y colaboradores.

Dado que las matemáticas de la teoría de cuerdas pueden expresarse de varias formas diferentes, los teóricos tienen que explorar múltiples vías posibles para encontrar la formulación más fructífera. Hasta ahora, se han encontrado aproximaciones de cuerdas que describen muchas características del modelo estándar. Pero se necesitan diferentes geometrías de compactación del vacío para explicar cada característica. El reto, señalan Marchesano y sus colegas, es encontrar una geometría para el vacío que combine todas esas características a la vez, incorporando al mismo tiempo rasgos que describan el universo conocido.

Una compactación satisfactoria de las dimensiones adicionales, por ejemplo, produciría un vacío en el espacio que contendría la cantidad adecuada de “energía oscura”, la fuente de la expansión acelerada del universo. Y también deberían aparecer candidatos para la materia oscura cósmica en la matemática de cuerdas. De hecho, todo un conjunto adicional de partículas de fuerza y materia surge de las ecuaciones de cuerdas que implican una propiedad matemática llamada supersimetría. “Casi todos los modelos de teoría de cuerdas que se parecen al modelo estándar muestran supersimetría a escala de compactación”, escriben Marchesano y sus coautores.

Las versiones de la teoría de cuerdas que contienen partículas supersimétricas se conocen como “teoría de supercuerdas”. Desde hace tiempo se sospecha que estas “superpartículas” constituyen la materia oscura del universo. Pero los intentos de detectarlas en el espacio o crearlas en aceleradores de partículas han sido hasta ahora infructuosos.

En cuanto a la gravedad, las partículas que transmiten la fuerza gravitatoria aparecen de forma natural en las matemáticas de la teoría de cuerdas, uno de los grandes atractivos de la teoría para empezar. Pero el hecho de que muchas formulaciones de la teoría de cuerdas incluyan la gravedad no indica qué formulación proporciona la descripción correcta del mundo real.

Las pruebas son posibles

Si la teoría de cuerdas es correcta, las partículas fundamentales de la naturaleza no serían los objetos puntuales de dimensión cero de la teoría estándar. En su lugar, las diferentes partículas serían el resultado de diferentes modos de vibración de una cuerda unidimensional, ya sea un bucle o un fragmento con extremos unidos a objetos espaciales multidimensionales llamados branas. Tales cuerdas serían aproximadamente más pequeñas que un átomo en la medida en que un átomo es más pequeño que el sistema solar. Muy pequeñas, sin que sea factible detectarlas directamente. La cantidad de energía necesaria para sondear escalas tan diminutas está muy lejos del alcance de cualquier tecnología práctica.

Pero si la teoría de cuerdas puede dar cuenta del modelo estándar, también contendría otras características de la realidad que serían accesibles a los experimentos, como tipos de partículas no incluidas en el cuadro del modelo estándar. “Las construcciones de cuerdas que dan cuenta del modelo estándar siempre contienen sectores adicionales… a una escala de energía que podría probarse en un futuro próximo”, escriben Marchesano y sus colegas.

En última instancia, la teoría de cuerdas sigue siendo un candidato esperanzador para encajar todas las piezas del rompecabezas cósmico. Si funciona, los científicos podrían desvelar por fin los misterios sobre cómo la relación de la física cuántica con la gravedad y las propiedades de las partículas y fuerzas de la naturaleza están profundamente vinculadas. “La teoría de cuerdas”, escriben Marchesano y sus colegas, “tiene todos los ingredientes para ayudarnos a entender esta profunda conexión”.

Un artículo de Tom Siegfried / Knowable Magazine publicado originalmente el 7 de enero de 2025. Traducido por Debbie Ponchner

 

El artículo La teoría de cuerdas no ha muerto se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2024: 18 de enero de 1902

Sáb, 2025/01/11 - 11:59

La decimocuarta edición del mayor evento de divulgación científica volvió al Palacio Euskalduna de Bilbao durante los días 19, 20, 21 y 22 de septiembre de 2024.

traje espacial

Oskar González Mendía (autor de kimikArte) doctor en químicas y profesor en la Facultad de Bellas Artes de la UPV/EHU se dedica, entre otras cosas, a resolver misterios. Entre ellos por qué el 18 de enero de 1902, un día en el que no pasó absolutamente nada, es interesante.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2024: 18 de enero de 1902 se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Las ballenas ven en blanco y negro

Vie, 2025/01/10 - 11:59
Ojo de una ballena yubarta, de la familia Balaenopteridae Foto: Rachel Moore via Instagram

En la Facultad de Medicina de la Universidad del País Vasco hemos analizando los ojos de tres rorcuales varados en diferentes playas de España entre 2019 y 2021. Y su estudio nos ha ayudado a saber cómo ven las ballenas.

Las tres ballenas que han servido para nuestra investigación tenían medidas similares, alrededor de 18 metros de largo, y pesaban 20 toneladas. Cada ojo era del tamaño de una pelota de balonmano (13 cm de diámetro) y pesaba un kilo.

Ojos para sobrevivir en las profundidades

Los rorcuales, pertenecientes a la familia Balaenopteridae, son cetáceos conocidos por su velocidad e hidrodinámica, lo que les ha valido el apodo de “galgos de los mares”.

Estos animales marinos carecen de dientes y se alimentan filtrando krill en las zonas superficiales del océano. Su adaptación al medio marino ha dotado a sus órganos, especialmente los ojos, de características únicas que les permiten sobrevivir en las profundidades.

Ballenas varadas

El primer ojo provenía de un rorcual común que varó en Sopelana (Vizcaya, País Vasco) tras la borrasca Helena en febrero de 2019. Tener acceso a sus ojos nos permitió realizar estudios anatómicos y moleculares, además de cultivar las neuronas ganglionares y las células gliales de la retina, conocidas como glía de Müller.

El segundo ojo, de un rorcual boreal, se obtuvo en la playa de Tapia de Casariego (Asturias) durante la borrasca Filomena en enero de 2021. Este material permitió confirmar los hallazgos previos e inmortalizar las células de Müller para investigaciones futuras.

El tercer ojo correspondía a un rorcual que varó en Tavernes (Valencia) en mayo de 2021. En este caso, el ojo de la ballena nos sirvió para corroborar nuevamente los estudios anatómicos y moleculares realizados con los otros ejemplares. Los resultados se publicaron en varias revistas científicas.

Fotografía de microscopía electrónica de barrido de la córnea del ojo de una de las ballenas. Fotografía premio de la Sociedad Española de Oftalmología.
Elena Vecino y Luis LópezAdaptaciones anatómicas del ojo

En los ojos de los rorcuales encontramos adaptaciones extraordinarias que les permiten resistir las altas presiones y la escasa luz de las profundidades marinas:

  • La córnea, que permite la entrada de luz al ojo, es hasta cuatro veces más gruesa que la humana. Este refuerzo, junto con la esclera, protege al órgano visual contra las presiones extremas en el hábitat marino profundo.
  • El cristalino en los rorculaes es esférico, para facilitar la visión bajo el mar, a diferencia de los mamíferos terrestres, que es lenticular.
  • La esclera, o parte blanca del ojo, es extremadamente gruesa en estos cetáceos: llega a medir hasta 4 centímetros, en contraste con el medio milímetro en humanos. Está formada por colágeno endurecido, lo que protege la retina como si estuviera dentro de un cofre.
  • El cuerpo cavernoso es un tejido que rodea el nervio óptico y contiene numerosos vasos sanguíneos y músculo liso. En la ballena, cuando se llena de sangre, impulsa el ojo hacia el exterior, permitiendo enfocar de un modo similar a como lo hace un telescopio.

Estos resultados han sido publicados en el capítulo ¿Cómo ven las ballenas? del libro Mamíferos marinos.

Vaso del cuerpo cavernoso del ojo de la ballena, rodeado de fibras de colágeno. Fotografía de microscopía electrónica de barrido.
Elena Vecino y Luis LópezCaracterísticas visuales: visión en blanco y negro

Nuestro análisis reveló que la retina de los rorcuales carece de conos, las células responsables de percibir colores y luz intensa. Por el contrario, está compuesta únicamente por bastones, que son sensibles a bajas intensidades lumínicas y funcionan en condiciones de poca luz.

Esto indica que las ballenas solo ven en blanco y negro, una adaptación al entorno oscuro del océano.

Además, las neuronas melanopsínicas, responsables de informar al cerebro sobre los ciclos de luz/oscuridad (denominados ritmos circadianos), están muy desarrolladas en las ballenas. Esto nos revela que tienen alta sensibilidad a la luz y pueden percibir las intensidades lumínicas variables en los distintos hemisferios, lo que les podría ayudar a orientarse.

Aunque los ojos de las ballenas son grandes, su densidad de neuronas ganglionares, encargadas de procesar la información visual y enviarla al cerebro, es muy baja. Esto significa que la cantidad de señales visuales que llegan al cerebro es limitada y da como resultando una visión reducida, como indicamos en el estudio publicado en Frontiers in Anatomy. Metafóricamente hablando, las ballenas podrían llevar el pin de baja visión.

Microscopía electrónica de barrido de la retina de una ballena, coloreada digitalmente. Premio Scientific American NeuroArt de la SENC.
Elena Vecino Cordero y Luis López VecinoReconocimientos artísticos

Además de su valor científico, las imágenes obtenidas durante esta investigación han sido reconocidas por su belleza y han ganado varios premios nacionales e internacionales, entre ellos, el de Scientific American NeuroArt.

Estas fotografías se han expuesto en siete museos marítimos, de fotografía y galerías de arte nacionales e internacionales. En la actualidad está en el Museo Nacional de Ciencias Naturales de Madrid, donde permanecerá hasta finales de mayo.

Las exposiciones han sido adaptadas a personas invidentes y con baja visión, incorporando fotografías texturizadas, audioguías y recorridos señalizados con cintas podotactiles. Además, hemos editado tres vídeos que cuentan la historia de la investigación desde el comienzo hasta la exposición: Elena y la ballena; ¿Cómo ven las ballenas? y Cómo adaptar una exposición fotográfica a personas que no ven.

El estudio de los ojos de estos tres rorcuales ha permitido conocer en profundidad las adaptaciones anatómicas y funcionales que posibilitan su vida en el medio marino. Estas investigaciones no solo arrojan luz sobre la biología de estos cetáceos: llevadas al museo, permiten destacar la importancia de preservar y estudiar la biodiversidad de nuestros océanos.The Conversation

Sobre las autoras: Elena Vecino Cordero, Catedrática de Biología Celular (UPV/EHU), Licenciada en Bellas Artes, Life Member, Clare Hall Cambridge (UK). Directora del Grupo Oftalmo-Biología Experimental (GOBE), Universidad del País Vasco / Euskal Herriko Unibertsitatea y Luis López Vecino, Profesor asociado del Grado en desarrollo de aplicaciones 3D interactivas y videojuegos, Universidad de Salamanca

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Las ballenas ven en blanco y negro se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La impredecibilidad de la sencillez: autómatas celulares

Jue, 2025/01/09 - 11:59

Pocos, como el matemático húngaro John von Neumann, fueron capaces de vislumbrar que el próximo gran giro de guion de la ciencia no vendría de la mano, esta vez, de los campos de la «energía, el trabajo, la fuerza o el movimiento», sino del «control, la programación, el procesamiento de la información, las comunicaciones, la organización y los sistemas» (Burks 1969). Con la llegada de los primeros computadores tras la Segunda Guerra Mundial, o, en otras palabras, las primeras máquinas sofisticadas utilizadas para ayudarnos con tareas mentales en lugar de físicas, se puso sobre la mesa, de manera realista, la posibilidad de recrear artificialmente la vida. Así nació la cibernética, propuesta por Norbert Wiener durante la década de los años cuarenta del siglo XX, y así nacieron los primeros modelos computacionales que buscaban simular procesos que solo se encontraban en la naturaleza a través de operaciones lógicas.

Konrad Zuse, ingeniero alemán y pionero de la computación moderna ya hizo alguna aproximación al problema. Poco después, en el Laboratorio Nacional de Los Álamos, John Von Neumann, por un lado, empezó a explorar la idea de que un sistema computacional pudiera replicarse a sí mismo de forma autónoma; y Stanislaw Ulam, por otro, trató de averiguar si era posible que, de reglas matemáticas sencillas, pudieran surgir estructuras, patrones o comportamientos complejos. Ulam utilizó para ello cuadrículas bidimensionales en las que representaba datos marcando —o no— diferentes celdas. Raúl Ibánez puso, recientemente, un magnífico ejemplo del trabajo del matemático de origen polaco en «Números felices para siempre». Von Neumann utilizó el método de Ulam para crear uno de sus sistemas autorreplicantes. No obstante, y aunque fue el primer autómata celular que se conoce, aquel modelo pasó sin pena ni gloria y quedó olvidado durante décadas.

Hay pocas ramas de las matemáticas, la física y la computación en las que John von Neumann (1903-1957) no realizara aportaciones fundamentales. En este caso, junto con su colega en Los Álamos Stanislaw Ulam.
Créditos: Los Álamos National Laboratory y dominio público

No fue hasta la década de los setenta cuando, en la sección de matemática recreativa de Scientific American, Martin Gardner planteó, a modo de juego, una ocurrencia, sencilla pero fascinante, que había tenido el matemático inglés John Conway. Con el nombre de «juego de la vida», por su semejanza con las dinámicas de evolución de poblaciones de organismos, se regía por unas reglas muy sencillas.

Para jugar al juego de la vida solo se necesita una cuadrícula en la que podamos marcar casillas —puede ser un tablero de ajedrez o de go y algunas piezas, papel y lápiz… aunque lo más fácil e ilustrativo a día de hoy es utilizar un ordenador—. Las casillas marcadas serían el equivalente a organismos o células que podemos hacer evolucionar de forma completamente autónoma en nuestro Mundo Cuadrícula, a partir de una configuración geométrica inicial, con tan solo aplicar una y otra vez las siguientes reglas:

  • Supervivencia: una célula con dos o tres vecinas sobrevivirá en la próxima generación.

  • Muertes:

    • Una célula con cuatro o más vecinas morirá por superpoblación.

    • Una célula con una o ninguna vecina morirá por aislamiento.

  • Nacimientos: si una celda vacía está rodeada por tres células, en la siguiente generación nacerá ahí una nueva.

Y nada más, si nos fijamos, en realidad el juego «se juega a sí mismo». Nosotros solo decidimos la configuración inicial de células.

juego de la vidaExisten numerosos sitios de internet en los que se puede jugar al juego de la vida, como https://playgameoflife.com/. Existen también librerías de patrones y todo un universo alrededor de las posibles evoluciones que se pueden conseguir a partir de diversas configuraciones iniciales.

Como el modelo que planteó Von Neumann, el juego de la vida es un autómata celular, aunque algo más sencillo. La popularización de la idea a través de una revista de divulgación científica llevó a matemáticos tanto aficionados como profesionales a experimentar con infinitud de configuraciones iniciales y a descubrir fenómenos muy interesantes; desde patrones estables —no cambian de una generación a otra— y ciclos que se repiten, hasta figuras —«planeadores»— que se deslizan por la cuadrícula dando la sensación de movimiento e incluso estructuras que se replican a sí mismas. Hay auténticas obras de arte geométricas generadas con este sencillo juego en internet —huevo de Pascua: probad a buscar en Google «juego de la vida»—.

juego de la vidaDe izquierda a derecha: a) Configuración estable. b) Configuración cíclica (púlsar). c) Planeador (da la sensación de deslizarse por la pantalla). d) Cañón de planeadores de Gosper. Existen numerosos archivos de patrones, por ejemplo: https://conwaylife.appspot.com/library/. Créditos: a), b), c) Dominio público. d) CC BY-SA 3.0/Lucas Vieira.

Los trabajos de Von Neumman, Ulam y Conway llevaron en los años ochenta al físico Stephen Wolfram a investigar estos autómatas celulares, en esta ocasión, unidimensionales —consisten únicamente en una fila de celdas y se conocen como «elementales»—, y los clasificó en función de la complejidad de su comportamiento en:

  • Clase 1: alcanzan estados estables.

  • Clase 2: generan patrones oscilatorios o periódicos.

  • Clase 3: generan patrones seudoaleatorios o caóticos.

  • Clase 4: generan estructuras complejas pero ordenadas.

juego de la vidaStephen Wolfram hizo una clasificación de diversas reglas para los autómatas celulares elementales. De algunas de ellas se pueden obtener patrones realmente complejos y, por qué no, bellos, como el fractal que se obtiene tras aplicar la regla 90 (ampliado la derecha). Créditos: CC BY-SA

De nuevo quedó patente que un sistema de reglas muy sencillo en una cuadrícula podía dar lugar a patrones complejos. Esto llevó a Wolfram a aplicar la teoría de autómatas celulares, de una forma cada vez más elaborada, al campo de la física, y a plantear que tal vez el universo podría describirse con un modelo computacional de este tipo… no sin la controversia que suelen despertar este tipo de aseveraciones en el mundo de la física.

Ya se tomen los autómatas celulares como un juego o se pretendan aplicar a campos más tangibles, lo cierto es que son una fuente de sorpresas matemáticas. Su potencial y, seguramente, también su belleza inspiraron al escritor de ciencia ficción Greg Egan para escribir en 1994 su novela Ciudad Permutación, un espectacular homenaje a las matemáticas, la computación y la vida.

Última edición en inglés de Ciudad Permutación, de Greg Egan (Gollancz). Se publicó en español en 1998, lamentablemente, está descatalogada.

Bibliografía

Burks, A. W. (1969). Von Neumann’s self-reproducing automata. University of Michigan. Computer and Communication Sciences Department. https://fab.cba.mit.edu/classes/MAS.865/topics/self_replication/Burks.pdf

Gardner, M. (octubre de 1970). The fantastic combinations of John Conway’s new solitaire game “life”. Scientific American, 223(4), 120-123.

Wolfram, S. (2002). A new kind of science. Wolfram Media.

.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo La impredecibilidad de la sencillez: autómatas celulares se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Números felices para siempre

Mié, 2025/01/08 - 11:59

Como comentaba en mi anterior entrada del Cuaderno de Cultura Científica, titulada Algunas propiedades matemáticas del número 2025, algunas personas del ámbito de las matemáticas nos dedicamos a buscar propiedades matemáticas del número al que corresponde el nuevo año, en este caso le tocaba el turno al 2.025, para incluir alguna de ellas en nuestras felicitaciones navideñas para compartir en las redes sociales, enviar a nuestros contactos por whatsapp o para diseñar nuestras tarjetas navideñas físicas. Por este motivo, dediqué esa entrada a algunas propiedades matemáticas del mencionado número, el dos mil veinticinco.

En particular, utilicé para mi tarjeta de año nuevo que el número 2.025 puede escribirse como la suma de los cubos de todas las cifras básicas de nuestro sistema de numeración, es decir, todos los números de un solo dígito:

13 + 23 + 33 + 43 + 53 + 63 + 73 + 83 + 93 = 2.025,

donde no incluí el cero ya que cero elevado al cubo es cero. Pero, además, se comentaba en dicha entrada que este número es un número cuadrado (de hecho, es el cuadrado de un número triangular, 45), suma de números triangulares consecutivos, un número trapezoidal (o cortés), que puede expresarse como suma de números naturales consecutivos de catorce maneras distintas, un número octogonal centrado, un número deficiente, un número tau, un número duffiniano o un número de Harshad. Sin embargo, se podría haber ampliado esta familia de propiedades a otras, como escribir el 2.025 con todas las cifras básicas no nulas (1, 2, 3, 4, 5, 6, 7, 8, 9) en orden creciente, o decreciente, intercalando los signos de las operaciones aritméticas básicas (+, –, x, /) y potencias, como aparece en la siguiente imagen, que es el típico problema de ingenio, aunque para diferentes números.

El número 2.025 expresado con todas las cifras básicas no nulas (1, 2, 3, 4, 5, 6, 7, 8, 9) en orden creciente, o decreciente, intercalando los signos de las operaciones aritméticas básicas (+, –, x, /) y potencias

 

El año 2.026 también tendrá su tarjeta de año nuevo

Cuando compartí en las redes sociales el enlace de la entrada titulada Algunas propiedades matemáticas del número 2025, algunas personas me comentaron que sería difícil encontrar otro año con tantas propiedades matemáticas como el 2.025. Lo cierto es que, aunque haya años, bueno, los números de los años, con más propiedades matemáticas o propiedades más sorprendentes que otros, podemos obtener curiosas propiedades para todos los números. Así, de cara al año que viene, el 2.026 también verifica algunas curiosas propiedades. Por ejemplo, podemos expresar el 2.026 con todas las cifras básicas no nulas (1, 2, 3, 4, 5, 6, 7, 8, 9) en orden creciente, o decreciente, intercalando los signos de las operaciones aritméticas básicas (+, –, x, /) y potencias, que podéis ir reservando para dentro de un año.

El número 2.026 expresado con todas las cifras básicas no nulas (1, 2, 3, 4, 5, 6, 7, 8, 9) en orden creciente, o decreciente, intercalando los signos de las operaciones aritméticas básicas (+, –, x, /) y potencias

 

Pero como comentaba, este número tiene muchas otras propiedades. Por ejemplo, puede expresarse como suma de números naturales consecutivos

2.026 = 505 + 506 + 507 + 508,

o también pertenece a la familia de números naturales de la que vamos a hablar en esta entrada, los números felices. Es decir, el 2.026 es un número feliz.

Números felices

Definición: Un número es feliz (en algunos textos también se han sido llamados números elegantes) si al sumar los cuadrados de sus dígitos, repetir esta misma operación sobre el resultado obtenido e iterar el proceso suficientes veces, la sucesión de números resultante alcanza en algún momento el número 1. En caso contrario, se dice que el número es infeliz o triste.

Por ejemplo, el número 7 es un número feliz ya que si consideramos la sucesión de resultados del algoritmo “sumar los cuadrados de sus dígitos” de manera recursiva nos queda lo siguiente:

7, 49, 97 (= 42 + 92), 130 (= 92 + 72), 10 (= 12 + 32 + 02), 1 (= 12 + 02),

es decir, la sucesión se estaciona en el número 1. Sin embargo, si consideramos el número 5 la sucesión que se genera con el anterior algoritmo es

5, 25, 29 (= 22 + 52), 85 (= 22 + 92), 89 (= 82 + 52), 145 (= 82 + 92), 42 (= 12 + 42 + 52), 20 (= 42 + 22), 4 (= 22 + 02), 16 (= 42), 37 (= 12 + 62), 58 (= 32 + 72), 89 (= 52 + 82), …

que, como podemos observar, se mete en un ciclo sin fin, formado por los números 89, 145, 42, 20, 4, 16, 37 y 58, por lo tanto, el número 5 no es un número feliz.

Más aún, como comentábamos más arriba, el número 2.026 es un número feliz, puesto que la sucesión de resultados de aplicar de manera recursiva el algoritmo “sumar los cuadrados de sus dígitos” al 2.026 y después a los respectivos resultados que se van obteniendo es 2.026, 44, 32, 13, 10 y 1. Por lo tanto, la sucesión llega al 1, donde se estanca, en cinco pasos. De manera que las próximas navidades se podría decir que el nuevo año “es un año feliz”, trasladando la propiedad del número al año. El anterior año feliz fue el 2.019 y el siguiente será el 2.030.

Además, de la definición se deduce fácilmente que, dado un número feliz, cualquier otro número que se obtenga como permutación de sus dígitos sigue siendo feliz. Por ejemplo, como 2.026 es un número feliz, también lo son 226, 262, 622, 2.062, 2.206, 2.260, 2.602, 2.620, 6.022, 6.202 y 6.220.

El origen de estos números es incierto. En una de las referencias clásicas sobre los mismos, el libro de Richard Guy Unsolved Problems in Number Theory, se menciona que llamaron la atención del matemático inglés Reg Allenby, cuando su hija le mostró que se los habían enseñado en la escuela. Aunque parece ser que tienen su origen en Rusia.

No es difícil calcular, a mano o con una calculadora, los primeros números felices. En concreto, los menores de 200 son 1, 7, 10, 13, 19, 23, 28, 31, 32, 44, 49, 68, 70, 79, 82, 86, 91, 94, 97, 100, 103, 109, 129, 130, 133, 139, 167, 176, 188, 190, 192, 193. De hecho, los números felices son la sucesión A007770 de la enciclopedia on-line de sucesiones de números enteros. Al realizar el algoritmo para los números menores de 200 se observará que para los demás números, los infelices, la sucesión termina siempre en el bucle del 89. De hecho, estas son las dos únicas posibilidades que existen, como aparece mencionado en el libro de Richard Guy, aunque demostrado mucho antes, en 1945, en el artículo de Arthur Porges titulado A Set of Eight Numbers (Un conjunto de ocho números).

Teorema: Si para cada número natural se considera la sucesión de números formada por los resultados del algoritmo “sumar los cuadrados de sus dígitos” considerado de forma iterada a partir de dicho número, esta se estacionará en el número 1 o entrará en el ciclo infinito formado por los ocho números 89, 145, 42, 20, 4, 16, 37 y 58.

Números felices en la espiral de Ulam. La espiral de Ulam es una estructura geométrica plana, de tipo reticular, en la que los números naturales son escritos en espiral, empezando en el 1 y en el sentido contrario a las agujas del reloj, destacando los números primos (en este caso, los números felices), de tamaño 32 x 32, 1.024 celdas

 

Otra curiosa propiedad del algoritmo “sumar los cuadrados de sus dígitos” es que para cualquier número natural n siempre existe otro número natural m tal que el resultado de aplicar el algoritmo “sumar los cuadrados de sus dígitos” a m nos genera n. Esto es muy fácil de demostrar puesto que, en particular, podemos tomar m igual al número formado por n unos (111…111), que trivialmente nos da n al aplicarle el algoritmo.

¿Cuántos números felices hay?

Lo primero que nos podríamos plantear es si existe un número infinito de números felices. La respuesta es trivialmente afirmativa, ya que es muy fácil construir familias infinitas de números felices, sin más que añadir ceros a un número que es feliz. Por ejemplo, el 1 es feliz, así como los números 10, 100, 1.000, 10.000, 100.000, …, en general, 10n es un número feliz para cualquier número natural n, que es una familia infinita.

La siguiente cuestión relacionada con esta pregunta es la densidad de números felices dentro de los naturales, es decir, cuál es el porcentaje de números felices dentro de los números naturales. Si miramos la anterior lista de números felices, hay 20 dentro de los 100 primeros, luego un porcentaje del 0,2. Si continuamos con los números felices menores, o iguales, que las potencias de 10, tenemos que hay 143 dentro de los 1.000 primeros (un porcentaje del 0,143); 1.442 dentro de los 10.000 primeros (un porcentaje del 0,1442); 14.377 dentro de los 100.000 primeros (un porcentaje del 0,14377); 143.071 dentro de los 1.000.000 primeros (un porcentaje del 0,143071); y así podemos continuar con los primeros datos, que aparecen en la siguiente tabla.

La lista de los porcentajes para números menores, o iguales, que las potencias de 10 (lo que podríamos denominar densidad relativa) empieza con las siguientes cantidades:

1; 0,3; 0,2; 0,143; 0,1442; 0,14377; 0,143071; 0,1418854; 0,14255667; 0,145674808; 0,1492609148; 0,15091199357; 0,149121303586; 0,1443278000870; 0,13770853279685; 0,130660965862333; 0,1245219117260664; 0,12024696404768025; 0,118226055080025491; 0,1183229962059381238; 0,12005034444292997294; etc…

que, salvo las primeras, está en un rango entre 0,118 y 0,151. Richard Guy mencionaba en su libro Unsolved Problems in Number Theory que “parece que 1/7 de los números naturales es feliz” (1 de cada 7), sin embargo, no parece que esto sea realmente así, no existe una densidad “límite”. De hecho, en el artículo On the density of happy numbers, del matemático estadounidense Justin Gilmer, publicado en la revista Integers (2013), se muestra un gráfico (véase la siguiente imagen) en el que se muestra cómo el porcentaje de números felices crece y decrece sin confluir a una cantidad fija.

Densidad relativa de números felices menores que 10n

De hecho, Gilmer demuestra que la densidad superior está por encima de 0,18577 y la densidad inferior por debajo de 0,1138.

Números felices consecutivos

Si se mira la lista anterior de los números felices menores que 200, se puede observar que existen algunos números felices consecutivos, como 31-32, 129-130 y 192-193, de hecho, existen infinitas parejas de números felices consecutivos. En el libro La gran familia de los números se incluye una actividad relacionada con esto mismo, que ya apareció en el libro Desafíos Matemáticos, propuestos por la Real Sociedad Matemática Española (SM-RSME, 2012), el siguiente sencillo y divertido desafío, que dejo aquí para vuestra diversión.

Problema: Encontrar infinitas parejas de números felices consecutivos.

Si se continuan buscando cadenas de números felices consecutivos se descubrirá que el primer trío es el formado por los números 1.880, 1.881 y 1.882, los tres números felices, como puede comprobarse; el primer cuarteto es el formado por los números 7.839, 7.840, 7.841 y 7.842; mientras que el primer quinteto de números felices consecutivos es el formado por los números 44.488, 44.489, 44.490, 44.491 y 44.492, que aparecen citados por Richard Guy en su libro Unsolved Problems in Number Theory, quien se cuestiona además si existen cadenas de números felices consecutivos de cualquier longitud.

Los matemáticos saudíes Esam El-Sedy y Samir Siksek demostraron, en su artículo On happy numbers, publicado en la revista Rocky Mountain Journal of Mathematics (2000), que la respuesta es afirmativa, es decir, existen cadenas de números felices consecutivos de cualquier longitud.

Una reflexión final

Vamos a terminar aquí esta entrada del Cuaderno de Cultura Científica, aunque podríamos haber continuado por dos caminos distintos. El primero hablando de números felices que además satisfacen otras propiedades matemáticas, como ser primos, cuadrados, triangulares, capicúas, de Fibonacci u otras propiedades.

Por ejemplo, los números felices primos menores que 500 son: 7, 13, 19, 23, 31, 79, 97, 103, 109, 139, 167, 193, 239, 263, 293, 313, 331, 367, 379, 383, 397, 409 y 487, sucesión que aparece mencionada en el episodio titulado 42 (el séptimo de la tercera etapa) de la serie británica Doctor Who, emitido en 2017, donde se necesita introducir un número para abrir una puerta, que es el siguiente a la sucesión 313, 331, 367… (véase la siguiente imagen) y la respuesta es 379, que es el siguiente número feliz primo.

Fotograma del episodio 42 de la serie británica Doctor Who

Mientras que el segundo camino, interesante también, hablando de que la felicidad de los números depende de la base de numeración en la que estén representados (hasta ahora nosotros hemos trabajado en la base natural, la base 10) y no es una característica del propio número. Por ejemplo, el número 160 que no es feliz en la base 10, sí lo es en base 6. Como 160 = 4  36 + 2  6 + 4  1, se representa en dicha base como 424, que al hacer la suma de sus dígitos al cuadrado sale 10 (36 en base decimal) y repitiendo la operación queda 1. El número 5, que no era feliz en base 10, tampoco lo es en base 6, ya que la sucesión asociada, expresada en la base 6, es 5, 41, 25, 45, 105, 42, 32, 21, 5, produciéndose un bucle infinito, que es el único que existe para esta base. O el 7, que es un número feliz en base decimal, no lo es en base senaria, ya que cae en el ciclo del 5.

Bibliografía

1.- Ibáñez, La gran familia de los números, Libros de la Catarata, 2021.

2.- Página web: Numbers Aplenty.

3.- Richard Guy, Unsolved problems in number theory, Springer-Verlag, Berlin, 1994.

4.- Arthur Porges, A Set of Eight Numbers, American Mathematical Monthly 52, p. 379-382, 1945.

5.- Justin Gilmer, On the density of happy numbers, Integers, vol, 13, n. 2, pp. 689-713, 2013.

6.- Esam El-Sedy y Samir Siksek, On happy numbers, Rocky Mountain Journal of Mathematics, vol. 30, n.2, pp. 565-570, 2000.

7.- R. Ibáñez, Números elegantes, en el libro Desafíos Matemáticos, propuestos por la Real Sociedad Matemática Española (coordinado por A. Quirós), SM-RSME, 2012.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Números felices para siempre se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La temperatura en el límite entre el núcleo interno sólido y el núcleo externo líquido de la Tierra

Mar, 2025/01/07 - 11:59

En ocasiones, experimentos hechos en un laboratorio, combinados con un poco de lógica nos permiten tener una idea bastante aproximada de lo que ocurre en lugares inaccesibles para el ser humano y su tecnología. Como el interior del núcleo de la Tierra. Al medir la temperatura de fusión del hierro sometido a una alta presión transitoria, un equipo de investigación ha establecido un valor máximo a la temperatura en el límite entre los núcleos interno y externo.

Fuente: capasdelatierra.org

Para comprender el funcionamiento de la dinamo de la Tierra y otros procesos internos del planeta es necesario saber cómo se comporta el hierro (el componente principal del núcleo de la Tierra) bajo altas presiones y temperaturas. Sucesivos estudios han permitido obtener partes del diagrama de fases de presión y temperatura para el hierro utilizando una combinación de teoría y experimentación, pero como las condiciones más extremas solo se pueden producir en el laboratorio de manera fugaz (si es que se pueden producir), aún quedan grandes lagunas e incertidumbres.

Ahora, Sofia Balugani, del Centro Europeo de Radiación Sincrotrón (Francia), y sus colegas han sometido una muestra de hierro puro a una presión de 270 gigapascales (GPa), cerca de los 330 GPa que se encuentran en el límite del núcleo interno de la Tierra, y han medido su temperatura a medida que se fundía. Dado que el hierro del núcleo está mezclado con níquel y otros elementos que reducen su punto de fusión, el resultado establece un límite superior para la temperatura en el límite entre el núcleo interno sólido y el núcleo externo líquido.

Fuente: S. Balugani et al. (2024)

Los investigadores suelen producir presiones estáticas de cientos de gigapascales utilizando celdas de yunque de diamante. Sin embargo, combinar estas presiones con altas temperaturas requiere un enfoque dinámico. En estudios anteriores los investigadores comprimieron las muestras aplicándoles pulsos láser breves e intensos mientras caracterizaban su estructura mediante difracción de rayos X. Balugani y sus colegas también utilizaron compresión láser, pero la combinaron con espectroscopia de absorción de rayos X, una técnica que es sensible tanto a la estructura como a la temperatura.

La muestra comenzó a fundirse sometida a 240 GPa a 5345 K. Extrapolando, los investigadores dedujeron que la temperatura en el límite del núcleo interno no debe ser mayor que 6202 K. También descartaron una transición cristalina (de empaquetamiento compacto hexagonal a cúbico centrado en el cuerpo) que se había predicho que ocurriría cerca de esa temperatura.

Referencias:

S. Balugani et al. (2024) New constraints on the melting temperature and phase stability of shocked iron up to 270 GPa probed by ultrafast x-ray absorption spectroscopy Phys. Rev. Lett. doi: 10.1103/PhysRevLett.133.254101

M. Stephens (2024) Taking the Temperature of Earth’s Core Physics 17, s139

 

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo La temperatura en el límite entre el núcleo interno sólido y el núcleo externo líquido de la Tierra se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿Cuál es la verdadera edad de la Luna?

Lun, 2025/01/06 - 11:59

Damos por hecho que, aparte de la Tierra, la historia geológica de la Luna es la que mejor conocemos. Al fin y al cabo, puesto que es el objeto astronómico más cercano a la Tierra ha facilitado que también sea el más visitado ya no solo por misiones robóticas, sino también por el propio ser humano. Y al mismo tiempo es también uno de los pocos de los que hemos podido traer muestras de su superficie de vuelta a nuestro planeta, algo fundamental para poder estudiarlas en los mejores laboratorios y exprimir los párrafos de su historia escritos en sus rocas.

A pesar de esta mayor facilidad para estudiar la Luna en comparación con otros cuerpos astronómicos, existe una discrepancia en los distintos cálculos de su edad, que abarcan más de 150 millones de años entre unas dataciones y otras, y que es francamente difícil de explicar. Y no, no tiene nada que ver con que las dataciones de las rocas estén mejor o peor hechas, sino de que quizás la historia geológica de nuestro satélite haya sido más turbulenta de lo que pensábamos. Y un nuevo estudio publicado en Nature por Nimmo et al. (2024) parece dar una explicación a esta discrepancia. Pero antes, empecemos por el nacimiento de la Luna…

edad de la LunaLa superficie de la Luna vista desde la misión Apolo 17. En esta imagen podemos ver el fuerte contraste en color entre los “mares” lunares, de color gris oscuro, y las tierras altas, con unos tonos mucho más claros y cubiertas de cráteres. Cortesía de NASA/JSC.

La teoría más aceptada sobre el origen de nuestro satélite es la “teoría del gran impacto”, en la cual, durante la infancia de nuestro sistema solar, un objeto del tamaño aproximado al de Marte -y que conocemos como Tea- chocó con nuestro planeta. Este impacto lanzó al espacio una gran cantidad de material a la órbita de la Tierra y, parte de esa materia, iría uniéndose hasta formar nuestra Luna.

Esta teoría explica algunas características de nuestra Luna, como una menor densidad de la Luna -en comparación con la Tierra- y la similitud entre las proporciones isotópicas entre las rocas lunares y terrestres, lo que indicaría un origen “común” para la mayor parte de los materiales. Pero, ¿Cuándo ocurrió realmente este impacto? ¿Fue muy pronto o quizás un poco más tarde?

Para conocer la edad de la Luna, los científicos se basan en la datación radiométrica de las muestras lunares y de los meteoritos procedentes de esta. Esta técnica se basa en medir la desintegración de los elementos radioactivos que forman parte de los minerales de las rocas y que, de algún modo, son un reloj natural. Si nada altera -a nivel químico- esos minerales, podemos confiar en que nos den una fecha fiable.

¿Y qué rocas podrían representar la edad de formación de la Luna? Suponemos que nuestro satélite, al igual que nuestro planeta, después de su formación estaba, si no por completo, mayormente en un estado fundido, en lo que conocemos como la etapa del océano de magma, que podría ser una fase común entre los planetas rocosos de nuestro sistema solar.

Conforme este océano fue enfriándose y formando la primera corteza lunar, aparecieron una serie de rocas de tonos muy claros y que en geología conocemos como anortositas. La edad de estas rocas, junto con la de otras similares, indicaban una formación tardía de la Luna, situando su nacimiento en hace aproximadamente 4350 millones de años, casi 200 millones de años después de la propia formación de nuestro sistema solar.

edad de la LunaUna anortosita traída a la Tierra por la misión Apolo 15. A esta roca se la conoce la roca del “Génesis”, porque se pensaba que formaba parte de la corteza original de la Luna, pero resultó ser un poco más joven, de tan solo unos 4100 millones de años. Imagen cortesía de NASA/JSC.

Bien, si la edad de esas rocas es la que es, asunto zanjado. Esa sería la edad de nuestro satélite. Al fin y al cabo, la datación radiométrica es una técnica que conocemos bastante bien y, al mismo tiempo, bastante precisa. Pero no vayamos tan rápido porque hay un pero.

Hay un mineral muy resistente -y a veces diminuto- que aparece dentro de algunas rocas lunares y que nos cuenta una historia un tanto diferente: los circones. Estos minerales, gracias a su resistencia a la meteorización y a la temperatura, pueden guardar el registro de su formación, incluso aunque sufran grandes eventos geológicos, hasta cierto límite. Y es precisamente en estos donde aparece la discordia: algunos de los circones tienen una fecha de unos 4510 millones de años… y para que estén ahí la Luna ya tenía que haberse formado o, al menos, parte de esta haberse enfriado lo suficiente para que los minerales se hubiesen podido formar a partir del magma.

¿Cómo es posible resolver esta discrepancia? Porque está claro que la Luna no puede haber cambiado su partida de nacimiento. Aquí es donde los autores del artículo explican cómo es posible que se hayan calculado dos edades diferentes, pero solo una apunte al verdadero nacimiento de nuestro satélite.

Viajemos de nuevo al pasado, hasta hace unos 4350 millones de años aproximadamente. En este momento, nuestra Luna estaba experimentando un fenómeno que conocemos “calentamiento de mareas”, un proceso fruto de la interacción gravitatoria entre dos o más cuerpos.

Para comprender mejor como es este fenómeno, pensemos en la órbita de la Luna: Aunque nos parezca un círculo perfecto, no es así, sino que es ligeramente elíptica, de tal manera que, al recorrer la órbita, la distancia entre la Tierra y la Luna va cambiando y, por lo tanto, la atracción gravitatoria que ejerce nuestro planeta sobre ella.

Básicamente, es como si estrujásemos y dejásemos de estrujar una pelota antiestrés. Solo que con este ciclo repetido en el que la Luna se ve obligada a cambiar de forma, se generan unas enormes fricciones en las rocas de su interior que acaban transformándose en calor, algo similar a lo que ocurre en Ío, el satélite de Júpiter.

En este momento, el gran calentamiento de mareas que estaba sufriendo la Luna, habría sido suficiente para crear un importante porcentaje de volumen de roca fundido en su interior, que continuamente ascendía hasta la corteza, calentando las rocas ya frías de la corteza y reiniciando el reloj -en este caso los relojes radioactivos que nos permiten datar las rocas- de muchas de las rocas de la Luna, haciendo pasar las rocas por más jóvenes.

Esto explicaría por qué encontramos tantas rocas con una edad de alrededor de 4350 millones de años, y que los científicos de este estudio interpretan no como la edad de formación de la Luna, sino el momento en el que la Luna sufrió este periodo de gran calentamiento por mareas que alteró los sistemas geoquímicos de algunos minerales, como el de los circones.

edad de la LunaEl astronauta Harrison Schmitt recoge muestras de lo que parece un bloque de roca lanzado por el impacto de un cuerpo contra la superficie de la Luna durante la misión Apolo 17. Imagen cortesía de NASA/JSC.

Esto tiene una consecuencia y es que, si están en lo cierto, la Luna se formó mucho antes y su edad podría coincidir con la de los circones que tienen una edad de alrededor de 4510 millones de años, colocando su “nacimiento” dentro del calendario de nuestro sistema solar en las primeras decenas de millones de años tras la formación de este. Los circones de esta edad serían los minerales relictos de esas primeras rocas que no habrían sufrido un reinicio de su edad como consecuencia del calentamiento.

Aun así, queda mucho trabajo por hacer. Trabajo que probablemente necesite de nuevas muestras lunares, nuevos modelos matemáticos y estudios geológicos que puedan llevar a los científicos a encontrar rocas que hayan sobrevivido a esa vigorosa etapa de la Luna y que nos permita, en definitiva, dar una edad certera para su origen.

Referencias:

Nimmo, Francis, et al. (2024) Tidally Driven Remelting around 4.35 Billion Years Ago Indicates the Moon Is Old Nature doi: 10.1038/s41586-024-08231-0

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo ¿Cuál es la verdadera edad de la Luna? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naturaleza humana con números complejos

Dom, 2025/01/05 - 11:59

La Humanidad ha estudiado su propia naturaleza desde tiempo inmemorial. La Naturaleza Humana es uno de los saberes más complejos y fascinantes para cualquier persona dedicada al pensamiento, sea desde las Humanidades, las Artes, las Ciencias Sociales o las Ciencias Naturales. Los porqués de nuestras formas de pensar, sentir y actuar se han intentado explicar desde nuestra codificación genética, pero resulta evidente que la expresión de nuestros genes depende tanto o más de nuestra interacción con la sociedad en la que vivimos, el ejemplo familiar que observamos al crecer, o la educación que recibimos, en el sentido amplio de la palabra.

A los científicos nos gusta medir los fenómenos naturales. De momento, no parece posible medir la naturaleza humana, pero podemos intentar aportar alguna pequeña idea a este campo.

fasoresFoto: Jake Nackos / UnsplashLa ecuación de onda

Personas dedicadas a la matemática, la física y otras ciencias pudieron modelar matemáticamente el fenómeno de las ondas a lo largo de la historia de la ciencia. Resulta que explicar las ondas mecánicas que se observan lanzando una piedra a un estanque o tocando un instrumento musical, permitió en el siglo XVIII establecer una ecuación diferencial en derivadas parciales que describía muy bien las ondas medidas. A mediados del siglo XIX, las ecuaciones del electromagnetismo de J.C. Maxwell incluyeron la predicción de la existencia de ondas electromagnéticas, sorprendentes entidades que nadie había medido aún. Poco después, H. Hertz observó en su laboratorio la existencia real de dichas ondas electromagnéticas que seguían la ecuación de onda que puede deducirse de las ecuaciones de Maxwell.

En 1926, E. Schrödinger postuló su ecuación de onda, cuya solución permite describir el estado cuántico de ciertas partículas, y dos años después P. Dirac propuso la primera ecuación de onda capaz de conjugar la mecánica cuántica con la relatividad especial. Por otro lado, la relatividad general de A. Einstein predijo la existencia de ondas gravitatorias, que se lograron medir directamente en septiembre de 2015, a través del experimento internacional LIGO, quizás el más emocionante de los desarrollados en el primer cuarto del siglo XXI.

Fasores

En su época de Berlín en 1748, L. Euler publicó una de sus más importantes obras: “Introductio in analysin infinitorum”. De entre sus numerosísimas aportaciones al análisis matemático, nos centramos aquí en el capítulo VIII “De quantitatibus transcendentibus ex Circulo ortis”, en donde Euler extrae casi mágicamente “cantidades transcendentales” del Círculo. Nos referimos aquí a la exponencial compleja, quizás la fórmula más famosa y útil para todas las ciencias e ingenierías. Además, expresada en el caso particular para el ángulo llano, estamos ante la ecuación más bella de las de Euler: eiπ+1=0.

Usando la fórmula de Euler para cualquier ángulo en un círculo, podemos expresar gráficamente los números complejos a través de vectores de fase. Componiendo ambos lexemas, a esas entidades las llamamos Fasores. Todas las ecuaciones de onda se benefician de los números complejos y de la exponencial compleja de Euler, para poder caracterizar las magnitudes que definen las ondas, como la amplitud, la frecuencia y en el caso que ahora nos ocupa, la fase.

Conflicto de visiones

En su blog “Lecturas y Conjeturas” J.I. Pérez Iglesias publicó en mayo de 2024 una excelente y muy ilustrativa reseña [1] sobre las visiones humanas en conflicto que el economista Thomas Sowell describía en su interesantísimo libro [2]. Este estudio de la naturaleza humana trata de describir las diferencias ideológicas de las personas. Se trata de un problema muy complejo pero apasionante, para discutir las razones de las diferencias de lo que llamamos “progresismo” o “conservadurismo”, “izquierda” o “derecha”, “social” o “individual”. Sowell presenta unas bases muy convincentes del fondo de esta cuestión.

Aunque las explicaciones de Sowell pueden ser incompletas, y no se trata de un teorema matemático, su tratamiento científico de la naturaleza humana es brillante, y nos permite concebir una cierta posibilidad de clasificar la ideología humana e incluso podemos intentar explicar algunas de nuestras propias contradicciones.

Escala de naturaleza humana

No sabemos aún medir la naturaleza humana, pero sí podemos establecer una posible escala de medida usando algunas de las ideas de Sowell. Si tomamos el plano complejo con el círculo de Euler y lo reorientamos, podemos hacer coherentes las indicaciones de un simple fasor con nuestro lenguaje ordinario al describir las ideologías humanas.

En la Figura ilustramos una manera de ordenar el conflicto de visiones, junto con alguna terminología más clara del psicólogo Steven Pinker, que prefiere utilizar la visión “Trágica” vs la visión “Utópica” en lugar de la denominación menos ilustrativa de Sowell (“Restringida” vs “No restringida”).

Si partimos del extremo superior de la ilustración (medida 0º), estamos en una ideología central, moderada y humanista, conscientes de que nuestra sociedad requiere cierto mercado y una imposición. Si somos partidarios de que el mercado se liberalice y nos bajen los impuestos, nos alejamos por la derecha (medida >0º). En caso contrario, si queremos que el mercado se regule más y creemos en los impuestos, nos vamos por la izquierda (medida <0º).

Claramente, a +90º tenemos visión Trágica, lo que llamamos conservadora, de derecha o de visión individual. A -90º nuestra visión es Utópica, lo que denominamos progresista, de izquierda o de visión social.

Si recorremos más allá la medida hacia la parte inferior de la ilustración y nos acercamos a los +180º o a los -180º, somos extremistas. Desaparece nuestro carácter Trágico o Utópico, y somos de la misma ideología: autoritaria, violenta, irracional y antidemocrática. La fórmula de Euler nos indica que, a todos los efectos, en un oscilador la fase +180º o -180º (+π, -π) es idéntica.

fasoresPosible escala de visiones humanas. Nótese que la flecha indicadora de este “naturalezómetro humano” es un vector de fase (fasor)

 

No tenemos un instrumento para medir exactamente la naturaleza de una persona, pero aun con cierto nivel de ruido en nuestra propia medida, si somos sinceros con nosotros mismos, el nivel señal/ruido de nuestro medidor puede ser suficiente como para podernos colocar en un cierto sector del círculo.

Si simpatizamos con una tendencia ideológica, podemos criticar fuertemente el extremismo contrario, pero a veces justificamos o comprendemos el extremo propio. Esta es una contradicción humana muy común, pero recordemos que ambas visiones, si son extremas, no están en conflicto: son la misma.

Referencias

[1] Juan Ignacio Pérez Iglesias (2024) Dos visiones en conflicto de la naturaleza humana. Substack.

[2] Thomas Sowell (2007) A conflict of visions. Basic Books ISBN: 978-0465004669

Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)

El artículo Naturaleza humana con números complejos se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Naukas Bilbao 2024: El verdadero valor de un traje espacial

Sáb, 2025/01/04 - 11:59

La decimocuarta edición del mayor evento de divulgación científica volvió al Palacio Euskalduna de Bilbao durante los días 19, 20, 21 y 22 de septiembre de 2024.

traje espacial

La doctora en biología molecular del cáncer Sara García Alonso consiguió la fama mediática al ser seleccionada como astronauta de reserva por la ESA. En Naukas Bilbao 2024 algunos descubrimos, además, que es una fantástica comunicadora científica. En El verdadero valor de un traje espacial explica la importancia de la investigación y desarrollo tecnológico espaciales.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2024: El verdadero valor de un traje espacial se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿Dónde están las calzadas romanas que impulsaron la civilización mediterránea?

Vie, 2025/01/03 - 11:59
calzadasPuente de Alcántara, Cáceres (España). Fuente: Estevoaei/Shutterstock, CC BY-SA

 

En el colegio se nos decía en clase de historia que la mayor aportación que había dejado la civilización romana en la península ibérica había sido su red de carreteras, un tejido de comunicaciones que permitió el desarrollo de la civilización mediterránea.

Un mapa de Europa, Oriente Próximo y norte de África en el que se ve la red de calzadas romanas.El imperio romano en tiempos de Adriano (117-138), con la red de las principales calzadas romanas. Fuente: DS28/Wikimedia Commons, CC BY-SA

A pesar de ello, la mayor parte de aquellas han desaparecido o han sido profundamente alteradas. Pero no todo está perdido. Algunos estudios recientes han impulsado su conocimiento y se han descubierto nuevos tramos.

Solo se conserva un 10 % de las calzadas

Un nuevo estudio de la Universidad de Copenhague ha demostrado que los lugares con una mayor densidad de calzadas romanas poseen una mayor actividad económica actual. Esto se debe a que la perduración de dichas infraestructuras incentivó el surgimiento de las ciudades de mercado medievales, siendo éstas el origen de la mayor parte de las ciudades modernas europeas.

A pesar de la importancia que han tenido, no han sido tratadas como elementos patrimoniales de relevancia y se conservan pocos kilómetros de ellas. Isaac Moreno, ingeniero e historiador galardonado con la medalla Frontino por sus investigaciones sobre ingeniería romana, ha constatado que solo se conservan en torno a un 10 % de las mismas.

Por una parte, existen caminos que no siendo romanos han sido señalizados como tales por algunas administraciones. La razón es que se ha denominado calzada romana o puente romano a las calzadas y puentes de piedra, aunque no fueran de ese origen. Es cierto que la piedra fue un material importante en las construcciones romanas, pero para que una estructura sea considerada “romana”, las técnicas y métodos de construcción empleados en ella deben ser romanos también.

Por otra parte, los caminos verdaderamente romanos han sufrido la aceleración de su destrucción durante los últimos cien años debido a la ejecución de obras modernas. Dichas acciones se han producido por el desconocimiento de la composición de las calzadas romanas y las características de su trazado.

Herramientas usadas para localizar calzadas desconocidas

Las fuentes geográficas históricas que se han utilizado para el estudio de las vías romanas en la península ibérica han sido fundamentalmente los itinerarios romanos. Estos itinerarios han llegado a nuestros días en códices manuscritos medievales.

Los itinerarios romanos son una serie de rutas que discurrían por las calzadas del Imperio y que se describen a partir de las ciudades por las que transcurren, conocidas como estaciones o mansiones. En el caso de algunos itinerarios aparecen también las distancias entre ellas.

Sirva como ejemplo el primer tramo de la ruta entre Asturica (Astorga) y Caesaraugusta (Zaragoza) del Itinerario de Antonino, que pasaba por:

  • Brigeco (?), a 40 m.p. (millas romanas, unos 1 480 metros)
  • Intercatia (?): 20 m.p.
  • Tela (?): 22 m.p.
  • Pintiam (Padilla de Duero): 24 m.p.
  • Raudam (Roa): 11 m.p.
  • Cluniam (Peñalba del Castro): 26 m.p., 16 m.p.

Para saber por dónde iban los itinerarios se necesita conocer la posición de las estaciones por las que pasaban. Y como se ve en las interrogaciones anteriores, hay muchas estaciones de ubicación desconocida. La razón es que las coordenadas geográficas que dan los códices antiguos no son suficientemente precisas.

Además, en algunas rutas existen errores en las distancias y ausencia de estaciones. Esto hace que algunos de estos itinerarios sean interpretados de maneras diferentes por los investigadores, de tal manera que las rutas propuestas por distintos autores para un mismo itinerario pasan por distintas localidades.

Nuevas formas de localizar las calzadas romanas

En el trabajo “Vías romanas en Castilla y León”, dirigido por Isaac Moreno, se realizó un proyecto pionero para la localización de vías romanas en esta comunidad española.

Así, para la interpretación de los itinerarios se realizó un estudio de arqueología apoyado en conocimientos de ingeniería y se analizaron fotos aéreas de la zona en diferentes años y épocas del año para visualizar la huella de las vías bajo los campos. Esto se completó con excavaciones arqueológicas en la propia calzada.

La mayoría de los trabajos dedicados al estudio de las calzadas romanas que han realizado excavaciones arqueológicas se habían centrado en un tramo de una vía. En este caso, el estudio se extendió a una localización geográfica amplia: la submeseta norte.

Gracias a ello ahora conocemos más kilómetros de vías romanas verdaderas y sabemos cuál es la composición y técnica constructiva de la vía.

En los últimos años otros autores han hecho estudios similares para la identificación de tramos de vías romanas en la península ibérica. Entre ellos, cabe destacar los estudios de la Sociedad de Ciencia Aranzadi sobre la carretera romana de Roncesvalles y los realizados sobre la Vía Augusta en Ciudad Real.

Beneficios del conocimiento de la red viaria romana

El conocimiento de los vestigios que nos quedan de este patrimonio de la ingeniería civil permite tenerlos en cuenta en las obras civiles actuales.

En este sentido, en España se ha llevado a cabo una actuación pionera en Europa. En la construcción de la autovía de Soria (Castilla y León) se modificó el proyecto para reducir su afección a la calzada romana que pasa por allí y se acondicionó esta última para poder ser disfrutada por los turistas culturales. Esto permite que los viajeros que se acercan a Soria para visitar la mítica Numancia se den un paseo por una calzada romana auténtica.

Para evitar la destrucción de los escasos kilómetros de vías romanas verdaderas que se conservan sería interesante un estudio similar a los arriba mencionados aplicado al resto de comunidades de España. Y lo que es no menos importante, la defensa por parte de las administraciones públicas de las vías identificadas por el mismo.The Conversation

Sobre las autoras: Jesús María Romera Aguayo, Profesor agregado de la Escuela de Ingeniería, UPV/EHU; Amaia Santamaría León, Profesora Titular de Universidad en Hormigón, UPV/EHU y Marcos Larrauri Gil, Profesor en ingeniería de la construcción, UPV/EHU.

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Dónde están las calzadas romanas que impulsaron la civilización mediterránea? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Páginas