Los polímeros: el material más versátil que existe
¿Te imaginas un material suave como la piel, flexible como un junco y fuerte como el acero? Quizás pensaras que se trata de ciencia ficción, más si te dijera que este material está casi totalmente formado por solo cuatro elementos: carbono, hidrógeno, nitrógeno y oxígeno, con algunas adiciones de cloro, flúor y azufre. Pues no, no es ciencia ficción, de hecho, los utilizas muchas veces todos los días. Se trata de los polímeros, que son imprescindibles para el transporte, las comunicaciones, la producción de energía renovable, el material deportivo, nuestras casas, la ropa, las revistas y libros, la medicina y la conservación de alimentos. En esta entrada os vamos a explicar qué son los polímeros y qué importancia tienen en nuestro presente y futuro.

Veamos cómo con tan pocos elementos, se pueden conseguir materiales con una versatilidad enorme. Si pudiéramos ver el interior de las paredes de un tupper, nos encontraríamos que está constituido por una maraña de hilos parecida a un plato de espagueti. Cada uno de estos hilos sería una cadena de polímero. Las cadenas de polímero están formadas por unidades repetidas, denominadas monómero, y miles de estas unidades se enlazan una detrás de otra, dando lugar a cadenas muy largas. A la reacción o al proceso de unir esas unidades se le denomina polimerización, y la cadena resultante se llama polímero o macromolécula (una molécula muy grande).
Modificando el proceso de polimerización, podemos obtener cadenas lineales, ramificadas o redes tridimensionales obteniendo propiedades mecánicas completamente diferentes.

Por ejemplo, el polietileno (PE), que está únicamente compuesto por carbono e hidrógeno, puede formar cadenas lineales que pueden ordenarse perfectamente y cristalizar, obteniendo un material rígido. Sin embargo, el polietileno ramificado no puede cristalizar, por lo que es blando y ha sido muy utilizado en bolsas de basura.

En vez de hacer las cadenas de polímero independientes, se pueden formar redes tridimensionales con uniones entre diferentes cadenas. Para ello se polimerizan monómeros multifuncionales. Si la red que se forma es abierta, entonces nos encontramos ante un material que se deforma bajo presión, pero que recupera su forma al desaparecer la presión. Estos polímeros se llaman elastómeros y a ellos pertenecen el caucho y la silicona. Si la red que se forma es muy cerrada, tenemos un polímero que no se deforma con la presión, como el polietileno reticulado que se usa en las prótesis de cadera.
Por el contrario, si insertamos un grupo funcional en la red, por ejemplo, un carboxilo que tiene mucha afinidad por el agua, conseguimos el material absorbente que se usa en los pañales. O si insertamos flúor, que repele el agua, conseguimos materiales repelentes como el Gore-Tex. Existe un material que, con solo carbono, hidrógeno, nitrógeno y oxígeno, a igualdad de peso, es más fuerte que el acero. Se trata del Kevlar, que basa sus propiedades en multitud de puentes de hidrógeno entre las diferentes cadenas de polímero.
En este momento, con una población que en 50 años se ha duplicado hasta alcanzar los 8.000 MM de personas, los polímeros son imprescindibles para el desarrollo sostenible que es impensable sin energía renovable, sin el ahorro de energía que suponen los vehículos más ligeros, sin la ayuda de los polímeros para tener una agricultura menos dependiente de las condiciones climáticas y para conservar los alimentos producidos, sin las membranas de polímero necesarias para desalinizar el agua de mar y sin la contribución de los polímeros a la salud. Además de estos polímeros que podemos denominar imprescindibles, también se usan polímeros para aplicaciones de un solo uso. La excelente relación calidad/precio ha llevado a sobreutilización de polímeros de un solo uso. Esta sobreutilización y la resistencia de los polímeros a la intemperie, junto con la falta de sistemas de recolecta de residuos sólidos en los países menos desarrollados y la falta de civismo en países desarrollados, dan como resultado su acumulación en el medio ambiente. Esto puede crear serios problemas al medio ambiente, su fauna y a los humanos. Por ello, es necesario reducir la utilización de los polímeros de un solo uso a aquellas aplicaciones que lo justifiquen, y hay que recogerlos y reciclarlos adecuadamente.
Hace 50 años, el Prof. Gonzalo Martín Guzmán, tuvo la visión de crear una Facultad de Química única en España y Europa especializada en polímeros. Esta investigación está hoy agrupada en POLYMAT, donde más de 210 investigadores e investigadoras (de 35 países) desarrollan una investigación de vanguardia en el mundo de los polímeros.

Estos investigadores se centran en lo que hemos llamado polímeros imprescindibles y desarrollan nuevos polímeros con mejores propiedades para poder producir más usando menos material. También investigan alternativas al reciclaje de los polímeros de uso único, responsables de una gran parte del impacto medioambiental. Además, desarrollan polímeros para mejorar la eficacia de las placas solares y de las baterías necesarias para almacenar la energía producida. Por otro lado, conscientes de que los recursos fósiles son limitados, desarrollan métodos para producir polímeros a partir de materias primas renovables o de desechos de polímero. Además, desarrollan métodos para optimizar el funcionamiento de las plantas de desalinización. Por último, en el campo de la salud desarrollan polímeros bioabsorbibles para catéteres, hidrogeles para curado de heridas y dosificación de fármacos a través de la mucosa y andamios poliméricos para la regeneración de cartílago y tendones.

Por lo tanto, el mensaje a recordar es que los polímeros son imprescindibles para el desarrollo sostenible, pero que debemos reducir su uso en aplicaciones no esenciales y en todos los casos recogerlos y reciclarlos. Como los polímeros todavía pueden ofrecer mucho más, los investigadores de la Facultad de Química y POLYMAT seguirán trabajando para dar respuesta a los retos como energía, salud, sostenibilidad y alimentación que plantean los polímeros hoy en día y a futuro.
Autores: Miren Aguirre Arrese, profesora agregada de la Facultad de Química de la UPV/EHU; María Paulis Lumbreras, catedrática de Ingeniería Química en la UPV/EHU y directora del POLYMAT y José M. Asua González, catedrático emérito de Ingeniería Química en la UPV/EHU y fundador de POLYMAT.
La Facultad de Química de la UPV/EHU cumple este año 50 años. Con motivo de este aniversario se han organizado un gran número de actividades festivas, de orientación del alumnado de secundaria, investigación, transferencia y divulgación. Entre estas últimas podemos encontrar “12 meses – 12 temas”, conjunto de actividades que pretende mostrar a la sociedad las temáticas desarrolladas en la Facultad. Entre estas actividades podemos encontrar el ciclo de charlas “50 años difundiendo la química”, en Ernest Lluch Kulturetxea, así como vídeos de divulgación, entrevistas en radio y artículos en los blogs de divulgación de la Cátedra de Cultura Científica. Durante todo el año contaremos con invitados especiales, como los cuatro Centros de Investigación nacidos de la Facultad (CIDETEC, CFM, DIPC y POLYMAT), así como los Premios Nobel Albert Fert y Jean Marie Lehn. Se puede consultar el conjunto de actividades programadas en la página web de nuestro 50 Aniversario.
El artículo Los polímeros: el material más versátil que existe se ha escrito en Cuaderno de Cultura Científica.
La novela que inspiró las máquinas pensantes de Alan Turing
Es imposible, por mucho que algunos se empeñen en lo contrario, entender el desarrollo científico y tecnológico de nuestra especie sin entender el contexto histórico, social y hasta literario cada época. En ocasiones, los crossovers entre ciencia y humanidades que dan lugar a un nuevo descubrimiento son evidentes y otras veces, muy sutiles, pero, casi siempre, son desconocidos.
Una mención casual a una novela en la biografía de una persona, dato al que habitualmente no prestaríamos atención, puede esconder más significado del que se aprecia a simple vista. Y sirvan como ejemplo estas líneas que aparecen en la biografía que Ethel Sara Turing escribió de su hijo, Alan Turing:
En su infancia, Alan no había sido lector de ficción, ya que prefería enciclopedias u obras científicas. Al final de su adolescencia, sí que leyó cierta cantidad de obras de ficción, pero decía que la naturaleza de los títulos le planteaba cierta dificultad a la hora de elegir. Tenía una predilección especial por Los papeles póstumos del Club Pickwick [Charles Dickens], los libros de George Borrow y Erewhon, de Samuel Butler.
A continuación, añade: «Esta última novela, posiblemente, lo llevó a plantearse la posibilidad de construir una auténtica máquina inteligente». Y no tan posiblemente, porque el propio Turing la menciona en alguno de sus artículos. ¿Hasta dónde llegó esa influencia? Eso ya es más complicado de cuantificar, pero tal vez fue más profunda de lo que pensamos.

Erewhon —anagrama de nowhere— es una novela que sigue la tradición utópica y de viajes extraordinarios que tan popular se hizo en el siglo XVIII con aventuras como Los viajes de Gulliver (1726), de Jonathan Swift. Pero tiene una vuelta de tuerca adicional. La obra se gestó tras la publicación de El origen de las especies (1859), de Charles Darwin, que, en un momento dado, llegó a las manos de Samuel Butler —que se vivía en Nueva Zelanda en aquel momento. Este, a modo de reflexión acerca de la teoría de Darwin, envió en 1863 una carta al director del periódico local The Press titulada «Darwin among the machines» en la que planteó la posibilidad de que las máquinas —que cobraban protagonismo a marchas forzadas en la nueva sociedad industrial que se estaba desarrollando— pudieran representar algún tipo de vida mecánica sometida a los dictados de la evolución biológica. Esa idea se convirtió en la primera semilla de su obra.
La utopía de Butler, como muchas otras de la época, es una sátira de la sociedad victoriana a la que él pertenece, tanto en lo referente a sus valores morales como intelectuales y religiosos. Pero lo realmente interesante en lo que concierne a este artículo son los tres capítulos titulados «El libro de las máquinas», que aparecen hacia el final de la novela y que no son más que el desarrollo de las ideas que planteó en su carta al director de 1963. Así, podemos leer reflexiones como: «Pero las máquinas que producen otras máquinas no crean máquinas de su misma especie. Un dedal lo fabrica una máquina, pero no lo fabricó otro dedal y él jamás será capaz de fabricar otro». ¿Estaba sugiriendo, de manera muy sutil, la posibilidad de una máquina universal como la que formalizó luego Alan Turing, en 1936? Ciertamente, a la idea le falta mucho desarrollo, pero ¿es posible que le sirviera de inspiración al matemático?

Y Butler va mucho más allá en sus reflexiones sobre las máquinas, ya que, al tratarlas como seres vivos sujetos a la evolución, advierte de sus posibles peligros, hoy bastante trillados y de los que seguramente todos hemos oído hablar: que nuestra dependencia de ellas nos lleve a perder habilidades —manuales, intelectuales…— y que, a su vez, limiten nuestra creatividad y supriman nuestro sentido crítico; que evolucionen hasta volverse autónomas e inteligentes y acaben sustituyéndonos… No solo eso, plantea ideas tan ciberpunk como que tecnología y seres humanos somos inseparables: «El hombre piensa como piensa, siente como siente por los cambios que las máquinas han provocado, y la existencia de estas es una condición sine qua non para la de él y viceversa» —¿algo que objetar a esta afirmación en la era de internet?—. Y se anticipa, curiosamente, a la miniaturización y a las formas en las que estas máquinas podrían aprender. ¿Hasta qué punto pudo, por tanto, estimular Erewhon, con estos planteamientos, la imaginación, ya desbordante de por sí, del pequeño Alan que la leyó por primera vez?
Porque las menciones a esta obra no vamos a encontrarlas solo en fuentes secundarias, como el testimonio de su madre. «Intelligent machinery, a heretical theory», una conferencia que Alan Turing impartió alrededor de 1951 —apenas tres años antes de morir— y que se publicó como artículo a título póstumo, acaba con el siguiente párrafo:
Supongamos ahora, a modo de argumento, que este tipo de máquinas son una posibilidad real y veamos las consecuencias de construirlas. Hacerlo, por supuesto, se encontraría con una gran oposición, a menos que hayamos avanzado mucho en la tolerancia religiosa desde los días de Galileo. Habría una gran oposición por parte de los intelectuales que temen quedarse sin trabajo. Sin embargo, es probable que estos intelectuales se equivoquen al respecto. Habría mucho por hacer para intentar, por ejemplo, mantener nuestra propia inteligencia a la altura de las normas establecidas para las máquinas, ya que parece probable que una vez el método de pensamiento de estas hubiera comenzado, no tardaría mucho en superar nuestras débiles capacidades. No existiría la posibilidad de que las máquinas murieran, y podrían conversar entre sí para agudizar su ingenio. Por lo tanto, en algún momento deberíamos esperar que asuman el control, tal como se menciona en Erewhom, de Samuel Butler.

Leer este artículo en paralelo al «Libro de las máquinas» es como visitar el mismo mundo reflejado en un espejo: en uno de los lados, se encuentra la visión del científico, en el otro, la del humanista; en un lado, la de la ciencia, en el otro, la de la ficción. Lo que cabría preguntarse ahora es: ¿cuál de los dos es la realidad y cuál el reflejo? Tal vez, y como sugirió Butler, pase como con los seres humanos y la tecnología y, en el fondo, no pueda existir lo uno sin lo otro.
Por cierto… ¿a alguien le suena el concepto de Yihad «butleriana» que aparece en Dune? Bueno, pues ese nombre tampoco es casual.
Bibliografía
Butler, S. (2012 [1872]). Erewhon, o al otro lado de las montañas. Akal.
Turing, A. M. (c. 1951). Intelligent machinery, a heretical theory. The Turing Digital Archive.
Turing, S. (2012 [1859]). Alan M. Turing. Cambridge University Press.
.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo La novela que inspiró las máquinas pensantes de Alan Turing se ha escrito en Cuaderno de Cultura Científica.
ECHO, un cómic áureo
Hace unos años documentándome sobre algunos cómics y novelas gráficas descubrí por casualidad la imagen de la superheroína protagonista de la serie de cómic ECHO (2008-2011), del dibujante y guionista de cómic estadounidense Terry Moore. En la imagen se veía una joven con una especie de traje metálico pegado a su cuerpo y en la parte superior del tórax el símbolo del número de oro, la letra griega Phi, como en la siguiente imagen.

Averigüé un poco más sobre este cómic y terminé comprándome los tres volúmenes (que contienen los 30 números de la serie) publicados en España por Norma Editorial, con la esperanza de que el número áureo tuviera cierta relevancia en la historia, puesto que el símbolo del número de oro era el que identificaba a esta superheroína.
ECHO, de Terry MooreEl autor de esta serie de cómic es el creador de cómics independiente estadounidense Terry Moore (1954), conocido por sus series: Strangers in Paradise (1993-2007), que ha recibido varios premios, como el prestigioso Premio Eisner en 1996, a la mejor serie por entregas y el Premio Reuben, de la National Cartoonists Society, al mejor cómic en 2003; Rachel Rising (2011-2016), que también ha recibido varios premios y nominaciones, el premio al mejor letrista en 2014 y al mejor dibujante en 2015, para su autor, categoría en la que fue nominado en los años 2013, 2014 y 2016, de los Premios Harvey, además, el cómic fue nominado a mejor serie nueva en 2012, y mejor serie continua en 2012 y 2013, así mismo fue nominada a los Premios Eisner, en las categorías de mejor serie continua, en 2012, mejor guionista/artista, en 2012 y 2014, y mejor dibujante, en 2014; o la serie Motor Girl (2016-2017).

La serie de cómics ECHO, de Terry Moore, se publicó en el sello editorial Abstract Studio, sello creado en 1994 por el propio Terry Moore para publicar sus cómics, desde varios de los volúmenes de Strangers in Paradise, así como ECHO, Rachel Rising, Motor Girl o las más recientes Five Years (2019) y Parker Girls (2023).
ECHO ganó el Premio Harvey a la mejor serie nueva, en 2009, así como el Premio Shel Dorf al mejor cómic autopublicado del año, en 2011. Además, fue nominado en las categorías de mejor serie continua y mejor guionista/artista de los Premios Eisner de 2011.

Como hemos mencionado más arriba, esta serie se compone de 30 números, agrupados en seis volúmenes de 5 números cada uno, aunque en España Norma Editorial lo publicó en tres partes (cuyas portadas vemos en la anterior imagen).
Expliquemos de qué va el cómic. La protagonista es Julie Martin, una fotógrafa en un momento difícil de su vida: bancarrota, a punto de divorciarse y su hermana hospitalizada. Un día, mientras trabaja en una sesión de fotos en el desierto, un objeto extraño cae del cielo y se adhiere a su pecho. Este objeto resulta ser una armadura experimental con tecnología avanzada. Entonces su vida cambia por completo. La armadura, que tiene pegada a su cuerpo y no se puede quitar, le otorga habilidades especiales, pero también la convierte en el objetivo de quienes quieren recuperarla, el ejercito de los Estados Unidos y la Agencia Nacional de Seguridad. Además, un misterioso vagabundo que se cree la reencarnación de Dios quiere destruirla. Julie se ve envuelta en una peligrosa persecución, en la que contará con el apoyo de un guarda forestal, Dillon Murphy, mientras intenta descubrir los secretos de la armadura y proteger a sus seres queridos.
El proyecto PHIEn el número 17 del cómic ECHO, perteneciente al volumen 4, titulado Collider, se desvela el motivo por el cual el traje/armadura que Julie tiene pegado al cuerpo tiene la letra griega Phi.
El compañero de aventuras de Julie, Dillon Murphy, que resulta que era el novio de Annie Trotter, la matemática responsable de la creación del traje experimental y su anterior propietaria hasta que muere tras un accidente realizando unas pruebas y el traje acaba accidentalmente en el cuerpo de Julie, junto con otro de los personajes del cómic que ayuda a Julie y Dillon en su búsqueda de respuestas, el barman y motero Dan Backer, quedan para hablar con un científico (Dr. Dumfries) del Instituto Nuclear Heitzer que trabajaba con Annie, con el objetivo de obtener información sobre la armadura experimental y sobre lo que está ocurriendo.
Este científico les explica qué es el Proyecto Phi en el que estaban trabajando en el Instituto Nuclear Heitzer y que dio lugar a tan poderoso traje, un arma con poder suficiente para destruir la Tierra. Les cuenta que todo empezó cuando el instituto contrató a la joven Annie Trotter por su extraordinaria tesis doctoral, sobre la cual acabó cimentándose el Proyecto Phi. Según Annie el sistema de numeración decimal no era el más adecuado para la investigación de temas extremadamente complejos, como los que supuestamente se desarrollaban en el Instituto Nuclear Heitzer, puesto que es un sistema de numeración muy ligado al ser humano, creado a su imagen y semejanza, al basarse en que los humanos tenemos diez dedos en las manos, las cuales fueron nuestra primera calculadora.

En las dos últimas viñetas de la anterior imagen podemos leer lo siguiente:
Básicamente, lo que ella [Annie] decía era que las matemáticas de base 10 eran una aproximación cuyas inexactitudes culminaban en los callejones sin salida de las matemáticas más elaboradas.
Sí, parece una locura, ¿verdad? Pero pensadlo bien … las secuencias de base 10 se desarrollaron en la edad prehistórica. Quiero decir, ¡hemos intentado aplastar un quark con el hueso de Lebombo!
Según la teoría de Annie, “si quieres comprender los mecanismos del universo, debes dejar atrás los mecanismos de la humanidad. Incluyendo la base 10”. Y su solución fue utilizar el sistema de numeración en base Phi (el número áureo), un sistema que, según ella, era más universal que el decimal y más apropiado para las complejas investigaciones que estaban desarrollando en el instituto.
Pero ya volveremos sobre ello, primero veamos qué es eso del hueso de Lebombo y qué pinta en esta historia.
El hueso de LebomboEl hueso de Lebombo es un trozo de peroné de un babuino, de unos 7,5 centímetros de largo, que se encontró en las montañas de Lebombo, en la frontera entre Suazilandia y Sudáfrica, con 29 muescas o marcas rectas utilizadas para contar, y que tendría entre 41.000 y 43.000 años (según la datación por radiocarbono). Es difícil tener la certeza del significado de esas 29 muescas, pero se cree que podrían representar la fase de la luna, que es de 29 días y 12 horas, luego podría haber sido una especie de calendario lunar, aunque también cabe la posibilidad de que fuese un registro del ciclo de menstruación de una mujer.

En el comic se utiliza el hueso de Lebombo para explicar que el sistema de numeración decimal es muy antiguo, que viene de la prehistoria, y que quizás habría que cambiarlo por un sistema de numeración más actual y moderno, que en el cómic va a ser el sistema de numeración en base el número áureo. Lo curioso es que el hueso de Lebombo está formado por una serie de muescas, en concreto 29 muescas, pero no es un ejemplo de sistema de numeración decimal, sino de los primeros registros numéricos que se han conservado (que podríamos decir que es un sistema de numeración básico en base uno, ya que simplemente se traza una muesca -con valor de uno- veintinueve veces).
Por otra parte, en la imagen del hombre prehistórico sujetando un hueso (en la viñeta comentada), este se parece más al hueso de Ishango, aunque el tamaño tampoco se corresponde, ya que el hueso de verdad este tiene unos 10 centímetros de largo. Es una pequeña licencia artística, lo mismo que utilizar el hueso de Lebombo para ilustrar que el sistema decimal es muy antiguo.
El hueso de Ishango es también un trozo de peroné de un babuino, que se encontró en el territorio que era el Congo Belga, en concreto, en Ishango, en la frontera entre Ruanda y la República Democrática del Congo, cerca del nacimiento del río Nilo. Este hueso también consta de una serie de muescas, pero agrupadas en varios grupos de diferentes cantidades de muescas.

En las siguientes dos páginas se explica la importancia y universalidad del número de oro, que justificaría la utilización de ese número como base de un sistema de numeración adecuado a la “investigación revolucionaria” que pretenden desarrollar en el Instituto Nuclear Heitzer.
A continuación, recordemos qué es el número de oro, del cual ya hemos hablado en el Cuaderno de Cultura Científica en algunas entradas como Visitad los museos, también en clave matemática, ¿Es áureo el Aston Martin de James Bond? ó Crímenes áureos.
La proporción áurea es un concepto matemático muy antiguo, que ya fue estudiado, al menos, por los griegos, en particular, por los pitagóricos. La definición de esta proporción aparece recogida en el gran texto matemático Los Elementos de Euclides (aprox. 325-265 a.c.). Y dice así:
Se dice que un segmento de recta está dividido en extrema y media razón cuando la longitud del segmento total es a la parte mayor, como la de esta parte mayor es a la menor.
Es decir, si tenemos un segmento como el que aparece en la siguiente imagen, buscamos el punto del mismo que divide al segmento en dos partes, de longitudes a y b, de forma que la proporción o razón (división) entre la parte mayor y la menor, a/b es igual a la proporción entre la longitud del segmento y la parte mayor (a + b)/a.
Ahora, si llamamos Phi (Φ) al cociente a/b, la condición anterior se puede escribir como la ecuación algebraica siguiente:
Esta es una ecuación algebraica de segundo grado, cuyas soluciones, sin más que utilizar la conocida fórmula de resolución de la ecuación de segundo grado que estudiamos en el instituto, son:
De estas dos raíces de la ecuación de segundo grado, la proporción buscada (Phi) es la primera, puesto que se corresponde con el caso en el que a es mayor que b, como se considera en la definición, mientras que la otra solución es su inversa ya que se corresponde con el caso en el que el numerador es más pequeño que el denominador, es decir, b/a, la inversa de Phi. Ahora, si tenemos en cuenta quienes son Phi (Φ) y su inversa en la expresión de la definición de esta razón se tiene la siguiente igualdad:
Al número Phi, cuyos primeros dígitos son
1, 61803398874989484820458683436563811772030917…,
se le conoce con varios nombres: “extrema y media razón” (como se le denomina en Los Elementos de Euclides), “divina proporción” (nombre que le dio el matemático italiano Luca Paccioli (aprox. 1447-1517) en su libro Divina proportione (1509)), “proporción áurea”, “sección áurea” (el matemático alemán Martin Ohm (1792-1872) fue el primero en utilizar el término “sección áurea o dorada” en la segunda edición de su libro de texto Die reine Elementar-Mathematik / Matemáticas puras elementales (1835)), “número áureo”, “número de oro” o “Phi” (el físico e inventor Mark Barr (1871-1950) fue quien introdujo el símbolo Phi (Φ) para referirse a este número, ya que era la primera letra griega del nombre del escultor, pintor y arquitecto griego Fidias (aprox. 500-431 a.n.e.), responsable de supervisar la reconstrucción de la Acrópolis de Atenas, en la que está el Partenón, y realizó algunas de las esculturas de este último, como la estatua de la diosa Atenea, quien según algunos autores utilizaba la extrema y media razón para el diseño de sus esculturas). Aunque en muchos textos se afirme que algunos de estos nombres son antiguos, esto no es así, como se ha comentado, salvo en el caso del nombre griego “extrema y media razón”.
El rectángulo áureoA partir de la definición del número de oro como extrema y media razón de un segmento recto, es decir, como una proporción, surge de manera natural el concepto de rectángulo áureo. Se dice que un rectángulo es áureo si la proporción a/b entre su alto, a, y su ancho, b, es precisamente la divina proporción Phi = 1,618…

Es una creencia muy difundida que el rectángulo áureo es el más bello, o el más placentero estéticamente, entre todos los posibles rectángulos. Por citar uno de los muchísimos ejemplos que existen, en el libro Mathematical Concepts, A Historical Approach / Conceptos matemáticos, una aproximación histórica (1967), de la matemática estadounidense Margaret Willerding (1919-2003), se escribe lo siguiente.
El rectángulo áureo fue utilizado por los arquitectos griegos en las dimensiones de sus templos y otros edificios. Los psicólogos han demostrado que la mayoría de la gente elige inconscientemente tarjetas postales, fotos, espejos y paquetes con estas dimensiones. Por alguna razón, el rectángulo áureo es el que más atractivo artístico tiene.
Esta idea de que el rectángulo áureo es el que nos parece más hermoso viene del experimento realizado en la década de 1860 por el físico, filósofo y psicólogo alemán Gustav Fechner (1801-1887). El experimento era simple y consistió en lo siguiente. Fechner dispuso diez rectángulos de diferentes proporciones, desde el cuadrado (proporción 1) hasta el rectángulo 2:5 (proporción 2,5), pasando por los rectángulos 3:4 (proporción 1,33), 2:3 (proporción 1,5) o 5:8 (proporción 1,6), como se muestran en la siguiente imagen, y preguntó a diferentes personas cuál de ellos les parecía estéticamente más bonito. Tres de los rectángulos se llevaron el 75% de los votos, en concreto, los de proporciones 1,5 (el 20,6%), 1,6 (el 35%) y 1,77 (20%), mientras que los demás no llegaban al 8%, incluso el rectángulo 5:6 (proporción 1,2) prácticamente no fue elegido.

A partir de ese momento, el rectángulo áureo y, en general, la divina proporción, se convirtieron en símbolo de belleza. Por ejemplo, en la The New Columbia Encyclopedia, en su entrada sobre la sección áurea se afirma que
El rectángulo áureo, cuya longitud y anchura son los segmentos de una línea dividida según la sección áurea, ocupa un lugar importante en la pintura, la escultura y la arquitectura, porque sus proporciones se han considerado durante mucho tiempo las más atractivas a la vista.
Aunque, muchos investigadores modernos han puesto en duda el experimento estadístico de Gustav Fechner, por el uso de tan solo 10 opciones y la disposición de los rectángulos, de forma ordenada, en orden creciente de sus proporciones. En este sentido, un artículo muy interesante que pone en duda algunas de las creencias sobre la sección áurea, entre ellas esta, según la cual, el rectángulo áureo es el rectángulo más agradable desde el punto de vista estético, es Misconceptions about the Golden Ratio / Confusiones sobre la proporción áurea, del matemático George Markowsky. En particular, afirma que tendrían que haberse considerado muchos más rectángulos y distribuidos de una forma aleatoria, por ejemplo, como en la siguiente imagen.

En las últimas décadas se han realizado muchos intentos de reproducir el experimento de Fechner, de manera más rigurosa, por diferentes investigadores, entre ellos psicólogos y matemáticos, algunos con la idea de avalar el trabajo de Fechner, otros para tirarlo por tierra y algunos para ver cuál puede ser la realidad, obteniéndose todo tipo de respuestas. Esto merecería un análisis más profundo, que no voy a realizar en esta entrada. De hecho, hay varias cuestiones interesantes relacionadas, como la metodología del experimento (claramente la de Fechner no fue la adecuada), si la pregunta directa de cuál de los rectángulos es más hermoso no induce a reflexionar sobre ella y a dar una respuesta más racional, y finalmente si el hecho de que durante mucho tiempo se haya dado por bueno que el rectángulo áureo es el más hermoso no condiciona en la actualidad las respuestas. Para leer un poco más sobre el tema podéis consultar el libro de Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, o realizar vuestra propia investigación sobre los estudios realizados.
Dejando aparte estas cuestiones, veamos cómo construir un rectángulo áureo de forma sencilla. Dado un cuadrado (en la imagen el cuadrado ABCD), que podemos considerar de lado 1, es fácil ver, por el teorema de Pitágoras, que el segmento que va desde el punto M que está en la mitad de uno de los lados (el de abajo, AB, en la imagen) a uno de los vértices del lado opuesto (el de arriba a la derecha, C, en la imagen) tiene longitud igual a raíz cuadrada de 5 dividido 2 (√5/2). Si ahora trazamos el arco de circunferencia centrado en M y de radio esa longitud, es decir, que pasa por el punto C, y llamamos E al punto de intersección de la circunferencia con la recta que extiende el segmento AB, entonces el rectángulo creado AEFD es un rectángulo áureo, puesto que el largo es Phi [1/2 + √5/2 = (1 + √5)/2] y el ancho es 1, luego tiene proporción áurea.

Una de las particularidades de esta construcción es que el pequeño rectángulo BEFC añadido al cuadrado ABCD para formar el rectángulo áureo AEFD, también es un rectángulo áureo. Por lo tanto, ese rectángulo áureo BEFC también puede descomponerse en un cuadrado y un pequeño rectángulo áureo, como se muestra en la siguiente imagen. A ese más pequeño rectángulo, que también es áureo, le podríamos descomponer, una vez más, en cuadrado y pequeño rectángulo áureo, y así hasta el infinito.
Volvamos al cómic ECHO para ver cómo aparece el número Phi. Como comentábamos más arriba, Phi es el nombre del proyecto que ha dado lugar a ese traje experimental con tecnología muy avanzada. El motivo del nombre, Proyecto Phi, era que la matemática Annie Trotter se había dado cuenta de que la clave para avanzar en una investigación tan compleja era desechar el sistema de numeración decimal, que es un sistema de numeración muy humano (“si quieres comprender los mecanismos del universo, debes dejar atrás los mecanismos de la humanidad. Incluyendo la base 10”), por un sistema más universal, el sistema de numeración en base Phi (que explicaré en mi siguiente entrada del Cuaderno de Cultura Científica).
Nos habíamos quedado en el punto del cómic en el que se explica la importancia y universalidad del número de oro. En este punto se produce el siguiente diálogo.
[Dr. Dumfries]: Annie recalculó las teorías más importantes usando la base Phi y cambió todo lo que pensábamos que sabíamos de la Física. ¡Tachán!
[Dan Backer]: Phi. ¿1,618, Phi?
[Dr. Dumfries]: ¡Sí! ¡Exactamente!
[Dillon Murphy]: ¿Cómo es que conoces Phi?
[Dan Backer]: Me gusta el Arte.
[Dillon Murphy]: Estoy perdido.
[Dr. Dumfries]: Es muy simple. El Phi lleva por aquí desde el imperio babilonio, por lo menos. Los griegos a los que te referías Dillon… en tiempos antiguos, definieron Phi como el extremo de una línea, y significa proporción.
[Griego 1]: Es un número irracional.
[Griego 2]: Pero es la solución a tu ecuación cuadrática.
Y entonces nos encontramos con las siguientes viñetas.
En la segunda viñeta de la imagen se dice “cuando el ser humano se dio cuenta de este fenómeno, empezó a verlo por todas partes” y mediante dibujos se indica que la divina proporción se encuentra en la Naturaleza, tanto en las plantas en relación con los números de Fibonacci (es cierto que en la Filotaxis, una parte de la Botánica, los números de Fibonacci y el ángulo áureo juegan un papel fundamental, como se puede ver, por ejemplo, en la conferencia El teorema de la Rosa), como en las medidas de los animales o las personas, y además se utiliza en la Música, el Arte, la Arquitectura o el Diseño. Sobre todo esto no hablaremos hoy, aunque pueden leerse las entradas del Cuaderno de Cultura Científica anteriormente citadas o las referencias de la bibliografía.
La estructura del cómicEn la siguiente entrada del Cuaderno de Cultura Científica hablaremos del sistema de numeración en base Phi que se ha mencionado y que era tan importante, en la ficción, para la matemática Annie Trotter y su investigación.
Para terminar esta entrada mostraremos que no solo aparece el número áureo en el contenido del cómic ECHO, sino también en su estructura. Para empezar, cada página del cómic está formada por un rectángulo de viñetas, como es habitual en la mayoría de los cómics, pero en este caso este rectángulo es áureo, como puede verse en la siguiente imagen (en la que hemos tomado el dibujo original de una de las páginas del cómic que Terry Moore tiene colgadas en el blog de la editorial Abstract Studio).

Si nos fijamos bien en el dibujo original, hay diferentes líneas que marcan la estructura del dibujo, una de ellas es la que se corresponde con la descomposición del rectángulo áureo en un cuadrado y un pequeño rectángulo áureo (que a su vez se puede descomponer), que en este caso determina la estructura del dibujo, como se ve en la siguiente imagen.

Pero incluso los diseños de algunas de las viñetas están marcados por el rectángulo áureo y sus descomposiciones. Veamos algunos ejemplos.
Bibliografía
1.- Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, Ariel, 2006.
2.- George Markowsky, Misconceptions about the Golden Ratio, The College Mathematical Journal 23, n. 1, 1992.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo ECHO, un cómic áureo se ha escrito en Cuaderno de Cultura Científica.
Un nuevo estado magnético, el vortión, que imita las sinapsis neuronales
Investigadores de la Universitat Autònoma de Barcelona (UAB) han desarrollado experimentalmente un nuevo estado magnético: el vortión o vórtice magnetoiónico. La investigación permite un nivel de control sin precedentes de las propiedades magnéticas a escala nanométrica y a temperatura ambiente, y abre nuevos horizontes para el desarrollo de dispositivos magnéticos avanzados.
La utilización de grandes cantidades de datos (Big Data) ha multiplicado la demanda energética en las tecnologías de la información. En general, para almacenar la información se utilizan corrientes eléctricas que calientan los dispositivos y disipan energía. Controlar las memorias magnéticas con voltaje, en lugar de corrientes eléctricas, puede minimizar este gasto. Una estrategia para hacerlo podría ser el uso de los materiales magnetoiónicos, que permiten manipulación de sus propiedades magnéticas añadiendo o extrayendo iones mediante cambios en el voltaje aplicado. Sin embargo, hasta ahora, la mayor parte de los estudios en este ámbito se han centrado en capas continuas, no en el control de las propiedades en bits de dimensiones nanométricas, necesarios para almacenar datos con densidad elevada. Por otro lado, es conocido que en la escala sub-micrométrica aparecen fenómenos magnéticos nuevos, que no existen en la escala macroscópica, como los vórtices magnéticos (que recuerdan pequeños remolinos magnéticos), los cuales tienen aplicaciones en el modo como se graban y leen los datos magnéticos actualmente, así como en biomedicina. Modificar el estado vórtice en muestras ya preparadas suele ser imposible o requiere grandes cantidades de energía.
Investigadores del Departamento de Física de la UAB, con la colaboración de científicos del ICMAB-CSIC, del Sincrotrón ALBA y de centros de investigación de Italia y de los Estados Unidos, proponen una nueva solución que combina la magnetoiónica y los vórtices magnéticos. Los investigadores han desarrollado experimentalmente un nuevo estado magnético que han denominado vórtice magnetoiónico, o vortión. El nuevo objeto permite controlar «a la carta» las propiedades magnéticas de un nanopunto (un punto de dimensiones nanométricas) con gran precisión. Esto se logra extrayendo iones de nitrógeno mediante la aplicación de voltaje, lo que permite un control eficiente con un consumo de energía muy bajo.
«Se trata de un objeto hasta ahora inexplorado en la nanoescala», explica el investigador ICREA del Departamento de Física de la UAB Jordi Sort, director de la investigación. «Existe una gran demanda para controlar los estados magnéticos a escala nanométrica pero, sorprendentemente, la mayor parte de la investigación en magnetoiónica se ha enfocado hasta ahora en el estudio de películas de materiales continuos. Si nos fijamos en los efectos del desplazamiento de iones en estructuras discretas de dimensiones nanométricas, los llamados nanopuntos que hemos analizado, vemos que aparecen configuraciones de espín muy interesantes que evolucionan dinámicamente y que son exclusivas de este tipo de estructuras». Estas configuraciones de espín y las propiedades magnéticas de los vortiones varían en función de la duración del voltaje aplicado. De este modo, a partir de nanopuntos de un material inicialmente no magnético se pueden generar diferentes estados magnéticos (por ejemplo, vortiones con diferentes propiedades o estados con la orientación magnética uniforme) mediante la extracción gradual de iones aplicando un voltaje.
«Con los vortiones que hemos desarrollado podemos tener un control sin precedentes de propiedades magnéticas como la magnetización, la coercitividad, la remanencia, los campos críticos de formación y aniquilación del vortión, o la anisotropía. Son propiedades fundamentales para el almacenamiento de información en memorias magnéticas, y ahora hemos logrado controlarlas y ajustarlas de manera analógica y reversible mediante un proceso de activación por voltaje, con un consumo de energía muy bajo», explica Irena Spasojević, investigadora postdoctoral en el Departamento de Física de la UAB y primera firmante del trabajo.
«El procedimiento de actuación por voltaje en lugar de corriente eléctrica evita el calentamiento en dispositivos como ordenadores portátiles, servidores o centros de datos, reduciendo drásticamente la pérdida de energía».
Los investigadores han demostrado que con un control preciso del grosor de la capa magnética generada con voltaje, el estado magnético del material se puede variar a voluntad, de manera controlada y reversible, entre un estado no magnético, un estado con una orientación magnética uniforme (como el que presenta un imán), o el nuevo estado vórtice magnetoiónico.
Este nivel de control sin precedentes de las propiedades magnéticas a escala nanométrica y a temperatura ambiente abre nuevos horizontes para el desarrollo de dispositivos magnéticos avanzados con funcionalidades que pueden adaptarse una vez el material ha sido sintetizado. Esto proporciona una mayor flexibilidad que es necesaria para satisfacer demandas tecnológicas específicas. «Prevemos, por ejemplo, la integración de vórtices magnetoiónicos reconfigurables en redes neuronales como sinapsis dinámicas, capaces de imitar el comportamiento de las sinapsis biológicas», avanza Jordi Sort. En el cerebro, las conexiones entre las neuronas, las sinapsis, presentan diferentes pesos (intensidades) que se van adaptando de manera dinámica según la actividad y aprendizaje. Del mismo modo, los vortiones podrían ofrecer enlaces neuronales con pesos sinápticos sintonizables, reflejados en valores de magnetización o de anisotropía reconfigurables, para dispositivos espintrónicos neuromórficos (inspirados en el cerebro). De hecho, «la actividad de las neuronas y sinapsis biológicas también está controlada por señales eléctricas y migración de iones, de manera análoga a nuestras unidades magnetoiónicas», comenta Irena Spasojević.
Los investigadores consideran que, además de su impacto en dispositivos inspirados en el cerebro, en computación analógica o en memorias multi-nivel, los vortiones podrían tener otras aplicaciones como, por ejemplo, en técnicas de terapia médica (teragnosis), seguridad de datos (ciberseguridad), o en dispositivos de computación mediante espín magnético (espín-lógica) o para la generación de ondas de espín (magnónica).
Referencia:
Spasojevic, I., Ma, Z., Barrera, A. et al. (2025) Magneto-ionic vortices: voltage-reconfigurable swirling-spin analog-memory nanomagnets. Nat. Commun. doi: 10.1038/s41467-025-57321-8
Edición realizada por César Tomé López a partir de materiales suministrados por la Universitat Autònoma de Barcelona.
El artículo Un nuevo estado magnético, el vortión, que imita las sinapsis neuronales se ha escrito en Cuaderno de Cultura Científica.
Ryugu, un asteroide “mu salao”
La búsqueda de agua líquida -existente tanto en el presente como en el pasado de nuestro sistema solar- es una de las prioridades de la astrobiología y, desde hace algunas décadas, las misiones espaciales han intentado buscar el rastro del agua no solo en Marte, sino también en la Luna o incluso en los asteroides y cometas.
¿Por qué? Pues porque la vida tal y como la conocemos -de momento no conocemos otra vida que la terrestre- necesita de agua líquida para poder florecer y sobrevivir y, siguiendo su pista, igual podemos encontrar lugares que fueron habitables antaño, incluso en sitios que hoy son realmente extremos, pero que podrían haber preservado biomarcadores -los distintos productos de la actividad vital de los organismos- que detectables en el futuro con misiones de retorno de muestras o con instrumentos más avanzados in situ.
En diciembre de 2014 despegó la misión Hayabusa 2 en dirección al asteroide Ryugu con el objetivo de no solo estudiarlo desde su órbita, sino también de traer muestras a la Tierra, hecho que logró en diciembre de 2020 al regresar un total de 5.4 gramos del asteroide que comenzaron a estudiarse poco tiempo después.
Este “pequeño” asteroide de unos 900 metros de diámetro no es un cuerpo monolítico, sino que es de los que conocemos como pila de escombros o “rubble pile” por su nombre en inglés. Estos son, en términos sencillos, un montón de fragmentos de roca que viajan juntos por el espacio por efecto de la gravedad. A mí me gusta imaginármelos como un montón de grava -eso sí, de muy distintos tamaños- de la que podemos comprar en una tienda de materiales de construcción cualquiera. Muy probablemente estos asteroides se hayan formado a partir de un cuerpo más grande que fue destruido hace mucho tiempo.

Una de las cosas que hacen especial a Ryugu es que es un asteroide de tipo C, muy interesantes por ser cuerpos realmente primitivos y que pueden albergar materiales que hayan sufrido muy pocos cambios desde la formación del Sistema Solar. Concretamente tiene mucha afinidad con un grupo de meteoritos denominado CI, un tipo de meteoritos cuya composición, similar a la medida en la fotosfera solar, se considera la químicamente más primitiva de todos los meteoritos que existen.
Y, ¿De dónde procedería este asteroide? Los científicos piensan que el cuerpo a partir del cual se formó nació más allá de la “línea del hielo” del agua y del dióxido de carbono poco tiempo después de la formación de nuestro sistema solar. Para quien nunca haya escuchado este término, la línea “de hielo”, “de congelación” o incluso “de la nieve” es la distancia mínima desde una estrella -en este caso nuestro Sol- donde la temperatura es lo suficientemente baja para que los compuestos volátiles se condensen formando granos sólidos que les permitan unirse para dar lugar a planetesimales, los embriones de la formación planetaria.
Las muestras de Ryugu que nos ha traído la sonda Hayabusa 2 han sido una verdadera caja de sorpresas. En un estudio publicado en Nature Astronomy por Matsumoto et al. (2024), los científicos han encontrado pequeñas venas minerales y zonas compuestas por carbonatos de sodio, por cloruros e incluso por sulfatos en los granos de muestra del asteroide.
Estas sales, además, estaban asociadas a los filosilicatos, minerales hidratados que son una prueba de la alteración de otros minerales por parte del agua. Al principio, los científicos dudaron si estas partes ricas en sodio en realidad procedían de nuestro planeta a causa de una posible contaminación de las muestras, pero descartaron esta hipótesis por cómo están distribuidas y por la forma que tienen en los distintos granos de material que se han analizado.
El descubrimiento de estas sales de sodio es algo más importante que añadir un mineral más o menos a la lista. La presencia de carbonatos, cloruros y sulfatos de sodio sugieren que un agua alcalina y rica en sales fluyó por el interior del cuerpo que dio lugar a Ryugu.

Pero, ¿Cómo pudo convertirse ese cuerpo original en algo tan “salado”? Y por favor, entiendan la pregunta anterior como algo más evocativo que literal. El agua que recorría el cuerpo original alterando los minerales que encontraba a su paso probablemente era muy salada, quizás incluso podía ser una salmuera, que con el paso del tiempo iba ganando salinidad por la evaporación o la congelación del agua tras las últimas etapas de alteración acuosa que sufriría ese cuerpo.
Imaginemos unas salinas en nuestro planeta, los lugares donde se fabrica la sal que consumimos a diario en nuestra mesa. Normalmente son grandes extensiones de agua poco profunda donde se deja que lentamente el agua se evapore, permitiendo que se vaya concentrando en el agua y posteriormente precipitando. Un proceso similar podría haber ocurrido en el espacio por la evaporación o congelación del agua. En este último caso, la pérdida de calor y posterior congelación podría representar el momento en el que el calor interno -probablemente de origen radiogénico- del cuerpo dejó de ser suficiente para mantener el agua en estado líquido.
Hay un detalle más: como hemos dicho antes, el agua también era probablemente alcalina, con un pH alto, similar a algunos lagos de nuestro planeta. Y esta alcalinidad es consistente con los modelos de alteración acuosa que ya se habían postulado para este tipo de cuerpos.
Estos descubrimientos, incluso en un asteroide, tienen consecuencias de cara a la posible habitabilidad de estos. Sí, ya se que un asteroide puede ser un lugar realmente inhóspito para nuestros estándares sobre las condiciones adecuadas para la vida, pero quizás algunos no lo fueron tanto durante la infancia de nuestro sistema solar.
Es cierto que la composición de las aguas que circularon por el cuerpo original del que proceden los fragmentos de Ryugu era probablemente muy salina y alcalina, pero eso no es en ningún caso una barrera para la vida. Hay organismos extremófilos en nuestro planeta que viven en condiciones similares.

También pone de manifiesto que el agua salada, o muy salada, podría ser muy abundante en el Sistema Solar y, de hecho, pensamos que muchos de los océanos subterráneos que sospechamos que existen en los satélites de los gigantes gaseosos, tienen como ingrediente clave las sales, lo que les permite un mayor tiempo de vida de estos océanos -a nivel geológico- que si fueran de agua dulce, ya que las sales actúan como un poderoso anticongelante.
Todavía nos queda mucho por conocer de nuestro sistema solar e incluso ya empezamos a vislumbrar como cuerpos que antaño no parecían más que los ladrillos de la formación planetaria, casi anodinos, podrían haber reunido ciertas condiciones para ser cuerpos habitables, aunque fuese durante periodos relativamente cortos en comparación con cuerpos de tamaño planetario. ¿Qué sorpresas nos traerán las próximas misiones de retorno de muestras? No lo sabemos, pero seguro que seguirán dándonos muchas alegrías y nuevos descubrimientos.
Referencias:
Matsumoto, T., Noguchi, T., Miyake, A. et al. Sodium carbonates on Ryugu as evidence of highly saline water in the outer Solar System. Nat Astron 8, 1536–1543 (2024). doi: 10.1038/s41550-024-02418-1
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Ryugu, un asteroide “mu salao” se ha escrito en Cuaderno de Cultura Científica.
¿Es lo mismo ser inteligente que tener altas capacidades?

Que pensamos con la cabeza puede parecer una obviedad, pero no siempre estuvo claro. Fue en los siglos IV y III a. e. c. cuando en Grecia Herófilo diseccionó científicamente a humanos; que sepamos, fue la primera persona en hacerlo y en señalar que la cabeza es la sede de la inteligencia (Aristóteles, por su parte, proponía que el cerebro servía para enfriar la sangre). Hubo que esperar mucho más hasta que comenzara a hacerse un registro sistemático de tareas consideradas “inteligentes”. Ocurrió a finales del siglo XIX gracias al británico Francis Galton, pero usó los resultados de estas mediciones para justificar sesgadamente teorías innatistas y eugenésicas.
Desde entonces, las propuestas ofrecidas para explicar qué significa ser inteligente pueden agruparse en dos tipos:
- Los modelos factoriales, que utilizan las matemáticas (análisis factoriales) para buscar puntos en común (factores) entre variables (puntuaciones en los test).
- Los modelos no factoriales, que no usan test, sino que parten de observaciones y comparaciones entre casos.
Debido a que las altas capacidades se relacionan con las puntuaciones en los test de inteligencia, podría pensarse que se ciñen exclusivamente al cociente intelectual, pero no es así. O, al menos, no debería. La idiosincrasia humana es más compleja que un simple número. Por consiguiente, para desentrañar este corpus, como hizo Herófilo, vamos por partes.
¿Sabemos medir la inteligencia?En Francia nació la que está considerada como la primera prueba de inteligencia: el test de Binet-Simon (1905). Se creó para detectar deficiencias cognitivas en niños y niñas en edad escolar e implementar una educación especial (aquí apareció por primera vez el cociente intelectual). Al diseñar el test, su autor principal insistió en señalar que no servía para medir fielmente la inteligencia, sino que solo desarrolló una herramienta para resolver una necesidad específica en un contexto determinado.
Sin embargo, esta nueva corriente basada en medir inteligencia con tareas exclusivamente académicas (excluyendo creatividad, música, habilidades sociales, emocionales…) fue aumentando y han ido surgiendo otras pruebas. Las más conocidas son las escalas Weschler (WAIS-IV, WISC-V y WPPSI-IV). Otra menos conocida es la batería de actividades mentales diferenciales y generales.

Estas y otras pruebas conceden mayor importancia a establecer rankings de cociente intelectual que a explicar la estructura de algo llamado inteligencia.
¿Qué es el factor ‘g’?Con los resultados en estos tipos de test, los análisis factoriales han demostrado que las habilidades cognitivas están influidas por una capacidad común llamada factor “g” (general). Pero el factor “g” no se considera sinónimo de inteligencia. Además, el cociente intelectual es un número que se obtiene como resultado de aplicar la inteligencia, y tampoco sirve para definirla.
El principal autor que defiende un modelo no factorial, Howard Gardner (que acuñó el concepto de “inteligencias múltiples”), no niega la utilidad del análisis factorial para agrupar variables y formar categorías abstractas (como “g”). Pero sí pone objeciones a que la concepción de lo que llamamos inteligencia se vea reducida a un filtro estadístico.
También Robert Sternberg, autor de la teoría triárquica (analítica, práctica y creativa), critica que la inteligencia se limite exclusivamente a la habilidad para responder a problemas académicos.
Parece, pues, que no existe consenso sobre cómo “desmembrar” la inteligencia. Incluso ha llegado a cuestionarse si existe algo a lo que llamar así. A pesar de ello, los test de cociente intelectual son la principal herramienta para comenzar a examinar las altas capacidades.
¿Qué son las altas capacidades?El concepto altas capacidades se utiliza a modo de paraguas para englobar a aquellas personas que destacan por encima de la media en test de cociente intelectual y que, además, muestran otras particularidades. Bajo este paraguas se incluyen los siguientes términos:

- Superdotación: se diagnostica al obtener una puntuación de cociente intelectual superior a 130 (percentil 98). Sin embargo, Joseph Renzulli (apoyado por Lewis Terman) critica sólidamente esta separación “a bisturí” y propone el modelo de enriquecimiento triádico. Según este modelo, la superdotación debería identificarse valorando la interacción entre tres elementos: un cociente intelectual superior a la media, alto compromiso con la tarea y alta creatividad. Renzulli argumenta que las personas más creativas y productivas se encuentran por debajo del percentil 95 (cociente intelectual de 125), y con un punto de corte tan alto se deja fuera a quienes tienen el mayor potencial para alcanzar altos niveles de logro.
- Talento: capacidad de dominar excepcionalmente una o varias competencias, cuya adquisición puede explicarse con el modelo integral de desarrollo del talento de Françoys Gagné. Se ha propuesto diagnosticar un talento con puntuaciones superiores a 125 en áreas específicas de una prueba citada previamente, la batería de actividades mentales diferenciales y generales, resultando en talento lógico, verbal, numérico o visoespacial.Además, como los test de cociente intelectual excluyen la creatividad, se ha propuesto usar el test de Torrance de pensamiento creativo para valorar este talento. Una combinación de estos cinco talentos resultaría en talentos múltiples, complejos o conglomerados.
- Prodigio: se consideran niñas o niños prodigio a quienes han sido capaces de producir trabajos admirables comparándolos con los de una persona adulta –aunque a menudo limitado a una única área (música, matemáticas…)– y sin haber cumplido los 10 años. Suelen tener un cociente intelectual destacable, aunque no extraordinario.
- Genio/a: persona que se encuentra en el extremo más alto de las altas capacidades (con un cociente intelectual mayor de 145) y ha realizado alguna contribución muy notable en un área determinada.
Conviene citar la precocidad, un término evolutivo referido a manifestar habilidades antes de lo característico para la edad cronológica habitual (especialmente, lenguaje fluido). Y la eminencia, referida a quien ha añadido a la sociedad grandes aportaciones, pero como fruto de la oportunidad o la suerte, sin que los factores intelectuales han sido determinantes.
¿Hay inteligencia más allá del cociente intelectual?Un estudio reciente que ha aplicado análisis factorial a test que valoran las llamadas “inteligencias centradas en las personas” (social, emocional y personal) ha revelado que también dependen del factor “g”. Y éstas no se exploran en los test de inteligencia tradicionales, es decir, que no participan en el cociente intelectual. Esos resultados tienen importantes consecuencias, ya que demuestran lo que numerosas teorías han estado criticando: que la inteligencia no puede limitarse al cociente intelectual actual.
Como crítica añadida a los test de cociente intelectual, la música no está considerada psicométricamente como un talento. Y la creatividad, como componente a valorar durante el diagnóstico de las altas capacidades, tampoco es registrada por este tipo de test, como ya se ha mencionado. Los estudios empíricos de la creatividad han mostrado solo una ligera correlación con el cociente intelectual. Esto implica que el cociente intelectual es una condición necesaria a valorar, pero ciertamente no es suficiente.
En definitiva, la inteligencia y las altas capacidades no son lo mismo. Ser inteligente se asocia a velocidad de procesamiento, memoria, fluidez verbal… es decir, a las tareas que rastrean los test de “inteligencia”, que resultan deficientes para detectar todas las capacidades humanas. Y tener altas capacidades significa poseer un cociente intelectual superior como requisito imprescindible, pero se requieren otros elementos, como motivación, creatividad o haber producido trabajos prodigiosos y geniales.
Y así, tras “abrir en canal” a estos conceptos, coincidimos con Herófilo en que los análisis profundos son más reveladores que las observaciones de corte superficial.
Sobre el autor: Jorge Romero-Castillo, Profesor de Psicobiología e investigador en Neurociencia Cognitiva, Universidad de Málaga
Este artículo fue publicado originalmente en The Conversation. Lea el original.
El artículo ¿Es lo mismo ser inteligente que tener altas capacidades? se ha escrito en Cuaderno de Cultura Científica.
¿Y si viajáramos a Saturno?
Una guía turística para visitar Saturno y alrededores.
Los vídeos ‘¿Y sí…?´ se plantean cuestiones ficticias pero que nos permiten aprender mucho sobre el mundo en el que vivimos. Se han emitido en el programa de divulgación científica de Televisión Española Órbita Laika, y producido en colaboración con la Cátedra de Cultura Científica de la Universidad del País Vasco.
Ficha técnica: Idea: José Antonio Pérez Ledo
Producción ejecutiva: Blanca Baena
Dirección: Aitor Gutierrez
Guion: Manuel Martinez March
Grafismo: Cristina Serrano
Música: Israel Santamaría
Producción: Olatz Vitorica
Locución: José Antonio Pérez Ledo
El artículo ¿Y si viajáramos a Saturno? se ha escrito en Cuaderno de Cultura Científica.
El origen genético de la familia de lenguas indoeuropeas
Un estudio, en el que ha participado Iñigo Olalde, investigador Ramón y Cajal e Ikerbasque Research Fellow en el grupo BIOMICs de la Universidad del País Vasco, ha analizado el ADN antiguo de 435 individuos de sitios arqueológicos en toda Eurasia entre 6.400 y 2.000 a. C. Este trabajo proporciona nuevos datos que nos acercan a la respuesta a una pregunta de 200 años de antigüedad: ¿Dónde se encuentra el origen de la familia de lenguas indoeuropeas? Según se demuestra en la investigación, una población del Cáucaso y el Bajo Volga, recientemente reconocida, puede conectarse con todas las poblaciones de habla indoeuropea.
Las lenguas indoeuropeas, que suman más de 400 e incluyen grupos importantes como el germánico, el romance, el eslavo, el indoiraní y el celta, son habladas por casi la mitad de la población mundial actual. Originadas de la lengua protoindoeuropea, los historiadores y lingüistas han estado investigando sus orígenes y difusión desde el siglo XIX, ya que todavía existe una brecha de conocimiento en ese campo.

Estudios genéticos anteriores habían demostrado que la cultura Yamnaya (3.300-2.600 a. C.), de las estepas póntico-caspias al norte de los mares Negro y Caspio, se expandió tanto a Europa como a Asia central a partir de aproximadamente 3.100 a. C., lo que explica la aparición de ‘ascendencia esteparia’ en las poblaciones humanas en toda Eurasia entre 3.100 y 1.500 a. C. Esas migraciones desde las estepas tuvieron el mayor efecto sobre los genomas humanos europeos que cualquier otro evento demográfico en los últimos 5.000 años y son ampliamente consideradas como el probable vector de la difusión de las lenguas indoeuropeas.
La única rama de las lenguas indoeuropeas que no había mostrado ninguna ascendencia esteparia anteriormente era la anatolia, incluido el hitita, probablemente la rama más antigua en separarse, preservando de manera única arcaísmos lingüísticos que se perdieron en todas las demás ramas de dichas lenguas. Estudios anteriores no habían encontrado ascendencia esteparia entre los hititas porque, según sostiene el nuevo artículo, las lenguas anatolias descendían de una lengua hablada por un grupo que no había sido descrito adecuadamente, una población eneolítica fechada entre 4.500 y 3.500 a. C. en las estepas entre las montañas del Cáucaso Norte y el bajo Volga. Cuando se utiliza como fuente la genética de esa población del Cáucaso-Bajo Volga recientemente reconocida, al menos cinco individuos en Anatolia fechados antes o durante la era hitita muestran ascendencia con esa zona.
El nuevo estudio muestra que la población Yamnaya obtuvo aproximadamente el 80 % de su ascendencia del grupo Cáucaso-Bajo Volga, que también proporcionó al menos una décima parte de la ascendencia de los habitantes de Anatolia central de la Edad del Bronce, hablantes de hitita. Por lo tanto, el grupo Cáucaso-Bajo Volga puede conectarse con todas las poblaciones de habla indoanatolia y es el mejor candidato como origen de la población que hablaba indoanatolia, el antepasado tanto del hitita como de todas las lenguas indoeuropeas posteriores, en el Cáucaso Norte y la región del Bajo Volga entre 4.400 a. C. y 4.000 a. C.
Referencia:
Lazaridis, I., Patterson, N., Anthony, D. et al. (2025) The genetic origin of the Indo-Europeans. Nature doi: 10.1038/s41586-024-08531-5
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo El origen genético de la familia de lenguas indoeuropeas se ha escrito en Cuaderno de Cultura Científica.
Teatro y Geología, un buen tándem para visibilizar pioneras
Febrero es el mes en el que todas las científicas intentamos visibilizar nuestro trabajo dentro de la celebración del «11F, Día Internacional de la Mujer y la Niña en la Ciencia» buscando cumplir con el mismo objetivo: generar vocaciones entre las niñas y las chicas más jóvenes para que se planteen su futuro como científicas, normalizando la presencia femenina en carreras históricamente tan masculinizadas como la Geología.
La manera más generalizada para conseguir este objetivo es que las científicas visitemos los centros educativos para realizar charlas, conferencias y presentaciones ante el alumnado contando los problemas a los que se enfrentaron las pioneras de nuestras disciplinas, comparando sus vicisitudes con las barreras que tuvimos, y aún tenemos, que superar nosotras en nuestra carrera.
Esta fórmula, eficaz gracias a la cercanía que fomenta entre las niñas y las profesionales, puede convertirse en contraproducente. Al final, las jóvenes reciben la visita de muchas científicas de disciplinas diferentes, contando vivencias muy diversas en un corto periodo de tiempo, lo que les impide procesar toda la información y recordar con detalle todo lo que les hemos contado. Así que, para no ser una anécdota más entre recuerdos infantiles, debemos buscar una manera de destacar y llamar la atención de nuestro público objetivo.

Así es como nació «Mary Anning visita Mi Primer Geolodía Granada». Ya os hablé el año pasado de «Mi Primer Geolodía«, una iniciativa de la comisión Mujeres y Geología de la Sociedad Geológica de España que consiste en talleres interactivos, charlas, excursiones y actividades lúdicas para que las niñas y niños conozcan la Geología de manera amena y divertida. Pues dentro de las actividades programadas en Granada se encuentra una pequeña obra de teatro sobre la vida y los descubrimientos de Mary Anning, una de las pioneras de la Paleontología.

En esta obra, Mary Anning, nacida hace 226 años en Lyme Regis, Inglaterra (si queréis conocerla mejor, podéis hacerlo aquí o aquí), viaja en el tiempo y en el espacio hasta la Granada de hoy en día para visitar los talleres de Mi Primer Geolodía, que este año se han realizado en Diezma, descubriendo cómo ha avanzado el conocimiento geológico en estos dos siglos. Aquí se encuentra con una paleontóloga que la reconoce y empiezan a entablar una conversación. De esta forma, Mary hace un pequeño repaso de su vida, recordando que desde niña tuvo que ganarse la vida recolectando y vendiendo fósiles a los grandes naturalistas de la época, que pusieron en duda sus descubrimientos paleontológicos por el simple hecho de ser una mujer sin estudios. Pero la paleontóloga actual no pierde la oportunidad de poner en relieve sus hallazgos científicos, realizando explicaciones sobre algunos de los descubrimientos de Mary, como el ictiosaurio o el plesiosaurio, hasta el punto de que, hoy en día, se la reconoce como la madre de la Paleontología gracias a los avances que propiciaron en esta ciencia sus estudios sobre diversos grupos fósiles, como los ammonites. Incluso, se menciona que los descubrimientos de Mary plantearon las bases de la teoría de la evolución de las especies de Darwin (con la intercesión de Lyell, en realidad).
Como os podéis imaginar, la obra de teatro tiene un mensaje muy potente, resaltando no solo cómo ha cambiado el conocimiento geológico en los últimos doscientos años, si no también poniendo en evidencia las barreras que tuvieron que superar las mujeres que nos precedieron, remarcando que, por desgracia, algunos de estos problemas aún siguen vigentes. Pero lo hace en un tono distendido y cómico para alcanzar al público infantil, al que también se le ofrecen explicaciones científicas muy rigurosas en un lenguaje sencillo adaptado a sus edades. Así, en los ojos infantiles que observan la representación se dibujan destellos de curiosidad y admiración, mientras que en muchos ojos adultos asoman lágrimas sinceras.
Y esta metodología docente, funciona. En otros talleres de Mi Primer Geolodía, se volvía a nombrar a Mary Anning. Cuando las monitoras preguntaban a las niñas y niños si la conocían, quienes habían visto la obra de teatro siempre daban la misma respuesta: «Claro, es la madre de la Paleontología y descubrió el ictiosaurio». La primera fase de nuestro trabajo ya está hecha, hemos sembrado la semilla de la curiosidad en las nuevas generaciones, ahora solo nos falta seguir regándola los próximos años, dando a conocer a otras pioneras geólogas y visibilizando el trabajo de las actuales, mientras les descubrimos más curiosidades geológicas con las que puedan entender los paisajes que les rodea. ¿Hemos creado vocaciones científicas entre las niñas? Quizás nunca lo sepamos. Pero seguro que jamás se olvidarán de esas geólogas que hicieron una obra de teatro sobre la madre de la Paleontología en su pueblo.
Agradecimientos:
La obra de teatro «Mary Anning visita Mi Primer Geolodía Granada» ha salido de las prodigiosas mentes de Ana Constán y Ana Ruiz Constán (madre e hija, porque de casta le viene al galgo), que han escrito el guion, elaborado el vestuario de las protagonistas y preparado la puesta en escena. Además, no habría sido posible representarla sin el trabajo y dedicación de Lucía Moreno, nuestra Mary Anning niña, joven artista aficionada al teatro y la interpretación, y de Josefina «Fini» Sánchez, que cambió su acento cordobés por uno puramente británico para meterse en su papel de Mary Anning adulta. Y no quiero olvidarme de María Druet, nuestra roca en la primera representación, y de Manuela Chamizo y Raquel Martín, las reporteras gráficas que se emocionaron al ver la actuación. ¡Qué aburrida sería mi vida sin vosotras, chicas!
La representación de la obra de teatro «Mary Anning visita Mi Primer Geolodía Granada» se retransmitió en directo por la cuenta oficial de Instagram de la Sociedad Geológica de España. Puede verse aquí.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Teatro y Geología, un buen tándem para visibilizar pioneras se ha escrito en Cuaderno de Cultura Científica.
Marília Chaves Peixoto, especialista en sistemas dinámicos
Además del incuestionable valor de las investigaciones que desarrolló, Marília Peixoto rompió con valentía un discurso virulento y arraigado que desalentaba a las mujeres a dedicarse a determinadas áreas del conocimiento y a determinadas actividades laborales, discurso normalmente basado en la idea de la existencia de una relación inequívoca entre los atributos biológicos de género, en la que lo femenino se limita al ejercicio de las funciones domésticas y a un número muy reducido de profesiones, generalmente de menor prestigio social y remuneración. Al convertirse en una profesional de referencia en un área considerada, hasta entonces, como exclusivamente masculina, la matemática Marília Peixoto abre un precedente de dignidad para todas las mujeres brasileñas, que aún permanecen en la lucha por la igualdad en el campo de los estudios formales y del trabajo.
Las anteriores palabras son de la política y profesora universitaria brasileña Dorinha Seabra Rezende quien, en 2020, presentó una resolución para dar el nombre de Marília Chaves Peixoto al Pleno 13 del Anexo II de la Cámara de Diputados de su país.

Deseando estudiar matemáticas
Marília Chaves nació el 24 de febrero de 1921 en Sant’Ana do Livramento, ciudad situada al sudoeste de Río Grande del Sur, en Brasil. Era la mayor de los tres hijos (Lúcia nació en 1924 y Livio en 1926) de Tullio de Saboia Chaves (profesor de la Facultad de Medicina Quirúrgica de Río de Janeiro) y Zillah da Costa Magalhães.
Gracias al apoyo de sus padres, pudo asistir a un colegio de Santana do Livramento, donde las chicas no podían estudiar de manera oficial. Como estudiante privada, pudo hacer los exámenes con los chicos.
Posteriormente pasó al menos un año en el Colégio Andrews, fundado por Isabella Robinson Andrews en 1918. En este centro se ofrecía una educación laica a niñas y niños, algo inusual en esa época en Brasil. Esta institución tenía entonces unos 1500 estudiantes de todos los niveles; los preparaban, tanto a niñas como a niños, para ingresar a las escuelas de Medicina, Derecho e Ingeniería.
Marília deseaba estudiar matemáticas y se preparaba para ingresar en la Escuela Nacional de Ingeniería de la Universidad de Brasil en Río de Janeiro: en 1939 obtuvo el tercer lugar entre los 73 estudiantes que consiguieron inscribirse. Las mujeres que lograron un puesto no llegaban al 7 % del total; no era muy común contar con alumnas en las escuelas de ingeniería de esa época.
Compartió aula con Maurício Matos Peixoto y Leopoldo Nachbin; los tres siguieron cursos de matemáticas avanzadas ya que su intención no era seguir una carrera de ingeniería. En 1943, Marília Chaves se graduó en ingeniería civil.
El 6 de septiembre de 1946, Marília y Maurício Matos Peixoto se casaron en Río de Janeiro. El matrimonio tuvo dos hijos, Marta (1949) y Ricardo (1953).
Impartiendo docencia e investigando en sistemas dinámicosMarília presentó su tesis en 1949; fue aceptada para un doctorado en matemáticas, convirtiendo a Chaves Peixoto en la primera mujer brasileña en obtener un doctorado en esta materia. Y gracias a ello obtuvo la Cátedra de la Escuela Nacional de Ingeniería, donde enseñó cálculo diferencial e integral.
El 1 de julio de 1951 fue elegida miembro asociada de la Academia Brasileña de Ciencias, convirtiéndose en la primera mujer brasileña en ser elegida miembro de esta institución. Antes que ella, Marie Curie había sido elegida miembro asociada extranjera de esta Academia en 1926.
En 1955 publicó el manual Cálculo vetorial dirigido a estudiantes de ingeniería. Tres años después de la muerte de Marília, el libro fue reeditado con un prefacio de Maurício Peixoto en el que escribía, entre otros comentarios:
Claro, metódico, objetivo y bien elaborado, es un buen reflejo de sus cualidades didácticas y su ejemplar dedicación a la docencia.

Marília y su marido trabajaron juntos en la estabilidad estructural de los sistemas dinámicos; ella realizó una contribución sustancial para demostrar el teorema de Peixoto que proporciona la caracterización de sistemas estructuralmente estables en variedades bidimensionales. En 1959, Marília y Maurício Peixoto publicaron el artículo conjunto Structural Stability in the plane with enlarged boundary conditions. Este fue uno de los tres artículos (los otros dos fueron publicados por Maurício en solitario) sobre esta materia que ayudaron a enunciar el hoy conocido como el teorema de Peixoto en un artículo publicado en 1962. El matemático señalaba:
Me gustaría señalar que este trabajo sobre estabilidad estructural se llevó a cabo básicamente en varios artículos que se mencionan a continuación, uno de los cuales fue en colaboración con mi primera esposa Marília, quien no vivió para ver el final de esta aventura. Sin embargo, su influencia fue grande en aquellos días dorados, decisivos y ya lejanos, en el otoño de 1957 en Princeton.
Honores póstumos
Marília Chaves Peixoto falleció el 5 de enero de 1961 debido a problemas cardiacos. Ese mismo año la especialista en educación matemática Maria Laura Mozinho impartió una conferencia en la Academia Brasileña de Ciencias en la que dijo:
Al ver a aquella muchacha tranquila, de ojos muy grandes y expresivos, fue necesario que alguien nos susurrara que era una destacada profesora de Cálculo y Mecánica de la Escuela Nacional de Ingeniería, enérgica y, a la vez, generosa, además de tener una inteligencia aguda que se volcaba a la investigación matemática.
Una calle en su ciudad natal de Sant’Ana do Livramento se llama Rua Marília Chaves Peixoto.
Maurício Peixoto ayudó a fundar en 1971 la Escuela Municipal Marília Chaves Peixoto en la región de Controes de Petrópolis, una región rural donde el padre de Marília tenía una finca que cedió para fundar este centro de enseñanza. Fue una iniciativa muy aplaudida, ya que muchos de los residentes locales eran analfabetos y la escuela más cercana estaba a unos 10 kilómetros de distancia. Durante casi 40 años, más de trescientos estudiantes asistieron a la escuela primaria. En 1969, Maurício Peixoto recibió el Prêmio Moinho Santista de la Fundación Bunge por el teorema que lleva su nombre y que tanto debía a Marília. Peixoto utilizó el dinero del premio para financiar esta escuela.
Referencias
- John J. O’Connor and Edmund F. Robertson, Marília de Magalhães Chaves Peixoto, MacTutor History of Mathematics archive, University of St Andrews
- Circe Mary Silva da Silva, Marília Chaves Peixoto. Uma matemática brasileira à sombra, XIII SNHM, 150-170, agosto 2019
- Marília Chaves Peixoto, Wikipedia
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia
El artículo Marília Chaves Peixoto, especialista en sistemas dinámicos se ha escrito en Cuaderno de Cultura Científica.
Cómo Hans Bethe se topó con las teorías cuánticas perfectas
Los cálculos cuánticos son estimaciones sofisticadas, pero en 1931 Hans Bethe intuyó con precisión cómo se comportaría una cadena de partículas, una intuición que tuvo enormes consecuencias.
Un artículo de Matt von Hippel. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

En 1928, los físicos cuánticos parecían estar a punto de desentrañar los secretos finales de la materia. El investigador alemán Walter Gordon había aplicado la emergente teoría de la mecánica cuántica al átomo de hidrógeno, el átomo más simple del universo, y había descubierto exactamente cómo se comportaba. Parecía seguro que el dominio de todos los átomos vendría detrás.
No fue así. Cuando las partículas cuánticas se influyen entre sí, sus posibilidades se entrelazan de tal manera que superan la capacidad de los físicos para predecir su futuro. En la búsqueda de respuestas precisas, el electrón solitario del átomo de hidrógeno marcó el inicio y el final del camino; incluso los dos electrones del átomo de helio condenaron al fracaso a planteamientos tan exactos como el de Gordon. Es una limitación con la que los físicos todavía lidian hoy. Casi todas las predicciones cuánticas son un poco aproximadas.
Sin embargo, tres años después del triunfo de Gordon, su compatriota Hans Bethe había encontrado una sorprendente manera de resolver este problema. El ansatz de Bethe, que en alemán significa “punto de partida”, resultó ser capaz de captar perfectamente el comportamiento de cualquier cantidad de partículas cuánticas, desde un solo electrón hasta los innumerables electrones de una capa de hielo. Sin embargo, este extraordinario poder tiene sus propias limitaciones, que llevaría décadas comprender.
El ansatz de Bethe ha cautivado a generaciones de investigadores. Richard Feynman, el legendario físico teórico, lo estaba estudiando cuando murió en la década de 1980. Hoy en día, son pocas las áreas de la física que no se han visto afectadas por la casi centenaria idea de Bethe.
“Su importancia ha seguido creciendo hasta el día de hoy”, explica Charlotte Kristjansen, profesora del Instituto Niels Bohr de Copenhague.
Imanes en una cadenaA principios de la década de 1930, Bethe intentaba utilizar la mecánica cuántica para comprender cómo se magnetiza el hierro. Pero un trozo de metal tiene muchas más partículas que un átomo de hidrógeno, por lo que no había forma de utilizar herramientas cuánticas estándar para comprender exactamente el imán. Necesitaba una forma de abordar un sistema cuántico mucho más complicado.
Bethe empleó un modelo simplificado de imán, conocido como cadena de espín: una única línea de átomos, cada uno apuntando hacia arriba o hacia abajo como su propio imán diminuto. Si todos los polos norte apuntaran hacia arriba, por ejemplo, la cadena se magnetizaría. Su reto era calcular la energía necesaria para hacer girar los átomos hasta esa posición. En principio, para ello era necesario llevar un registro de cada átomo, una tarea hercúlea que parecía necesitar aproximaciones, atajos que simplifican el cálculo pero introducen imprecisiones.
La cadena de espín se basó en el trabajo pionero de Felix Bloch de 1930. Bloch había dejado de lado los átomos individuales y sus numerosas interacciones y, en cambio, se centró en el movimiento colectivo que surgía de esas interacciones.
En una cadena de espín, ese movimiento son ondas como las que se ven en los estadios. Si se da la vuelta a un átomo, éste dará la vuelta a sus vecinos, que a su vez darán la vuelta a sus vecinos, y así sucesivamente. Estas ondas siguen siendo extremadamente complicadas: cuando dos ondas recorren el mismo tramo de partículas, cualquier partícula puede dar la vuelta a cualquier otra partícula, lo que da lugar a un caos. La teoría de Bloch prohibía este desorden. Supuso que cada átomo sólo podía dar la vuelta a su vecino inmediato. Luego supuso que, como consecuencia, las ondas resultantes siempre colisionarían suavemente, atravesándose unas a otras con una perturbación mínima. La suposición mantenía las cosas lo suficientemente ordenadas como para poder manejarlas.

Su intuición casi resolvió el problema, pero pasó por alto un detalle matemático clave. “Si hubiera sido menos perezoso con las arcotangentes o los logaritmos, llamaríamos a esto el ansatz de Bloch”, asevera Jean-Sébastien Caux, profesor de la Universidad de Ámsterdam.
Bethe se dio cuenta de que había una segunda posibilidad para que dos ondas pudieran coexistir: podían atraerse entre sí de forma que viajarían juntas. Con esto, Bethe captó todo lo que la cadena de espín podía hacer. Teniendo en cuenta estos dos movimientos colectivos (choques suaves y viajes en pares), pudo calcular la energía exacta para cada posible disposición de la cadena.
Bethe había dado con una teoría cuántica perfecta, que funcionaba para cualquier número de partículas. Sin embargo, nunca la utilizó para explicar los imanes del mundo real. Funcionaba para cadenas, pero no para bloques de átomos, como él había imaginado. En cambio, demostraría su valor de otras maneras.
Las raíces de la perfección cuánticaCuando Hitler ascendió al poder en los años siguientes, Bethe huyó de Alemania y llegó a los Estados Unidos, donde trabajó como líder del Proyecto Manhattan. Después de la guerra, continuó estudiando física, pero nunca regresó a su ansatz.
Serían otros los que descubrirían hasta qué punto podía funcionar el ansatz de Bethe. Funcionó para cadenas de espín con defectos e incluso para cadenas de partículas que se influyen entre sí de forma no magnética. Sin embargo, curiosamente, siguió fallando con los bloques de átomos del mundo real que originalmente habían motivado a Bethe. No fue hasta la década de 1960, cuando los teóricos lo aplicaron a delgadas láminas de hielo (otro sistema de innumerables partículas cuánticas), que descubrieron por qué.
Los investigadores, al enfriar el hielo a temperaturas inauditas, descubrieron un misterio: si el hielo perdía todo su calor, esperaban que sus moléculas se asentaran formando un cristal perfecto y único. En cambio, encontraron un extraño desorden, como si las moléculas pudieran acabar en diferentes disposiciones que variaban sutilmente de un experimento a otro.
Los teóricos se dieron cuenta de que las capas congeladas también contenían ondas que viajaban a lo largo de una línea. Cada capa formaba efectivamente un cristal perfecto de moléculas de H2O repetidas. Pero cada molécula podía adoptar una de seis configuraciones diferentes, como un píxel que puede ser rojo, verde, azul, amarillo, naranja o violeta. Cada vez que los experimentadores enfriaban el hielo, obtenían una imagen multicolor diferente. Pero había un método en la locura. Los teóricos descompusieron la imagen, comenzando por la parte superior, tomándola línea por línea. Trataron cada cadena de píxeles como un fotograma de una película. Y cuando reprodujeron la película, vieron ondas. Un píxel verde podía ondular la línea hacia la derecha, para dar un ejemplo demasiado simplista. Y cuando estas ondas chocaban, lo hacían suavemente, manteniendo su forma, exactamente como en la cadena de espín de Bethe.
De modo que con el ansatz de Bethe, los físicos podían calcular con precisión las probabilidades de medir esos patrones en un experimento. Era otra teoría cuántica perfecta.

Felix Bloch worked out much of the physics that would ultimately become known as the Bethe ansatz. Foto: Dominio público
Esta suavidad y esta geometría eran la base del poder del ansatz de Bethe, como argumentó el físico australiano Rodney Baxter a principios de los años 1970. Muchos sistemas conservan el momento y la energía, incluso durante colisiones violentas. Pero en las capas de hielo, la suavidad de las colisiones preservaba muchas más cantidades. El momento y la energía eran solo las primeras de una lista interminable de leyes de conservación, cada una basada en la anterior. Basándose en estas leyes, Baxter explicó qué problemas podía resolver el ansatz de Bethe. Si un sistema contenía ondas que chocaban suavemente en alguna cadena, ya sea momento a momento o línea a línea, la multitud de leyes de conservación lo domaría.
En estos casos, “se tiene una historia completa de la A a la Z. Se empieza desde lo microscópico y se deriva absolutamente todo”, explica Caux.
El último enigma de FeynmanCon esta comprensión más profunda, los físicos continuaron utilizando el ansatz de Bethe de nuevas maneras. Después de su muerte, una fotografía de la pizarra de Feynman capturó las palabras: “Lo que no puedo crear, no lo entiendo”, junto con una lista rotulada “para aprender”, que comienza con el ansatz de Bethe.
En sus últimos meses, Feynman había hablado de un “ambicioso sueño” de utilizar el ansatz de Bethe para comprender las colisiones entre partículas de alta energía, que los físicos predecían mediante aproximaciones complicadas. Señaló que dos protones a menudo pasan a toda velocidad uno al lado del otro como si fueran coches en carriles opuestos de una autopista. En lugar de hacer contacto directo, intercambian partículas de vida corta. Este intercambio los acerca o los aleja, pero no afecta significativamente a su alta velocidad. Los cambios importantes se producen momento a momento a lo largo de una línea, como en una cadena de espín.
El cáncer se llevó a Feynman antes de que pudiera desarrollar la idea. Pero otros acabaron uniendo las piezas del rompecabezas. Cuando Ludvig Faddeev, físico ruso y maestro del ansatz de Bethe, dio una charla en la Universidad de Stony Brook en 1994, escribió en la pizarra una fórmula extraída de uno de sus artículos anteriores. En ella se describía un sistema concreto cuyo comportamiento podía calcularse utilizando el ansatz de Bethe. Gregory Korchemsky, un físico de partículas que se encontraba entre el público, la reconoció inmediatamente de otro contexto. Los premios Nobel David Gross y Frank Wilczek habían utilizado la misma fórmula en la década de 1970 para describir las partículas energéticas que “abrían” un protón.
Trabajando juntos, Faddeev y Korchemsky descubrieron que, efectivamente, el ansatz de Bethe se aplicaba a las colisiones de partículas de alta energía, haciendo realidad el sueño de Feynman. Lo que Gross y Wilczek habían aproximado, ellos lo calcularon con exactitud. El ansatz de Bethe ha encontrado más usos desde entonces, como en modelos de juguete perfectos de la gravedad cuántica.
En un mundo de muchas partículas, los efectos de todo sobre todo lo demás a menudo superan a los teóricos. Sin embargo, la suposición de Bethe proporcionó a los físicos una forma de comprender por completo ciertos sistemas cuánticos. Durante el siglo siguiente, los físicos destilaron su idea en una receta que, cuando las estrellas se alinean, les permite predecir con precisión lo que de otro modo sería incognoscible. Y se han maravillado de cómo esas estrellas a veces se alinean, lo que permite predicciones perfectas sobre el hielo, los protones, los agujeros negros y más.
Los métodos de ansatz Bethe Ansatz aparecen en muchos lugares, comenta Pedro Vieira, profesor del Instituto Perimeter de Física Teórica en Waterloo, Canadá. “Parece que la naturaleza aprecia las cosas bellas”.
El artículo original, How Hans Bethe Stumbled Upon Perfect Quantum Theories, se publicó el 12 de febrero de 2025 en Quanta Magazine.
Traducido por César Tomé López
El artículo Cómo Hans Bethe se topó con las teorías cuánticas perfectas se ha escrito en Cuaderno de Cultura Científica.
Las gambas mantis: ataque ultrarrápido y escudo fonónico
Las galeras (Squilla mantis) son unos crustáceos estomatópodos que se capturan en grandes cantidades en nuestras costas. A pesar de su excelente sabor son poco apreciadas por su aspecto. Sus patas adaptadas para atrapar presas recuerdan a las de las mantis religiosas (Figura 1).

Unos estomatópodos tropicales, los gonodactiloideos, conocidos como gambas mantis, han modificado estos apéndices para convertirlos en auténticas mazas con las que golpear a sus presas (Figura 1). Las propiedades de esta adaptación son impresionantes. El apéndice se pliega por acción muscular almacenando energía mecánica en una especie de resorte, algo parecido a lo que ocurre con una ballesta. Cuando se libera el resorte, el apéndice se dispara hacia delante para golpear el objetivo. La maza adquiere una velocidad de 30 metros por segundo en menos de tres milisegundos (Figura 2). La aceleración es similar a la de una bala de pequeño calibre, y podemos comprobar sus efectos en los siguientes vídeos.
Aquí vemos en acción a la gamba mantis pavo real (Odontodactylus scyllarus) rompiendo la concha de un cangrejo ermitaño. Se describe también el sorprendente sistema visual de estos animales, equipado con doce tipos de fotorreceptores capaces de detectar luz polarizada y ver en el espectro ultravioleta El mecanismo de golpeo de la gamba mantis también le sirve como defensa. Aquí vemos como es capaz de derrotar a un pulpo mucho mayor que ellaSe trata de uno de los ataques más fulminantes registrados en el reino animal. Los más sólidos caparazones de artrópodos o conchas de moluscos terminan rompiéndose tras uno o varios golpes. Se ha descrito incluso como el cristal de un acuario se rompió a consecuencia de estos impactos.
Utilizando sensores muy precisos se observó que la presa recibe dos golpes en cada ataque. El primero de ellos tiene una fuerza de 400-1500 newtons. Para hacernos una idea, esta es la fuerza del puñetazo de un boxeador profesional. Menos de medio milisegundo después, la presa es golpeada de nuevo por una fuerza de unos 500 newtons.

La explicación de este doble golpe resultó asombrosa. El desplazamiento del fluido por el rapidísimo movimiento del apéndice provoca una burbuja de cavitación, formada por vapor de agua. La burbuja implosiona en nanosegundos, alcanzando temperaturas de miles de grados, emitiendo luz y sonido y provocando ondas de choque1. Estas ondas, de altísima frecuencia, son las que causan el segundo impacto sobre el objetivo.
Se estima que una gamba mantis es capaz de propinar 50 000 golpes en el intervalo entre mudas del caparazón. La pregunta es inevitable: ¿cómo es posible que sus apéndices sean capaces de quebrar los materiales más duros y no resulten dañados por tantos golpes?
Esta cuestión acaba de ser respondida en un estudio publicado en Science por investigadores de la universidad Northwestern, especializados en ingeniería de biomateriales. Empleando técnicas muy precisas de análisis, el equipo comprobó que las mazas de la gamba mantis están organizadas en dos capas. La zona de impacto está formada por una delgada capa (70 μm) de hidroxiapatito (el durísimo material inorgánico de nuestros huesos y dientes) y por otra capa (0,5 mm) de fibras mineralizadas de quitina en forma de espiga. Por debajo encontramos una capa de haces de fibras dispuestas de una forma helicoidal periódica. Se trata de una estructura Bouligand (Figura 3). Según los autores del estudio, estas estructuras constituirían un “escudo fonónico”, algo que debemos explicar más despacio.

Los cristales fotónicos son nanoestructuras ópticas diseñadas para afectar el movimiento de los fotones a causa de los diferentes índices de refracción de sus capas, que se repiten periódicamente. Esto causa interferencias destructivas para determinadas longitudes de onda (colores) que no pueden propagarse por el material. De forma análoga, un material fonónico se comportaría ante ondas sonoras como un cristal fotónico ante la luz. Es decir, determinadas frecuencias de sonido quedarían atenuadas o anuladas al atravesar la estructura2.
Los resultados publicados en Science muestran que la estructura Bouligand periódica de la maza de la gamba mantis dispersa y atenúa por un mecanismo fonónico las ondas de alta frecuencia producidas por la cavitación. Estas ondas son especialmente perjudiciales para la integridad de la maza.
Los resultados pueden tener aplicación industrial, por ejemplo en el diseño de materiales destinados a recibir impactos violentos. No resulta sorprendente que entre los organismos que financian esta investigación se encuentren las oficinas de investigación de la Marina y las Fuerzas Aéreas de los EE.UU. En cualquier caso, este es un excelente ejemplo de cómo soluciones estructurales desarrolladas por los seres vivos en el transcurso de su evolución pueden ser aplicadas en la ingeniería.
Referencias
Alderete, N.A., Sandeep, S., Raetz, S. et al. (2025). Does the mantis shrimp pack a phononic shield? Science doi: 10.1126/science.adq7100
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga
Notas:
1 No son los únicos animales capaces de generar estas burbujas de plasma. Sus parientes, las gambas pistola, también las producen al atacar a sus presas, en esta ocasión con chorros de agua a alta presión
2 Los interesados no deben perderse el excelente artículo de mi amigo Francis Villatoro sobre el tema. Allí se cuenta que la escultura “Órgano” de Eusebio Sempere (Fundación Juan March, Madrid) se comporta como un objeto fonónico, aunque no se había pretendido que tuviera esta propiedad
El artículo Las gambas mantis: ataque ultrarrápido y escudo fonónico se ha escrito en Cuaderno de Cultura Científica.
Quipu, la superestructura más grande del universo conocido

Para la mente humana resulta muy difícil entender las colosales dimensiones del universo. En nuestra evolución hemos ajustado el mundo a la utilidad del día a día y somos capaces de asimilar de manera natural las escalas de metros, kilómetros, minutos o años, pero terminamos desconcertados por los modelos que incluyen distancias astronómicas fuera de nuestro rango de experiencia cotidiana. Los tamaños, masas, distancias y velocidades que operan en esa escala cósmica se escapan a nuestra intuición y lo único que podemos hacer para acercarnos a su entendimiento es utilizar analogía, metáforas y comparaciones.
Por ejemplo, se suele decir que las naves más rápidas construidas por el hombre tardarían miles de años simplemente para llegar a la estrella más cercana. La Voyager 1, lanzada en septiembre de 1977, realizó varias maniobras de asistencia gravitatoria que la aceleraron a una velocidad de escape de 61,000 km/h (unos 17 km/s) en relación con el Sol y, sin embargo, tras casi medio siglo de viaje, apenas ha salido de nuestro sistema solar. Manteniendo esas cifras tardaría más de 70.000 años en llegar hasta Próxima Centauri, situada a poco más de cuatro años luz de nosotros. Si usáramos como referencia la sonda Solar Parker Probe, que se mueve alrededor del Sol a unos 340.000 km/h, el viaje hasta nuestra vecina estelar se alargaría casi 6.600 años. Si intentamos imaginar ahora cómo sería cruzar la Vía Láctea, nuestra humilde y relativamente pequeña galaxia de unos 100.000 años luz de diámetro, nos encontramos que la Solar Parker Probe tardaría más de 150 millones de años y nuestra mente comienza a perderse…
En nuestra vida cotidiana podemos entender, e incluso visualizar mentalmente, cuánto pesan cuarenta kilos, cuánto miden veinte centímetros o cómo sería un trayecto de ochenta kilómetros. Tenemos experiencias que nos ayudan a interiorizar esas medidas, pero ese apoyo desaparece cuando se trata de entender la masa de Eta Carinae o la distancia que nos separa del exoplaneta Kepler-22b. En ningún momento de nuestra existencia hemos necesitado entender medidas como el año luz, la unidad astronómica o el parsec para poder sobrevivir y, de esta manera, no es de extrañar que nuestro cerebro requiera de un esfuerzo adicional para aproximarse a algo parecido a la comprensión. Por ello, va a resultar difícil entender el reciente artículo, publicado en el repositorio científico ArXiv, en el que un equipo de astrónomos anuncia el descubrimiento de «la mayor superestructura del universo», un monstruo gigantesco, una estructura cósmica de dimensiones difíciles de concebir, un verdadero titán al que han llamado «Quipu».

Antes de la llegada de los europeos al Nuevo Mundo, las civilizaciones andinas no contaban con un sistema de escritura convencional, es decir un sistema en el que se representan sonidos o palabras individuales mediante símbolos gráficos, como ocurre con los alfabetos. En su lugar desarrollaron otras técnicas, bastante ingeniosas, que les permitían representar la realidad matemática utilizando diferentes cuerdas y nudos (quipus) o diseños geométricos plasmados en tejidos, cerámicas y otros objetos artísticos (topacus).
Los quipus eran un sofisticado sistema de cuerdas que los incas utilizaron para almacenar información numérica como registros contables, censos o datos administrativos. Podían ser muy simples, apenas un par de cuerdas y algunos nudos, o convertirse en verdaderas marañas de colores representativos con cientos o incluso miles de cuerdas y nudos. Inspirados por esta idea del Quipu, los autores del artículo científico han bautizado con su nombre a «la estructura cósmica más grande descubierta hasta la fecha». Una pincelada de poesía histórica, una metáfora artística (otra más) para ayudarnos a visualizar mejor uno de los titánicos andamios de nuestro universo local.
Una de las características más destacadas del universo es que es muy uniforme a gran escala. Cuando en 1965 los físicos estadounidenses Arno Penzias y Robert Wilson detectaron por primera vez la radiación de fondo cósmico de microondas (CMB) se dieron cuenta de que esa radiación electromagnética presentaba las mismas propiedades por todos lados y en todas direcciones. Las diferentes imágenes del CMB representan la radiación emitida tan solo 380.000 años después del Big Bang, cuando el universo se volvió transparente a la radiación y, a grandes rasgos, son mapas de temperaturas donde las diferencias son mínimas. Era un universo muy caliente, a unos 2500 grados centígrados, pero las fluctuaciones de temperatura y densidad apenas representaban diferencias del orden de una parte en cien mil. Y aún así, no deberíamos infravalorar esas diminutas variaciones (anisotropías) porque terminaron convirtiéndose en las semillas de las futuras estructuras del universo, de las galaxias y de los cúmulos de galaxias.
Al igual que las cuerdas de los quipus incas, la estructura descrita en el estudio contiene largos filamentos que se extienden, aproximadamente, 1300 millones de años luz, unas dimensiones que la convierten en el objeto más grande el universo local, superando a récords anteriores como el supercúmulo Laniākea, en el que se encuentra la Tierra. Está formada por cúmulos de galaxias y cúmulos de cúmulos de galaxias con una masa estimada, asombrosa y difícil de comprender, de unos «200 cuatrillones de masas solares».

El estudio también describe otras superestructuras cósmicas entre ellas el supercúmulo Shapley, que ya se conocía anteriormente y que poseía el récord como «la estructura cósmica más grande del universo local» pero que, ahora, palidece ante la grandeza de otras estructuras descubiertas como Serpens-Corona Borealis, Hercules o Sculptor-Pegasus. Todas ellas se encuentran a una distancia aproximada de entre 425 y 815 millones de años luz de la Tierra, pero Quipu destaca sobre el resto con una longitud que superaría 13.000 veces el diámetro de nuestra Vía Láctea. En conjunto, estas cinco superestructuras contienen el 45% de los cúmulos de galaxias, el 30% de las galaxias y el 25% de la materia del universo observable y, en total, constituyen el 13% del volumen del universo conocido.
Contamos con diferentes modelos cosmológicos que predicen estas grandes estructuras pero detectarlas no es un trabajo sencillo. Necesitamos datos de la distribución de la materia del universo en diferentes longitudes de onda, un buen número de datos recogidos por nuestros instrumentos ópticos terrestres, telescopios espaciales, sondas y observatorios que midan las «variaciones en el fondo cósmico de microondas, las distorsiones causadas por lentes gravitacionales a gran escala o la influencia de movimientos de transmisión a gran escala en las mediciones de la constante de Hubble».

Se trata de un artículo importante, que ya ha sido aceptado para su publicación en breve en la revista Astronomy and Astrophysics y que nos deja pistas palpables para entender el funcionamiento del universo a gran escala. Estas grandes acumulaciones de materia tienen un gran impacto en el entorno general, en las velocidades y trayectorias de miles de galaxias e incluso «afecta las mediciones de la expansión general del universo: donde reinan las superestructuras, la expansión local de las galaxias puede distorsionar la medición de la expansión general del universo, conocida como la constante de Hubble». Finalmente, la atracción gravitatoria de tanta materia también puede causar una curvatura de la luz (efecto de lente gravitacional) que puede distorsionar las imágenes del cielo distante.
Futuros estudios de estas superestructuras afectan tanto al presente como al futuro del universo. Son estructuras temporales, como casi todo en nuestro cosmos, y la expansión del espacio-tiempo las irán desintegrando, dividiendo y dispersando en diferentes unidades más pequeñas pero, por ahora y según los propios autores, «representan entidades físicas con propiedades características y entornos cósmicos especiales que merecen una atención especial».
Referencias y más información:
Boehringer, Hans, et al. (2025)Unveiling the largest structures in the nearby Universe: Discovery of the Quipu superstructure arXiv doi: 10.48550/arXiv.2501.19236.
Stephanie Pappas (2025) Astronomers discover ‘Quipu’, the single largest structure in the known universo Live Science (2025)
Sobre el autor: Javier «Irreductible» Peláez (Puertollano, 1974) es escritor y comunicador científico. Autor de 500 años de frío. La gran aventura del Ártico (Crítica, 2019) y Planeta Océano (Crítica 2022). Es uno de los fundadores de la plataforma Naukas.com, editor de ciencia en Yahoo España y Latinoamérica. Es guionista científico en los programas de televisión «El Cazador de Cerebros» y «Órbita Laika» de RTVE. Durante más de una década ha escrito en diferentes medios de comunicación (El País, El Español, National Geographic, Voz Populi). Es autor de los podcasts Catástrofe Ultravioleta y La Aldea Irreductible, y ha colaborado en diferentes proyectos radiofónicos y televisivos (Radio Nacional de España, Radio Televisión Canaria). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.
El artículo Quipu, la superestructura más grande del universo conocido se ha escrito en Cuaderno de Cultura Científica.
¿Y si la Tierra dejase de rotar?
Si la Tierra dejase de rotar de forma abrupta, de entrada tendríamos un grave problema con la inercia.
Los vídeos ‘¿Y sí…?´ se plantean cuestiones ficticias pero que nos permiten aprender mucho sobre el mundo en el que vivimos. Se han emitido en el programa de divulgación científica de Televisión Española Órbita Laika, y producido en colaboración con la Cátedra de Cultura Científica de la Universidad del País Vasco.
Ficha técnica: Idea: José Antonio Pérez Ledo
Producción ejecutiva: Blanca Baena
Dirección: Aitor Gutierrez
Guion: Manuel Martinez March
Grafismo: Cristina Serrano
Música: Israel Santamaría
Producción: Olatz Vitorica
Locución: José Antonio Pérez Ledo
El artículo ¿Y si la Tierra dejase de rotar? se ha escrito en Cuaderno de Cultura Científica.
Los cerebros de aves, reptiles y mamíferos han seguido trayectorias evolutivas diferentes
Dos estudios publicados en el último número de la revista Science, liderados por el Dr. Fernando García-Moreno, investigador Ikerbasque en el centro de investigación Achucarro Basque Center for Neuroscience (ACHUCARRO) y en la Universidad del País Vasco (UPV/EHU), y colaboradores, han revelado que aves, reptiles y mamíferos han desarrollado circuitos cerebrales complejos de forma independiente, a pesar de compartir un ancestro común. Estos hallazgos desafían la visión tradicional de la evolución del cerebro y demuestran que, aunque existen funciones cerebrales comparables entre estos grupos, los mecanismos de formación embrionaria y tipos celulares han seguido trayectorias evolutivas diferentes.

El palio es la región del cerebro donde se forma la neocorteza en mamíferos, esa región del cerebro responsable de funciones cognitivas y complejas y que más diferencia a los humanos del resto de especies. El palio ha sido tradicionalmente considerado una estructura comparable entre mamíferos, aves y reptiles, variando tan sólo en niveles de complejidad. Se asumía que esta región albergaba tipos neuronales similares, con circuitos equivalentes para el procesamiento sensorial y cognitivo. Estudios previos habían identificado la presencia de neuronas excitatorias e inhibitorias compartidas, así como patrones generales de conectividad que sugerían una evolución similar en estas especies de vertebrados. Sin embargo, los nuevos estudios han revelado que, aunque las funciones generales del palio sean equivalentes entre estos grupos, los mecanismos de desarrollo y la identidad molecular de sus neuronas han divergido sustancialmente a lo largo de la evolución.
Circuitos durante el desarrollo embrionarioEl primer estudio, desarrollado por Eneritz Rueda-Alaña y Fernando García Moreno en ACHUCARRO y apoyados por un equipo multidisciplinar de colaboradores de los centros vascos CICbioGUNE y BCAM, el madrileño CNIC, la Universidad de Murcia, Krembil (Canadá) y la Universidad de Estocolmo, muestra que aunque aves y mamíferos han desarrollado circuitos con funciones similares, la forma en que estos circuitos se generan durante el desarrollo embrionario es radicalmente diferente. “Sus neuronas nacen en lugares y momentos del desarrollo diferentes para cada especie” explica el Dr. García Moreno, director del laboratorio de desarrollo y evolución cerebral, “indicando que no son neuronas comparables derivadas de un ancestro común”. Mediante análisis de transcriptómica espacial y modelado matemático, los investigadores encontraron que las neuronas responsables del procesamiento sensorial en aves y mamíferos se conforman empleando grupos de genes diferentes. “Las herramientas genéticas que utilizan para cimentar su identidad celular varía de unas especies a otras, cada una muestra tipos celulares nuevos y únicos”. Todo ello indica que estas estructuras y circuitos no son homólogos, sino el resultado de evolución convergente, es decir, “han llegado a generar estos circuitos neuronales esenciales mediante caminos evolutivos diferentes”.

El segundo estudio, abunda en estas diferencias. Llevado a cabo en la Universidad de Heidelberg (Alemania) y co-dirigido por Bastienne Zaremba, Henrik Kaessmann y Fernando García Moreno, proporciona un atlas detallado de los tipos celulares en el cerebro de las aves y lo compara con el de mamíferos y reptiles. “Hemos podido describir los cientos de genes que emplea cada tipo de neurona en estos cerebros, célula a célula, para compararlos con herramientas de bioinformática”. Los resultados muestran que las aves han conservado la mayoría de las neuronas inhibitorias presentes en otros vertebrados, desde hace cientos de millones de años. Sin embargo, sus neuronas excitatorias encargadas de la transmisión de la información en el palio, han evolucionado de manera única. Tan sólo se identificaron algunos tipos celulares en el cerebro aviar con perfiles genéticos similares a otras presentes en mamíferos, como el claustro y el hipocampo, lo que sugiere que algunas neuronas son muy antiguas y compartidas. “Sin embargo, la mayoría de las neuronas excitatorias han evolucionado de modos nuevos y diferentes en cada especie” detalla el Dr. García-Moreno.

Los estudios, publicados en Science, utilizaron técnicas avanzadas de transcriptómica espacial, neurobiología del desarrollo, análisis de células individuales y modelado matemático para trazar la evolución de los circuitos cerebrales en aves, mamíferos y reptiles.
Reescribiendo la historia evolutiva del cerebro“Nuestros estudios demuestran que la evolución ha encontrado múltiples soluciones para construir cerebros complejos”, explica el Dr. García-Moreno. “Las aves han desarrollado circuitos neuronales sofisticados a través de mecanismos propios, sin seguir el mismo camino que los mamíferos. Esto cambia la forma en que entendemos la evolución del cerebro.”
Estos hallazgos subrayan la flexibilidad evolutiva del desarrollo cerebral, mostrando que funciones cognitivas avanzadas pueden emerger a través de vías celulares y genéticas muy diferentes.
“Nuestro cerebro nos hace humanos, pero también nos une al resto de especies animales a través de una historia evolutiva compartida” explica el Dr. García Moreno. El descubrimiento de que aves y mamíferos han desarrollado circuitos neuronales de forma independiente tiene importantes implicaciones para la neurociencia comparada. Comprender los diferentes programas genéticos que dan lugar a tipos neuronales específicos podría abrir nuevas vías para la investigación en neurodesarrollo. El Dr. García Moreno apuesta por este tipo de investigación básica, “sólo entendiendo cómo se forma el cerebro, tanto en su desarrollo embrionario como en su historia evolutiva, podremos alcanzar a comprender cómo funciona”.
Referencias:
Rueda-Alaña E, Senovilla-Ganzo R, Grillo M, Vázquez E, Marco-Salas S, Gallego-Flores T, Ftara A, Escobar L, Benguría A, Quintas A, Dopazo A, Rábano M, dM Vivanco M, Aransay AM, Garrigos D, Toval A, Ferrán JL, Nilsson M, Encinas JM, De Pitta M, García-Moreno F (2025) Evolutionary convergence of sensory circuits in the pallium of amniotes Science doi: 10.1126/science.adp3411
Zaremba B, Fallahshahroudi A, Schneider C, Schmidt J, Sarropoulos I, Leushkin E, Berki B, Van Poucke E, Jensen P, Senovilla-Ganzo R, Hervas-Sotomayor F, Trost N, Lamanna F, Sepp M, García-Moreno F, Kaessmann H (2025) Developmental origins and evolution of pallial cell types and structures in birds Science doi: 10.1126/science.adp5182
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Los cerebros de aves, reptiles y mamíferos han seguido trayectorias evolutivas diferentes se ha escrito en Cuaderno de Cultura Científica.
Impresión funcional: revolucionando la integración de capacidades electrónicas
En el segmento de la electrónica de consumo, se estima que las ventas alcanzarán los 1000 billones de dólares. A esta cifra se suman los mercados de aplicaciones que integran funcionalidades electrónicas, como sensores, calefactores o antenas.
El sector ha encontrado nuevas vías de crecimiento gracias a las oportunidades y necesidades que ofrece la conectividad generalizada y el Internet of Things. Existe una demanda real de incorporar funcionalidades electrónicas en nuevos productos; no obstante, las tecnologías convencionales enfrentan limitaciones intrínsecas en los procesos y materiales comúnmente utilizados.
El desafío consiste en integrar estas funcionalidades en lugares donde antes no era posible hacerlo de manera eficiente. La solución podría residir en la impresión funcional.
Durante muchos años, la electrónica convencional ha sido la base de la innovación tecnológica. Utilizando circuitos impresos rígidos (PCBs), esta tecnología ha posibilitado desarrollar de una amplia gama de dispositivos electrónicos, desde computadoras personales hasta equipos médicos.
-
La solidez y durabilidad de las PCBs rígidas las convierten en la opción perfecta para aplicaciones en las que la estabilidad del circuito es fundamental.
-
La estandarización en su fabricación permite la producción en masa, lo que a su vez disminuye los costes y los tiempos de producción.
La rigidez de estas PCBs conlleva sin embargo limitaciones importantes.
-
Su falta de flexibilidad restringe su uso en aplicaciones que necesitan doblarse o estirarse, como ropa inteligente o dispositivos portátiles.
-
También, su tamaño y forma inalterables pueden representar un desafío en el diseño de productos, ya sean más compactos y ergonómicos o más voluminosos y de geometría compleja.
Estas limitaciones nos llevan a cuestionarnos: ¿cómo podemos sortear estos retos y qué opciones existen para la electrónica convencional?
Una integración completaLa impresión funcional se presenta como una posible solución a las restricciones de la electrónica tradicional, siendo una tecnología emergente con el potencial de transformar el diseño y la producción de dispositivos electrónicos. Gracias a los progresos en las técnicas de impresión, que abarcan desde la consolidada serigrafía hasta los diversos métodos digitales de jetting, ahora es factible aplicar materiales funcionales sobre sustratos flexibles o incluso directamente sobre el producto final.

Gracias a esta tecnología, es posible desarrollar circuitos que se ajustan de manera óptima a las formas y movimientos del entorno donde se implementan, lo que abre un sinfín de oportunidades para diseñar productos innovadores y hechos a medida.
Además de resolver los problemas relacionados con las dimensiones y la rigidez, la impresión funcional permite fabricar componentes electrónicos como sensores, calefactores, antenas y circuitos de iluminación. Esta tecnología incluso tiene el potencial de sustituir el cableado tradicional, resultando en dispositivos más ligeros y con un uso del espacio más eficiente.
Estamos presenciando el comienzo de una nueva etapa en la electrónica debido a esta tecnología, donde la adaptabilidad y la personalización son esenciales para cumplir con las exigencias de un mercado en continuo cambio y con expectativas cada vez mayores.
Procesos sosteniblesConsiderando la sostenibilidad, la impresión funcional supone un progreso notable. Como tecnología aditiva, permite aplicar materiales solo en las áreas necesarias, disminuyendo así el desperdicio y el uso de recursos. A diferencia de los métodos tradicionales, que suelen ser sustractivos y eliminan material para dar forma al producto final. La posibilidad de emplear tintas y sustratos biodegradables o reciclables, alineándose con las crecientes demandas de responsabilidad ambiental en la producción industrial, mejora significativamente el perfil ecológico de esta tecnología.
Respecto al proceso, la digitalización de ciertas técnicas de impresión funcional ofrece una mayor versatilidad y dinamismo en los procesos de trabajo. El paso de los diseños desde la fase conceptual hasta la producción se realiza de manera más ágil y eficiente, permitiendo ajustes en tiempo real sin requerir cambios en herramientas físicas o moldes. Esto promueve la experimentación y la personalización, permitiendo a los fabricantes adaptarse ágilmente a las tendencias del mercado y a las demandas específicas de los clientes
Sin embargo, es en el campo de la innovación de producto donde la impresión funcional destaca verdaderamente, permitiendo aplicaciones disruptivas que antes eran inimaginables. La integración de componentes electrónicos en casi cualquier superficie y forma permite desarrollar productos inteligentes y conectados en una variedad de sectores, incluyendo el aeroespacial, la medicina y la arquitectura.
Nos encontramos en el inicio de una nueva etapa donde la funcionalidad y la forma se combinan, elevando la innovación a un nivel totalmente diferente.
El compromiso de TECNALIAEn TECNALIA creemos firmemente que estas tecnologías tendrán un impacto significativo en el corto y mediano plazo. Por ello, hemos decidido implementar una estrategia de especialización que se apoya en el conocimiento acumulado de la organización y en las sinergias entre nuestros diversos grupos de investigación.
En consecuencia, estamos creando soluciones transversales que abarcan todos los sectores y se centran en las siguientes técnicas de impresión funcional:
-
Implementamos funcionalidades directamente en superficies finales, sin importar su geometría o material. Para ello, desarrollamos los procesos necesarios utilizando nuestra base de datos de materiales y un laboratorio avanzado que dispone de las principales tecnologías de impresión, así como un equipamiento único para impresión e hibridación en superficies 3D.
-
Incorporación de funcionalidades impresas en materiales compuestos. Hemos desarrollado y patentado un proceso que permite la impresión e hibridación de componentes electrónicos en las capas del material, facilitando su posterior procesamiento con diversas tecnologías de fabricación de composites.
-
Fabricación aditiva de dispositivos electrónicos. Estamos investigando las oportunidades de incorporar funcionalidades impresas durante la fabricación aditiva de polímeros. Esto es posible gracias a un equipo singular multicabezal único que permite la impresión simultánea de estructuras poliméricas 3D y la integración de printed electronics.
-
Integración de alimentación y comunicaciones inalámbricas. Entendemos que la conectividad es uno de los desafíos a resolver en la impresión funcional. En TECNALIA, optamos por reemplazar, en ciertos casos, los conectores físicos por antenas impresas que permiten la captación y transmisión de energía y datos.
La impresión funcional ha dejado de ser una promesa y se ha establecido como un complemento muy valioso con respecto a la electrónica convencional, ofreciendo múltiples aplicaciones en diversos sectores. Desde la automoción hasta el sector aeroespacial, incluyendo la salud, el packaging y la construcción, la integración de funcionalidades electrónicas impresas está permitiendo a las empresas añadir valor a sus productos. Como resultado, las empresas ven un aumento significativo en su competitividad.
En TECNALIA, apoyamos a las empresas en este recorrido, ofreciendo nuestra extensa experiencia en impresión funcional, así como en otras tecnologías necesarias para cada caso de uso específico.
Sobre el autor: Ibai Santamaría es ingeniero industrial y el el responsable de la plataforma de impresión funcional de TECNALIA
Sobre TECNALIA: El mayor centro de investigación aplicada y desarrollo tecnológico de España, un referente en Europa y miembro de Basque Research and Technology Alliance (BRTA).
Basque Research & Technology Alliance (BRTA) es un consorcio que se anticipa a los retos socioeconómicos futuros globales y de Euskadi y que responde a los mismos mediante la investigación y el desarrollo tecnológico, proyectándose internacionalmente. Los centros de BRTA colaboran en la generación de conocimiento y su transferencia a la sociedad e industria vascas para que sean más innovadoras y competitivas. BRTA es una alianza de 17 centros tecnológicos y centros de investigación cooperativa y cuenta con el apoyo del Gobierno Vasco, SPRI y las Diputaciones Forales de Araba, Bizkaia y Gipuzkoa.
El artículo Impresión funcional: revolucionando la integración de capacidades electrónicas se ha escrito en Cuaderno de Cultura Científica.
Ariel, un mundo de cañones
Durante cientos de años los satélites de Urano -los primeros, Titania y Oberón fueron descubiertos a finales del siglo XVIII- han sido unos enigmáticos habitantes de las afueras de nuestro sistema solar debido a la enorme distancia a nuestro planeta, dificultando mucho su descubrimiento y estudio. Y solo una sonda, la Voyager 2, visitó fugazmente el sistema de Urano en 1986, resolviendo algunas dudas, pero suscitando muchas otras preguntas. Algunas de estas cuestiones están relacionadas con sus satélites, muy interesantes a nivel geológico y astrobiológico. Dentro de estos, uno destaca y no precisamente por su tamaño: Ariel.
Apenas tiene un tercio del tamaño de nuestra Luna, pero su superficie cubierta de sistemas de fracturas y de cañones ha despertado el interés de los científicos desde que la Voyager tomó las únicas imágenes “de cerca” de las que disponemos. ¿Podría Ariel tener un océano subterráneo y, además, una “tectónica de placas” sobre hielo?

Si miramos con detenimiento la superficie de Ariel salta a la vista que está dominada por una gran red de cañones o, en términos más apropiados para la geología planetaria, chasmata. No son pequeños valles, sino grandes sistemas de valles con altísimos acantilados que muestran que Ariel ha sufrido importantes procesos geológicos -algunos de rejuvenecimiento- de su superficie en un periodo reciente.
Un nuevo estudio publicado en The Planetary Science Journal por Beddingfield et al. (2025) pone precisamente el ojo en estos cañones, pero no en todos, sino en los que contienen un tipo específico conocido como “medial grooves” y que podríamos traducir al castellano como “canales medianeros”. Estas formas del relieve son unos valles mucho más estrechos que existen en el interior de otros valles, a veces recorriéndolos de manera paralela.
Los investigadores sugieren que estos canales no tienen nada de casual, sino que tienen un enorme significado dentro del contexto geodinámico del satélite. Para ellos representan la prueba de lo que en nuestro planeta conocemos como centros de expansión, los lugares donde dos o más placas tectónicas se separan pudiendo dar lugar a un océano entre ellas. De hecho, hoy en día en la Tierra la mayoría de estos centros de expansión son las dorsales oceánicas, recorriendo el fondo de los océanos como una inmensa cordillera que nos recuerda que, a ambos lados de esa división, antaño estuvimos unidos.

Pero Ariel no es un cuerpo rocoso como nuestro planeta, y su corteza que está compuesta principalmente por hielo. Entonces, ¿cómo podría darse un proceso similar en materiales totalmente distintos? La respuesta está, precisamente, en las propiedades mecánicas del hielo a muy baja temperatura y la posible existencia de un océano subterráneo.
De hecho, los científicos proponen que estas medial grooves son directamente la expresión de una tectónica sobre hielo donde, en vez de ascender el magma desde las profundidades, lo que asciende es una forma de hielo más plástico -y a una mayor temperatura- o incluso un lodo rico en agua desde el interior, sirviendo como una especie de cuña que empuja y sirve para agrandar los sistemas de valles y crear nueva corteza, igual que en nuestro planeta ocurre en las dorsales oceánicas.
Hay un detalle sobre los valles que no quería que pasase desapercibido: Si comparamos el fondo de estos frente al resto de la superficie de Ariel, nos daremos cuenta que, el número de cráteres que hay en su interior, es mucho menor que el que hay en otras zonas del planeta, lo que nos indica que es una superficie más joven y esto nos trae una consecuencia de gran importancia a nivel astrobiológico: Que este pequeño satélite está o ha estado activo geológicamente en un pasado muy reciente.

Pero hay más… ¿y si estos centros de expansión pudiesen estar relacionados con un océano subterráneo que de algún modo sirviese como correa de transmisión de la energía interna de Ariel hacia el exterior, pero también de materia? Las últimas observaciones realizadas tanto con telescopios terrestres como con el JWST han mostrado que su superficie está cubierta por hielo de monóxido y dióxido de carbono. Estos dos compuestos son volátiles y, de manera natural, se sublimarían rápidamente y escaparían al espacio bajo las condiciones de temperatura de Ariel salvo que haya algún mecanismo que vaya “rellenando” -o mejor dicho- volviendo a cubrir su superficie de estos compuestos. Y, además, también hay evidencias de compuestos relacionados con el amoniaco en su superficie.
El amoniaco es un ingrediente -si me permiten el término culinario- fundamental para la supervivencia de los océanos subterráneos, ya que es un poderoso anticongelante, consiguiendo que el punto de congelación del agua baje de una manera significativa. Incluso una pequeña cantidad de amoniaco disuelta en el agua podría permitir que existiese un océano de agua líquida en las profundidades de Ariel a escala de tiempo geológica.
Y aquí es donde vuelven a entrar estas medial grooves en el juego, ya que podrían ser la autopista que llevara estos compuestos volátiles hacia la superficie, como una especie de conducto que comunica el exterior de Ariel con un océano subterráneo o con una capa parcialmente líquida: Lo que viene siendo un volcán en toda regla, bueno, en este caso criovolcán, permitiendo la expulsión del CO, el CO2, el amoniaco y otros materiales desde el interior a la superficie a través de estas fisuras. Por cierto, un mecanismo ya nada exótico y que hemos podido observar en funcionamiento en satélites como Encélado.
Las consecuencias de este estudio son claras y contundentes: los mundos océano podrían ser todavía más comunes de lo que imaginamos y, por lo tanto, nuestro sistema solar un lugar con más objetivos interesantes desde el punto de vista de la astrobiología. Eso sí, la ventana de habitabilidad de estos cuerpos probablemente dependa en su mayoría de las interacciones gravitatorias con su planeta y otros satélites, condiciones que pueden cambiar, haciendo que pierda la fuente de energía que mantenga su océano en estado líquido. Así que si todavía existe este océano, somos unos afortunados por haber llegado en el momento exacto.
Pero, desgraciadamente, todavía nos queda mucho para confirmar estudios como este. Las imágenes de la Voyager 2 tienen una resolución limitada y apenas cubrieron el 35% de la superficie de Ariel, así que para poder comprobar si efectivamente estamos ante un mundo con una tectónica sobre hielo y un océano subterráneo necesitaremos volver a Urano con misiones modernas y más sofisticadas que puedan aportarnos todos esos detalles que nos faltan por conocer de este apasionante sistema.
Referencias:
Beddingfield, C. B., Cartwright, R. J., Jozwiak, L. M., Nordheim, T. A., & Patterson, G. W. (2025). Ariel’s medial grooves: Spreading centers on a candidate ocean world. The Planetary Science Journal doi: 10.3847/psj/ad9d3f
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Ariel, un mundo de cañones se ha escrito en Cuaderno de Cultura Científica.
Primeras evidencias de presencia humana en Europa hace 2 millones de años

Hace algo más de medio siglo, durante la década de los sesenta, un equipo de paleontólogos y antropólogos realizó un interesante hallazgo cerca de la pequeña localidad de Grăunceanu, Rumania. Junto al valle del río Olteţ, centenares de huesos de animales prehistóricos, acumulados en un solo yacimiento, resurgían de la tierra ante el asombro de los investigadores. El inexorable paso del tiempo y la paciente acción fluvial habían arrastrado, sedimento tras sedimento, capa tras capa, una impresionante cantidad de restos fósiles, concentrándolos en un rincón de apenas 90 m2. Una amplia diversidad de huesos que el agua fue arrastrando durante milenios y que los investigadores de la época describieron como «mamuts, varias especies de bóvidos y cérvidos, jirafas, équidos, rinoceróntidos, múltiples especies de carnívoros, roedores (castor, puercoespín), avestruces, una gran especie de mono terrestre (Paradolichopithecus) y el representante más temprano de los pangolines en Europa». La colección llegó a alcanzar miles de restos que se guardaron en dos instituciones, el Instituto de Espeleología «Emil Racoviţă» y el Museo de Oltenia… y allí se quedaron durante décadas, guardados en cajas y volviendo a cubrirse de polvo en algún almacén olvidado.
Un nuevo examenSesenta años más tarde, un equipo internacional de investigadores recordó aquel antiguo yacimiento de Grăunceanu y se propuso revisar los restos guardados con la mirada que proporcionan las avanzadas tecnologías actuales. Los huesos aún estaban en sus cajas pero la documentación que los identificaba y clasificaba no aparecía por ningún lado. «Desafortunadamente, casi todos los registros de la excavación y datos de procedencia de los restos se han perdido», explica Sabrina C. Curran, investigadora principal.
Comienza entonces una exhaustiva labor de reidentificación, que se extendió durante cuatro veranos (años 2019 al 2022), y en la que se utilizaron modernas técnicas de datación mediante uranio-plomo (U-Pb) de alta precisión así como análisis de isótopos estables de oxígeno y carbono de alta resolución. El resultado de estas campañas fue alentador y descubrió que algunos de estos restos se remontaban dos millones de años en el pasado. «Nuestro equipo ha identificado e inventariado un total 5527 restos, incluyendo materiales de Grăunceanu (4983) y localidades más pequeñas como Fântâna lui Mitilan (139) y La Pietriș (116)». Una rica biodiversidad que, según las reconstrucciones paleoecológicas, se desarrolló en un entorno de pastizales abiertos, con bosques, ríos y lagos, comparable a un hábitat de bosque-estepa.
Presencia de homínidosEn ocasiones, el conocimiento científico no llega gracias a un nuevo y flamante descubrimiento sino al cuidadoso análisis o revisión de uno antiguo, y es aquí donde llegan las novedades más fascinantes. Los resultados de esta moderna revisión de los restos hallados en Grăunceanu se han publicado hace unos días en Nature Communications y nos sorprenden con las evidencias más antiguas de presencia humana (homininos) en Europa que se remontan a hace unos dos millones de años. Es un salto considerable si tenemos en cuenta que, hasta ahora, las pistas más antiguas que teníamos del género homo en Europa pertenecían al célebre yacimiento de Dmanisi (Georgia) donde se descubrieron restos de homínidos que datan de hace 1,8 millones de años.
«No hay que olvidar que la presencia de homínidos en el yacimiento de Dmanisi se basa directamente en restos humanos mientras que el nuevo estudio está basado en pruebas indirectas», nos explica Roberto Sáez, Doctor en Antropología y divulgador científico, experto en evolución humana.
Este es un hecho que los propios investigadores reconocen al afirmar que «aunque no hemos identificado restos de homínidos ni industria lítica in situ en Grăunceanu […] en este trabajo presentamos evidencia de la presencia de homínidos en Eurasia hace al menos 1,95 millones de años en forma de huesos con marcas de corte, respaldados por estimaciones de edad de uranio-plomo (U-Pb) de alta precisión».

El equipo analizó un total de 4746 especímenes a la búsqueda de modificaciones de la superficie ósea para descartar en primer lugar «cualquier marca abiótica (por ejemplo, matriz adherida, alisado, picaduras en la superficie ósea, erosión/disolución, agrietamiento/división de sedimentos, exfoliación/descamación) o bióticas no antropogénicas (modificación de carnívoros u homínidos, pisoteo, grabado de raíces/rizomorfos fúngicos, roedores, actividad de insectos, digestión, marcas de preparadores)». Para ello utilizaron herramientas ópticas de aumento con especial atención a las marcas líneas, «definidas como cualquier marca al menos el doble de larga que ancha». Cuando identificaron las marcas de interés, los investigadores siguieron los criterios cualitativos y protocolos de atribución ya establecidos en la literatura científica para registrar la trayectoria, orientación, morfología, número de marcas visibles, simetría, etc.
Según los resultados publicados se han encontrado un total de veinte especímenes que exhiben marcas de corte de interés de las cuales, siete muestran marcas de corte de alta confianza, doce muestran marcas de corte probables y un espécimen presenta ambos tipos de marcas, lo que lleva a los autores a «argumentar a favor de una presencia de homínidos en Europa hace al menos dos millones de años».
Qué homínidosLos yacimientos más antiguos (anteriores a 2 millones de años) fuera de África se agrupan en Oriente Medio, Rusia occidental alrededor de los mares Negro y Caspio, Asia central y China. Estos yacimientos incluyen una mezcla de localidades en la que se han encontrado líticos y/o una pequeña cantidad de huesos con marcas de corte. Aunque existen yacimientos donde se han descubierto posibles restos de homínidos de esa antigüedad (como los seis dientes descubiertos en Longgudong), los expertos aún albergan dudas sobre ellos y el consenso científico es que el yacimiento con restos humanos confirmados más antiguos fuera de Europa sigue siendo Dmanisi.

El estudio publicado evita deliberadamente entrar en el espinoso tema de qué especie de homínido pudo realizar esas marcas en los animales de Grăunceanu. «Este es un período en el que múltiples especies de homínidos coexistieron en sitios en el este y sur de África». La afinidad taxonómica de casi todos los fósiles de homínidos descubiertos hasta ahora sigue en pleno debate y abarca diferentes grupos homo, como el erectus o el ergaster.
No es el único hueco que nos queda por rellenar, aún nos faltan muchas piezas para completar el puzle de esas primeras migraciones, pero los hallazgos y estudios publicados en las últimas décadas nos animan a afirmar que, hace aproximadamente unos dos millones y medio de años, se inició la primera gran oleada de diferentes especies de homínidos desde África hacia Eurasia. «La interpretación actual es que no fue migración única sino muchas, intermitentes, que alcanzaron lugares tan lejanos como el norte de China», aclara Sáez. Contábamos con pistas indirectas, como industria lítica o marcas de cortes con herramientas, que indican presencia de homínidos por toda Asia y con una datación de hasta 2,1 millones de años, pero hasta ahora no habíamos encontrado pruebas en Europa con esa antigüedad. El estudio publicado en Nature Communications abre por fin esta puerta.
Referencias y más información:
Curran, Sabrina C., et al. (2025) Hominin Presence in Eurasia by at Least 1.95 Million Years Ago Nature Communications doi: 10.1038/s41467-025-56154-9.
Roberto Sáez «Homininos en Europa hace dos millones de años» Nutcrackerman.com
Sobre el autor: Javier «Irreductible» Peláez (Puertollano, 1974) es escritor y comunicador científico. Autor de 500 años de frío. La gran aventura del Ártico (Crítica, 2019) y Planeta Océano (Crítica 2022). Es uno de los fundadores de la plataforma Naukas.com, editor de ciencia en Yahoo España y Latinoamérica. Es guionista científico en los programas de televisión «El Cazador de Cerebros» y «Órbita Laika» de RTVE. Durante más de una década ha escrito en diferentes medios de comunicación (El País, El Español, National Geographic, Voz Populi). Es autor de los podcasts Catástrofe Ultravioleta y La Aldea Irreductible, y ha colaborado en diferentes proyectos radiofónicos y televisivos (Radio Nacional de España, Radio Televisión Canaria). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.
El artículo Primeras evidencias de presencia humana en Europa hace 2 millones de años se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2024: Neurodiversidad
La decimocuarta edición del mayor evento de divulgación científica volvió al Palacio Euskalduna de Bilbao durante los días 19, 20, 21 y 22 de septiembre de 2024.
José Ramón Alonso es catedrático de la Universidad de Salamanca, y está especializado en neurociencia. Lleva años investigado y escribiendo sobre neurodiversidad, eso que comúnmente llamamos trastornos del espectro autista, o hiperactividad o lo que sea. José Ramón nos explica que igual que la biodiversidad de especies es una riqueza, también lo es la biodiversidad dentro de nuestra especie.
Si no ve correctamente el vídeo, use este enlace.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2024: Neurodiversidad se ha escrito en Cuaderno de Cultura Científica.
La importancia de la diversidad estructural de los bosques frente al cambio climático
Un nuevo estudio apunta a que la heterogeneidad en los tamaños de los árboles de un bosque influye en cómo el cambio climático afecta a su crecimiento. Así, los bosques con árboles de tamaños más homogéneos son más vulnerables a las alteraciones climáticas.

La investigación, que ha sido liderada por la Universidad de Alcalá y la Universidad del País Vasco (UPV/EHU), se centra en el análisis de datos de crecimiento anual de hayas en el límite sur de su distribución, utilizando técnicas dendrocronológicas.
Desde la década de 1970, la sincronía en el crecimiento de los árboles ha aumentado debido a la mayor frecuencia de eventos climáticos extremos.
“Hemos observado cómo los impactos antropogénicos directos sobre los bosques, a través de los cambios en el uso del suelo, y los impactos indirectos, a través del cambio climático, determinan la sincronía en el crecimiento, siendo los bosques con individuos jóvenes los más vulnerables frente al cambio climático”, indica Julen Astigarraga, autor principal del estudio.
El trabajo resalta la importancia de mantener bosques estructuralmente diversos para mitigar los efectos del cambio climático. “En general, las estructuras más diversas se encuentran en bosques maduros. Sin embargo, esos bosques son muy escasos en todo el continente europeo, pero a su vez, son extremadamente valiosos para mitigar los impactos del cambio climático, como demuestra este estudio”, comenta Paloma Ruiz-Benito, investigadora de la Universidad de Alcalá.
De manera sorprendente, el trabajo ahora publicado ha evidenciado que los bosques de hayas trasmochos, un ecosistema cultural y ecológico caracterizado por bosques abiertos con brotes abundantes en el tronco principal y muy comunes en Gipuzkoa, la zona de estudio, muestran una notable resiliencia frente al cambio climático.
«Incrementar la diversidad estructural de los bosques, además de reducir la sincronía en el crecimiento de los árboles, puede ayudar a disminuir la mortalidad de los mismos, potenciar el secuestro de carbono y fomentar la biodiversidad al aumentar la disponibilidad de hábitats», añade Asier Herrero, investigador de la Universidad del País Vasco.
El estudio ha sido posible gracias a la colaboración de diversos investigadores de toda la península, así como a los guardas forestales y habitantes de Oñati (Gipuzkoa), quienes han mostrado un gran interés y apoyo en el proceso de recolección de datos. «Es impresionante la generosidad que hemos recibido de la comunidad local durante todo este trabajo, y esperamos que los resultados de este estudio contribuyan a adaptar los hayedos frente al cambio climático, no solo en Oñati, sino también en todo el continente europeo», concluye Astigarraga.
Referencia:
Astigarraga J., Calatayud J., Ruiz-Benito P., Madrigal-González J., Tijerín-Triviño J., Zavala MA., Andivia E., Herrero A. (2025) Forest structural diversity modulates tree growth synchrony in response to climate change Forest Ecology and Management doi: 10.1016/j.foreco.2025.122505
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La importancia de la diversidad estructural de los bosques frente al cambio climático se ha escrito en Cuaderno de Cultura Científica.