Iluminando la respuesta inmune al ADN anómalo
Nuestras células albergan un detector de ADN llamado cGAS, que informa al sistema inmunológico sobre infecciones virales y bacterianas, la muerte celular y la transformación durante el cáncer. Un grupo de investigación liderado por el Profesor de Investigación Ikerbasque Sergio P. Acebrón (UPV/EHU y Universidad de Heidelberg) ha “reutilizado” este proceso celular para crear un nuevo biosensor fluorescente. El estudio proporciona una herramienta biomédica que ofrece múltiples opciones para visualizar la respuesta inmune innata al ADN anómalo en poblaciones celulares.

Cada una de nuestras células almacena su información genética en el núcleo (ADN genómico) y en las mitocondrias (ADN mitocondrial). Una vía molecular conservada, controlada por las proteínas cGAS, STING e IRF3, puede detectar ADN fuera de estos compartimentos y comunicarlo a las células vecinas y al sistema inmunológico mediante mensajeros secundarios, como cGAMP e Interferón. De esta manera, este sistema actúa como una «navaja suiza» protegiendo al cuerpo de células dañadas, que a menudo contienen fragmentos de ADN fuera del núcleo y/o las mitocondrias, así como contra ADN externo proveniente de infecciones virales y bacterianas.
Un “detector” celular claveLa desregulación de estos procesos está relacionada con la resistencia a la respuesta inmune en infecciones virales y cáncer, mientras que su activación anómala se asocia con enfermedades autoinmunes. Este estudio demuestra cómo la ingeniería de la interacción funcional entre STING e IRF3 activados puede utilizarse para capturar la dinámica espaciotemporal y heterogénea de la respuesta al mensajero intracelular y extracelular cGAMP. Este nuevo biosensor fluorescente, junto con herramientas de análisis de imágenes, permite visualizar la respuesta de células individuales y poblaciones celulares a la infección por el virus del herpes, la liberación de ADN mitocondrial durante la apoptosis y otras fuentes de ADN anómalo.
El desarrollo tumoral suele estar asociado a errores en la segregación de cromosomas que contienen el ADN genómico, lo que puede llevar a su extravasación del núcleo. Usando el nuevo biosensor, el estudio revela que los cromosomas mal segregados no activan la respuesta inmune innata a través de STING, probablemente debido al empaquetamiento natural del ADN genómico por las histonas. Este hallazgo es relevante, ya que varios ensayos clínicos han planteado a STING como un posible objetivo terapéutico contra tumores con inestabilidad cromosómica.
Este estudio representa un avance significativo en el campo de la respuesta inmune innata al proporcionar a la comunidad científica un método para visualizar estos procesos en modelos biológicos complejos.
Referencia:
Steve Smarduch, Serbio David Moreno-Velasquez, Doroteja Illic, Shashank Dadsena, Ryan Morantt, Anja Ciprinidis, Gislene Pereira, Marco Binder, Ana J. García-Sáez, Sergio P. Acebrón (2025) A novel biosensor for the spatiotemporal analysis of STING activation during innate immune responses to dsDNA The EMBO Journal doi: 10.1038/s44318-025-00370-y
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Iluminando la respuesta inmune al ADN anómalo se ha escrito en Cuaderno de Cultura Científica.
Una Geología muy vikinga
Hace poco estuve en un concierto de un grupo de los que se suelen considerar “viking metal”, un estilo dentro del heavy metal en el que los grupos se caracterizan por asumir un estilismo, tanto en las portadas de los discos como en su propia indumentaria y puesta en escena sobre el escenario, y tratar temas en las letras de las canciones recordando a esos pueblos nórdicos que, hace más de un milenio, decidieron convertirse en grandes navegantes, comerciantes y conquistadores: los vikingos (y las skjaldmær o escuderas, que no quiero que Lagertha se enfade).
Estas canciones suelen centrarse mucho en grandes batallas y viajes de conquista, desde esas primeras incursiones en tierras sajonas a finales del siglo VIII hasta las navegaciones hacia el noroeste que llevaron a estos pueblos a asentarse en Islandia (tierra de hielo) un siglo después, Groenlandia (tierra verde) a finales del siglo X y Hellulandia (tierra de rocas), Marklandia (tierra de bosques) y Vinlandia (tierra de viñas), las tres últimas en la actual Canadá, a comienzos del siglo XI. Pero no todo son cánticos de victoria, algunas canciones también hablan de la batalla de Stamford Bridge, ocurrida a finales del siglo XI y que supuso el principio del fin de la era vikinga.

Pero, ¿qué tiene que ver este periodo de la historia de los pueblos nórdicos con la Geología? Pues mucho, porque una de las principales hipótesis para explicar este “repentino” ímpetu navegante de los vikingos (y las escuderas, no nos olvidemos de las mujeres) es un evento climático bastante peculiar: el Óptimo Climático Medieval, también llamado Periodo Cálido Medieval o Anomalía Climática Medieval.
Par entender lo que es esto vamos a empezar por el principio. Actualmente vivimos en el Holoceno, la última Época en la que se subdivide el Periodo Cuaternario, y que se caracteriza por ser un interglacial, es decir, un momento relativamente cálido que acontece entre dos glaciaciones. Pero, si acercamos una lupa a la gráfica de variación de la temperatura atmosférica en el Atlántico Norte durante los últimos miles de años, veremos que se dibuja una línea en forma de dientes de sierra, con picos que representan eventos climáticos cálidos y fríos que se van alternando con una periodicidad centenaria. Y ahí es donde encontramos al Óptimo Climático Medieval, un periodo relativamente cálido que comenzó aproximadamente en el año 780 y terminó más o menos en el 1180, cuando dio paso a un momento más frío conocido como Pequeña Edad de Hielo, y que tuvo un pico máximo de temperaturas alrededor del año 1000.

En realidad, aún no se conocen exactamente cuáles son las causas que provocan estos cambios climáticos de escala centenaria, considerando que posiblemente se deba a la combinación de varios factores, siendo los más probables las variaciones en la irradiancia solar (es decir, la potencia de la radiación solar en un área terrestre determinada), la fuerza de la Circulación de Vuelco Meridional Atlántica (nuestra vieja amiga AMOC), el efecto atmosférico de erupciones volcánicas muy explosivas, cambios en la retroalimentación entre el hielo marino y el agua oceánica, o la propia variabilidad atmosférica. Vamos, un cóctel explosivo capaz de provocar variaciones de varios grados centígrados en las temperaturas promedio de ciertas zonas de nuestro planeta durante décadas.
Sin embargo, parece que estos eventos climáticos de escala centenaria no han sucedido de manera homogénea en todo el planeta, sino que han tenido un efecto muy concentrado en el Atlántico Norte, sobre todo en la zona europea. Más en concreto, en el centro y el norte de Europa el Óptimo Climático Medieval supuso un periodo relativamente cálido, con veranos no muy áridos e inviernos suaves y húmedos, que, entre otras cosas, supusieron un gran impacto beneficioso para la agricultura, permitiendo, por ejemplo, el cultivo de productos como la vid en latitudes y altitudes hasta entonces nada productivas. Y en las zonas boreales provocó un retroceso de los mantos de hielo, tanto continentales como marinos, exponiendo terrenos vírgenes hasta entonces cubiertos y abriendo pasos marítimos generalmente congelados. Aunque en la Península Ibérica parece que no lo pasamos tan bien, ya que han quedado registros, tanto geológicos como históricos, de varias épocas de sequía que llegaron a producir importantes hambrunas, alternantes con momentos de lluvias torrenciales que arrasaban con todo lo que pillaban a su paso. Vamos, lo típico de un clima semiárido.
Seguro que ya os habéis fijado en la coincidencia de fechas entre el Óptimo Climático Medieval y el auge de la era vikinga. Y os habéis quedado con ese efecto de retirada de los hielos en zonas de latitudes altas, despejando rutas marítimas hasta entonces inexpugnables. Pues estas coincidencias son las que han llevado a la comunidad científica a suponer que esta anomalía climática propició que los pueblos del norte decidiesen subirse a sus drakar y explorar zonas completamente desconocidas. Y que ese ímpetu navegante se apagase con el comienzo de la Pequeña Edad de Hielo tampoco parece casualidad, ya que este evento climático frío provocó una caída generalizada de las temperaturas y un nuevo aumento de la extensión de los mantos de hielo en Europa del Norte, volviendo a aislar, marítimamente hablando, a los pueblos nórdicos.
Aunque si leéis un libro de historia encontraréis que el final de la era vikinga se debió a varios cambios sociales en los pueblos del norte, como su conversión al cristianismo, la competencia comercial con productos procedentes de Asia occidental, o varias pérdidas de cosechas que provocaron enfermedades y hambrunas. Pero, ¿acaso los eventos geológicos, en especial los cambios climáticos, no suelen ser los desencadenantes de todos los cambios sociales que ha vivido la humanidad a lo largo de su historia?
Ahí os dejo la pregunta. Mientras pensáis la respuesta, yo voy a seguir limpiando mi cuerno para estar preparada para el siguiente concierto. Y me refiero al cuerno de beber, no a los de los cascos, que esos sí que fueron una fantasía.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Una Geología muy vikinga se ha escrito en Cuaderno de Cultura Científica.
Leopold Vietoris, un topólogo supercentenario
Las contribuciones fundamentales de Leopold Vietoris a la topología general y algebraica, así como a otras ramas de las ciencias matemáticas, lo han convertido en un personaje inmortal en el mundo científico. Como persona, era excepcionalmente humilde y agradecido por su bienestar, que también deseaba y concedía a sus semejantes. Dedicaba su tiempo libre a su numerosa familia, la meditación religiosa, la música y sus queridas montañas. […] En investigación, Vietoris fue un «luchador solitario»: solo uno de sus más de setenta artículos matemáticos tiene coautor. La mitad de los artículos fueron escritos después de su sexagésimo cumpleaños.
Heinrich Reitberger

Leopold Vietoris nació en Bad Radkersburg, Austria, el 4 de junio de 1891. Falleció en Innsbruck, Austria, el 9 de abril de 2002, con casi 111 años. Publicó su último artículo con 103 años. ¡Así se entiende mejor la última frase de la cita que abre este escrito!
De la ingeniería a las matemáticas
Leopold era hijo de Hugo Vietoris, ingeniero ferroviario, y Anna Diller. Con seis años comenzó su educación primaria en Viena. Entre 1902 y 1910 completó su formación secundaria. Siguiendo los deseos de su padre, ingresó en la Universidad Técnica de Viena en 1910, pensando estudiar ingeniería. Pero, a finales de ese mismo año, cambió sus planes para centrarse en las matemáticas, que aprendió con Hermann Rothe, Emil Müller (geometría descriptiva) y Theodor Schmid (geometría proyectiva).
En 1912, Vietoris asistió a una conferencia de Wilhelm Gross sobre topología, en la que el matemático describía su propio trabajo en esta área. En esta misma época, también siguió lecciones impartidas por Hermann Rothe sobre el concepto de variedad; Vietoris pensó en usar un enfoque topológico para crear una noción geométrica de variedad.
Trabajaba en estas ideas, tutorizado por Gustav von Escherich y Wilhelm Wirtinger, cuando estalló la Primera Guerra Mundial. El 28 de julio de 1914, el Imperio austrohúngaro declaró la guerra al reino de Serbia y Vietoris se presentó voluntario para el servicio en el ejército en agosto de 1914. Fue gravemente herido en septiembre de 1914 y, tras su recuperación, fue enviado al frente italiano como guía de montaña del ejército. Incluso durante las penurias de la guerra, Vietoris fue capaz de reflexionar sobre sus problemas de investigación. De hecho, en 1916 publicó su primer artículo.
El 4 de noviembre de 1918, fue capturado por el ejército italiano y permaneció preso hasta el 7 de agosto de 1919. Durante el tempo de su cautiverio pudo completar su tesis doctoral. Tras ser liberado y regresar a Viena, la presentó, obteniendo su doctorado en julio de 1920. Ese mismo año comenzó a trabajar como profesor asistente en la Universidad Técnica de Graz. En 1922, se trasladó a la Universidad de Viena, donde obtuvo su habilitación al año siguiente.
Investigando en topología: la sucesión de Mayer-Vietoris
La década de 1920 fue una época emocionante para los topólogos, y Viena era un lugar tan atractivo como cualquier otro, con Hahn, Menger, Reidemeister y, posteriormente, Hurewicz y Nöbeling. En medio de la conmoción general, surgieron muchas ideas de forma independiente y casi simultánea en varios lugares. Vietoris, quien siempre fue una persona extremadamente modesta, nunca participó en debates sobre prioridades (en contraste, por ejemplo, con su joven y apasionado colega Karl Menger). Pero Vietoris fue el primero en introducir filtros (a los que llamó «coronas») y uno de los primeros en definir espacios compactos (a los que llamó «lückenlos»), utilizando la condición de que cada filtro tuviera un punto de acumulación. También introdujo el concepto de regularidad y demostró que (en lenguaje moderno) los espacios compactos son normales.
Gilbert Helmberg y Karl Sigmund
En 1925, Vietoris pasó tres semestres en Ámsterdam donde participó en un seminario dirigido por Luitzen Egbertus Jan Brouwer. Influenciado por las ideas algebraicas que se discutían en esta escuela, comenzó a investigar en topología algebraica. De regreso en Viena, impartió algunas conferencias sobre grupos de homología y de cohomología, dos de los más conocidos invariantes algebraicos de espacios topológicos.
A estas conferencias asistió Walther Mayer que intentó resolver algunas de las conjeturas que Vietoris había descrito, solucionando un caso particular de una de ellas que publicó en 1929 (Über abstrakte Topologie). Vietoris completó la prueba del resultado general para los grupos de homología en 1930 (Über die Homologiegruppen der Vereinigung zweier Komplexe), teorema que hoy en día se conoce como sucesión de Mayer-Vietoris. Este precioso resultado es un método para calcular los grupos de homología de un espacio topológico a partir de los de algunos de sus subespacios.
Leopold Vietoris se había casado con Klara Anna Maria Riccabona von Reichenfels (1904-1935) en otoño de 1928. En 1930, tras varios cambios de centro, comenzó a trabajar en la Universidad de Innsbruck como profesor titular; permaneció allí durante el resto de su carrera.
Klara falleció en 1935 al dar a luz a su sexta hija. Al año siguiente, Vietoris se casó con su hermana, Maria Josefa (1901-2002).
Tras la Segunda Guerra Mundial trabajó en diferentes áreas, incluida la estadística, publicando su último artículo con 103 años.
Una larga vida, el matemático (conocido) más longevo
Leopold Vietoris falleció el 9 de abril de 2002, dos meses antes de cumplir 111 años. Dos semanas antes había fallecido su esposa Maria Josefa, con la que compartió 66 años de vida, a los 100 años.
En el archivo MacTutor, se incluye una gráfica con la esperanza de vida de 2891 matemáticos cuyas fechas de nacimiento y fallecimiento se conocen. Vietoris es el más longevo. El matemático con una vida más corta fue Évariste Galois, que falleció a los 20 años.
También fueron longevos Guacolda Antoine Lazzerini y Serguéi Nikolski (fallecieron con 107 años), Manuela Garín Pinillos (105 años), Henri Cartan (104 años), Johanna Weber (103 años) o Katherine Johnson y Kathleen Ollerenshaw (101 años), por citar algunos.
Referencias
- J J O’Connor and E F Robertson, Leopold Vietoris, MacTutor History of Mathematics archive, University of St Andrews
- Heinrich Reitberger, Leopold Vietoris (1891-2002), Notices Amer. Math. Soc. 49 (10) (2002), 1232-1236.
- Gilbert Helmberg and Karl Sigmund, Nestor of mathematicians: Leopold Vietoris turns 105, Math. Intelligencer 18 (4) (1996), 47-50.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia
El artículo Leopold Vietoris, un topólogo supercentenario se ha escrito en Cuaderno de Cultura Científica.
Cómo un problema sobre palomas impulsa la teoría de la complejidad
Cuando hay más palomas que palomares, algunas aves deben agruparse. Esta afirmación obvia, y su inversa, tiene profundas conexiones con muchas áreas de las matemáticas y la informática.
Un artículo de Ben Brubaker. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

Dicen que más vale pájaro en mano que ciento volando, pero para los informáticos, dos pájaros en un agujero es mucho mejor. Esto se debe a que esas aves que cohabitan son las protagonistas de un teorema matemático engañosamente simple llamado el principio del palomar. Es fácil de resumir en una frase corta: si diez palomas se acurrucan en nueve palomares, al menos dos de ellas deben compartir un agujero. Ahí está, eso es todo.
«El principio del palomar es un teorema que provoca una sonrisa», comenta Christos Papadimitriou, informático teórico de la Universidad de Columbia. «Es un tema de conversación fantástico».
Pero el principio del palomar no es solo cosa de pájaros. Aunque suene dolorosamente simple, se ha convertido en una potente herramienta para los investigadores dedicados al proyecto central de la informática teórica: mapear las conexiones ocultas entre diferentes problemas.
El principio del palomar se aplica a cualquier situación en la que objetos se asignan a categorías y el número de objetos supera al de categorías. Por ejemplo, implica que, en un estadio de fútbol abarrotado con 30.000 asientos, algunos asistentes deben tener la misma contraseña de cuatro dígitos, o PIN, para sus tarjetas bancarias. En este caso, las palomas son los aficionados al fútbol y los agujeros son los 10.000 PIN posibles, del 0000 al 9999. Esto representa que hay menos posibilidades que el número total de personas, por lo que algunas deben tener los mismos dígitos.
Esta demostración destaca no solo por su simplicidad, sino también por lo que omite. Muchos métodos matemáticos para demostrar la existencia de algo son «constructivos», lo que significa que también muestran cómo encontrarlo. Las demostraciones «no constructivas», como las basadas en el principio del palomar, carecen de esta propiedad. En el ejemplo del estadio de fútbol, saber que algunas personas deben tener el mismo PIN no indica cuáles son. Siempre se puede recorrer la grada preguntando a cada persona por turno. Pero, ¿existe una manera más sencilla?
Preguntas como esta, sobre la manera más eficiente de resolver problemas, son fundamentales en la rama de la informática conocida como teoría de la complejidad computacional. Los teóricos de la complejidad estudian estas cuestiones agrupando los problemas en clases según ciertas propiedades compartidas. A veces, el primer paso hacia un avance es simplemente definir una nueva clase para agrupar problemas que los investigadores no habían estudiado previamente.
Eso fue lo que ocurrió en la década de 1990, cuando Papadimitriou y otros teóricos de la complejidad comenzaron a estudiar nuevas clases de problemas, en los que el objetivo es encontrar algo que debe existir debido al principio del palomar u otra demostración no constructiva. Esta línea de trabajo ha propiciado importantes avances en diversos campos de la informática, desde la criptografía hasta la teoría de juegos algorítmica.

Para enero de 2020, Papadimitriou llevaba 30 años reflexionando sobre el principio del palomar. Así que se sorprendió cuando, bromeando con un colaborador frecuente, les llevó a una enfoque simple del principio que nunca habían considerado: ¿Y si hay menos palomas que agujeros? En ese caso, cualquier disposición de las palomas debe dejar algunos agujeros vacíos. De nuevo, parece obvio. Pero ¿invertir el principio del palomar tiene alguna consecuencia matemática interesante?
Puede parecer que este principio del «palomar vacío» es simplemente el original con otro nombre. Pero no es así, y su carácter sutilmente diferente lo ha convertido en una herramienta nueva y fructífera para clasificar problemas computacionales.
Para comprender el principio del palomar vacío, volvamos al ejemplo de la tarjeta bancaria, transpuesto de un estadio de fútbol a una sala de conciertos con 3000 asientos, un número menor que el total de PIN posibles de cuatro dígitos. El principio del palomar vacío dicta que algunos PIN posibles no están representados en absoluto. Sin embargo, si se desea encontrar uno de estos PIN que faltan, no parece haber mejor manera que simplemente preguntarle a cada persona su PIN. Hasta ahora, el principio del casillero vacío es igual que su contraparte más famosa.
La diferencia radica en la dificultad de comprobar las soluciones. Imaginemos que alguien dice haber encontrado dos personas específicas en el estadio de fútbol con el mismo PIN. En este caso, correspondiente al planteamiento del palomar original, existe una forma sencilla de verificar dicha afirmación: simplemente comprobar con las dos personas en cuestión. Pero en el caso de la sala de conciertos, imaginemos que alguien afirma que ninguna persona tiene el PIN 5926. En este caso, es imposible verificarlo sin preguntar a todos los presentes cuál es su PIN. Esto hace que el principio del palomar vacío sea mucho más complejo para los teóricos de la complejidad.
Dos meses después de que Papadimitriou comenzara a reflexionar sobre el principio del palomar vacío, lo mencionó en una conversación con un futuro estudiante de posgrado. Lo recuerda vívidamente, porque resultó ser su última conversación en persona con alguien antes de los confinamientos por la COVID-19. Encerrado en casa durante los meses siguientes, se enfrentó a las implicaciones del problema para la teoría de la complejidad. Finalmente, él y sus colegas publicaron un artículo sobre problemas de búsqueda con soluciones garantizadas gracias al principio del palomar vacío. Estaban especialmente interesados en problemas donde abundan los palomares, es decir, donde superan con creces a las palomas. Siguiendo la tradición de acrónimos complicados en la teoría de la complejidad, denominaron a esta clase de problemas APEPP, por sus siglas en inglés, «principio del palomar vacío polinomial abundante».
Uno de los problemas de esta clase se inspiró en una famosa demostración de hace 70 años del pionero de la informática Claude Shannon. Shannon demostró que la mayoría de los problemas computacionales deben ser inherentemente difíciles de resolver, utilizando un argumento basado en el principio del palomar vacío (aunque no lo llamó así). Sin embargo, durante décadas, los informáticos han intentado, sin éxito, demostrar que ciertos problemas específicos son realmente difíciles. Al igual que los PIN de tarjetas bancarias que faltan, los problemas difíciles deben existir, incluso si no podemos identificarlos.
Históricamente, los investigadores no han considerado el proceso de búsqueda de problemas complejos como un problema de búsqueda que pudiera analizarse matemáticamente. El enfoque de Papadimitriou, que agrupó este proceso con otros problemas de búsqueda relacionados con el principio del palomar vacío, tenía un matiz autorreferencial característico de gran parte del trabajo reciente en teoría de la complejidad: ofrecía una nueva forma de razonar sobre la dificultad de demostrar la complejidad computacional.
“Estás analizando la tarea de la teoría de la complejidad utilizando la teoría de la complejidad”, explica Oliver Korten, investigador de Columbia.
Korten es el futuro estudiante con quien Papadimitriou había discutido el principio del palomar vacío justo antes de la pandemia. Llegó a Columbia para trabajar con Papadimitriou y, durante su primer año de posgrado, demostró que la búsqueda de problemas computacionales complejos estaba íntimamente ligada a todos los demás problemas de APEPP. En un sentido matemático específico, cualquier progreso en este problema se traducirá automáticamente en progreso en muchos otros que los informáticos y matemáticos han estudiado durante mucho tiempo, como la búsqueda de redes que carecen de una subestructura simple.
El artículo de Korten atrajo inmediatamente la atención de otros investigadores. «Me sorprendió bastante cuando lo vi», cuenta Rahul Santhanam, teórico de la complejidad de la Universidad de Oxford. «Es increíblemente emocionante». Desde entonces, él y otros investigadores han aprovechado el avance de Korten para demostrar una serie de nuevos resultados sobre las conexiones entre la dificultad computacional y la aleatoriedad.
«Esto tiene una riqueza asombrosa», dijo Papadimitriou. «Aborda la esencia de importantes problemas de complejidad».
El artículo original, How a Problem About Pigeons Powers Complexity Theory, se publicó el 4 de abril de 2025 en Quanta Magazine.
Traducido por César Tomé López
El artículo Cómo un problema sobre palomas impulsa la teoría de la complejidad se ha escrito en Cuaderno de Cultura Científica.
De leche y mIEL: linfocitos T promueven la lactogénesis mamaria
La lactancia materna fue un factor esencial en el éxito evolutivo de los mamíferos. La posibilidad de alimentar al neonato extiende en el tiempo la inversión parental, es decir, el esfuerzo invertido por los progenitores para optimizar la supervivencia de su prole. Los mamíferos placentados alimentan a sus descendientes antes y después del parto, de forma que crezcan, maduren y puedan enfrentarse con mayores garantías a los desafíos que encontrarán antes de llegar a la edad reproductiva.
Las aves también han optado por una estrategia de alimentación postnatal, transportando comida al nido y distribuyéndola a los polluelos. Sin embargo, la lactancia de los mamíferos es excepcional. Las madres sintetizan el alimento necesario para sus crías en las glándulas mamarias. Estas glándulas se preparan para la producción de leche a lo largo de la gestación, bajo el control hormonal de estrógenos, progesterona y prolactina. Tras el parto, la secreción de leche (lactogénesis) es activada por la prolactina.
Esto es lo que sabíamos hasta ahora, pero un artículo que acaba de ser publicado en la revista Cell por un grupo de investigadores del NIH (Bethesda, EE.UU.) ha revelado otros protagonistas inesperados de la lactogénesis. Se trata de linfocitos, en concreto de un tipo no convencional de linfocitos T denominados mIEL (por mammary intraepithelial lymphocytes).

La función de los linfocitos y del resto de células del sistema inmune es protegernos contra las infecciones y los agentes externos en general. No obstante, en los últimos años estamos comprendiendo que, más allá de las tareas defensivas, células inmunitarias también participan en otras funciones relacionadas con el desarrollo y la vida adulta.
El grupo del NIH, liderado por Yasmine Belkaid, observó que una deficiencia en linfocitos perjudicaba el desarrollo de las mamas y la lactancia en ratones. En concreto, vieron que linfocitos no convencionales del tipo T-bet [1] se acumulaban en las mamas de los ratones durante la gestación. Su deficiencia, inducida mediante manipulación genética, provocaba un menor desarrollo de las glándulas mamarias, una menor producción de leche y, como era de esperar, una menor ganancia de peso por parte de las crías.
Precursoras de linfocitos T-bet del timoLos investigadores confirmaron que los linfocitos T-bet procedían del timo. Esto era llamativo, ya que el timo involuciona durante la gestación, un fenómeno que se ha relacionado con la tolerancia inmunológica hacia los fetos. Sin embargo, el timo reducido de las ratonas gestantes mostraba un paradójico enriquecimiento en precursores de linfocitos T-bet (Figura 1).
Cuando los precursores de los T-bet se inyectaron en ratonas deficientes en linfocitos, el destino de las células resultantes fue diferente en función del estado de la ratona. Si la ratona no había gestado anteriomente, los T-bet se alojaron en el intestino delgado, convirtiéndose en siIEL (por small-intestine intraepithelial lymphocytes), un tipo especializado de células inmunitarias que residen en el epitelio del intestino delgado. Pero cuando los precursores T-bet se inyectaron en ratonas deficientes en linfocitos y gestantes, las células se dirigieron a las glándulas mamarias, donde se diferenciaron en los mIEL necesarios para la producción de leche (Figura 1).
Este resultado es sorprendente. Durante la gestación, el suministro normal de linfocitos intraepiteliales al intestino delgado por parte del timo se reorganiza y desvía, proporcionando linfocitos intraepiteliales a la glándula mamaria. Su función también cambia, de la defensa contra infecciones y regulación de la inmunidad intestinal, estos linfocitos pasan a ser activadores de la lactogénesis.
La doble función de los mIELEn concreto, los mIEL realizan una doble función en la glándula mamaria. Por un lado, activan la síntesis de los componentes de la leche en el epitelio mamario. Por otro, promueven la diferenciación de células mioepiteliales con capacidad contráctil para impulsar el flujo de la leche (Figura 1). De ahí su importancia para la lactogénesis.
¿Son extrapolables estos resultados a la especie humana? Los autores del estudio piensan que es probable, ya que han localizado en la leche materna linfocitos con las mismas características de los mIEL, aunque será necesario confirmar esto. Lo que sí parece interesante es que este descubrimiento podría aclarar el origen de algunas anomalías en la lactogénesis humana. Todavía más importante, el descubrimiento de los mIEL podría explicar la protección parcial que parece conferir la lactancia frente al cáncer de mama. En efecto, diversos estudios sugieren que la frecuencia de este tipo de cáncer se correlaciona negativamente con la duración del amamantamiento. El grupo del NIH ha observado que los mIEL permanecen en la glándula mamaria del ratón una vez que la han colonizado, aunque hayan terminado de amamantar. Como se trata de células del sistema inmune con propiedades citotóxicas, se puede especular que su presencia sea una de las razones que explican esta protección contra el cáncer.
Referencia:
Corral, D., Ansaldo, E., Delaleu, J. et al. (2025) Mammary intraepithelial lymphocytes promote lactogenesis and offspring fitness. Cell. Doi: 10.1016/j.cell.2025.01.028.
Nota:
[1] Se trata de un tipo de linfocitos caracterizado por expresar el factor de transcripción TBX21.
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga.
El artículo De leche y mIEL: linfocitos T promueven la lactogénesis mamaria se ha escrito en Cuaderno de Cultura Científica.
Veinte años de Hubble observando la larga primavera de Urano

La noche del 13 de marzo de 1781 se presentó despejada en la bella localidad de Bath, al sur de Inglaterra. Desde el jardín trasero de su vivienda William Herschel se encontraba pegado como de costumbre a la mira de uno de los telescopios reflectores que él mismo y su hermana Caroline habían diseñado y construido de manera autodidacta. Tan solo unos años atrás había comprado el libro «Astronomía» del astrónomo James Ferguson y, prendado del firmamento, aprendió a escudriñar la profundidad cósmica y a desarrollar sus propios instrumentos ópticos. Entre los incontables objetos que brillaban en aquella sesión nocturna, el astrónomo alemán acertó a distinguir una luz lejana y borrosa que, en principio, calificó y anotó como un posible cometa. Era lo habitual, durante sus noches de observación junto a su hermana, la pareja había logrado recopilar una buena colección de nuevos cometas, la propia Caroline Herschel descubrió ocho de ellos.
Con el paso de los años aquel nuevo cuerpo celeste se estudió con más detalle y, finalmente, la verdad fue revelada: en realidad no se trataba de un cometa, sino de un planeta. Todo un acontecimiento para la época, no todos los días se descubre un nuevo miembro del sistema solar. El recién llegado se nombró como «planeta Jorge», en honor al rey de Inglaterra y durante algunas décadas mantuvo esa denominación hasta que la tradición mitológica que guía los bautismos planetarios terminó por imponerse y hoy todos lo conocemos con el nombre de «Urano», el dios griego de los cielos.

El mundo descubierto por Herschel es fascinante y extraño y, a pesar de ser el tercer planeta más grande de nuestro vecindario solar, después de Júpiter y Saturno, en muchos aspectos sigue siendo un desconocido. Buena parte de los misterios que aún esconde este gigante gaseoso se deben a la falta de atención de las misiones y sondas que estudian nuestro sistema. Desde el inicio de la carrera espacial solamente una nave espacial se ha acercado al planeta, y eso fue en 1986, cuando la Voyager 2 lo sobrevoló, capturando las pocas imágenes cercanas que poseemos.
Urano presenta características únicas que aún no comprendemos con profundidad. La más destacada es su orientación, ya que orbita «de lado» respecto al plano del sistema solar, con una inclinación de su eje de casi 98 grados. Las teorías más aceptadas apuntan a que, en algún momento de su historia, Urano recibió la influencia gravitatoria o el impacto directo de un cuerpo del tamaño de la Tierra que hizo que su eje orbital se desplazara. Ser un planeta que gira «ladeado» también le confiere cualidades extrañas… mientras que el resto de planetas orbita el Sol girando como peonzas, Urano lo hace como una pelota rodando por una pendiente, lo cual hace que sus estaciones sean muy diferentes al resto de planetas.
Es un ecosistema en sí mismo con 27 lunas conocidas y un sistema de anillos que se revelaron de manera inesperada en 1977, casi dos siglos después de su descubrimiento. La distancia promedio de Urano al Sol es de aproximadamente 2,870 millones de kilómetros (unas 20 unidades astronómicas) y completa una vuelta cada 84 años, lo que significa que incluso los nacidos en 1941 aún no habrían cumplido un año en aquel planeta. La duración del año uraniano hace difícil comprender sus estaciones ya que se necesitan larguísimos periodos de observación para poder obtener datos comparativos.
Quizá, y si tenemos la suerte de que se apruebe la Uranus Orbiter and Probe, dentro de algunos años podríamos gozar de la oportunidad de viajar hasta el planeta con una sonda científica, dedicada íntegramente a él. Mientras tanto, tendremos que conformarnos con analizarlo desde la distancia con los diferentes observatorios terrestres y telescopios espaciales.
Precisamente desde el equipo del Telescopio espacial Hubble nos llega estos días un estudio de larga duración que ofrece una visión dedicada y extensa del planeta Urano a lo largo de más de dos décadas de observación. Nuestra gran ventana al Universo, el Hubble, ha recopilado su mirada al planeta durante los últimos 20 años consiguiendo nuevos conocimientos atmosféricos, desde 2002 hasta 2022… y aquí nos encontramos una nueva paradoja: estas dos décadas de imágenes no son más que un efímero suspiro en la vida de este planeta, veinte años que apenas representan una estación completa ya que la primavera en Urano comenzó en el año 2007 y se extenderá hasta 2028, momento en el que empezará el verano.

El equipo dirigido por el astrónomo Erich Karkoschka, de la Universidad de Arizona, ha utilizado en cuatro ocasiones el instrumento STIS, una cámara espectrógrafo instalada en el telescopio espacial Hubble, en los años 2002, 2012, 2015 y 2022, para rastrear los cambios estacionales en Urano «durante la primavera boreal del planeta, cuando el Sol pasó de brillar sobre el ecuador del planeta a casi brillar directamente sobre su polo norte, algo que ocurrirá en 2030».
La atmósfera de Urano está compuesta principalmente de hidrógeno y helio, con una pequeña cantidad de metano que le da al planeta su característico tono azul verdoso general. El sobrevuelo de la Voyager 2 nos ofrecía un cuerpo gaseoso muy homogéneo y bastante soso, quizá por eso se ha descuidado tanto el estudio de Urano, pero el nuevo estudio nos revela «complejos patrones de circulación atmosférica» con una distribución irregular del metano. A diferencia de las condiciones de otros gigantes gaseosos, como Saturno y Júpiter, «el metano no se distribuye uniformemente en Urano. En los polos es muy poco frecuente y esa disminución se ha mantenido relativamente constante durante las dos décadas de observación».
La composición de imágenes que ha presentado el equipo del Hubble nos muestra el planeta de diversas maneras a lo largo de estos veinte años de observación. La fila superior, en luz visible, «muestra cómo aparece Urano ante el ojo humano tal y como se ve incluso a través de un telescopio de aficionado». Durante el periodo de veinte años, la región polar sur (izquierda) se ha ido oscureciendo al quedar en la sombra invernal mientras que la región polar norte (derecha) se ha ido iluminando progresivamente con la llegada del verano boreal.

En la segunda fila, la imagen en falso color del planeta se compone de observaciones en luz visible e infrarroja cercana. El color y el brillo corresponden a las cantidades de metano y aerosoles. Ambas cantidades no se podían distinguir antes de que el espectrógrafo STIS del Hubble apuntara por primera vez a Urano en 2002. Generalmente, las áreas verdes indican menos metano que las azules, y las rojas se encuentran casi completamente libres de metano.

Las dos últimas filas muestran la estructura de los aerosoles y el metano en diferentes latitudes, inferida a partir de 1000 longitudes de onda diferentes, desde el visible hasta el infrarrojo cercano. «En latitudes medias y bajas, los aerosoles y la disminución del metano presentan una estructura latitudinal propia que, en general, no varió significativamente durante las dos décadas de observación. Sin embargo, en las regiones polares, los aerosoles y la disminución del metano se comportan de forma muy diferente».

La investigación de este equipo de astrónomos continuará conforme el planeta se acerca a su verano y no solo nos resulta útil para comprender los patrones estacionales del siempre misterioso Urano, sino que también «pueden sentar las bases para futuros estudios de exoplanetas similares». En 2031, si todo marcha como está previsto, a las observaciones del Hubble quizá podamos incorporar datos en directo de la esperada Uranus Orbiter and Probe.
Referencias científicas y más información:
NASA Hubble Mission Team «20-Year Hubble Study of Uranus Yields New Atmospheric Insights» Science NASA (2025)
Sharmila Kuthunur « Changing seasons on Uranus tracked across 20 years by Hubble Space Telescope» Space.com (2025)
Sobre el autor: Javier «Irreductible» Peláez (Puertollano, 1974) es escritor y comunicador científico. Autor de 500 años de frío. La gran aventura del Ártico (Crítica, 2019) y Planeta Océano (Crítica 2022). Es uno de los fundadores de la plataforma Naukas.com, editor de ciencia en Yahoo España y Latinoamérica. Es guionista científico en los programas de televisión «El Cazador de Cerebros» y «Órbita Laika» de RTVE. Durante más de una década ha escrito en diferentes medios de comunicación (El País, El Español, National Geographic, Voz Populi). Es autor de los podcasts Catástrofe Ultravioleta y La Aldea Irreductible, y ha colaborado en diferentes proyectos radiofónicos y televisivos (Radio Nacional de España, Radio Televisión Canaria). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.
El artículo Veinte años de Hubble observando la larga primavera de Urano se ha escrito en Cuaderno de Cultura Científica.
¿Todo esto con electrones?
¿Sabías que algunas moléculas y sus electrones pueden generar superpoderes? ¿Cómo es posible que un disco duro almacene información magnética? ¿O que una televisión emita luces y colores tan puros? El secreto está en los electrones.
Gran parte de lo que eres y la mayoría de las cosas con las que interaccionas en tu día a día están compuestas de moléculas. Como personas dedicadas a la química, podemos estudiar prácticamente cualquier molécula que se nos ocurra y así poder avanzar en direcciones nuevas para encontrar aplicaciones fascinantes. En particular, nos interesan los materiales magnéticos, es decir, compuestos que tienen electrones desapareados. Generalmente, una molécula usa todos sus electrones para crear enlaces químicos, como lo hacen dos átomos de hidrógeno cuando se enlazan para formar el H2 donde se aparean los electrones (apuntan en sentido opuesto). Pero con un poco de cuidado, y mucha química, se puede conseguir que algunos electrones se queden sin usar como cuando utilizamos metales para crear moléculas, lo que las dota de superpoderes.

Por ejemplo, algunas moléculas quirales (aquellas que si se miran en el espejo no se ven a sí mismas, sino a otras moléculas que se les parecen mucho, como si de la mano izquierda y derecha se tratase) pueden filtrar la corriente eléctrica. ¿Esto qué quiere decir? Que usando los compuestos que sintetizamos en nuestros laboratorios podemos filtrar los electrones en base a una propiedad fundamental llamada espín. ¿Para qué? Entre otras cosas, para generar hidrógeno como fuente de energía alternativa a los combustibles fósiles. Ese hidrógeno (gas), que es muy escaso en la naturaleza, puede obtenerse “rompiendo” la molécula de agua, que es muy abundante. Pero “romper” implica usar energía, que debería proceder de fuentes limpias. En nuestro laboratorio, desarrollamos materiales capaces de disminuir la cantidad de energía necesaria para “romper” el agua y obtener hidrógeno. Esos materiales bloquean uno de los dos tipos de electrones que existen (espín up y espín down), y permiten el paso del segundo tipo de electrones. Es decir, generan corrientes espintrónicas que tienen la capacidad de favorecer la reacción de “ruptura” del agua, una reacción de oxidación-reducción donde también se genera oxígeno.

Los discos duros también funcionan gracias a los electrones desapareados. En la actualidad, la mayoría operan con partículas magnéticas que las componen, las cuales guardan la información del lenguaje binario (el 1 o el 0) en función de la orientación del momento magnético de los electrones en cada dominio magnético. Siendo esto así, es predecible pensar que, cuanto menor sea el tamaño de dominio, el dispositivo dispondrá de capacidad para almacenar mayor densidad de información ocupando el mismo espacio. En este sentido, las moléculas basadas en iones de tipo lantánido están revolucionando la investigación en esta área, ya que cada molécula es capaz de almacenar la información de un bit. A diferencia de las partículas magnéticas, donde hacen falta millones de átomos para almacenar la información de un bit, las moléculas magnéticas pueden hacerlo únicamente combinando unas pocas decenas. Así, el potencial de estos nuevos materiales se presenta muy cautivador.

Estos mismos iones pueden dar lugar también a emisión de colores puros. Los iones lantánidos tienen estados excitados muy bien definidos energéticamente, lo que hace que cuando los electrones relajen de estos estados excitados, se libere una cantidad de energía muy concreta y asociada a un único color. Por ejemplo, las moléculas compuestas por iones de europio tienen estados excitados situados a energías con respecto al estado fundamental que producen emisiones de fotones cuya longitud de onda mayoritaria es de 615 nm, mientras que para los iones de terbio las emisiones rondan los 540 nm. Estas longitudes de onda se corresponden con los colores rojo y verde en el espectro visible, respectivamente. Es importante mencionar que, no todas las moléculas compuestas por estos iones presentan emisión de luz, ya que es fundamental diseñar y elegir bien los ligandos orgánicos que rodearán los iones para que haya una efectiva transferencia de energía entre ambos elementos y den lugar, así, a procesos de emisión de luz.

Tal y como has podido observar, las moléculas junto con sus electrones pueden dar lugar a infinidad de propiedades y aplicaciones interesantes, y esto no ha sido más que una pincelada de lo que pueden ofrecer.
Autores: Javier Cepeda Ruiz, profesor titular de la Facultad de Química de la UPV/EHU; Daniel Reta Mañeru, Ikerbasque Research Associate Professor, Facultad Química & DIPC; Eider San Sebastian Larzabal, profesora agregada de la Facultad de Química de la UPV/EHU y Andoni Zabala Lekuona, profesor adjunto de la Facultad de Química de la UPV/EHU.
La Facultad de Química de la UPV/EHU cumple este año 50 años. Con motivo de este aniversario se han organizado un gran número de actividades festivas, de orientación del alumnado de secundaria, investigación, transferencia y divulgación. Entre estas últimas podemos encontrar “12 meses – 12 temas”, conjunto de actividades que pretende mostrar a la sociedad las temáticas desarrolladas en la Facultad. Entre estas actividades podemos encontrar el ciclo de charlas “50 años difundiendo la química”, en Ernest Lluch Kulturetxea, así como vídeos de divulgación, entrevistas en radio y artículos en los blogs de divulgación de la Cátedra de Cultura Científica. Durante todo el año contaremos con invitados especiales, como los cuatro Centros de Investigación nacidos de la Facultad (CIDETEC, CFM, DIPC y POLYMAT), así como los Premios Nobel Albert Fert y Jean Marie Lehn. Se puede consultar el conjunto de actividades programadas en la página web de nuestro 50 Aniversario.
El artículo ¿Todo esto con electrones? se ha escrito en Cuaderno de Cultura Científica.
Un túnel transatlántico
Por algún curioso motivo, hay ideas, que, pase el tiempo que pase, no dejan de ser «innovadoras». No importa si ya se le ocurrieron a alguien hace más de cien años, ni si se llevaron a cabo con relativo éxito, también da igual si se han escrito novelas y hasta rodado películas sobre ellas: siempre habrá algún gurú tecnológico que las redescubra y las presente como novedosas. La posibilidad de construir un túnel transatlántico que una Europa con América es una de esas ideas.
A finales del siglo XIX, y hasta los años cincuenta del siglo XX —cuando comenzaron los primeros vuelos comerciales transatlánticos—, cruzar el océano que separaba el Viejo del Nuevo Continente en un barco de vapor podía llevar más de una semana, y no siempre en condiciones óptimas de comodidad. En un momento, además, en el que la industrialización y la idea de progreso tecnológico marcaban la agenda, fue cuestión de muy poco tiempo que a algunos visionarios se les empezaran a ocurrir formas —más o menos disparatadas— de solucionar ese problema.
El germen de todo esto se remonta al ingeniero George Medhurst. Entre finales del siglo XVIII y principios del XIX patentó algunos sistemas de propulsión que utilizaban aire comprimido. Este invento llevó a los sistemas de envío mediante tubos neumáticos que se utilizaron en edificios como la Oficina General de Correos en Londres e incluso a la invención del ferrocarril atmosférico: una especie de rudimentario sistema de hyperloop que, aunque con bastantes problemas, llegó a entrar en funcionamiento y probarse en alguna ocasión con personas.

Medhurst solo sembró una semilla que otros se encargarían de nutrir, pero parece que la idea arraigó en el imaginario colectivo porque, desde entonces, empezaron a proliferar historias de ficción en las que los túneles neumáticos se convirtieron en el transporte del futuro. Dadas las velocidades que se calculó que podrían alcanzar los vehículos que circularan por ellos, normalmente trenes, eran la solución perfecta para acortar distancias entre continentes.
Parece que el primero que utilizó esta idea fue Michel Verne, hijo de Julio Verne, en Un expreso del futuro, publicada en francés en 1888 y traducida al inglés en 1985. Pero pronto muchos otros la irían refinando, como Hugo Gernsback, en Ralph 124c 41+ (1911) o Lucille Taylor Hansen, en «The undersea tube» (1929). Las películas sobre el tema se remontan, casi, casi, a los orígenes del cine de ciencia ficción, sirva como ejemplo la francoalemana Der Tunnel (1933), que vio su versión inglesa dos años después, y que se basaba en la novela homónima de Bernhard Kellerman, escrita en 1913.

Créditos: Dominio público.
Pero ¿sería factible llevar a cabo, a día de hoy, semejante obra de ingeniería? Pues, pese a las promesas de algunos magnates, parece que no. Si todavía no se ha conseguido desarrollar un hyperloop en tierra, ni siquiera para trayectos relativamente cortos, conseguir hacerlo bajo el océano y para un trayecto de más de 5000 km es poco menos que inalcanzable. Construir simplemente algo similar al Eurotúnel ya sería una empresa titánica, y no digamos en aquellos tramos que podrían encontrarse a más de 8000 m de profundidad y a presiones más de 800 veces mayores que a nivel del mar. Pensemos que el Titanic se encuentra a 3784 m y, como se ha demostrado, bajar hasta ahí no suele ser ni fácil ni una buena idea sin una cuidadosa preparación. A eso se añaden las dificultades logísticas. Ya solo el transporte de los materiales requeriría una cantidad estratosférica de recursos y, además, las obras en alta mar solo podrían llevarse a cabo en determinadas épocas del año, cuando el clima fuera favorable, lo que ralentizaría —y encarecería— muchísimo el proceso.
Aun así, veamos las diferentes opciones de diseño que ya se han planteado. Una sería excavar bajo el lecho marino, en caso de que tuviéramos maquinaria que lo permitiera, o, por ejemplo, instalar módulos prefabricados sobre él. En ambos casos, y asumiendo que las altas presiones no fueran un problema —que lo serían, especialmente en el segundo caso, si hay que bajar a unir los fragmentos de túnel—, el escollo sería cruzar la dorsal mesoatlántica, con su alta tasa de actividad volcánica y sísmica, por no mencionar el desplazamiento de las placas tectónicas, así que, en principio, estas opciones quedarían descartadas. Otra posibilidad que se ha planteado sería construir el túnel mediante módulos «flotantes», sumergidos a unas decenas de metros de la superficie, utilizando un sistema de lastres similar al de los submarinos y algún tipo de anclaje al fondo mediante cables o columnas —algo que ya plantearía un reto de ingeniería de envergadura similar al propio túnel—. En este caso, las corrientes o el oleaje harían muy difícil estabilizarlo, incluso con tecnología similar a la que se utiliza en las plataformas petrolíferas, por no mencionar la fatiga estructural.
A todo lo anterior habría que añadir las tareas de mantenimiento, ya no solo de la estructura en sí, sino de los sistemas de energía y ventilación, de comunicaciones… y habría que contar con salidas de emergencia y un plan de evacuación que, en esas condiciones y de no funcionar a la perfección, podrían convertir cualquier error de funcionamiento en una tragedia. Y no hablemos del impacto que algo así podría tener en el ecosistema marino. Así que, al menos de momento, parece que el túnel transatlántico nos daría demasiados quebraderos de cabeza, ¿nos compensan, teniendo la opción de viajar en avión?
Lamentablemente, parece que tendremos que esperar, pero no desistamos del todo. Como ha sucedido tantas otras veces, nunca se sabe cuándo el desarrollo científico y tecnológico dará con la clave que no permita construir nuestro túnel submarino. Al fin y al cabo, hace no tanto, veíamos imposible volar como las aves o que un ordenador escribiera poesía, así que, ¿quién sabe qué será lo siguiente?
Bibliografía
Bowler, P. J. (2017). A history of the future. Cambridge University Press.
Discovery Channel (2003). Transatlantic tunnel. Extreme engineering.
Self, D. (2020). Pneumatic Networks. The Museum of RetroTechnology.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo Un túnel transatlántico se ha escrito en Cuaderno de Cultura Científica.
El sistema de numeración en base Phi
En la pasada entrada del Cuaderno de Cultura Científica titulada ECHO, un cómic áureo, que habíamos dedicado a la presencia del número áureo, de la divina proporción, en la serie de cómic ECHO (2008-2011), del dibujante y guionista estadounidense Terry Moore, se mencionaba que uno de los personajes, que era matemática, había propuesto sustituir el sistema de numeración decimal (en base 10) por el sistema de numeración en base Phi en la investigación científica. En esta entrada vamos a explicar qué es el sistema de numeración en base Phi.

Empecemos, recordando que el sistema de numeración posicional moderno utilizado en casi todo el mundo es el decimal, es decir, que tiene base 10 (véase el libro Los secretos de la multiplicación, de los babilonios a los ordenadores). Por lo tanto, consta de diez cifras básicas, 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 y todo número natural se puede representar con ellas al expresarlo en función de las potencias de 10. Por ejemplo, el número 273.054 tiene el valor de 2 veces la cantidad de 100.000 (centenas de millar), 7 veces la cantidad de 10.000 (decenas de millar), 3 veces la cantidad de 1.000 (unidades de millar), 0 veces la cantidad de 100 (centenas), 5 veces la cantidad de 10 (decenas) y 4 veces la unidad 1, que son las potencias de 10, a saber, 100.000 = 105, 10.000 = 104, 1.000 = 103, 100 = 102, 10 = 101 y 1 = 100.

Pero este sistema de numeración no solo nos sirve para representar los números naturales (bueno, los enteros, incluido el signo negativo), sino también los números reales, es decir, también aquellos que tienen una parte decimal. Por ejemplo, el número real, de hecho, racional, [3,52793] tiene el valor de 3 veces la unidad, 5 veces la cantidad de [0,1] (décimas), 2 veces la cantidad de [0,01] (centésimas), 7 veces la cantidad de [0,001] (milésimas), 9 veces la cantidad de [0,0001] (diezmilésimas) y 3 veces la cantidad de [0,00001] (cienmilésimas), que son también las potencias de 10, aunque ahora se incluyen las negativas, a saber, 0,1 = 10-1; 0,01 = 10-2; 0,001 = 10-3; 0,0001 = 10-4 y 0,00001 = 10-5.

Aunque el sistema de numeración (posicional) decimal es el que utilizamos de manera natural en nuestra vida cotidiana, sabemos que existen otros sistemas de numeración en otras bases, como el sistema de numeración binario o en base 2, b = 2, que es el que utilizan nuestros ordenadores, los sistemas octal (base 8, b = 8) y hexadecimal (base 16, b = 16), que también son muy utilizados en informática, el sistema duodecimal o docenal (base 12, b = 12), que es por el que abogan como sistema cotidiano los miembros de las sociedades The Dozenal Society of America y The Dozenal Society of Great Britain (véase la entrada El sistema duodecimal, o si los humanos hubiésemos tenido seis dedos en las manos) o el sistema sexagesimal (base sesenta, b = 60), que ya utilizaron los babilonios, pero en general para cualquier número natural b mayor o igual que 2, como b = 3 (sistema ternario), b = 4 (sistema cuaternario), b = 5 (quinario), etcétera. De algunos de estos sistemas ya hemos hablado en algunas entradas del Cuaderno de Cultura Científica, como Las bases de numeración o cómo hacer trucos de magia binarios o Sobre cómo escribir el número pi en base cuatro.
En general, dada una base de numeración b –por ejemplo, como cualquiera de las que hemos comentado 2, 3, 4, 5, 8, 12, 16 o 60– la representación posicional de cualquier número en la misma viene dada por una expresión d1d2…dr (donde los dígitos di –para i entre 1 y r– pertenecen a la familia de las b cifras básicas del sistema de numeración, que tienen valores entre 0 y b – 1) teniendo en cuenta que el número puede escribirse, de forma única, como
Por lo tanto, la representación del número está ligada a la base elegida. Así, si tomamos el sistema binario (b = 2) el anterior número (273.054) se representa como (1000010101010011110)2, ya que “273.054” = 218 + 213 + 211 + 29 + 27 + 24 + 23 + 22 + 21; en la base octal (b = 8) como (1.025.236)8, porque “273.054” = 1 x 86 + 2 x 84 + 5 x 83 + 2 x 82 + 3 x 8 + 6; o en la base hexadecimal (b = 16), donde las cifras básicas son denotadas por 0, 1, …, 9, A, B, C, D, E, F, como (42A9E)16, puesto que “273.054” = 4 x 164 + 2 x 163 + A x 162 + 9 x 16 + E, donde estamos utilizando el subíndice de las representaciones (2, 8 y 16) para recordar que esa es una representación en esa base de numeración.

De la misma forma se representan los números decimales. Por ejemplo, si se considera el número 0,696044921875 (escrito de forma natural, en base decimal), este se representa de las siguientes formas en distintas bases:
a) en base binaria (b = 2), como (0,101100100011)2, puesto que “0,696044921875” = 2-1 + 2-3 + 2-4 + 2-7 + 2-11 + 2-12 = 0,5 + 0,125 + 0,0625 + 0,0078125 + 0,00048828125 + 0,000244140625;
b) en base cuaternaria (b = 4), como (0,230203)4, puesto que “0,696044921875” = 2 x 4-1 + 3 x 4-2 + 2 x 4-4 + 3 x 4-6 = 2 x 0,25 + 3 x 0,0625 + 2 x 0,00390625 + 3 x 0,000244140625;
c) base octal (b = 8), como (5443)8, puesto que “0,696044921875” = 5 x 8-1 + 4 x 8-2 + 4 x 8-3 + 3 x 8-4 = 5 x 0,125 + 4 x 0,015625 + 4 x 0,001953125 + 3 x 0,000244140625;
d) en base hexadecimal (b = 16), donde las cifras básicas son 0, 1, …, 9, A, B, C, D, E, F, como (0,B23)16, puesto que “0,696044921875” = B x 16-1 + 2 x 16-2 + 3 x 16-3 = 11 x 0,0625 + 2 x 0,00390625 + 3 x 0,000244140625.
¿Un sistema de numeración irracional?Como se comentaba al principio de esta entrada, uno de los personajes del cómic ECHO, del dibujante y guionista de cómic estadounidense Terry Moore, proponía sustituir el sistema de numeración decimal por el sistema de numeración en base Phi en la investigación científica.

Pero el número áureo Phi no es un número natural, como las bases que hemos explicado más arriba y a las que podemos estar más acostumbrados (al menos si nos interesan los números), más aún, es un número irracional (sobre los números irracionales podéis leer la entrada El infinito en un segmento (2)), con infinitos decimales que se extienden sin fin, pero sin ningún patrón periódico.
Phi = 1, 61803398874989484820458683436563811772030917…
¿Es posible que Phi sea la base de un sistema de numeración? La respuesta es afirmativa, de hecho, si no fuese así no estaríamos escribiendo esta entrada.
Recordemos brevemente la definición de Phi y la ecuación algebraica asociada, que nos va a ser de utilidad para nuestro objetivo de escribir los números como potencias de la razón áurea.
Se dice que un segmento de recta está dividido en extrema y media razón cuando la longitud del segmento total es a la parte mayor, como la de esta parte mayor es a la menor. Es decir, si tenemos un segmento como el que aparece en la siguiente imagen, buscamos el punto del mismo que divide al segmento en dos partes, de longitudes a y b, de forma que la proporción o razón (división) entre la parte mayor y la menor, a/b, es igual a la proporción entre la longitud del segmento y la parte mayor (a + b)/a.
Ahora, si llamamos Phi (Φ) al cociente a/b, la condición anterior se puede escribir como la ecuación algebraica siguiente:
Esta es una ecuación algebraica de segundo grado, cuyas soluciones, sin más que utilizar la conocida fórmula de resolución de la ecuación de segundo grado que estudiamos en el instituto, son las siguientes (una es Phi y la otra es 1 – Phi, que teniendo en cuenta que Phi-1 = b / a en la expresión de definición de Phi, se tiene que la otra raíz es 1 – Phi = – Phi-1).
En conclusión, tenemos dos fórmulas que nos van a ser de mucha utilidad a la hora de expresar los números naturales como sumas de potencias de Phi.
Para representar los números naturales en base Phi, primero vamos a ver que podemos expresar los números naturales como suma de potencias de Phi, positivas o negativas. Para lo cual van a ser de mucha utilidad las dos identidades anteriores del número Phi y basta jugar un poco con ellas para obtener las siguientes igualdades.

Lo primero que observamos al realizar las anteriores identidades de los primeros números naturales es que, efectivamente, es posible expresarlos como suma de potencias de Phi. Por lo tanto, podemos representar esos números utilizando únicamente dos cifras básicas, 1 (para las potencias de Phi que están) y 0 (para las potencias de Phi que no están), aunque, como se utilizan potencias negativas, las representaciones van a tener una expresión con “decimales”, es decir, utilizaremos una “coma” y se van a colocar los coeficientes, 0s y 1s, de las potencias positivas a la izquierda y de las negativas a la derecha de la coma, como es habitual en cualquier sistema de numeración. En la siguiente tabla se han recogido las que serían las representaciones de los diez primeros números (teniendo en cuenta las anteriores igualdades).

Aunque hay algún pero que podemos poner antes de afirmar que estas serían las representaciones en base Phi de los números naturales. La cuestión es que los números pueden representarse como suma de potencias, positivas y negativas, del número Phi de más de una manera, como podemos observar para los siguientes números.

Si tenemos en cuenta lo anterior, cada número tendría más de una representación Phinaria, lo cual no es deseable. En concreto, para los números que hemos mostrado arriba se tendría que el número uno tendría al menos dos representaciones, como 1 y como 0,11; el número dos tendría al menos otras dos, a saber, 10,01 y 1,11; el tres otras dos, que son 100,01 y 11,01; o el cuatro tendría las representaciones 101,01 y 101,0011; y así podríamos seguir. Más aún, hemos puesto dos expresiones de los números como suma de potencias de Phi, pero podríamos poner más de dos. Por ejemplo, para el número dos tendríamos infinitas formas de expresarlo como potencias, positivas y negativas, de Phi, como se muestra en la siguiente imagen.

Y si lo expresamos en forma de representaciones Phinarias con ceros y unos, serían
10,01 = 1,11 = 1,1011 = 1,101011 = … = 10,0011 = 10,001011 =…
Por lo tanto, debemos buscar una forma de asignar a cada número una representación en base Phi única. Jugando con las anteriores expresiones hemos podido darnos cuenta de que se verifica la expresión
que está detrás del hecho de que existan muchas maneras de expresar los números naturales como sumas de potencias de Phi. Si pensamos en las representaciones Phinarias, la anterior igualdad se traduce a la siguiente igualdad
donde hemos utilizado el subíndice Phi para indicar que estamos con representaciones Phinarias. Esta expresión es la responsable de la existencia de infinitas representaciones, como podemos observar en las representaciones en base Phi anteriores del número dos. Así, se observa por ejemplo que
10,01 = 1,11.
Más aún, a toda representación Phinaria que termine en 1 se le puede sustituir el 1 por 011, por lo anterior, así en el caso del número dos tenemos que
10,01 = 10,0011 = 10,001011 =…
o también
1,11 = 1,1011 = 1,101011 = …
Representaciones en base Phi minimales y maximalesCon el objetivo de poder asignar una representación en base Phi única para cada número natural se van a introducir las representaciones Phinarias maximales y minimales.
Una representación Phinaria de un número natural se dice que es minimal si es la que posee la menor cantidad de unos (1) de entre todas las representaciones en base Phi de dicho número. Por la propiedad anterior, de que en toda representación Phinaria se puede sustituir 11 por 100, se tiene que las representaciones minimales son aquellas para las cuales no hay dos unos consecutivos (11). Así, la representación Phinaria minimal de todas las representaciones en base Phi del número dos que se han mostrado más arriba, es 10,01. Las demás representaciones tienen tres unos (1,11; 10,0011), cuatro unos (1,1011; 10,001011) o más (1,101011, etc.). De esta manera:
todo número natural posee una única representación en base Phi minimal (sin unos consecutivos).
De hecho, esta representación es la que se suele utilizar de forma habitual, por lo que se la denomina representación Phinaria estándar (o simplemente representación Phinaria, cuando no hay lugar a dudas).
Aunque también se podría considerar la denominada representación en base Phi maximal de un número natural, que es aquella que tiene la mayor cantidad de unos (1) de entre todas las representaciones Phinarias de dicho número, pero que no termine en 011 (así evitamos esa ampliación infinita por la parte de la derecha que hemos observado con el número dos). Estas representaciones no tienen dos ceros consecutivos (00). Si observamos las representaciones Phinarias del número dos que se han mostrado más arriba, las únicas que no terminan en 011 son 10,01 y 11,1. Por lo tanto, la representación en base Phi maximal de dos es 1,11. Y ahora también tenemos que:
todo número natural posee una única representación en base Phi maximal (sin unos consecutivos).
Vamos a terminar incluyendo las representaciones minimales (estándar) y maximales de los primeros números naturales.
Ahora ya sabemos cuál es la representación en base Phi de los números naturales (la que hemos denominado estándar). Por ejemplo, el año en el que estamos, mientras escribo esta entrada, que es el año 2025 se escribiría en base Phi como
1 010 010 000 101 010,000 001 000 010 000 1.
Más aún, no solo se representan los números naturales (enteros), sino que se podrían representar, de nuevo, todos los números reales, pero no vamos a entrar en ello en esta entrada.

Bibliografía
1.- Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, Ariel, 2006.
2.- Ron Knott: Using Powers of Phi to represent Integers (Base Phi)
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El sistema de numeración en base Phi se ha escrito en Cuaderno de Cultura Científica.
La textura de los alimentos como generador de emociones en la infancia
La textura es un aspecto fundamental en la aceptación de los alimentos por parte de la población infantil. A lo largo de los años, numerosos estudios [1]–[3] han demostrado que los niños y niñas tienden a preferir texturas homogéneas y fáciles de masticar, mientras que las texturas más complejas pueden generar rechazo. Sin embargo, la aceptabilidad no es el único criterio que influye en sus elecciones alimentarias. En este sentido, estudios predictivos [4]–[6] han mostrado que el comportamiento alimentario está influenciado en gran medida por respuestas inconscientes e involuntarias como las emociones.

Desde hace siglos, los filósofos y científicos han intentado responder a una pregunta fundamental: ¿qué es una emoción y cómo se genera? Existen distintas teorías que buscan explicarlo.La teoría de las emociones básicas [7], inspirada en Darwin [8], sostiene que las emociones son respuestas universales e innatas que nos han ayudado a sobrevivir a lo largo de la evolución. Según esta perspectiva, emociones como la alegría, el miedo o la ira están asociadas a patrones específicos de expresiones faciales y reacciones fisiológicas. Un ejemplo de estos patrones se muestra en la Figura 1.

Por otro lado, las teorías dimensionales [10] consideran que las emociones no son categorías discretas, sino experiencias que varían en dos dimensiones principales: la valencia emocional (cómo de positiva o negativa es la emoción) y el nivel de activación emocional (cómo de excitada o relajada es la emoción). Finalmente, las teorías de la evaluación (o appraisal en inglés) [11] sugieren que las emociones surgen a partir de la evaluación cognitiva que hacemos de una situación, basándonos en nuestras experiencias previas. Desde este punto de vista, el cerebro no solo reacciona automáticamente, sino que interpreta el contexto y ajusta la respuesta emocional de forma flexible.
Aunque cada teoría aborda la emoción desde una perspectiva distinta, todas coinciden en que se trata de un fenómeno complejo que involucra múltiples componentes del organismo: desde cambios conductuales o fisiológicos hasta procesos cognitivos que influyen en nuestra forma de actuar.
Una de estas respuestas conductuales puede ser la expresión facial. Desde hace décadas, los científicos han estudiado cómo la expresión de nuestra cara refleja nuestras emociones. En este sentido, el sistema Facial Action Coding System (FACS; Figura 2) [12], desarrollado por Paul Ekman y colaboradores, establece que ciertos movimientos musculares en el rostro están asociados a puntos concretos de la expresión (denominados en inglés Action Units o AUs) que a su vez se relacionan con emociones básicas como la alegría, la tristeza o el miedo.

Mientras que el rostro refleja la emoción a nivel conductual, el sistema nervioso autónomo (ANS por sus siglas en inglés) revela lo que sucede en el interior del cuerpo. Una de las formas de medir esta respuesta es a través de la conductividad de la piel (SCR, por sus siglas en inglés; Figura 3), un método que detecta cambios en la actividad de las glándulas sudoríparas en la piel, especialmente en las manos. Cuando experimentamos una emoción intensa—como sorpresa, miedo o excitación—, nuestro sistema nervioso activa automáticamente la producción de sudor. Estos pequeños cambios en la humedad de la piel alteran su conductividad eléctrica, lo que puede ser medido mediante sensores colocados en los dedos.

En este contexto, un estudio reciente publicado en la revista científica Food Quality and Preference [16] ha profundizado en la relación que existe entre la textura de los alimentos y las emociones de la población infantil analizando cómo reaccionan los niños y niñas de entre 5 y 12 años ante alimentos sólidos con diferentes texturas. Para ello, se combinaron métodos tradicionales, como los cuestionarios, con tecnologías avanzadas que miden tanto sus expresiones faciales como la conductividad de su piel, lo que permite captar reacciones emocionales tanto conscientes como inconscientes.
En este estudio, las investigadoras trabajaron con un grupo de 45 niños y niñas, a quienes se les ofrecieron tres muestras de un mismo producto elaborado a partir de zumo de manzana, pero con distintas texturas: una blanda (denominada T6), otra de fácil masticación (T7.1) y una más firme (T7.2; Figura 4). Cada individuo evaluó estos productos en cuatro etapas sensoriales: observación, olfacción, manipulación y consumo. Durante todo el proceso, sus expresiones faciales fueron registradas con el software de reconocimiento automatizado FaceReader (Noldus Information Technology, Países Bajos) que analiza estos movimientos musculares y los traduce en emociones específicas, así como su nivel de excitación emocional que se midió con sensores de conductividad de la piel. Además, después de probar cada muestra, se les pidió que calificaran cuánto les gustaba en una escala del 1 al 7.

Uno de los hallazgos más llamativos fue que, aunque los niños y niñas calificaron los tres productos con niveles de aceptabilidad similares (textura T6: 4,6+1,8; textura T7.1: 4,6+2,0; textura T7.2: 4.3+2.0), sus reacciones emocionales fueron significativamente diferentes según la textura del alimento y la etapa sensorial en la que se encontraban (Figuras 5-8).
-
El producto más blando provocó más expresiones faciales de sonrisa en la fase inicial.
-
Las texturas más firmes generaron más expresiones de miedo y desagrado, especialmente durante la masticación. La textura más dura también generó expresiones faciales de miedo y sorpresa durante la fase de consumo, lo que sugiere una reacción negativa de alerta ante lo que se percibe como un alimento más difícil de masticar.
-
Curiosamente, las investigadoras también encontraron que las reacciones emocionales eran más intensas y la activación emocional mayor durante la observación y la olfacción que durante la manipulación y el consumo. Esto sugiere que la población infantil de edad escolar desarrolla expectativas sobre el alimento antes de probarlo, y que estas expectativas pueden influir en su respuesta emocional cuando finalmente lo consumen.




Estos resultados son especialmente relevantes para la industria alimentaria y para quienes trabajan en nutrición infantil. Aunque el público infantil pueda aceptar un alimento desde el punto de vista del gusto, su respuesta emocional podría afectar su disposición a consumirlo regularmente. Por ejemplo, si un alimento genera expresiones faciales de sorpresa y/o miedo durante la observación o la olfacción, es posible que sea rechazado antes de probarlo, incluso si luego gusta su sabor. Esto refuerza la idea de que, para mejorar la aceptación de ciertos alimentos es crucial considerar no solo su sabor, sino también la forma en que se presentan y su textura.
Referencias:
[1] A. S. Szczesniak, “Texture is a sensory property,” Food Qual. Prefer., vol. 13, no. 4, pp. 215–225, 2002, doi: 10.1016/S0950-3293(01)00039-8.
[2] M. Laureati et al., “Individual differences in texture preferences among European children: Development and validation of the Child Food Texture Preference Questionnaire (CFTPQ),” Food Qual. Prefer., vol. 80, p. 103828, 2020, doi: https://doi.org/10.1016/j.foodqual.2019.103828.
[3] M. Laureati, C. Cattaneo, V. Lavelli, V. Bergamaschi, P. Riso, and E. Pagliarini, “Application of the check-all-that-apply method (CATA) to get insights on children’s drivers of liking of fiber-enriched apple purees,” J. Sens. Stud., vol. 32, no. 2, 2017, doi: 10.1111/joss.12253.
[4] J. R. Dalenberg, S. Gutjar, G. J. Ter Horst, K. De Graaf, R. J. Renken, and G. Jager, “Evoked emotions predict food choice,” PLoS One, vol. 9, no. 12, pp. 1–16, 2014, doi: 10.1371/journal.pone.0115388.
[5] G. Juodeikiene et al., “Effects of emotional responses to certain foods on the prediction of consumer acceptance,” Food Res. Int., vol. 112, no. May, pp. 361–368, 2018, doi: 10.1016/j.foodres.2018.06.064.
[6] S. S. Samant, M. J. Chapko, and H. S. Seo, “Predicting consumer liking and preference based on emotional responses and sensory perception: A study with basic taste solutions,” Food Res. Int., vol. 100, no. April, pp. 325–334, 2017, doi: 10.1016/j.foodres.2017.07.021.
[7] P. Ekman, “All emotions are basic,” in The nature of emotion, P. Ekman and R. J. Davidson, Eds., Oxford University Press, 1994, pp. 56–58.
[8] C. Darwin, The expression of the emotions in man and animals. Cambridge: Cambridge University Press, 1872. doi: DOI: 10.1017/CBO9781139833813.
[9] R. Plutchik, “The nature of emotions: Human emotions have deep evolutionary roots, a fact that may explain their complexity and provide tools for clinical practice,” Am. Sci., vol. 89, no. 4, pp. 344–350, Apr. 2001, [Online]. Available: http://www.jstor.org/stable/27857503
[10] J. A. Russell, “A circumplex model of affect,” J. Pers. Soc. Psychol., vol. 39, no. 6, pp. 1161–1178, 1980, doi: 10.1037/h0077714.
[11] L. Barrett, “Solving the emotion paradox: Categorization and the experience of emotion,” Pers. Soc. Psychol. Rev., vol. 10, pp. 20–46, Feb. 2006, doi: 10.1207/s15327957pspr1001_2.
[12] P. Ekman, W. Friesen, and J. C. Hager, Facial Action Coding System: The manual on CD-ROM. Instructor’s Guide. Salt Lake City: Network Information Research Co, 2002.
[13] iMotions Biometric Research Simplified, “What is GSR? The definite guide,” 2015. [Online]. Available: https://imotions.com/guides/facial-expression-analysis/
[14] J. J. J. Braithwaite et al., “A guide for analysing Electrodermal Activity (EDA) & Skin Conductance Responses (SCRs) for psychological experiments,” 2015. doi: 10.1017.S0142716405050034.
[15] S. D. Kreibig, “Autonomic nervous system activity in emotion : A review,” Biol. Psychol., vol. 84, no. 3, pp. 14–41, 2010, doi: 10.1016/j.biopsycho.2010.03.010.
[16] N. da Quinta, A. B. Baranda, Y. Ríos, R. Llorente, A. B. Naranjo, and I. Martinez de Marañón, “Children’s physiological and behavioural response during the observation, olfaction, manipulation, and consumption of food products with varied textures. Part 2: Solid products,” Food Qual. Prefer., vol. 115, p. 105120, 2024, doi: https://doi.org/10.1016/j.foodqual.2024.105120.
[17] R. Soussignan and B. Schaal, “Children’ s facial responsiveness to odors: Influences of hedonic valence of odor, gender, age, and social presence,” Dev. Psychol., vol. 32, no. 2, pp. 367–379, 1996, doi: 10.1037/0012-1649.32.2.367.
[18] G. G. Zeinstra, M. A. Koelen, D. Colindres, F. J. Kok, and C. de Graaf, “Facial expressions in school-aged children are a good indicator of ‘dislikes’, but not of ‘likes,’” Food Qual. Prefer., vol. 20, no. 8, pp. 620–624, 2009, doi: 10.1016/j.foodqual.2009.07.002.
Nota:
1 El significado de los puntos de expresión facial de la parte superior de la cara es: AU01: elevador de cejas interno (inner brow raiser); AU02: elevador de cejas externo (outer brow raiser); AU04: bajador o descensor de cejas (brow lowerer); AU05: elevador de párpado superior (upper lid raiser); AU06: elevador de mejillas (cheek raiser); AU07: tensor de párpado (lid tightener); AU43: ojos cerrados (eyes closed) [12].
La asociación de dichos puntos de expresión facial con emociones se realizó en base a las indicaciones aportadas por otras publicaciones científicas [12], [17], [18]. Los puntos de expresión AU01, AU02, AU04 y AU43 se asociaron con emociones negativas. Por otro lado, AU06 se asoció con emociones neutras. Finalmente, se consideró que AU05 y AU07 no tienen relación directa con una emoción.
 
Sobre la autora: Noelia Da Quinta es doctora en Calidad y Seguridad alimentarias e investigadora postdoctoral en comportamiento del consumidor en AZTI.
Sobre AZTI: El propósito de AZTI es impulsar un cambio positivo para el futuro de las personas, contribuyendo a una sociedad saludable, sostenible e íntegra. Especializado en el medio marino y la alimentación, AZTI aporta productos y tecnologías de vanguardia y de valor añadido basados en ciencia e investigación sólidas. AZTI es miembro de Basque Research and Technology Alliance (BRTA).
Basque Research & Technology Alliance (BRTA) es un consorcio que se anticipa a los retos socioeconómicos futuros globales y de Euskadi y que responde a los mismos mediante la investigación y el desarrollo tecnológico, proyectándose internacionalmente. Los centros de BRTA colaboran en la generación de conocimiento y su transferencia a la sociedad e industria vascas para que sean más innovadoras y competitivas. BRTA es una alianza de 17 centros tecnológicos y centros de investigación cooperativa y cuenta con el apoyo del Gobierno Vasco, SPRI y las Diputaciones Forales de Araba, Bizkaia y Gipuzkoa.
El artículo La textura de los alimentos como generador de emociones en la infancia se ha escrito en Cuaderno de Cultura Científica.
Los casquetes polares de Marte y el interior del planeta rojo
Cuando en una de esas noches en las que Marte y la Tierra se encuentran relativamente cerca -bueno, cerca en el sentido astronómico, ya que es difícil que nos acerquemos a menos de 55 millones de kilómetros- y miramos con un telescopio modesto, hay algo que salta a la vista y que, sin poder ver ningún otro detalle de la superficie con tanta claridad entre la turbulencia atmosférica, nos hace sentir cierta familiaridad: los casquetes polares de Marte.
Más allá de que para los geólogos las capas de polvo y hielo de los casquetes polares -como una inmensa tarta de chocolate y galletas- pueden albergar una importantísima información sobre la historia climática del planeta rojo, hay algo más que nos pueden enseñar estas grandes masas de hielo al igual que las hemos podido aprovechar en la Tierra: conocer mejor la rigidez del manto y, a la vez, como de frío está el interior del planeta.

En la Tierra tenemos una compleja historia de periodos glaciares e interglaciares. Durante las popularmente conocidas como “edades del hielo” -los periodos glaciares-, sobre los continentes suelen formarse grandes masas de hielo y, con su enorme peso, tienen la capacidad de ir hundiendo la corteza que hay debajo, flexionándola como cuando clavamos un dedo sobre una bola antiestrés.
Cuando el clima va cambiando hacia un periodo más cálido -o interglaciar- y el hielo comienza a fundirse, este peso se va liberando y la corteza “rebota” hacia arriba en un proceso que conocemos como rebote isostático, que como decía en el párrafo anterior, nos da pistas sobre el estado del interior de nuestro planeta.
En Marte podemos medir estos procesos gracias al casquete de hielo que existe en el polo Norte, un enorme depósito de hielo y polvo de varios kilómetros de espesor acumulados durante millones de años y que es capaz de, por su peso, deformar la corteza de con una magnitud que podemos medir a través de las misiones espaciales. Y un nuevo artículo publicado por Broquet et al. (2025), nos ha abierto, gracias a la deformación que produce el peso de este hielo sobre la corteza del planeta, una ventana para conocer mejor el funcionamiento interno de Marte.
¿Cómo han abordado los científicos este problema? Porque no ha habido ninguna misión específica dedicada a estudiar esta cuestión en la superficie de Marte, pero tampoco desde la órbita. A pesar de eso, han logrado cuatro indicios diferentes para reconstruir con más detalle estos procesos de deformación y respuesta de la corteza y el manto marciano.
La primera de estas pistas viene dada por el estudio de los perfiles de radar tomados por los instrumentos MARSIS y SHARAD, que les ha permitido observar una especie de “radiografía” de los casquetes polares gracias a las ondas de radio que rebotan -y en algunos casos son absorbidas- por las distintas capas del casquete polar. Con estos perfiles se ha podido calcular el espesor real de la capa de hielo y estudiar el estado de las rocas que soportan esta masa de hielo, descubriendo que no ha sufrido una flexura o flexión muy grande como consecuencia del peso.

Por otro, el estudio del campo gravitatorio de Marte, que no es estático, sino que va cambiando con el paso del tiempo. Cuando el hielo se va acumulando sobre los casquetes y se deforma la corteza, ocurren cambios sutiles que se pueden ir siguiendo a lo largo de los años marcianos, permitiendo a los científicos ver que parte de la superficie rebota o se hunde. Este hecho incluso puede observarse con el cambio de las estaciones, ya que hay parte del hielo que se sublima a la atmósfera durante la primavera y el verano y cae de nuevo durante el invierno, generando una alteración del campo gravitatorio suficientemente perceptible.
Los datos sísmicos de la misión InSight han sido también muy importantes, ya que de ellos se aprecia que no han ocurrido terremotos importantes cerca del polo norte, indicando que la deformación en la corteza del planeta es muy pequeña, permitiendo acotar a los científicos que cantidad de flexión está sufriendo la corteza con respecto a la actividad sísmica observada. Por cierto, este hecho tiene también una derivada práctica importante, y es que, de cara al riesgo sísmico para las futuras misiones tripuladas marcianas, el polo norte podría ser relativamente “tranquilo” y, por lo tanto, un lugar seguro. Si las rocas que sirven de apoyo al casquete polar hubiesen sufrido una mayor deformación, lo más probable es que hubiese una mayor actividad sísmica también.
Por último, los investigadores han confeccionado una serie de modelos físicos que simulan la evolución del calor interno de Marte desde su formación hasta el día de hoy, permitiendo poner a prueba varios escenarios sobre como podía ser la estructura interna del planeta, y, combinando estos escenarios con los datos reales, saber cuales podrían ser los más certeros.
¿Y qué resultados arroja la combinación de todos estos datos junto con los modelos? El primero es que el manto de Marte, la capa que hay justo debajo de la corteza, es más viscosa de lo que se había pensado hasta ahora. La viscosidad, en este sentido, es la resistencia a fluir del manto. Esto no quiere decir que el manto esté fundido, si no que, a escala geológica, las rocas del manto se comportan como un fluido, pero se encuentran en estado sólido.

Esto es importante porque un manto muy viscoso nos indica que el interior de Marte está hoy relativamente frío -si no sería menos viscoso- y que los elementos radiogénicos que producen calor a partir de la desintegración radioactiva probablemente no estén distribuidos de una manera uniforme en su interior. Y de hecho es probable que muchos de estos elementos estén concentrados en la corteza, permitiendo que, por otro lado, esta esté más caliente.
Las implicaciones de esta observación son muy importantes: Sabemos que Marte ha tenido actividad volcánica en el pasado reciente -incluso en los últimos miles de años- y que puede que este fenómeno se deba no a la presencia de magmas que puedan provenir del manto, sino que estos podrían incluso formarse dentro de la propia corteza gracias a una mayor concentración de elementos radiogénicos suficientes para elevar la temperatura, fundir la roca y dar lugar a los magmas que posteriormente fluirían hacia la superficie.
Para concluir, otro aspecto que me ha parecido muy interesante del estudio es que el casquete polar del hemisferio norte es relativamente joven -a escala geológica- y que el hielo podría haberse estado acumulando desde hace entre 1.7 y 1.2 millones de años, por lo que la deformación de la corteza todavía estaría en marcha y no podemos apreciar todavía su verdadera magnitud debido a la lentitud de este proceso. Dicho esto, el poder establecer una fecha para cuando se comenzó a formar este casquete polar nos puede ayudar a comprender mejor la historia climática del planeta y la relación de este con los distintos ciclos astronómicos (oblicuidad, excentricidad, precesión…).
Todavía nos queda mucho para saber todos los detalles de la estructura interna del planeta Marte, pero cada trocito que descubrimos -aunque sea a través de misiones que muchas veces no parecen conectadas entre si- nos ayuda a estar más cerca de poder responder a por que Marte y la Tierra son planetas tan diferentes.
Bibliografía:
A. Broquet, et al. (2025) Glacial Isostatic Adjustment Reveals Mars’s Interior Viscosity Structure. Nature doi: 10.1038/s41586-024-08565-9
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Los casquetes polares de Marte y el interior del planeta rojo se ha escrito en Cuaderno de Cultura Científica.
Glaucoma, un vacío inquietante en un campo lleno de milagros

Más allá de la celebrada conversión del agua en vino, si tuviésemos que citar el milagro bíblico por excelencia seguramente diríamos «devolverles la vista a los ciegos». Pero, lo que durante siglos ha sido casi una habilidad mágica, disponible en exclusiva para divinidades, en nuestros días empieza a considerarse algo accesible y cercano en numerosas investigaciones biomédicas. Vivimos tiempos fascinantes en biomedicina y, cuando hablamos de «curar la ceguera» nos encontramos, casi a diario, un buen puñado de estudios científicos y noticias que nos colocan un paso más cerca de conseguirlo.
Ya sea con células madre para recuperar lesiones oculares, o implantes biónicos que, mediante neuroestimulación, podrían permitir restaurar funciones sensoriales, o el desarrollo avanzado de prototipos de córnea artificial, e incluso mediante técnicas de edición genética CRISPR para reparar la retina. Las posibilidades que se abren ante nosotros son tantas y tan variadas que no parece demasiado arriesgado adelantar que, en las próximas décadas, asistiremos a la conclusión de un milagro milenario.
Sin embargo existen ciertas enfermedades de la vista que no parecen avanzar tan rápido, determinados trastornos que afectan a un alto porcentaje de las personas ciegas y que no aún no cuentan con ningún avance revolucionario. Es el caso del glaucoma un amplio y heterogéneo grupo de enfermedades oculares neurodegenerativas caracterizadas por un daño gradual e irreversible del nervio óptico que en la actualidad afecta a más de 70 millones de personas. El daño por glaucoma es permanente, no cuenta con cura o tratamiento y se ha convertido en la segunda causa principal de ceguera en todo el mundo.
Ante este aparente vacío entre tanto milagro cotidiano y, teniendo en cuenta las elevadas cifras que ostenta el glaucoma, cualquier avance sobre el tema, por pequeño y lejano que parezca, resulta más que bienvenido. Encontramos un esperanzador ejemplo en un estudio publicado hace unas semanas en PNAS Nexus, el journal open Access de la célebre Proceedings of the National Academy of Sciences (PNAS), por el que se presentan dos anticuerpos que «podrían detener esta degradación y posiblemente salvar la visión de las personas antes de que sea demasiado tarde».
Comencemos el análisis de este estudio con una aproximación a las causas que generan la enfermedad. En términos generales el glaucoma consiste en un daño al nervio óptico, responsable de llevar al cerebro las imágenes convertidas en impulsos eléctricos en la retina. La mayoría de las veces ese daño en el nervio óptico está provocado por un aumento de la presión intraocular. Si nuestro ojo fuese un balón de baloncesto su correcto funcionamiento dependería de una delicada presurización, que está regulada por la producción y el drenaje equilibrados del humor acuoso, un líquido transparente que nutre el segmento anterior ocular. En un ojo sano, ese líquido se drena continuamente permitiendo una correcta visión mientras que «en la mayoría de las formas de glaucoma un drenaje deficiente del humor acuoso desemboca en un aumento de la presión intraocular».
Este mal drenaje del líquido y su consecuente aumento de la presión pueden tener varias causas y la principal de ellas nos lleva a hablar de una proteína en concreto que, a la postre, se ha convertido en la protagonista del nuevo estudio: la miocilina.
Las proteínas realizan o regulan miles de funciones en nuestro cuerpo y, a grandes rasgos, son largas cadenas de aminoácidos que se pliegan de determinadas formas para realizar su trabajo. Es fundamental que el plegamiento sea el correcto, de lo contrario, la proteína no podrá llevar a cabo su función biológica. De hecho, es un problema inquietante ya que una proteína mal plegada puede «contagiar» su mala configuración a otras, dando lugar a un amplio grupo de enfermedades, como el Alzheimer, el Parkinson, o las enfermedades priónicas. Precisamente, la investigación sobre plegamiento de proteínas realizada en este tipo de enfermedades neurodegenerativas ha sido la base e inspiración para la nueva publicación sobre el glaucoma.
«Una de las mutaciones que causa glaucoma congénito y que es la responsable de un alto porcentaje de los casos de esta enfermedad provoca que una proteína, miocilina, debido a esta mutación, se sintetice mal plegada en las células que la producen, perdiendo su función», nos explica la neurocientífica Conchi Lillo, investigadora en patologías visuales en el Instituto de Neurociencias de Castilla y León y profesora titular de la Universidad de Salamanca. «Esta proteína es importante para el correcto drenaje del humor acuoso que baña la cámara anterior del ojo, así que el mal funcionamiento de la proteína, debido a este plegamiento incorrecto, provoca que este drenaje no se produzca de una forma eficiente».

En el estudio publicado en PNAS Nexus los autores presentan un posible tratamiento para frenar el glaucoma congénito producido por el mal plegamiento de la miocilina empleando anticuerpos generados en el laboratorio que son capaces de neutralizar la forma incorrecta de la proteína. «Los anticuerpos que neutralizan la miocilina mal plegada se sintetizaron inmunizando a ratones con antígenos de esta proteína. La reacción inmunitaria que provoca esta inmunización en su organismo hace que en su suero sanguíneo aparezcan los anticuerpos contra ese antígeno, que se pueden aislar y utilizar para comprobar si son eficaces para neutralizar miocilina», explica Lillo. «Para ello, se probó su efectividad usando estos anticuerpos aislados en células en cultivo que expresaban esta proteína miocilina mal plegada, comprobando que efectivamente, realizaban esa función».
El glaucoma representa un vacío en un mundo repleto de milagros. Entre los extraordinarios éxitos logrados en el complejo, y casi divino, arte de devolver la vista al ciego, esta patología sigue siendo un preocupante oasis en el que avanzar está siendo muy difícil. Por eso resulta fácil dejarse entusiasmar por cualquier pequeño detalle o ventana al futuro, pero hay que ser realista y entender que este estudio publicado aún está muy lejos de ser aplicable. «Son resultados prometedores porque se ha encontrado una posible diana terapéutica para abordar la raíz del problema que se produce en el glaucoma, pero hay que tener cautela con las expectativas, ya que este “posible tratamiento” no se ha probado aún en animales de experimentación y ni siquiera las células en cultivo empleadas para estas pruebas son las que en los ojos humanos producen la miocilina mal plegada en la enfermedad de glaucoma».
Referencias:
Raquel L Lieberman, et al. «Antibody-mediated clearance of an ER-resident aggregate that causes glaucoma» PNAS Nexus (2025) DOI:10.1093/pnasnexus/pgae556
Tess Malone «Under Pressure: Georgia Tech Researchers Discover a New Way to Treat Glaucoma» Georgia Tech (2025)
Sobre el autor: Javier «Irreductible» Peláez (Puertollano, 1974) es escritor y comunicador científico. Autor de 500 años de frío. La gran aventura del Ártico (Crítica, 2019) y Planeta Océano (Crítica 2022). Es uno de los fundadores de la plataforma Naukas.com, editor de ciencia en Yahoo España y Latinoamérica. Es guionista científico en los programas de televisión «El Cazador de Cerebros» y «Órbita Laika» de RTVE. Durante más de una década ha escrito en diferentes medios de comunicación (El País, El Español, National Geographic, Voz Populi). Es autor de los podcasts Catástrofe Ultravioleta y La Aldea Irreductible, y ha colaborado en diferentes proyectos radiofónicos y televisivos (Radio Nacional de España, Radio Televisión Canaria). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.
El artículo Glaucoma, un vacío inquietante en un campo lleno de milagros se ha escrito en Cuaderno de Cultura Científica.
Aprender y convivir en contextos multiculturales en educación infantil
La jornada Las Pruebas de la Educación regresó un año más para revisar la eficacia de las estrategias educativas actuales a partir de la evidencia científica. El desarrollo del lenguaje oral en la infancia y su poder en la creación de distintas realidades sobre un mismo tema, así como la riqueza del aprendizaje en entornos multiculturales fueron algunas de las cuestiones analizadas durante la séptima edición de este seminario.
Andrea Khalfaoui, profesora en el departamento de Ciencias de la Educación en la Universidad del País Vasco, argumenta en “Aprender y convivir en contextos multiculturales en Educación Infantil: una mirada informada por la evidencia” cómo la multiculturalidad, presente hoy día en muchas aulas, puede emplearse como palanca de aprendizaje.
La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la Facultad de Educación de Bilbao, tuvo lugar el 21 de febrero de 2025 en la sala Juliana Agirrezabala de la Facultad de Educación de Bilbao de la Universidad del País Vasco UPV/EHU en Leioa (Bizkaia). Las ponencias fueron impartidas por un abanico de expertos y expertas del ámbito de la educación, la formación y el aprendizaje.
La séptima edición del seminario está especialmente dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. El objetivo es crear un espacio de reflexión compartida, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Aprender y convivir en contextos multiculturales en educación infantil se ha escrito en Cuaderno de Cultura Científica.
El fascinante invento para detectar materia oscura en el interior de Júpiter
Miremos a los cielos imitando a los antiguos. Y con ello tratemos de entender cosas casi incomprensibles como la materia oscura. Acaso esto alivie el desconsuelo de que sea más sencilla la cosmología que la política.
Hagamos volar nuestra curiosidad como si fuera una cometa pensando en unas partículas ligeras y extrañas. Y redondeemos nuestro juego de niños imaginando planetas gigantes que quieren atraparlas. Pues de eso justamente trata uno de los últimos retos de la astrofísica: pretende descubrir a fondo la naturaleza de la materia oscura entendiéndola como algo formado por partículas hipotéticas propuestas por los científicos. Y para ello se recurre a Júpiter, uno de nuestros vecinos pesados. Y cuando digo pesado no es que nos aburra, sino que es muy masivo. No por casualidad lo llamamos el gigante rojo.

Este planeta fundamentalmente gaseoso tiene una densidad baja, y su gravedad en la superficie tan solo es algo más de 2 veces la de la Tierra. Sin embargo, el campo gravitatorio en el interior parece que podría ser muy intenso, según sugieren las complejas mediciones de la misión Juno. Esto se debería a la presencia de elementos metálicos atrapados a muy altas presiones en el núcleo del planeta.
Este poderío gravitatorio confiere a Júpiter la capacidad de atrapar unas partículas ligeras que teóricamente podrían componer la materia oscura, los llamados WIMP. Claro que “ligera” significa aquí que es una partícula con la misma energía que un protón o un neutrón, es decir, del orden del gigaelectronvoltio.
Como bien sabían los electroduendes, esta sería precisamente la energía necesaria para hacer que un electrón se mueva por una diferencia de potencial de mil millones de voltios. No debería sorprendernos esta semejanza en escalas de energía. De hecho, hay hipótesis que sugieren que las partículas de materia oscura podrían ser neutrones espejo.
Pero no solo tenemos que entender qué es la materia oscura. Tan o más importante es detectarla.
Materia oscura errantePodría haber partículas de materia oscura vagando por el universo que se adentrasen en el acogedor Júpiter. Y en ese traicionero albergue sufrirían diversos choques con todo el resto de partículas (idénticas o las del propio planeta). Sería como si la materia oscura jugase un campeonato planetario de billar. En cada uno de estos topetazos las partículas de materia oscura irían perdiendo energía para quedar finalmente aniquiladas siguiendo las reglas de la mecánica cuántica, que este año está de aniversario.
El fructífero resultado de la destrucción de los WIMP sería la emisión de neutrinos susceptibles de ser detectados en la Tierra.
Los efectos de la aniquilaciónUna de las maneras de saber que ha llegado a nuestro planeta uno de esos neutrinos, fruto de la aniquilación de los WIMP, es el efecto Cherenkov. Se manifiesta como un destello característico en forma de cono de luz azul (pura radiación electromagnética) que producen ciertas partículas cargadas.
Para que el efecto se produzca, las cargas han de viajar más rápido que la luz al atravesar un medio como agua o gas. Pero no nos llevemos las manos a la cabeza: por su naturaleza, esas partículas no superarían la velocidad de la luz en el vacío. Este fenómeno luminoso es muy parecido al “boom sónico”. Y en el campo de la astrofísica experimental se construyen sensores especializados que identifican esas vertiginosas partículas y miden sus velocidades.
El medio de preferencia de muchos de estos sensores es el agua, por la particular interacción que tienen los neutrinos con el H₂O. Además, no nos vamos a engañar, el agua es abundante y barata (o lo era).
Los detectores colosalesPero para hacernos una idea del tamaño de un bicharraco de estos vamos con los datos del detector Super-Kamiokande (de tipo Cherenkov, obviamente). Este ingenio, crucial para entender algunos aspectos de la física de los neutrinos, contiene 50 000 toneladas de agua purísima.
Conviene enfatizar que los neutrinos que escaparían de Júpiter, como cualquier otro neutrino, no tienen carga. Así que no son exactamente esas las partículas que detectarían el detector Cherenkov. Más bien iría a la caza y captura de partículas cargadas secundarias surgidas de las interacción de los neutrinos con la materia. En concreto, serían producidas en esos encuentros no consentidos entre los neutrinos y las moléculas de agua.
Pero sabiendo que Super-Kamiokande se ha usado para detectar neutrinos solares y sumando dos y dos surge esta pregunta: ¿no serviría el Sol también como diana idónea para la materia oscura ligera?
La temperatura importaEn principio el campo gravitatorio del Sol es también muy intenso y tiene capacidad de ser penetrado por los WIMP. Debería ser entonces susceptible de poder usarse del mismo modo que Júpiter.
La contrariedad es que el interior de nuestra estrella tiene una temperatura elevadísima. Por este motivo, los núcleos atómicos protagonistas de los choques más relevantes se moverían muy rápido. Esto causaría una ganancia de energía cinética por parte de la partícula ligera de materia oscura. Con este aumento de velocidad, a las partículas de materia oscura les sería más fácil escapar de esa prisión estelar sin ser aniquiladas. Y si no se aniquilan, no podríamos detectarlas.
En cambio, la temperatura de Júpiter aún siendo alta no lo es tanto y le resulta más fácil capturar WIMP. Pasa algo parecido a lo que ocurre con la sopa del cuento de Ricitos de Oro y los tres osos. Para que un astro pueda atrapar en su interior a la materia oscura ha de estar a una temperatura propicia.
El invento para el porvenirEl afán por comprender estos y otros fenómenos impulsa la construcción de detectores aún más potentes, como el proyectado Hyper-Kamiokande, un ingenio que ahora cuenta con participación española. Este futuro detector tendrá 5 veces más agua que su predecesor. Sus colosales especificaciones lo harán protagonista de mucha física del futuro.
Pero siempre me queda la duda de si realmente queremos llegar a ese porvenir. Descubrir por fin la naturaleza de la materia oscura traerá consigo cierta melancolía. Poco a poco nos quedaremos sin preguntas que resolver y la física será solo para nostálgicos. Aunque la intuición, o la esperanza, me dicen que falta mucho para que el universo nos ceda todos sus secretos.
Sobre la autora: Ruth Lazkoz es catedrática de física teórica de la Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo El fascinante invento para detectar materia oscura en el interior de Júpiter se ha escrito en Cuaderno de Cultura Científica.
(Ni son) tierras (ni son) raras
Uno de los temas más candentes de la actualidad mundial son las tierras raras, debido a la urgencia que están mostrando ciertos países por hacerse con ellas. Pero, ¿qué son las tierras raras? Y ¿por qué son tan importantes?
Pues debo comenzar diciendo que su nombre nos lleva, directamente, a dos errores. Por un lado, la palabra tierra hace que pensemos en ese sedimento que cubre la parte más superficial del terreno, es decir, en algún tipo de suelo, pero nada más lejos de la realidad. Tierra es un término arcaico utilizado en química para referirse a los elementos que aparecen en forma de óxidos en la naturaleza y que se ha mantenido hasta la actualidad, prácticamente a modo de homenaje, pero no tiene nada que ver con la definición geológica de “tierra” como sedimento. Y, por otro lado, la palabra rara nos lleva a suponer que son muy escasos, pero tampoco es cierto. Estos elementos son relativamente comunes en nuestro planeta, incluso en términos totales que calcula que son más abundantes que todo el oro presente en la Tierra, pero se les denomina “raros” porque, generalmente, aparecen en concentraciones muy pequeñas dentro de los minerales y rocas y, sobre todo, porque su diferenciación química (es decir, su extracción del resto de componentes de los minerales) es muy compleja y bastante difícil.

Entonces, ¿qué son las tierras raras? Pues este término hace referencia a 17 elementos químicos de la Tabla Periódica, los 15 de la serie de los lantánidos* (lantano, cerio, praseodimio, neodimio, prometio, samario, europio, gadolinio, terbio, disprosio, holmio, erbio, tulio, iterbio y lutecio) a los que se suman el escandio y el itrio. Estos elementos no aparecen en nuestro planeta en forma nativa, como lo pueden hacer el cobre o el oro, sino que siempre aparecen formando compuestos en la estructura química de ciertos minerales en concentraciones muy bajas, concretamente de partes por millón (para que os hagáis una idea, las concentraciones en porcentaje corresponden a 1/100 partes, mientras que las concentraciones en partes por millón equivalen a 1/1.000.000 del total).
Las tierras raras pueden aparecer en minerales más o menos conocidos, como el apatito o los clinopiroxenos, o en otros con nombres algo más raros, como la monacita o la bastnasita. Pero estos minerales con ciertas concentraciones de tierras raras no se forman en cualquier lugar, sino que lo hacen en contextos geológicos muy concretos. Principalmente, se trata de zonas en las que afloran rocas ígneas, principalmente volcánicas, que se han producido por el ascenso de magmas muy profundos que se han ido enriqueciendo en estos elementos químicos mientras iban ascendiendo por el manto y la corteza terrestres. También aparecen en lugares que han sufrido metamorfismos particulares en los que han estado relacionados fluidos hidrotermales que han atravesado rocas ricas en tierras raras y, en su circulación hacia la superficie, han ido precipitándolas a su paso en diferentes venas minerales. Y hay un tercer contexto un poco más especial aún, los medios sedimentarios formados por la erosión y el depósito de fragmentos de estas rocas ígneas y metamórficas con minerales que incluyen tierras raras en su composición.

Como os decía al principio, la explotación de estos yacimientos minerales no es ni barata, ni sencilla. Los minerales que incluyen tierras raras suelen aparecer entremezclados con otros que no nos interesan, por lo que hay que hacer una selección previa, junto con un estudio geológico muy detallado, de las zonas y los materiales que queremos extraer. Y, una vez obtenidos esos minerales, hay que someterlos a un proceso químico largo y complejo para poder aislar las tierras raras. Eso implica un análisis preliminar de la viabilidad económica del yacimiento, para asegurar que se va a obtener un beneficio con su explotación, porque es muy fácil que las empresas acaben en bancarrota si no tienen cuidado.
Una vez visto todo esto, ¿por qué son tan famosas e importantes las tierras raras? Pues por sus propiedades magnéticas y luminiscentes. Actualmente se han convertido en componentes indispensables en la estrategia de transición ecológica, ya que forman parte de catalizadores, imanes, baterías, componentes electrónicos o pantallas de aerogeneradores, vehículos eléctricos o mecanismos informáticos. También tienen un papel primordial en el avance médico, ya que permiten generar nuevas herramientas de diagnóstico y tratamiento para enfermedades tan dañinas como el cáncer. Por estos motivos, han entrado de cabeza en los listados de materiales críticos y estratégicos a nivel mundial, por lo que su búsqueda y explotación evitará la dependencia de Europa o Estados Unidos de terceros países, como China, principal exportador de tierras raras en la actualidad.
Pero hay un motivo menos noble y más prosaico por el que han cobrado tanta importancia social hoy en día. Las tierras raras también son unos materiales básicos para el desarrollo de la industria armamentística. Satélites más eficientes, mejores sistemas de comunicación, nuevos dispositivos de posicionamiento y vigilancia nocturna, vehículos militares autopropulsados y con dispositivos de blindaje mejorados, armamento con mayor capacidad destructiva, capaces de recorrer distancias más largas y con más autonomía, y un largo etcétera. Quizás este uso de las tierras raras explica más cosas de las que suceden en el mundo actual que la búsqueda de un futuro más sostenible.
Películas post-apocalípticas, como Mad Max, nos enseñaron que las guerras del futuro se producirían por el agua y el combustible. Parece que se olvidaron de un tercer origen: la búsqueda de minerales críticos. Yo prefiero pensar que esas cosas no van a suceder y que, lo único que tenemos seguro hoy en día, es que la Geología nos permitirá buscar y explotar de manera segura y sostenible los recursos naturales que necesita la humanidad para seguir evolucionando, socialmente hablando. Espero no equivocarme.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
*Nota del editor: La IUPAC, prescriptivista ella, «recomienda» (como lo haría don Vito) el nombre «lantanoides». Pero esto se debe a la necesidad de mantener la coherencia en inglés, donde la terminación -ide de «lanthanide» (lantánido) se reserva para determinados compuestos que, en castellano, acaban en -uro (carburo o hidruro, por ejemplo, son carbide o hidride en inglés). Podemos, por tanto, emplear en castellano el nombre que creó Victor Goldschmidt en 1925 para denominar este conjunto de elementos sin incurrir en anatema.
El artículo (Ni son) tierras (ni son) raras se ha escrito en Cuaderno de Cultura Científica.
Liudmila Vsévolovna Kéldysh, de la teoría de conjuntos a la topología geométrica
Con una habilidad pedagógica poco común, [Liudmila Kéldysh] sabe cómo conducir a un estudiante desde la solución de los problemas más simples hasta el trabajo independiente.
P. S. Aleksandrov, A. B. Sosinskii, A. V. Chernavskii, M. A. Shtan’ko (1974).

Liudmila Vsévolovna Kéldysh nació en Oremburgo (Rusia) el 12 de marzo de 1904. Era la hija mayor (de siete) de Maria Aleksándrovna Skvórtsova y Vsévolod Mijáilovich Kéldysh, un ingeniero militar. Debido a la naturaleza del trabajo de su padre, la familia viajaba con frecuencia; Liudmila vivió en Helsinki (1905-1907), San Petersburgo (hasta 1909) y después en Riga (Letonia) hasta que la invasión alemana obligó a la familia a huir a Moscú.
Tras terminar sus estudios secundarios, continuó su educación en la Universidad Estatal de Moscú, graduándose en 1925. En 1923, mientras estudiaba, se unió al grupo de investigación de Nikoláai Luzin, el grupo Luzitania. Allí conoció a Piotr Serguéyevich Nóvikov, con quien se casó en 1934.
Trabajando en teoría de conjuntosEn 1930 Keldysh comenzó a enseñar en el Instituto de Aviación de Moscú. Un año más tarde tuvo a su primer hijo, Leonid Kéldysh, nacido de un matrimonio anterior al comentado anteriormente.
A partir de 1934 comenzó a enseñar en el Instituto de la Academia de Ciencias de la URSS especializándose en teoría de conjuntos. En los años posteriores nacieron sus hijos Andréi Petróvich Nóvikov y Serguéi Petróvich Nóvikov; este último se convirtió en el primer matemático soviético en recibir la Medalla Fields, fue en 1970.
Liudmila defendió su tesis, supervisada por Luzin, en 1941. Trataba sobre conjuntos de Borel. Antes de recibir su título de doctora en Ciencias Físicas y Matemáticas, la familia huyó del avance de las tropas alemanas, instalándose en Kazán, en los institutos evacuados de la Academia de Ciencias. Keldysh y sus hijos no tenían el estatus de evacuados, solo el de refugiados. Finalmente fueron alojados en el gran gimnasio de la Universidad de Kazán, junto con varios cientos de refugiados como ellos. Su marido llegó posteriormente, enfermo. Resistieron pasando numerosas necesidades e incertidumbre.
A finales de 1942 pudieron regresar a Moscú y la situación comenzó a mejorar. En esa época, el matrimonio tuvo dos hijas, Nina y Elena.
Trabajando en topología geométricaA partir de 1945, su trabajo se centró más en la topología geométrica. Publicó numerosos trabajos de investigación hasta la década de 1960. Por todo su trabajo, entre otros, recibió en 1958 el Premio del Presidium del Soviet Supremo.
A finales de los años 1950, Keldysh organizó un seminario sobre topología geométrica en el Instituto Steklov de Matemáticas, centrándose en particular en embebimientos topológicos. Este seminario resultó importante para el desarrollo de las matemáticas en Rusia y estuvo activo hasta 1974. Uno de sus estudiantes más brillantes, Alekséi Chernavskii, comenzó a participar en el seminario en 1970, y comentaba sobre la manera en la que trabajaban:
Comenzamos a organizar nuestros talleres sistemáticamente en varios puntos del campo de Moscú, combinando topología, fútbol o esquí según la estación, anécdotas, conversaciones serias sobre la vida, etc.
En 1964, Liudmila fue nombrada profesora titular en la Universidad Estatal de Moscú, publicando en 1966 el libro Embebimientos topológicos en el espacio euclidiano (en ruso) para ayudar a sus estudiantes de investigación. Se dedicó a la docencia hasta 1974, año en el que renunció a su trabajo en protesta por la expulsión de uno de sus estudiantes.
Liudmila falleció el 16 de febrero de 1976, un año después de su marido. En agosto de 2004, en el centenario de su nacimiento, se celebró en Moscú el congreso en su honor «Topología geométrica, geometría discreta y teoría de conjuntos«.
BonusEn una entrevista realizada al matemático Serguéi Nóvikov (1938-2024) en 2001, comentaba que su familia jugó un papel muy importante en su decisión de dedicarse a la ciencia; en particular hablaba de su madre:
Mi padre, Piotr Serguéyevich Nóvikov, fue un matemático famoso. Todos los matemáticos conocen su trabajo sobre la teoría de algoritmos y la teoría combinatoria de grupos, incluida la indecidibilidad del problema de la palabra y la solución del problema de Burnside para grupos de torsión. En la década de 1930 fue uno de los mejores expertos en la llamada teoría descriptiva de conjuntos y en la década de 1940 en lógica matemática. También inició en la década de 1930 una nueva rama de la física matemática: la reconstrucción de un dominio homogéneo acotado a partir de su potencial gravitatorio en el infinito. Mi madre, Liudmila Vsévolovna Kéldysh, también fue una matemática destacada: profesora titular y experta en teoría de conjuntos y topología geométrica. La familia tuvo cinco hijos, y yo era el tercero de ellos, el más joven de los tres hijos. Todos los hijos se hicieron físicos y matemáticos, mientras que las hijas eligieron otras profesiones. Mi hermano mayor, Leonid Kéldysh, es uno de los teóricos de la física del estado sólido y de la física de la materia condensada más conocidos a nivel internacional. Mi otro hermano, Andréi Nóvikov, era un experto en teoría algebraica de números, pero lamentablemente murió prematuramente. Además, el hermano de mi madre, Mstislav Kéldysh, era un matemático muy talentoso en la teoría de funciones de variable compleja y en ecuaciones diferenciales. Hizo una contribución especialmente fundamental a las ramas aplicadas de la aerodinámica. […]
Referencias
- J J O’Connor and E F Robertson, Ljudmila Vsevolodovna Keldysh, MacTutor History of Mathematics Archive, University of St. Andrews
- P. S. Aleksandrov, A. B. Sosinskii, A. V. Chernavskii, M. A. Shtan’ko, Lyudmila Vsevolodovna Keldysh (on the occasion of her seventieth birthday), Russian Mathematical Surveys 29 (4) (1974) 155-161
- S. I. Adian, A. A. Mal’tsev, E. V. Sandrakova, A. B. Sosinskii, A. V. Chernavskii, M. A. Shtan’ko, Lyudmila Vsevolodovna Keldysh (on the centenary of her birth), Russian Mathematical Surveys 60 (4) (2005) 581-588
- Ludmila Keldysh, Wikipedia
- Victor M. Buchstaber, Interview with Sergey P. Novikov, EMS Newsletter 42 (2001) 17-20
El artículo Liudmila Vsévolovna Kéldysh, de la teoría de conjuntos a la topología geométrica se ha escrito en Cuaderno de Cultura Científica.
¿Por qué los investigadores se interesan por los modelos de lenguaje reducido?
Los modelos más grandes pueden lidiar con una mayor variedad de tareas, pero el tamaño reducido de los modelos más pequeños los convierte en herramientas atractivas.
Un artículo de Stephen Ornes. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Los modelos de lenguaje extenso funcionan bien porque son muy grandes. Los modelos más recientes de OpenAI, Meta y DeepSeek utilizan cientos de miles de millones de “parámetros”: los botones ajustables que determinan las conexiones entre los datos y que se modifican durante el proceso de entrenamiento. Con más parámetros, los modelos pueden identificar mejor los patrones y las conexiones, lo que a su vez los hace más potentes y precisos.
Pero esta potencia tiene un coste. Entrenar un modelo con cientos de miles de millones de parámetros requiere enormes recursos computacionales. Para entrenar su modelo Gemini 1.0 Ultra, por ejemplo, Google habría gastado 191 millones de dólares. Los modelos de lenguaje extenso (LLM, por sus siglas en inglés) también requieren una potencia computacional considerable cada vez que responden a una solicitud, lo que los convierte en notorios devoradores de energía. Una sola consulta a ChatGPT consume aproximadamente diez veces más energía que una sola búsqueda en Google, según el Electric Power Research Institute.
En respuesta, algunos investigadores están pensando ahora en pequeño. IBM, Google, Microsoft y OpenAI han lanzado recientemente modelos de lenguaje reducido (SLM, por sus siglas en inglés) que utilizan unos pocos miles de millones de parámetros, una fracción de sus contrapartes LLM.
Los modelos reducidos no se utilizan como herramientas de uso general como sus primos más grandes, pero pueden ser excelentes para tareas específicas, más definidas, como resumir conversaciones, responder preguntas de pacientes como un chatbot de atención médica y recopilar datos en dispositivos inteligentes. “Para muchas tareas, un modelo de 8 mil millones de parámetros es, de hecho, bastante bueno”, afirma Zico Kolter, un científico informático de la Universidad Carnegie Mellon. También pueden ejecutarse en un ordenador portátil o un teléfono móvil, en lugar de en un gran centro de datos. (No hay consenso sobre la definición exacta de “reducido”, pero todos los nuevos modelos alcanzan un máximo de alrededor de 10 mil millones de parámetros).
Para optimizar el proceso de entrenamiento de estos modelos reducidos, los investigadores utilizan algunos trucos. Los modelos extensos suelen extraer datos de entrenamiento sin procesar de Internet, y estos datos pueden estar desorganizados, desordenados y ser difíciles de procesar. Pero estos modelos grandes pueden generar un conjunto de datos de alta calidad que se puede utilizar para entrenar un modelo reducido. El enfoque, llamado destilación de conocimiento, hace que el modelo más grande transmita eficazmente su entrenamiento, como un maestro que da lecciones a un estudiante. “La razón por la que [los SLM] son tan buenos con modelos tan reducidos y tan pocos datos es que utilizan datos de alta calidad en lugar de material desordenado”, explica Kolter.
Los investigadores también han explorado formas de crear modelos reducidos comenzando con modelos extensos y recortándolos. Un método, conocido como poda, implica eliminar partes innecesarias o ineficientes de una red neuronal, la extensa red de puntos de datos conectados que subyace a un modelo extenso.
La poda se inspiró en una red neuronal de la vida real, el cerebro humano, que gana eficiencia al cortar las conexiones entre las sinapsis a medida que una persona envejece. Los enfoques de poda actuales se remontan a un artículo de 1989 en el que el científico informático Yann LeCun, ahora en Meta, argumentaba que hasta el 90% de los parámetros de una red neuronal entrenada podrían eliminarse sin sacrificar la eficiencia. Llamó al método «daño cerebral óptimo». La poda puede ayudar a los investigadores a ajustar un modelo de lenguaje reducido para una tarea o entorno en concreto.
Para los investigadores interesados en cómo los modelos de lenguaje hacen lo que hacen, los modelos más reducidos ofrecen una forma económica de probar ideas novedosas. Y como tienen menos parámetros que los modelos extensos, su razonamiento puede ser más transparente. “Si quieres crear un modelo nuevo, necesitas probar cosas”, apunta Leshem Choshen, científico investigador del Laboratorio de Inteligencia Artificial Watson del MIT-IBM. “Los modelos reducidos permiten a los investigadores experimentar con riesgos menores”.
Los modelos grandes y costosos, con sus parámetros cada vez más numerosos, seguirán siendo útiles para aplicaciones como chatbots generalizados, generadores de imágenes y el descubrimiento de fármacos. Pero para muchos usuarios, un modelo reducido y específico funcionará igual de bien, y además será más fácil para los investigadores entrenarlo y construirlo. “Estos modelos eficientes pueden ahorrar dinero, tiempo y computación”, afirma Choshen.
El artículo original, Why Do Researchers Care About Small Language Models?, se publicó el 12 de febrero de 2025 en Quanta Magazine.
Traducido por César Tomé López
El artículo ¿Por qué los investigadores se interesan por los modelos de lenguaje reducido? se ha escrito en Cuaderno de Cultura Científica.
El gen NOVA1 y el origen de nuestro lenguaje hablado
El lenguaje hablado desempeñó un papel esencial en la evolución de la especie humana. Un lenguaje simbólico complejo nos permitió comunicarnos oralmente, coordinar actividades, transmitir conocimientos, mitos y valores. En definitiva, hizo posible una cultura que nos dio ventaja sobre otras especies animales.
El origen del lenguaje hablado implicó complicadas adaptaciones anatómicas relacionadas con la fonación, y el desarrollo de nuevas conexiones cerebrales. Hasta ahora sabemos muy poco de los cambios genéticos que estuvieron detrás de estas innovaciones evolutivas. Una investigación realizada por un equipo de la Universidad Rockefeller y publicada en Nature Communications acaba de proporcionar una interesante pista acerca de estos cambios genéticos.
NOVA1 (neuro-oncological ventral antigen-1) es un gen que se expresa en el sistema nervioso central de los vertebrados. Era conocido por su papel en un síndrome paraneoplásico neurológico. Si células tumorales expresan de forma aberrante NOVA1, se generan anticuerpos que pueden atacar a las neuronas, con graves consecuencias para el sistema nervioso.
La inactivación de NOVA1 en ratones es letal, por fallos en el desarrollo neuromotor. Se empezó a sospechar su relación con el lenguaje humano a partir del estudio de un paciente que tenía mutada e inactivada una de las dos copias del gen. Este paciente tenía graves deficiencias en el aprendizaje y particularmente en el desarrollo del lenguaje.
El estudio de la secuencia de la proteína NOVA1 humana mostró algo sorprendente. Se trata de una secuencia muy bien conservada, prácticamente sin diferencias entre humanos. Eso sí, nuestra proteína difiere en un solo aminoácido de la de neandertales y denisovanos, nuestros parientes más próximos. En la posición 197 de la secuencia una isoleucina fue sustituida por una valina en el linaje de Homo sapiens. Esta variante es conocida como I197V.
Antes de analizar qué significa esta sustitución vamos a ver cuál es la función de NOVA1. Se trata de una proteína que se une al ARN y regula el empalme alternativo (alternative splicing) controlando la formación de diferentes ARN mensajeros a partir de un mismo gen (explicado en la figura 1). De esta forma, NOVA1 puede modular la expresión de un gran número de proteínas en el sistema nervioso.

Cuando el grupo de la Rockefeller identificó los ARN afectados por la función de NOVA1 se observó una elevada proporción de genes relacionados con la vocalización. Además, NOVA1 mostraba una elevada expresión en el cerebro medio y particularmente en la sustancia gris periacueductal, vinculada a comportamientos de miedo y reacciones defensivas en mamíferos. Las neuronas de esta área conectan con el tronco cerebral y el núcleo ambiguo, desde donde se controlan las vías motoras respiratorias y, en particular, la musculatura de boca, faringe y laringe. De esta forma se coordina la respiración con la producción de sonidos, que solo se produce durante la espiración.
¿Influyó la variante humana I197V en el desarrollo de nuestra fonación? Para responder a esta pregunta, el equipo generó ratones modificados genéticamente para expresar la proteína NOVA1 humana, con la variante I197V. Por supuesto, los ratones no comenzaron a charlar entre ellos, pero mostraron sorprendentes diferencias en su vocalización.
Los ratones recién nacidos, cuando son separados de sus madres, emiten ultrasonidos para llamarlas. Estos chillidos constan de cuatro tipos de “sílabas”: simples (una sola nota), ascendentes y descendentes (dos notas separadas por un salto de frecuencia hacia arriba o abajo) y múltiples (varias notas de diferente frecuencia) (Figura 2). Los ratones humanizados (I197V) utilizaron más las sílabas simples en sus llamadas. Esto no varió la respuesta de sus madres, que los buscaban igual que a los ratoncillos no humanizados.

Más diferencias se encontraron en ratones machos adultos en presencia de hembras sexualmente receptivas. Las sílabas simples de los ratones humanizados se emitieron en frecuencias más bajas, y en las demás sílabas aumentó la varianza de sus frecuencias. Dicho de otra forma, su vocalización se volvió más compleja y rica en tonos. Lo que sería importante comprobar, como reconocen los propios autores del artículo, es si esta vocalización aumentó su atractivo para las hembras.
Estos resultados son similares a los que se obtuvieron hace algunos años con el gen FOXP2, el conocido como “gen del lenguaje”, ya que sus mutaciones alteran el lenguaje hablado en humanos. La proteína FOXP2 humana tiene dos aminoácidos diferentes respecto a la del ratón. Los ratones transgénicos dotados de la secuencia FOXP2 humana muestran ciertos cambios en la vocalización de sílabas complejas, pero las simples se hacen más frecuentes, disminuyendo la complejidad global de sus “conversaciones”. Por otra parte, la secuencia FOXP2 humana no es exclusiva de nuestra especie, ya que es idéntica a la de neandertales y denisovanos.
Falta mucho por hacer, por ejemplo, comprobar si la actuación de NOVA1 sobre la fonación se produce a nivel del control motor de la respiración y la musculatura laríngea, o si lo hace a nivel de la corteza cerebral, donde se expresa a menores niveles. Nuestra corteza cerebral regula el tono, la amplitud y la modulación de la frecuencia del lenguaje hablado. De todas formas, NOVA1, junto a lo que ya sabíamos de FOXP2, sin duda contribuirá al conocimiento de los mecanismos moleculares que dirigieron la evolución de nuestro lenguaje hablado.
Referencias
Tajima, Y., Vargas, C.D.M., Ito, K. et al. (2025). A humanized NOVA1 splicing factor alters mouse vocal communications. Nat Commun. doi: 10.1038/s41467-025-56579-2
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga
El artículo El gen NOVA1 y el origen de nuestro lenguaje hablado se ha escrito en Cuaderno de Cultura Científica.
Cine y Ciencia: High Life

Dentro la octava edición del ciclo Cine y Ciencia, coorganizado por Filmoteka y el DIPC junto a otros agentes culturales, durante enero y febrero he presentado High Life, una fascinante película de Claire Denis (2018). La veo como una respuesta contemporánea a 2001: A Space Odyssey de Stanley Kubrick, usando una perspectiva de género que subvierte los cánones tradicionales del cine de exploración espacial. Mientras Kubrick idealizó la figura del bebé como símbolo de un futuro utópico y abstracto, Denis nos presenta un bebé real, corporal y vulnerable, que exige cuidado y genera nuevas formas de parentesco en un futuro distópico, sucio y extractivista.
La película cuestiona la reproducción biológica convencional y la explotación de la misma, situando la narrativa en una nave donde los vínculos familiares y la supervivencia se reinventan. Además, incorpora diversos elementos científicos procedentes de la astrofísica. Durante el debate posterior a la proyección, estos temas también se discutieron con el personal del DIPC, evidenciando cómo la obra se sitúa en la intersección entre el cine, la ciencia y las cuestiones éticas y sociales. En este contexto, hablamos también de reproducción asistida y eugenesia, así como dinámicas de poder y control, y mencioné el lema de Donna Haraway “Make Kin, Not Babies”. Esta antropóloga y filósofa aboga por la creación de lazos de parentesco alternativos, basados en el cuidado mutuo y la coexistencia, en lugar de depender únicamente de la reproducción biológica.
Así, High Life no solo se contrapone a la visión clásica de la proyección del futuro que ofrece 2001, sino que también plantea una ácida crítica hacia algunas prácticas científicas y reproductivas. Denis propone una mirada feminista, posthumana y decolonial en la que la construcción de comunidades y el cuidado mutuo se convierten en elementos esenciales para la supervivencia, desafiando los imperativos biológicos tradicionales y abriendo el debate sobre las tecnologías reproductivas en un contexto de ambigüedad moral. Comparto aquí algunas notas que utilicé en las presentaciones de Vitoria, Donostia y Pamplona.
El cine
Esta película no deja a nadie indiferente. Tiene poco diálogo, hay largas elipsis y flashbacks, y puede parecer lenta, pero piensen que sucede en una nave que se mueve a una velocidad cercana a la de la luz, y eso genera efectos curiosos en el tiempo. Resulta bastante dura a veces, porque contiene: prácticas de reproducción asistida pero no consentida; eugenesia y también eutanasia; dos suicidios; sexo en solitario, sexo asistido mecánicamente, y sexo involuntario; suplantación de personalidad, homicidio; restricciones físicas; violaciones consumadas y sin consumar, peleas y toda clase de fluidos corporales. Si son muy sensibles, prepárense.
Y con todo High Life fue una sólida candidata a la Concha de Oro cuando compitió en la sección oficial del Zinemaldia en 2018. Generó división de opiniones en la crítica y el público. La película es una novedad audaz en cualquier programación porque renuncia a toda clase de superioridad moral, también a la de la ciencia. Claire Denis está en contra del cine moralizante, hace películas sin mensaje, pero sí cargadas de preguntas que exploran la propia definición de lo humano. Su idea de cine se parece más a un poema que a un sermón. Pero es una directora que habla con científicos, contó con un asesor astrofísico (Aurélien Barrau) y de hecho tomó de Stephen Hawking la idea de la importancia de procrear en el espacio para superar las limitaciones temporales de una vida individual, y la necesidad de incubadoras especiales para ello.
High Life parece muy consciente de algunos grandes clásicos del género, como 2001 y Solaris. Sin embargo, desde la primera escena, queda claro que Denis se aleja del canon tradicional de las películas de exploración espacial. Hay un bebé, pero no ya el bebé idealizado del final de 2001, sino un bebé real que llora y hay que alimentar. Esa atención a los detalles más físicos y corporales de la vida en el espacio hace que la película sea algo único dentro del subgénero. High Life es diferente desde la primera escena. Parte de un tropo bastante manido, la del astronauta reparando su nave, pero le añade un elemento desconcertante: la familia, el vínculo humano, ya no es algo que se ha quedado en la Tierra, sino que acompaña al astronauta, dedicado a algo tan poco habitual en una nave espacial como el cuidado de un bebé… a la vez que repara la nave.
Claire Denis presentó la idea al protagonista, Robert Pattinson, como una historia de “ciencia-ficción e incesto con una menor de edad”, pero también afirmó que “no es una película de ciencia-ficción”, aunque tenga elementos científicos. Es la historia de un hombre que, tras perder a todos sus compañeros de viaje, sigue viviendo para cuidar a un bebé (esa sería la “vida elevada”, en referencia a la vita nuova de Dante) y llega con ella a un lugar más allá del espacio y el tiempo. Claire Denis dijo que vio a Pattinson como el protagonista ideal porque transmitía esa impresión de un joven que no ha tenido una vida, que no conoce la vida porque ha vivido siempre en la cárcel, pero allá en lo alto recibe una vida nueva, porque “no hay nada más vivo que un bebé” (Denis dixit).
La ciencia de High LifeEn su presentación de la primera película del ciclo, el biopic dedicado a Stephen Hawking, Pedro Miguel Etxenike dijo que no hablaría sobre agujeros negros porque en la audiencia había gente que sabía más que él. Yo debería hacer lo mismo, pero en mis presentaciones menciono un par de elementos científicos reales en la película: el proceso Penrose y las imágenes generadas por el Telescopio del Horizonte de Sucesos (EHT). Y también, de manera más oblicua, el experimento Biosphere 2.
El proceso de Penrose un mecanismo teórico descrito en 1969 que haría posible extraer energía de un agujero negro en rotación. El proceso de Penrose también tiene paralelismos con otros fenómenos relativistas, como la radiación de Hawking, que describe la emisión de partículas desde el horizonte de eventos de un agujero negro.
Esa promesa prometeica de una fuente ilimitada de energía a veces me parece que es un McGuffin que nos distrae del verdadero tema de la película, que es… cómo reproducir la vida en lo alto, tal y como el título nos lo está diciendo. Ya desde la primera escena (el huerto) la película describe la vida en un huerto cerrado en naves espaciales que parecen sarcófagos, por pasillos como el que tanto recuerda a Solaris, una vida precaria, con necesidad de reparación constante (esa llave de carraca girando en el espacio como el hueso de 2001).
La estación científica más grande conteniendo un ecosistema cerrado fue Biosfera 2, en Oracle, Arizona. Biosphere 2 fue construida entre 1987 y 1991 para probar sistemas ecológicos cerrados como sustituto de la biosfera terrestre y poder sustentar la vida humana en el espacio. Solo se usó dos veces con este propósito (1991-1993 y 1994), con problemas como escasez de oxígeno y alimentos, muerte de especies, tensiones entre la tripulación y conflictos de gestión. Sin embargo, el segundo experimento logró autosuficiencia alimentaria sin necesidad de oxígeno adicional.

La muy recomendable historia de Biosfera 2 nos muestra el interés de la antropología para esta película. Las alusiones a leyes de la naturaleza que en realidad son tabús sociales (“si rompes las leyes de la naturaleza, pagarás por ello”), a la invención de rituales y al parentesco como vínculo constituyente son ubicuas en la peli.
Como una antropóloga, Claude Denis se fija en las relaciones de género y de poder en una pequeña comunidad humana, y en el sexo como elemento material presente en ambas. En las ciencias sociales, seguramente es la antropología la que más se ha dedicado a estudiar esas relaciones de género y de poder, pero la antropología tiene una relación ambivalente con la ciencia en general. Por un lado, es una disciplina que surge de otras ciencias (Boas, el padre de la antropología norteamericana, era doctor en física; Malinowski, el de la británica, en filosofía) y por el otro, al estudiar culturas en las que la ciencia no tiene o no ha tenido el peso que ha tenido en Occidente, la antropología puede dirigir su mirada hacia la ciencia desde presupuestos distintos.
Un ejemplo sería Bruno Latour, que estudió a los científicos en un laboratorio, el Salk Institute, donde trabajaba el premio Nobel Roger Guillemin, como si fueran un grupo humano más. Sin salir de la película, tenemos el científico indio que protagoniza un flashback. Encarna la mirada decolonial de Denis y cuestiona las estructuras de poder inherentes al conocimiento científico. El científico reconoce que la curiosidad es el motor de la ciencia, pero al mismo tiempo plantea una crítica: ¿dónde están los límites éticos de esa curiosidad? ¿Hasta dónde podemos llegar para obtener conocimiento o recursos energéticos?
Por ejemplo, la película sitúa su trama en un contexto donde personas en prisión participan en un experimento científico a cambio de salvar sus vidas. Salvar la vida a cambio de trabajo tiene un nombre clásico: esclavitud. ¿Es ético que una población esclavizada o subalterna sirva a la ciencia? ¿Tienen realmente opción? ¿Hay un consentimiento informado y voluntario, o es un simulacro de consentimiento?
La respuesta a todas esas preguntas es no. Los tripulantes han sido engañados y lo saben. Saben y no saben, como los donantes en Never Let Me Go, una película sobre transplantes que tiene algunos elementos en común con esta, y a la que he dedicado alguna reflexión. En High Life, por la aceleración creciente que necesitan para mantener la sensación de gravedad, los viajeros se acercan a la velocidad de la luz (¡99%!) con lo que el tiempo pasa más despacio en la nave relativamente a la Tierra, así que la tripulación está haciendo un viaje al futuro de la Tierra; no hay vuelta atrás, al menos no a la Tierra tal como la conocieron. Por eso la desesperación, la violencia latente, y el control social vía el sexo en solitario y las drogas: placeres individuales que aíslan a los tripulantes, les vuelven “tristes y solos”, como en la canción que canta Boise a Monte en el huerto.
Veamos High Life, pues, como un documento etnográfico singular. En los primeros 15 minutos asistiremos a una serie de rituales: comer, excretar, dejar un mensaje al futuro, vestir a los difuntos (tras interrumpir la criogenización) y disponer de sus restos mortales. Veremos personajes que son mitos: Tcherny (André Benjamin) es el mito de Anteo, el personaje “terrestre”, que todavía siente el vínculo con la Tierra y con la tierra, y que está cansado de “volar” (Latour: Dónde aterrizar). Como Prometeo, Monte (Robert Pattinson) arriesga su vida para traer una fuente de energía que salve a la humanidad. Como Antígona, Boyse (Mia Goth) cubre con tierra el cadáver de los caídos. La Dra. Dibs (Juliette Binoche, musa habitual en el cine de Denis, en una interpretación impresionante) aparece como una hechicera o sacerdotisa de una “nueva religión”, y como Medea (otra) ha matado a sus hijos; matar a los hijos es violar el sagrado principio de la reproducción, y por eso “es el único crimen que merece tal nombre” como dice ella misma. Una película que habla tanto de la ciencia como de los mitos con los que aún convivimos.
Sobre el autor: Antonio Casado da Rocha es investigador titular en el Departamento de Filosofía de los Valores y Antropología Social de la UPV/EHU
El artículo Cine y Ciencia: High Life se ha escrito en Cuaderno de Cultura Científica.
El desarrollo del lenguaje oral en educación iInfantil
La jornada Las Pruebas de la Educación regresó un año más para revisar la eficacia de las estrategias educativas actuales a partir de la evidencia científica. El desarrollo del lenguaje oral en la infancia y su poder en la creación de distintas realidades sobre un mismo tema, así como la riqueza del aprendizaje en entornos multiculturales fueron algunas de las cuestiones analizadas durante la séptima edición de este seminario.
Julián Palazón, psicólogo, pedagogo y profesor en la Universidad Internacional de Valencia explica en “El desarrollo del lenguaje oral en Educación Infantil” la importancia del lenguaje oral como fundamento de la comprensión lectora y la habilidad aritmética, entre otras ideas.
La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la Facultad de Educación de Bilbao, tuvo lugar el 21 de febrero de 2025 en la sala Juliana Agirrezabala de la Facultad de Educación de Bilbao de la Universidad del País Vasco UPV/EHU en Leioa (Bizkaia). Las ponencias fueron impartidas por un abanico de expertos y expertas del ámbito de la educación, la formación y el aprendizaje.
La séptima edición del seminario está especialmente dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. El objetivo es crear un espacio de reflexión compartida, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo El desarrollo del lenguaje oral en educación iInfantil se ha escrito en Cuaderno de Cultura Científica.