S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 1 heure 29 min

(Ni son) tierras (ni son) raras

jeu, 2025/03/13 - 11:59

Uno de los temas más candentes de la actualidad mundial son las tierras raras, debido a la urgencia que están mostrando ciertos países por hacerse con ellas. Pero, ¿qué son las tierras raras? Y ¿por qué son tan importantes?

Pues debo comenzar diciendo que su nombre nos lleva, directamente, a dos errores. Por un lado, la palabra tierra hace que pensemos en ese sedimento que cubre la parte más superficial del terreno, es decir, en algún tipo de suelo, pero nada más lejos de la realidad. Tierra es un término arcaico utilizado en química para referirse a los elementos que aparecen en forma de óxidos en la naturaleza y que se ha mantenido hasta la actualidad, prácticamente a modo de homenaje, pero no tiene nada que ver con la definición geológica de “tierra” como sedimento. Y, por otro lado, la palabra rara nos lleva a suponer que son muy escasos, pero tampoco es cierto. Estos elementos son relativamente comunes en nuestro planeta, incluso en términos totales que calcula que son más abundantes que todo el oro presente en la Tierra, pero se les denomina “raros” porque, generalmente, aparecen en concentraciones muy pequeñas dentro de los minerales y rocas y, sobre todo, porque su diferenciación química (es decir, su extracción del resto de componentes de los minerales) es muy compleja y bastante difícil.

tierras rarasTabla periódica de los elementos químicos, donde se marcan las tierras raras. Fuente: Federación Empresarial de la Industria Química Española vía Química y Sociedad

Entonces, ¿qué son las tierras raras? Pues este término hace referencia a 17 elementos químicos de la Tabla Periódica, los 15 de la serie de los lantánidos* (lantano, cerio, praseodimio, neodimio, prometio, samario, europio, gadolinio, terbio, disprosio, holmio, erbio, tulio, iterbio y lutecio) a los que se suman el escandio y el itrio. Estos elementos no aparecen en nuestro planeta en forma nativa, como lo pueden hacer el cobre o el oro, sino que siempre aparecen formando compuestos en la estructura química de ciertos minerales en concentraciones muy bajas, concretamente de partes por millón (para que os hagáis una idea, las concentraciones en porcentaje corresponden a 1/100 partes, mientras que las concentraciones en partes por millón equivalen a 1/1.000.000 del total).

Las tierras raras pueden aparecer en minerales más o menos conocidos, como el apatito o los clinopiroxenos, o en otros con nombres algo más raros, como la monacita o la bastnasita. Pero estos minerales con ciertas concentraciones de tierras raras no se forman en cualquier lugar, sino que lo hacen en contextos geológicos muy concretos. Principalmente, se trata de zonas en las que afloran rocas ígneas, principalmente volcánicas, que se han producido por el ascenso de magmas muy profundos que se han ido enriqueciendo en estos elementos químicos mientras iban ascendiendo por el manto y la corteza terrestres. También aparecen en lugares que han sufrido metamorfismos particulares en los que han estado relacionados fluidos hidrotermales que han atravesado rocas ricas en tierras raras y, en su circulación hacia la superficie, han ido precipitándolas a su paso en diferentes venas minerales. Y hay un tercer contexto un poco más especial aún, los medios sedimentarios formados por la erosión y el depósito de fragmentos de estas rocas ígneas y metamórficas con minerales que incluyen tierras raras en su composición.

tierras rarasA) Ejemplar con cristales del mineral monacita (de color anaranjado) entre cristales de cuarzo (incoloros), extraído de la mina Siglo Veinte, en Bolivia. B) Ejemplar del mineral bastnasita obtenido en Burundi. Fuentes: A)  Robert M. Lavinsky / Wikimedia Commons, B)  Kouame / Wikimedia Commons

Como os decía al principio, la explotación de estos yacimientos minerales no es ni barata, ni sencilla. Los minerales que incluyen tierras raras suelen aparecer entremezclados con otros que no nos interesan, por lo que hay que hacer una selección previa, junto con un estudio geológico muy detallado, de las zonas y los materiales que queremos extraer. Y, una vez obtenidos esos minerales, hay que someterlos a un proceso químico largo y complejo para poder aislar las tierras raras. Eso implica un análisis preliminar de la viabilidad económica del yacimiento, para asegurar que se va a obtener un beneficio con su explotación, porque es muy fácil que las empresas acaben en bancarrota si no tienen cuidado.

Una vez visto todo esto, ¿por qué son tan famosas e importantes las tierras raras? Pues por sus propiedades magnéticas y luminiscentes. Actualmente se han convertido en componentes indispensables en la estrategia de transición ecológica, ya que forman parte de catalizadores, imanes, baterías, componentes electrónicos o pantallas de aerogeneradores, vehículos eléctricos o mecanismos informáticos. También tienen un papel primordial en el avance médico, ya que permiten generar nuevas herramientas de diagnóstico y tratamiento para enfermedades tan dañinas como el cáncer. Por estos motivos, han entrado de cabeza en los listados de materiales críticos y estratégicos a nivel mundial, por lo que su búsqueda y explotación evitará la dependencia de Europa o Estados Unidos de terceros países, como China, principal exportador de tierras raras en la actualidad.

Pero hay un motivo menos noble y más prosaico por el que han cobrado tanta importancia social hoy en día. Las tierras raras también son unos materiales básicos para el desarrollo de la industria armamentística. Satélites más eficientes, mejores sistemas de comunicación, nuevos dispositivos de posicionamiento y vigilancia nocturna, vehículos militares autopropulsados y con dispositivos de blindaje mejorados, armamento con mayor capacidad destructiva, capaces de recorrer distancias más largas y con más autonomía, y un largo etcétera. Quizás este uso de las tierras raras explica más cosas de las que suceden en el mundo actual que la búsqueda de un futuro más sostenible.

Películas post-apocalípticas, como Mad Max, nos enseñaron que las guerras del futuro se producirían por el agua y el combustible. Parece que se olvidaron de un tercer origen: la búsqueda de minerales críticos. Yo prefiero pensar que esas cosas no van a suceder y que, lo único que tenemos seguro hoy en día, es que la Geología nos permitirá buscar y explotar de manera segura y sostenible los recursos naturales que necesita la humanidad para seguir evolucionando, socialmente hablando. Espero no equivocarme.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

*Nota del editor: La IUPAC, prescriptivista ella, «recomienda» (como lo haría don Vito) el nombre «lantanoides». Pero esto se debe a la necesidad de mantener la coherencia en inglés, donde la terminación -ide de «lanthanide» (lantánido) se reserva para determinados compuestos que, en castellano, acaban en -uro (carburo o hidruro, por ejemplo, son carbide o hidride en inglés). Podemos, por tanto, emplear en castellano el nombre que creó Victor Goldschmidt en 1925 para denominar este conjunto de elementos sin incurrir en anatema.

El artículo (Ni son) tierras (ni son) raras se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Liudmila Vsévolovna Kéldysh, de la teoría de conjuntos a la topología geométrica

mer, 2025/03/12 - 11:59

Con una habilidad pedagógica poco común, [Liudmila Kéldysh] sabe cómo conducir a un estudiante desde la solución de los problemas más simples hasta el trabajo independiente.

P. S. Aleksandrov, A. B. Sosinskii, A. V. Chernavskii, M. A. Shtan’ko (1974).

LiudmilaLiudmila Vsévolovna Kéldysh. Fuente: Russian Mathematical Surveys.

Liudmila Vsévolovna Kéldysh nació en Oremburgo (Rusia) el 12 de marzo de 1904. Era la hija mayor (de siete) de Maria Aleksándrovna Skvórtsova y Vsévolod Mijáilovich Kéldysh, un ingeniero militar. Debido a la naturaleza del trabajo de su padre, la familia viajaba con frecuencia; Liudmila vivió en Helsinki (1905-1907), San Petersburgo (hasta 1909) y después en Riga (Letonia) hasta que la invasión alemana obligó a la familia a huir a Moscú.

Tras terminar sus estudios secundarios, continuó su educación en la Universidad Estatal de Moscú, graduándose en 1925. En 1923, mientras estudiaba, se unió al grupo de investigación de Nikoláai Luzin, el grupo Luzitania. Allí conoció a Piotr Serguéyevich Nóvikov, con quien se casó en 1934.

Trabajando en teoría de conjuntos

En 1930 Keldysh comenzó a enseñar en el Instituto de Aviación de Moscú. Un año más tarde tuvo a su primer hijo, Leonid Kéldysh, nacido de un matrimonio anterior al comentado anteriormente.

A partir de 1934 comenzó a enseñar en el Instituto de la Academia de Ciencias de la URSS especializándose en teoría de conjuntos. En los años posteriores nacieron sus hijos Andréi Petróvich Nóvikov y Serguéi Petróvich Nóvikov; este último se convirtió en el primer matemático soviético en recibir la Medalla Fields, fue en 1970.

Liudmila defendió su tesis, supervisada por Luzin, en 1941. Trataba sobre conjuntos de Borel. Antes de recibir su título de doctora en Ciencias Físicas y Matemáticas, la familia huyó del avance de las tropas alemanas, instalándose en Kazán, en los institutos evacuados de la Academia de Ciencias. Keldysh y sus hijos no tenían el estatus de evacuados, solo el de refugiados. Finalmente fueron alojados en el gran gimnasio de la Universidad de Kazán, junto con varios cientos de refugiados como ellos. Su marido llegó posteriormente, enfermo. Resistieron pasando numerosas necesidades e incertidumbre.

A finales de 1942 pudieron regresar a Moscú y la situación comenzó a mejorar. En esa época, el matrimonio tuvo dos hijas, Nina y Elena.

Trabajando en topología geométrica

A partir de 1945, su trabajo se centró más en la topología geométrica. Publicó numerosos trabajos de investigación hasta la década de 1960. Por todo su trabajo, entre otros, recibió en 1958 el Premio del Presidium del Soviet Supremo.

A finales de los años 1950, Keldysh organizó un seminario sobre topología geométrica en el Instituto Steklov de Matemáticas, centrándose en particular en embebimientos topológicos. Este seminario resultó importante para el desarrollo de las matemáticas en Rusia y estuvo activo hasta 1974. Uno de sus estudiantes más brillantes, Alekséi Chernavskii, comenzó a participar en el seminario en 1970, y comentaba sobre la manera en la que trabajaban:

Comenzamos a organizar nuestros talleres sistemáticamente en varios puntos del campo de Moscú, combinando topología, fútbol o esquí según la estación, anécdotas, conversaciones serias sobre la vida, etc.

En 1964, Liudmila fue nombrada profesora titular en la Universidad Estatal de Moscú, publicando en 1966 el libro Embebimientos topológicos en el espacio euclidiano (en ruso) para ayudar a sus estudiantes de investigación. Se dedicó a la docencia hasta 1974, año en el que renunció a su trabajo en protesta por la expulsión de uno de sus estudiantes.

Liudmila falleció el 16 de febrero de 1976, un año después de su marido. En agosto de 2004, en el centenario de su nacimiento, se celebró en Moscú el congreso en su honor «Topología geométrica, geometría discreta y teoría de conjuntos«.

Bonus

En una entrevista realizada al matemático Serguéi Nóvikov (1938-2024) en 2001, comentaba que su familia jugó un papel muy importante en su decisión de dedicarse a la ciencia; en particular hablaba de su madre:

Mi padre, Piotr Serguéyevich Nóvikov, fue un matemático famoso. Todos los matemáticos conocen su trabajo sobre la teoría de algoritmos y la teoría combinatoria de grupos, incluida la indecidibilidad del problema de la palabra y la solución del problema de Burnside para grupos de torsión. En la década de 1930 fue uno de los mejores expertos en la llamada teoría descriptiva de conjuntos y en la década de 1940 en lógica matemática. También inició en la década de 1930 una nueva rama de la física matemática: la reconstrucción de un dominio homogéneo acotado a partir de su potencial gravitatorio en el infinito. Mi madre, Liudmila Vsévolovna Kéldysh, también fue una matemática destacada: profesora titular y experta en teoría de conjuntos y topología geométrica. La familia tuvo cinco hijos, y yo era el tercero de ellos, el más joven de los tres hijos. Todos los hijos se hicieron físicos y matemáticos, mientras que las hijas eligieron otras profesiones. Mi hermano mayor, Leonid Kéldysh, es uno de los teóricos de la física del estado sólido y de la física de la materia condensada más conocidos a nivel internacional. Mi otro hermano, Andréi Nóvikov, era un experto en teoría algebraica de números, pero lamentablemente murió prematuramente. Además, el hermano de mi madre, Mstislav Kéldysh, era un matemático muy talentoso en la teoría de funciones de variable compleja y en ecuaciones diferenciales. Hizo una contribución especialmente fundamental a las ramas aplicadas de la aerodinámica. […]

Referencias

El artículo Liudmila Vsévolovna Kéldysh, de la teoría de conjuntos a la topología geométrica se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Por qué los investigadores se interesan por los modelos de lenguaje reducido?

mar, 2025/03/11 - 11:59

Los modelos más grandes pueden lidiar con una mayor variedad de tareas, pero el tamaño reducido de los modelos más pequeños los convierte en herramientas atractivas.

Un artículo de Stephen Ornes. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

 

Los modelos de lenguaje extenso funcionan bien porque son muy grandes. Los modelos más recientes de OpenAI, Meta y DeepSeek utilizan cientos de miles de millones de “parámetros”: los botones ajustables que determinan las conexiones entre los datos y que se modifican durante el proceso de entrenamiento. Con más parámetros, los modelos pueden identificar mejor los patrones y las conexiones, lo que a su vez los hace más potentes y precisos.

Pero esta potencia tiene un coste. Entrenar un modelo con cientos de miles de millones de parámetros requiere enormes recursos computacionales. Para entrenar su modelo Gemini 1.0 Ultra, por ejemplo, Google habría gastado 191 millones de dólares. Los modelos de lenguaje extenso (LLM, por sus siglas en inglés) también requieren una potencia computacional considerable cada vez que responden a una solicitud, lo que los convierte en notorios devoradores de energía. Una sola consulta a ChatGPT consume aproximadamente diez veces más energía que una sola búsqueda en Google, según el Electric Power Research Institute.

En respuesta, algunos investigadores están pensando ahora en pequeño. IBM, Google, Microsoft y OpenAI han lanzado recientemente modelos de lenguaje reducido (SLM, por sus siglas en inglés) que utilizan unos pocos miles de millones de parámetros, una fracción de sus contrapartes LLM.

Los modelos reducidos no se utilizan como herramientas de uso general como sus primos más grandes, pero pueden ser excelentes para tareas específicas, más definidas, como resumir conversaciones, responder preguntas de pacientes como un chatbot de atención médica y recopilar datos en dispositivos inteligentes. “Para muchas tareas, un modelo de 8 mil millones de parámetros es, de hecho, bastante bueno”, afirma Zico Kolter, un científico informático de la Universidad Carnegie Mellon. También pueden ejecutarse en un ordenador portátil o un teléfono móvil, en lugar de en un gran centro de datos. (No hay consenso sobre la definición exacta de “reducido”, pero todos los nuevos modelos alcanzan un máximo de alrededor de 10 mil millones de parámetros).

Para optimizar el proceso de entrenamiento de estos modelos reducidos, los investigadores utilizan algunos trucos. Los modelos extensos suelen extraer datos de entrenamiento sin procesar de Internet, y estos datos pueden estar desorganizados, desordenados y ser difíciles de procesar. Pero estos modelos grandes pueden generar un conjunto de datos de alta calidad que se puede utilizar para entrenar un modelo reducido. El enfoque, llamado destilación de conocimiento, hace que el modelo más grande transmita eficazmente su entrenamiento, como un maestro que da lecciones a un estudiante. “La razón por la que [los SLM] son ​​tan buenos con modelos tan reducidos y tan pocos datos es que utilizan datos de alta calidad en lugar de material desordenado”, explica Kolter.

Los investigadores también han explorado formas de crear modelos reducidos comenzando con modelos extensos y recortándolos. Un método, conocido como poda, implica eliminar partes innecesarias o ineficientes de una red neuronal, la extensa red de puntos de datos conectados que subyace a un modelo extenso.

La poda se inspiró en una red neuronal de la vida real, el cerebro humano, que gana eficiencia al cortar las conexiones entre las sinapsis a medida que una persona envejece. Los enfoques de poda actuales se remontan a un artículo de 1989 en el que el científico informático Yann LeCun, ahora en Meta, argumentaba que hasta el 90% de los parámetros de una red neuronal entrenada podrían eliminarse sin sacrificar la eficiencia. Llamó al método «daño cerebral óptimo». La poda puede ayudar a los investigadores a ajustar un modelo de lenguaje reducido para una tarea o entorno en concreto.

Para los investigadores interesados ​​en cómo los modelos de lenguaje hacen lo que hacen, los modelos más reducidos ofrecen una forma económica de probar ideas novedosas. Y como tienen menos parámetros que los modelos extensos, su razonamiento puede ser más transparente. “Si quieres crear un modelo nuevo, necesitas probar cosas”, apunta Leshem Choshen, científico investigador del Laboratorio de Inteligencia Artificial Watson del MIT-IBM. “Los modelos reducidos permiten a los investigadores experimentar con riesgos menores”.

Los modelos grandes y costosos, con sus parámetros cada vez más numerosos, seguirán siendo útiles para aplicaciones como chatbots generalizados, generadores de imágenes y el descubrimiento de fármacos. Pero para muchos usuarios, un modelo reducido y específico funcionará igual de bien, y además será más fácil para los investigadores entrenarlo y construirlo. “Estos modelos eficientes pueden ahorrar dinero, tiempo y computación”, afirma Choshen.

 

El artículo original, Why Do Researchers Care About Small Language Models?, se publicó el 12 de febrero de 2025 en Quanta Magazine.

Traducido por César Tomé López

 

El artículo ¿Por qué los investigadores se interesan por los modelos de lenguaje reducido? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El gen NOVA1 y el origen de nuestro lenguaje hablado

lun, 2025/03/10 - 11:59

El lenguaje hablado desempeñó un papel esencial en la evolución de la especie humana. Un lenguaje simbólico complejo nos permitió comunicarnos oralmente, coordinar actividades, transmitir conocimientos, mitos y valores. En definitiva, hizo posible una cultura que nos dio ventaja sobre otras especies animales.

El origen del lenguaje hablado implicó complicadas adaptaciones anatómicas relacionadas con la fonación, y el desarrollo de nuevas conexiones cerebrales. Hasta ahora sabemos muy poco de los cambios genéticos que estuvieron detrás de estas innovaciones evolutivas. Una investigación realizada por un equipo de la Universidad Rockefeller y publicada en Nature Communications acaba de proporcionar una interesante pista acerca de estos cambios genéticos.

NOVA1 (neuro-oncological ventral antigen-1) es un gen que se expresa en el sistema nervioso central de los vertebrados. Era conocido por su papel en un síndrome paraneoplásico neurológico. Si células tumorales expresan de forma aberrante NOVA1, se generan anticuerpos que pueden atacar a las neuronas, con graves consecuencias para el sistema nervioso.

La inactivación de NOVA1 en ratones es letal, por fallos en el desarrollo neuromotor. Se empezó a sospechar su relación con el lenguaje humano a partir del estudio de un paciente que tenía mutada e inactivada una de las dos copias del gen. Este paciente tenía graves deficiencias en el aprendizaje y particularmente en el desarrollo del lenguaje.

El estudio de la secuencia de la proteína NOVA1 humana mostró algo sorprendente. Se trata de una secuencia muy bien conservada, prácticamente sin diferencias entre humanos. Eso sí, nuestra proteína difiere en un solo aminoácido de la de neandertales y denisovanos, nuestros parientes más próximos. En la posición 197 de la secuencia una isoleucina fue sustituida por una valina en el linaje de Homo sapiens. Esta variante es conocida como I197V.

Antes de analizar qué significa esta sustitución vamos a ver cuál es la función de NOVA1. Se trata de una proteína que se une al ARN y regula el empalme alternativo (alternative splicing) controlando la formación de diferentes ARN mensajeros a partir de un mismo gen (explicado en la figura 1). De esta forma, NOVA1 puede modular la expresión de un gran número de proteínas en el sistema nervioso.

NOVA1Figura 1. Los exones son los segmentos del ADN que codifican secuencias de aminoácidos. El ADN de un gen determinado se transcribe a una primera cadena de ARN que contiene la secuencia de todos los exones. Mediante el proceso de empalme alternativo se generan ARN mensajeros con diferentes combinaciones de exones. De esta forma, diferentes proteínas pueden derivar de un mismo gen. NOVA1 interviene en este proceso de empalme alternativo modulando la expresión de genes expresados en el sistema nervioso, incluyendo algunos implicados en la vocalización. Modificado de National Human Genome Research Institute, dominio público

Cuando el grupo de la Rockefeller identificó los ARN afectados por la función de NOVA1 se observó una elevada proporción de genes relacionados con la vocalización. Además, NOVA1 mostraba una elevada expresión en el cerebro medio y particularmente en la sustancia gris periacueductal, vinculada a comportamientos de miedo y reacciones defensivas en mamíferos. Las neuronas de esta área conectan con el tronco cerebral y el núcleo ambiguo, desde donde se controlan las vías motoras respiratorias y, en particular, la musculatura de boca, faringe y laringe. De esta forma se coordina la respiración con la producción de sonidos, que solo se produce durante la espiración.

¿Influyó la variante humana I197V en el desarrollo de nuestra fonación? Para responder a esta pregunta, el equipo generó ratones modificados genéticamente para expresar la proteína NOVA1 humana, con la variante I197V. Por supuesto, los ratones no comenzaron a charlar entre ellos, pero mostraron sorprendentes diferencias en su vocalización.

Los ratones recién nacidos, cuando son separados de sus madres, emiten ultrasonidos para llamarlas. Estos chillidos constan de cuatro tipos de “sílabas”: simples (una sola nota), ascendentes y descendentes (dos notas separadas por un salto de frecuencia hacia arriba o abajo) y múltiples (varias notas de diferente frecuencia) (Figura 2). Los ratones humanizados (I197V) utilizaron más las sílabas simples en sus llamadas. Esto no varió la respuesta de sus madres, que los buscaban igual que a los ratoncillos no humanizados.

NOVA1Figura 2. Arriba a la izquierda vemos los diferentes tipos de ultrasonidos emitidos por los ratones. Las sílabas pueden ser simples (s) con dos notas separadas por un intervalo ascendente (u) o descendente (d) o con múltiples notas (m). Cuando un neonato es separado de su madre emite chillidos para llamarla. Los ratoncillos con secuencia NOVA1 humana emiten muchas más sílabas simples, en lugar de las ascendentes de los ratones control. Cuando un ratón macho con secuencia NOVA1 humana es colocado en presencia de una hembra receptiva, emite sílabas simples de menor frecuencia y sílabas compuestas con frecuencias más variadas. Modificado de Tajima et al., referencia completa en bibliografía. Licencia CC-BY 4.0

Más diferencias se encontraron en ratones machos adultos en presencia de hembras sexualmente receptivas. Las sílabas simples de los ratones humanizados se emitieron en frecuencias más bajas, y en las demás sílabas aumentó la varianza de sus frecuencias. Dicho de otra forma, su vocalización se volvió más compleja y rica en tonos. Lo que sería importante comprobar, como reconocen los propios autores del artículo, es si esta vocalización aumentó su atractivo para las hembras.

Estos resultados son similares a los que se obtuvieron hace algunos años con el gen FOXP2, el conocido como “gen del lenguaje”, ya que sus mutaciones alteran el lenguaje hablado en humanos. La proteína FOXP2 humana tiene dos aminoácidos diferentes respecto a la del ratón. Los ratones transgénicos dotados de la secuencia FOXP2 humana muestran ciertos cambios en la vocalización de sílabas complejas, pero las simples se hacen más frecuentes, disminuyendo la complejidad global de sus “conversaciones”. Por otra parte, la secuencia FOXP2 humana no es exclusiva de nuestra especie, ya que es idéntica a la de neandertales y denisovanos.

Falta mucho por hacer, por ejemplo, comprobar si la actuación de NOVA1 sobre la fonación se produce a nivel del control motor de la respiración y la musculatura laríngea, o si lo hace a nivel de la corteza cerebral, donde se expresa a menores niveles. Nuestra corteza cerebral regula el tono, la amplitud y la modulación de la frecuencia del lenguaje hablado. De todas formas, NOVA1, junto a lo que ya sabíamos de FOXP2, sin duda contribuirá al conocimiento de los mecanismos moleculares que dirigieron la evolución de nuestro lenguaje hablado.

Referencias

Tajima, Y., Vargas, C.D.M., Ito, K. et al. (2025). A humanized NOVA1 splicing factor alters mouse vocal communications. Nat Commun. doi: 10.1038/s41467-025-56579-2

Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga

El artículo El gen NOVA1 y el origen de nuestro lenguaje hablado se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Cine y Ciencia: High Life

dim, 2025/03/09 - 11:59

 

High LifePortada del DVD. Fair use

Dentro la octava edición del ciclo Cine y Ciencia, coorganizado por Filmoteka y el DIPC junto a otros agentes culturales, durante enero y febrero he presentado High Life, una fascinante película de Claire Denis (2018). La veo como una respuesta contemporánea a 2001: A Space Odyssey de Stanley Kubrick, usando una perspectiva de género que subvierte los cánones tradicionales del cine de exploración espacial. Mientras Kubrick idealizó la figura del bebé como símbolo de un futuro utópico y abstracto, Denis nos presenta un bebé real, corporal y vulnerable, que exige cuidado y genera nuevas formas de parentesco en un futuro distópico, sucio y extractivista.

La película cuestiona la reproducción biológica convencional y la explotación de la misma, situando la narrativa en una nave donde los vínculos familiares y la supervivencia se reinventan. Además, incorpora diversos elementos científicos procedentes de la astrofísica. Durante el debate posterior a la proyección, estos temas también se discutieron con el personal del DIPC, evidenciando cómo la obra se sitúa en la intersección entre el cine, la ciencia y las cuestiones éticas y sociales. En este contexto, hablamos también de reproducción asistida y eugenesia, así como dinámicas de poder y control, y mencioné el lema de Donna Haraway “Make Kin, Not Babies”. Esta antropóloga y filósofa aboga por la creación de lazos de parentesco alternativos, basados en el cuidado mutuo y la coexistencia, en lugar de depender únicamente de la reproducción biológica.

Así, High Life no solo se contrapone a la visión clásica de la proyección del futuro que ofrece 2001, sino que también plantea una ácida crítica hacia algunas prácticas científicas y reproductivas. Denis propone una mirada feminista, posthumana y decolonial en la que la construcción de comunidades y el cuidado mutuo se convierten en elementos esenciales para la supervivencia, desafiando los imperativos biológicos tradicionales y abriendo el debate sobre las tecnologías reproductivas en un contexto de ambigüedad moral. Comparto aquí algunas notas que utilicé en las presentaciones de Vitoria, Donostia y Pamplona.

El cine High LifePóster de la película. Fair use

Esta película no deja a nadie indiferente. Tiene poco diálogo, hay largas elipsis y flashbacks, y puede parecer lenta, pero piensen que sucede en una nave que se mueve a una velocidad cercana a la de la luz, y eso genera efectos curiosos en el tiempo. Resulta bastante dura a veces, porque contiene: prácticas de reproducción asistida pero no consentida; eugenesia y también eutanasia; dos suicidios; sexo en solitario, sexo asistido mecánicamente, y sexo involuntario; suplantación de personalidad, homicidio; restricciones físicas; violaciones consumadas y sin consumar, peleas y toda clase de fluidos corporales. Si son muy sensibles, prepárense.

Y con todo High Life fue una sólida candidata a la Concha de Oro cuando compitió en la sección oficial del Zinemaldia en 2018. Generó división de opiniones en la crítica y el público. La película es una novedad audaz en cualquier programación porque renuncia a toda clase de superioridad moral, también a la de la ciencia. Claire Denis está en contra del cine moralizante, hace películas sin mensaje, pero sí cargadas de preguntas que exploran la propia definición de lo humano. Su idea de cine se parece más a un poema que a un sermón. Pero es una directora que habla con científicos, contó con un asesor astrofísico (Aurélien Barrau) y de hecho tomó de Stephen Hawking la idea de la importancia de procrear en el espacio para superar las limitaciones temporales de una vida individual, y la necesidad de incubadoras especiales para ello.

High Life parece muy consciente de algunos grandes clásicos del género, como 2001 y Solaris. Sin embargo, desde la primera escena, queda claro que Denis se aleja del canon tradicional de las películas de exploración espacial. Hay un bebé, pero no ya el bebé idealizado del final de 2001, sino un bebé real que llora y hay que alimentar. Esa atención a los detalles más físicos y corporales de la vida en el espacio hace que la película sea algo único dentro del subgénero. High Life es diferente desde la primera escena. Parte de un tropo bastante manido, la del astronauta reparando su nave, pero le añade un elemento desconcertante: la familia, el vínculo humano, ya no es algo que se ha quedado en la Tierra, sino que acompaña al astronauta, dedicado a algo tan poco habitual en una nave espacial como el cuidado de un bebé… a la vez que repara la nave.

Claire Denis presentó la idea al protagonista, Robert Pattinson, como una historia de “ciencia-ficción e incesto con una menor de edad”, pero también afirmó que “no es una película de ciencia-ficción”, aunque tenga elementos científicos. Es la historia de un hombre que, tras perder a todos sus compañeros de viaje, sigue viviendo para cuidar a un bebé (esa sería la “vida elevada”, en referencia a la vita nuova de Dante) y llega con ella a un lugar más allá del espacio y el tiempo. Claire Denis dijo que vio a Pattinson como el protagonista ideal porque transmitía esa impresión de un joven que no ha tenido una vida, que no conoce la vida porque ha vivido siempre en la cárcel, pero allá en lo alto recibe una vida nueva, porque “no hay nada más vivo que un bebé” (Denis dixit).

La ciencia de High Life

En su presentación de la primera película del ciclo, el biopic dedicado a Stephen Hawking, Pedro Miguel Etxenike dijo que no hablaría sobre agujeros negros porque en la audiencia había gente que sabía más que él. Yo debería hacer lo mismo, pero en mis presentaciones menciono un par de elementos científicos reales en la película: el proceso Penrose y las imágenes generadas por el Telescopio del Horizonte de Sucesos (EHT). Y también, de manera más oblicua, el experimento Biosphere 2.

El proceso de Penrose un mecanismo teórico descrito en 1969 que haría posible extraer energía de un agujero negro en rotación. El proceso de Penrose también tiene paralelismos con otros fenómenos relativistas, como la radiación de Hawking, que describe la emisión de partículas desde el horizonte de eventos de un agujero negro.

Esa promesa prometeica de una fuente ilimitada de energía a veces me parece que es un McGuffin que nos distrae del verdadero tema de la película, que es… cómo reproducir la vida en lo alto, tal y como el título nos lo está diciendo. Ya desde la primera escena (el huerto) la película describe la vida en un huerto cerrado en naves espaciales que parecen sarcófagos, por pasillos como el que tanto recuerda a Solaris, una vida precaria, con necesidad de reparación constante (esa llave de carraca girando en el espacio como el hueso de 2001).

La estación científica más grande conteniendo un ecosistema cerrado fue Biosfera 2, en Oracle, Arizona. Biosphere 2 fue construida entre 1987 y 1991 para probar sistemas ecológicos cerrados como sustituto de la biosfera terrestre y poder sustentar la vida humana en el espacio. Solo se usó dos veces con este propósito (1991-1993 y 1994), con problemas como escasez de oxígeno y alimentos, muerte de especies, tensiones entre la tripulación y conflictos de gestión. Sin embargo, el segundo experimento logró autosuficiencia alimentaria sin necesidad de oxígeno adicional.

High LifeBiosfera 2. Foto: Katja Schulz / Wikimedia Commons

La muy recomendable historia de Biosfera 2 nos muestra el interés de la antropología para esta película. Las alusiones a leyes de la naturaleza que en realidad son tabús sociales (“si rompes las leyes de la naturaleza, pagarás por ello”), a la invención de rituales y al parentesco como vínculo constituyente son ubicuas en la peli.

Como una antropóloga, Claude Denis se fija en las relaciones de género y de poder en una pequeña comunidad humana, y en el sexo como elemento material presente en ambas. En las ciencias sociales, seguramente es la antropología la que más se ha dedicado a estudiar esas relaciones de género y de poder, pero la antropología tiene una relación ambivalente con la ciencia en general. Por un lado, es una disciplina que surge de otras ciencias (Boas, el padre de la antropología norteamericana, era doctor en física; Malinowski, el de la británica, en filosofía) y por el otro, al estudiar culturas en las que la ciencia no tiene o no ha tenido el peso que ha tenido en Occidente, la antropología puede dirigir su mirada hacia la ciencia desde presupuestos distintos.

Un ejemplo sería Bruno Latour, que estudió a los científicos en un laboratorio, el Salk Institute, donde trabajaba el premio Nobel Roger Guillemin, como si fueran un grupo humano más. Sin salir de la película, tenemos el científico indio que protagoniza un flashback. Encarna la mirada decolonial de Denis y cuestiona las estructuras de poder inherentes al conocimiento científico. El científico reconoce que la curiosidad es el motor de la ciencia, pero al mismo tiempo plantea una crítica: ¿dónde están los límites éticos de esa curiosidad? ¿Hasta dónde podemos llegar para obtener conocimiento o recursos energéticos?

Por ejemplo, la película sitúa su trama en un contexto donde personas en prisión participan en un experimento científico a cambio de salvar sus vidas. Salvar la vida a cambio de trabajo tiene un nombre clásico: esclavitud. ¿Es ético que una población esclavizada o subalterna sirva a la ciencia? ¿Tienen realmente opción? ¿Hay un consentimiento informado y voluntario, o es un simulacro de consentimiento?

La respuesta a todas esas preguntas es no. Los tripulantes han sido engañados y lo saben. Saben y no saben, como los donantes en Never Let Me Go, una película sobre transplantes que tiene algunos elementos en común con esta, y a la que he dedicado alguna reflexión. En High Life, por la aceleración creciente que necesitan para mantener la sensación de gravedad, los viajeros se acercan a la velocidad de la luz (¡99%!) con lo que el tiempo pasa más despacio en la nave relativamente a la Tierra, así que la tripulación está haciendo un viaje al futuro de la Tierra; no hay vuelta atrás, al menos no a la Tierra tal como la conocieron. Por eso la desesperación, la violencia latente, y el control social vía el sexo en solitario y las drogas: placeres individuales que aíslan a los tripulantes, les vuelven “tristes y solos”, como en la canción que canta Boise a Monte en el huerto.

Veamos High Life, pues, como un documento etnográfico singular. En los primeros 15 minutos asistiremos a una serie de rituales: comer, excretar, dejar un mensaje al futuro, vestir a los difuntos (tras interrumpir la criogenización) y disponer de sus restos mortales. Veremos personajes que son mitos: Tcherny (André Benjamin) es el mito de Anteo, el personaje “terrestre”, que todavía siente el vínculo con la Tierra y con la tierra, y que está cansado de “volar” (Latour: Dónde aterrizar). Como Prometeo, Monte (Robert Pattinson) arriesga su vida para traer una fuente de energía que salve a la humanidad. Como Antígona, Boyse (Mia Goth) cubre con tierra el cadáver de los caídos. La Dra. Dibs (Juliette Binoche, musa habitual en el cine de Denis, en una interpretación impresionante) aparece como una hechicera o sacerdotisa de una “nueva religión”, y como Medea (otra) ha matado a sus hijos; matar a los hijos es violar el sagrado principio de la reproducción, y por eso “es el único crimen que merece tal nombre” como dice ella misma. Una película que habla tanto de la ciencia como de los mitos con los que aún convivimos.

Sobre el autor: Antonio Casado da Rocha es investigador titular en el Departamento de Filosofía de los Valores y Antropología Social de la UPV/EHU

El artículo Cine y Ciencia: High Life se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El desarrollo del lenguaje oral en educación iInfantil

sam, 2025/03/08 - 11:59

La jornada Las Pruebas de la Educación regresó un año más para revisar la eficacia de las estrategias educativas actuales a partir de la evidencia científica. El desarrollo del lenguaje oral en la infancia y su poder en la creación de distintas realidades sobre un mismo tema, así como la riqueza del aprendizaje en entornos multiculturales fueron algunas de las cuestiones analizadas durante la séptima edición de este seminario.

lenguaje oral

Julián Palazón, psicólogo, pedagogo y profesor en la Universidad Internacional de Valencia explica en “El desarrollo del lenguaje oral en Educación Infantil” la importancia del lenguaje oral como fundamento de la comprensión lectora y la habilidad aritmética, entre otras ideas.

 

La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la Facultad de Educación de Bilbao, tuvo lugar el 21 de febrero de 2025 en la sala Juliana Agirrezabala de la Facultad de Educación de Bilbao de la Universidad del País Vasco UPV/EHU en Leioa (Bizkaia). Las ponencias fueron impartidas por un abanico de expertos y expertas del ámbito de la educación, la formación y el aprendizaje.

La séptima edición del seminario está especialmente dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. El objetivo es crear un espacio de reflexión compartida, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día.

 

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo El desarrollo del lenguaje oral en educación iInfantil se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Los polímeros: el material más versátil que existe

ven, 2025/03/07 - 11:59

¿Te imaginas un material suave como la piel, flexible como un junco y fuerte como el acero? Quizás pensaras que se trata de ciencia ficción, más si te dijera que este material está casi totalmente formado por solo cuatro elementos: carbono, hidrógeno, nitrógeno y oxígeno, con algunas adiciones de cloro, flúor y azufre. Pues no, no es ciencia ficción, de hecho, los utilizas muchas veces todos los días. Se trata de los polímeros, que son imprescindibles para el transporte, las comunicaciones, la producción de energía renovable, el material deportivo, nuestras casas, la ropa, las revistas y libros, la medicina y la conservación de alimentos. En esta entrada os vamos a explicar qué son los polímeros y qué importancia tienen en nuestro presente y futuro.

polímerosDiferentes aplicaciones de los polímeros. Fuente: Elaboración propia de los autores / Imágenes creadas con Copilot

Veamos cómo con tan pocos elementos, se pueden conseguir materiales con una versatilidad enorme. Si pudiéramos ver el interior de las paredes de un tupper, nos encontraríamos que está constituido por una maraña de hilos parecida a un plato de espagueti. Cada uno de estos hilos sería una cadena de polímero. Las cadenas de polímero están formadas por unidades repetidas, denominadas monómero, y miles de estas unidades se enlazan una detrás de otra, dando lugar a cadenas muy largas. A la reacción o al proceso de unir esas unidades se le denomina polimerización, y la cadena resultante se llama polímero o macromolécula (una molécula muy grande).

Modificando el proceso de polimerización, podemos obtener cadenas lineales, ramificadas o redes tridimensionales obteniendo propiedades mecánicas completamente diferentes.

Constitución estructural de los polímeros. Fuente: Elaboración propia de los autores

 

Por ejemplo, el polietileno (PE), que está únicamente compuesto por carbono e hidrógeno, puede formar cadenas lineales que pueden ordenarse perfectamente y cristalizar, obteniendo un material rígido. Sin embargo, el polietileno ramificado no puede cristalizar, por lo que es blando y ha sido muy utilizado en bolsas de basura.

a) Cadena lineal de polietileno. b) PE lineal rígido. c) PE ramificado blando. Fuentes: b) Poolaria / Fair use; Parapaquetes / Fair use

En vez de hacer las cadenas de polímero independientes, se pueden formar redes tridimensionales con uniones entre diferentes cadenas. Para ello se polimerizan monómeros multifuncionales. Si la red que se forma es abierta, entonces nos encontramos ante un material que se deforma bajo presión, pero que recupera su forma al desaparecer la presión. Estos polímeros se llaman elastómeros y a ellos pertenecen el caucho y la silicona. Si la red que se forma es muy cerrada, tenemos un polímero que no se deforma con la presión, como el polietileno reticulado que se usa en las prótesis de cadera.

Por el contrario, si insertamos un grupo funcional en la red, por ejemplo, un carboxilo que tiene mucha afinidad por el agua, conseguimos el material absorbente que se usa en los pañales. O si insertamos flúor, que repele el agua, conseguimos materiales repelentes como el Gore-Tex. Existe un material que, con solo carbono, hidrógeno, nitrógeno y oxígeno, a igualdad de peso, es más fuerte que el acero. Se trata del Kevlar, que basa sus propiedades en multitud de puentes de hidrógeno entre las diferentes cadenas de polímero.

En este momento, con una población que en 50 años se ha duplicado hasta alcanzar los 8.000 MM de personas, los polímeros son imprescindibles para el desarrollo sostenible que es impensable sin energía renovable, sin el ahorro de energía que suponen los vehículos más ligeros, sin la ayuda de los polímeros para tener una agricultura menos dependiente de las condiciones climáticas y para conservar los alimentos producidos, sin las membranas de polímero necesarias para desalinizar el agua de mar y sin la contribución de los polímeros a la salud. Además de estos polímeros que podemos denominar imprescindibles, también se usan polímeros para aplicaciones de un solo uso. La excelente relación calidad/precio ha llevado a sobreutilización de polímeros de un solo uso. Esta sobreutilización y la resistencia de los polímeros a la intemperie, junto con la falta de sistemas de recolecta de residuos sólidos en los países menos desarrollados y la falta de civismo en países desarrollados, dan como resultado su acumulación en el medio ambiente. Esto puede crear serios problemas al medio ambiente, su fauna y a los humanos. Por ello, es necesario reducir la utilización de los polímeros de un solo uso a aquellas aplicaciones que lo justifiquen, y hay que recogerlos y reciclarlos adecuadamente.

Hace 50 años, el Prof. Gonzalo Martín Guzmán, tuvo la visión de crear una Facultad de Química única en España y Europa especializada en polímeros. Esta investigación está hoy agrupada en POLYMAT, donde más de 210 investigadores e investigadoras (de 35 países) desarrollan una investigación de vanguardia en el mundo de los polímeros.

Facultad de Química y Centro Joxe Mari Korta (POLYMAT). Fuente: UPV/EHU

 

Estos investigadores se centran en lo que hemos llamado polímeros imprescindibles y desarrollan nuevos polímeros con mejores propiedades para poder producir más usando menos material. También investigan alternativas al reciclaje de los polímeros de uso único, responsables de una gran parte del impacto medioambiental. Además, desarrollan polímeros para mejorar la eficacia de las placas solares y de las baterías necesarias para almacenar la energía producida. Por otro lado, conscientes de que los recursos fósiles son limitados, desarrollan métodos para producir polímeros a partir de materias primas renovables o de desechos de polímero. Además, desarrollan métodos para optimizar el funcionamiento de las plantas de desalinización. Por último, en el campo de la salud desarrollan polímeros bioabsorbibles para catéteres, hidrogeles para curado de heridas y dosificación de fármacos a través de la mucosa y andamios poliméricos para la regeneración de cartílago y tendones.

Los diferentes retos en los que se investiga. Fuente: POLYMAT

Por lo tanto, el mensaje a recordar es que los polímeros son imprescindibles para el desarrollo sostenible, pero que debemos reducir su uso en aplicaciones no esenciales y en todos los casos recogerlos y reciclarlos. Como los polímeros todavía pueden ofrecer mucho más, los investigadores de la Facultad de Química y POLYMAT seguirán trabajando para dar respuesta a los retos como energía, salud, sostenibilidad y alimentación que plantean los polímeros hoy en día y a futuro.

Autores: Miren Aguirre Arrese, profesora agregada de la Facultad de Química de la UPV/EHU; María Paulis Lumbreras, catedrática de Ingeniería Química en la UPV/EHU y directora del POLYMAT y José M. Asua González, catedrático emérito de Ingeniería Química en la UPV/EHU y fundador de POLYMAT.

La Facultad de Química de la UPV/EHU cumple este año 50 años. Con motivo de este aniversario se han organizado un gran número de actividades festivas, de orientación del alumnado de secundaria, investigación, transferencia y divulgación. Entre estas últimas podemos encontrar “12 meses – 12 temas”, conjunto de actividades que pretende mostrar a la sociedad las temáticas desarrolladas en la Facultad. Entre estas actividades podemos encontrar el ciclo de charlas “50 años difundiendo la química”, en Ernest Lluch Kulturetxea, así como vídeos de divulgación, entrevistas en radio y artículos en los blogs de divulgación de la Cátedra de Cultura Científica. Durante todo el año contaremos con invitados especiales, como los cuatro Centros de Investigación nacidos de la Facultad (CIDETEC, CFM, DIPC y POLYMAT), así como los Premios Nobel Albert Fert y Jean Marie Lehn. Se puede consultar el conjunto de actividades programadas en la página web de nuestro 50 Aniversario.

El artículo Los polímeros: el material más versátil que existe se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La novela que inspiró las máquinas pensantes de Alan Turing

jeu, 2025/03/06 - 11:59

Es imposible, por mucho que algunos se empeñen en lo contrario, entender el desarrollo científico y tecnológico de nuestra especie sin entender el contexto histórico, social y hasta literario cada época. En ocasiones, los crossovers entre ciencia y humanidades que dan lugar a un nuevo descubrimiento son evidentes y otras veces, muy sutiles, pero, casi siempre, son desconocidos.

Una mención casual a una novela en la biografía de una persona, dato al que habitualmente no prestaríamos atención, puede esconder más significado del que se aprecia a simple vista. Y sirvan como ejemplo estas líneas que aparecen en la biografía que Ethel Sara Turing escribió de su hijo, Alan Turing:

En su infancia, Alan no había sido lector de ficción, ya que prefería enciclopedias u obras científicas. Al final de su adolescencia, sí que leyó cierta cantidad de obras de ficción, pero decía que la naturaleza de los títulos le planteaba cierta dificultad a la hora de elegir. Tenía una predilección especial por Los papeles póstumos del Club Pickwick [Charles Dickens], los libros de George Borrow y Erewhon, de Samuel Butler.

A continuación, añade: «Esta última novela, posiblemente, lo llevó a plantearse la posibilidad de construir una auténtica máquina inteligente». Y no tan posiblemente, porque el propio Turing la menciona en alguno de sus artículos. ¿Hasta dónde llegó esa influencia? Eso ya es más complicado de cuantificar, pero tal vez fue más profunda de lo que pensamos.

ErewhonUno de los libros favoritos de Alan Turing durante su adolescencia fue Erewhon (1872), de Samuel Butler. Esta novela, según relató su madre, pudo ejercer una gran influencia en su trabajo posterior. Créditos: Dominio público

Erewhon —anagrama de nowhere— es una novela que sigue la tradición utópica y de viajes extraordinarios que tan popular se hizo en el siglo XVIII con aventuras como Los viajes de Gulliver (1726), de Jonathan Swift. Pero tiene una vuelta de tuerca adicional. La obra se gestó tras la publicación de El origen de las especies (1859), de Charles Darwin, que, en un momento dado, llegó a las manos de Samuel Butler —que se vivía en Nueva Zelanda en aquel momento. Este, a modo de reflexión acerca de la teoría de Darwin, envió en 1863 una carta al director del periódico local The Press titulada «Darwin among the machines» en la que planteó la posibilidad de que las máquinas —que cobraban protagonismo a marchas forzadas en la nueva sociedad industrial que se estaba desarrollando— pudieran representar algún tipo de vida mecánica sometida a los dictados de la evolución biológica. Esa idea se convirtió en la primera semilla de su obra.

La utopía de Butler, como muchas otras de la época, es una sátira de la sociedad victoriana a la que él pertenece, tanto en lo referente a sus valores morales como intelectuales y religiosos. Pero lo realmente interesante en lo que concierne a este artículo son los tres capítulos titulados «El libro de las máquinas», que aparecen hacia el final de la novela y que no son más que el desarrollo de las ideas que planteó en su carta al director de 1963. Así, podemos leer reflexiones como: «Pero las máquinas que producen otras máquinas no crean máquinas de su misma especie. Un dedal lo fabrica una máquina, pero no lo fabricó otro dedal y él jamás será capaz de fabricar otro». ¿Estaba sugiriendo, de manera muy sutil, la posibilidad de una máquina universal como la que formalizó luego Alan Turing, en 1936? Ciertamente, a la idea le falta mucho desarrollo, pero ¿es posible que le sirviera de inspiración al matemático?

ErewhonSamuel Butler (1835-1904), primera edición de Erewhon y traducción al español de Akal. Créditos: Dominio público

Y Butler va mucho más allá en sus reflexiones sobre las máquinas, ya que, al tratarlas como seres vivos sujetos a la evolución, advierte de sus posibles peligros, hoy bastante trillados y de los que seguramente todos hemos oído hablar: que nuestra dependencia de ellas nos lleve a perder habilidades —manuales, intelectuales…— y que, a su vez, limiten nuestra creatividad y supriman nuestro sentido crítico; que evolucionen hasta volverse autónomas e inteligentes y acaben sustituyéndonos… No solo eso, plantea ideas tan ciberpunk como que tecnología y seres humanos somos inseparables: «El hombre piensa como piensa, siente como siente por los cambios que las máquinas han provocado, y la existencia de estas es una condición sine qua non para la de él y viceversa» —¿algo que objetar a esta afirmación en la era de internet?—. Y se anticipa, curiosamente, a la miniaturización y a las formas en las que estas máquinas podrían aprender. ¿Hasta qué punto pudo, por tanto, estimular Erewhon, con estos planteamientos, la imaginación, ya desbordante de por sí, del pequeño Alan que la leyó por primera vez?

Porque las menciones a esta obra no vamos a encontrarlas solo en fuentes secundarias, como el testimonio de su madre. «Intelligent machinery, a heretical theory», una conferencia que Alan Turing impartió alrededor de 1951 —apenas tres años antes de morir— y que se publicó como artículo a título póstumo, acaba con el siguiente párrafo:

Supongamos ahora, a modo de argumento, que este tipo de máquinas son una posibilidad real y veamos las consecuencias de construirlas. Hacerlo, por supuesto, se encontraría con una gran oposición, a menos que hayamos avanzado mucho en la tolerancia religiosa desde los días de Galileo. Habría una gran oposición por parte de los intelectuales que temen quedarse sin trabajo. Sin embargo, es probable que estos intelectuales se equivoquen al respecto. Habría mucho por hacer para intentar, por ejemplo, mantener nuestra propia inteligencia a la altura de las normas establecidas para las máquinas, ya que parece probable que una vez el método de pensamiento de estas hubiera comenzado, no tardaría mucho en superar nuestras débiles capacidades. No existiría la posibilidad de que las máquinas murieran, y podrían conversar entre sí para agudizar su ingenio. Por lo tanto, en algún momento deberíamos esperar que asuman el control, tal como se menciona en Erewhom, de Samuel Butler.

ErewhonPrimera página del manuscrito de «Intelligent machinery, a heretical theory», de Alan Turing. Créditos: The Turing Digital Archive/King’s College

Leer este artículo en paralelo al «Libro de las máquinas» es como visitar el mismo mundo reflejado en un espejo: en uno de los lados, se encuentra la visión del científico, en el otro, la del humanista; en un lado, la de la ciencia, en el otro, la de la ficción. Lo que cabría preguntarse ahora es: ¿cuál de los dos es la realidad y cuál el reflejo? Tal vez, y como sugirió Butler, pase como con los seres humanos y la tecnología y, en el fondo, no pueda existir lo uno sin lo otro.

Por cierto… ¿a alguien le suena el concepto de Yihad «butleriana» que aparece en Dune? Bueno, pues ese nombre tampoco es casual.

Bibliografía

Butler, S. (2012 [1872]). Erewhon, o al otro lado de las montañas. Akal.

Turing, A. M. (c. 1951). Intelligent machinery, a heretical theory. The Turing Digital Archive.

Turing, S. (2012 [1859]). Alan M. Turing. Cambridge University Press.

.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo La novela que inspiró las máquinas pensantes de Alan Turing se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

ECHO, un cómic áureo

mer, 2025/03/05 - 11:59

Hace unos años documentándome sobre algunos cómics y novelas gráficas descubrí por casualidad la imagen de la superheroína protagonista de la serie de cómic ECHO (2008-2011), del dibujante y guionista de cómic estadounidense Terry Moore. En la imagen se veía una joven con una especie de traje metálico pegado a su cuerpo y en la parte superior del tórax el símbolo del número de oro, la letra griega Phi, como en la siguiente imagen.

Portada del número 19 del cómic ECHO, de Terry Moore, publicado por Abstract Studio en 2010, en la que podemos observar la letra Phi en el tórax superior de la mujer que aparece en la misma

Averigüé un poco más sobre este cómic y terminé comprándome los tres volúmenes (que contienen los 30 números de la serie) publicados en España por Norma Editorial, con la esperanza de que el número áureo tuviera cierta relevancia en la historia, puesto que el símbolo del número de oro era el que identificaba a esta superheroína.

ECHO, de Terry Moore

El autor de esta serie de cómic es el creador de cómics independiente estadounidense Terry Moore (1954), conocido por sus series: Strangers in Paradise (1993-2007), que ha recibido varios premios, como el prestigioso Premio Eisner en 1996, a la mejor serie por entregas y el Premio Reuben, de la National Cartoonists Society, al mejor cómic en 2003; Rachel Rising (2011-2016), que también ha recibido varios premios y nominaciones, el premio al mejor letrista en 2014 y al mejor dibujante en 2015, para su autor, categoría en la que fue nominado en los años 2013, 2014 y 2016, de los Premios Harvey, además, el cómic fue nominado a mejor serie nueva en 2012, y mejor serie continua en 2012 y 2013, así mismo fue nominada a los Premios Eisner, en las categorías de mejor serie continua, en 2012, mejor guionista/artista, en 2012 y 2014, y mejor dibujante, en 2014; o la serie Motor Girl (2016-2017).

Portadas de tres números de las tres series de cómics de Terry Moore Strangers in Paradise, Rachel Rising y Motor Girl

La serie de cómics ECHO, de Terry Moore, se publicó en el sello editorial Abstract Studio, sello creado en 1994 por el propio Terry Moore para publicar sus cómics, desde varios de los volúmenes de Strangers in Paradise, así como ECHO, Rachel Rising, Motor Girl o las más recientes Five Years (2019) y Parker Girls (2023).

ECHO ganó el Premio Harvey a la mejor serie nueva, en 2009, así como el Premio Shel Dorf al mejor cómic autopublicado del año, en 2011. Además, fue nominado en las categorías de mejor serie continua y mejor guionista/artista de los Premios Eisner de 2011.

Portadas de los tres volúmenes publicados en España por Norma Editorial de la serie de cómics ECHO de Terry Moore

Como hemos mencionado más arriba, esta serie se compone de 30 números, agrupados en seis volúmenes de 5 números cada uno, aunque en España Norma Editorial lo publicó en tres partes (cuyas portadas vemos en la anterior imagen).

Expliquemos de qué va el cómic. La protagonista es Julie Martin, una fotógrafa en un momento difícil de su vida: bancarrota, a punto de divorciarse y su hermana hospitalizada. Un día, mientras trabaja en una sesión de fotos en el desierto, un objeto extraño cae del cielo y se adhiere a su pecho. Este objeto resulta ser una armadura experimental con tecnología avanzada. Entonces su vida cambia por completo. La armadura, que tiene pegada a su cuerpo y no se puede quitar, le otorga habilidades especiales, pero también la convierte en el objetivo de quienes quieren recuperarla, el ejercito de los Estados Unidos y la Agencia Nacional de Seguridad. Además, un misterioso vagabundo que se cree la reencarnación de Dios quiere destruirla. Julie se ve envuelta en una peligrosa persecución, en la que contará con el apoyo de un guarda forestal, Dillon Murphy, mientras intenta descubrir los secretos de la armadura y proteger a sus seres queridos.

El proyecto PHI

En el número 17 del cómic ECHO, perteneciente al volumen 4, titulado Collider, se desvela el motivo por el cual el traje/armadura que Julie tiene pegado al cuerpo tiene la letra griega Phi.

El compañero de aventuras de Julie, Dillon Murphy, que resulta que era el novio de Annie Trotter, la matemática responsable de la creación del traje experimental y su anterior propietaria hasta que muere tras un accidente realizando unas pruebas y el traje acaba accidentalmente en el cuerpo de Julie, junto con otro de los personajes del cómic que ayuda a Julie y Dillon en su búsqueda de respuestas, el barman y motero Dan Backer, quedan para hablar con un científico (Dr. Dumfries) del Instituto Nuclear Heitzer que trabajaba con Annie, con el objetivo de obtener información sobre la armadura experimental y sobre lo que está ocurriendo.

Este científico les explica qué es el Proyecto Phi en el que estaban trabajando en el Instituto Nuclear Heitzer y que dio lugar a tan poderoso traje, un arma con poder suficiente para destruir la Tierra. Les cuenta que todo empezó cuando el instituto contrató a la joven Annie Trotter por su extraordinaria tesis doctoral, sobre la cual acabó cimentándose el Proyecto Phi. Según Annie el sistema de numeración decimal no era el más adecuado para la investigación de temas extremadamente complejos, como los que supuestamente se desarrollaban en el Instituto Nuclear Heitzer, puesto que es un sistema de numeración muy ligado al ser humano, creado a su imagen y semejanza, al basarse en que los humanos tenemos diez dedos en las manos, las cuales fueron nuestra primera calculadora.

Viñetas en las que se narra el momento en el que la matemática Annie Trotter empieza a trabajar en el Instituto Nuclear Heitzer y se empieza a explicar su teoría sobre los sistemas de numeración

En las dos últimas viñetas de la anterior imagen podemos leer lo siguiente:

Básicamente, lo que ella [Annie] decía era que las matemáticas de base 10 eran una aproximación cuyas inexactitudes culminaban en los callejones sin salida de las matemáticas más elaboradas.

Sí, parece una locura, ¿verdad? Pero pensadlo bien … las secuencias de base 10 se desarrollaron en la edad prehistórica. Quiero decir, ¡hemos intentado aplastar un quark con el hueso de Lebombo!

Según la teoría de Annie, “si quieres comprender los mecanismos del universo, debes dejar atrás los mecanismos de la humanidad. Incluyendo la base 10”. Y su solución fue utilizar el sistema de numeración en base Phi (el número áureo), un sistema que, según ella, era más universal que el decimal y más apropiado para las complejas investigaciones que estaban desarrollando en el instituto.

Pero ya volveremos sobre ello, primero veamos qué es eso del hueso de Lebombo y qué pinta en esta historia.

El hueso de Lebombo

El hueso de Lebombo es un trozo de peroné de un babuino, de unos 7,5 centímetros de largo, que se encontró en las montañas de Lebombo, en la frontera entre Suazilandia y Sudáfrica, con 29 muescas o marcas rectas utilizadas para contar, y que tendría entre 41.000 y 43.000 años (según la datación por radiocarbono). Es difícil tener la certeza del significado de esas 29 muescas, pero se cree que podrían representar la fase de la luna, que es de 29 días y 12 horas, luego podría haber sido una especie de calendario lunar, aunque también cabe la posibilidad de que fuese un registro del ciclo de menstruación de una mujer.

: Fotografía del hueso de Lebombo, con sus 29 muescas, desde tres perspectivas distintas

En el comic se utiliza el hueso de Lebombo para explicar que el sistema de numeración decimal es muy antiguo, que viene de la prehistoria, y que quizás habría que cambiarlo por un sistema de numeración más actual y moderno, que en el cómic va a ser el sistema de numeración en base el número áureo. Lo curioso es que el hueso de Lebombo está formado por una serie de muescas, en concreto 29 muescas, pero no es un ejemplo de sistema de numeración decimal, sino de los primeros registros numéricos que se han conservado (que podríamos decir que es un sistema de numeración básico en base uno, ya que simplemente se traza una muesca -con valor de uno- veintinueve veces).

Por otra parte, en la imagen del hombre prehistórico sujetando un hueso (en la viñeta comentada), este se parece más al hueso de Ishango, aunque el tamaño tampoco se corresponde, ya que el hueso de verdad este tiene unos 10 centímetros de largo. Es una pequeña licencia artística, lo mismo que utilizar el hueso de Lebombo para ilustrar que el sistema decimal es muy antiguo.

El hueso de Ishango es también un trozo de peroné de un babuino, que se encontró en el territorio que era el Congo Belga, en concreto, en Ishango, en la frontera entre Ruanda y la República Democrática del Congo, cerca del nacimiento del río Nilo. Este hueso también consta de una serie de muescas, pero agrupadas en varios grupos de diferentes cantidades de muescas.

Fotografía del hueso de IshangoPhi, el número áureo

En las siguientes dos páginas se explica la importancia y universalidad del número de oro, que justificaría la utilización de ese número como base de un sistema de numeración adecuado a la “investigación revolucionaria” que pretenden desarrollar en el Instituto Nuclear Heitzer.

A continuación, recordemos qué es el número de oro, del cual ya hemos hablado en el Cuaderno de Cultura Científica en algunas entradas como Visitad los museos, también en clave matemática, ¿Es áureo el Aston Martin de James Bond? ó Crímenes áureos.

La proporción áurea es un concepto matemático muy antiguo, que ya fue estudiado, al menos, por los griegos, en particular, por los pitagóricos. La definición de esta proporción aparece recogida en el gran texto matemático Los Elementos de Euclides (aprox. 325-265 a.c.). Y dice así:

Se dice que un segmento de recta está dividido en extrema y media razón cuando la longitud del segmento total es a la parte mayor, como la de esta parte mayor es a la menor.

Es decir, si tenemos un segmento como el que aparece en la siguiente imagen, buscamos el punto del mismo que divide al segmento en dos partes, de longitudes a y b, de forma que la proporción o razón (división) entre la parte mayor y la menor, a/b es igual a la proporción entre la longitud del segmento y la parte mayor (a + b)/a.

Ahora, si llamamos Phi (Φ) al cociente a/b, la condición anterior se puede escribir como la ecuación algebraica siguiente:

Esta es una ecuación algebraica de segundo grado, cuyas soluciones, sin más que utilizar la conocida fórmula de resolución de la ecuación de segundo grado que estudiamos en el instituto, son:

De estas dos raíces de la ecuación de segundo grado, la proporción buscada (Phi) es la primera, puesto que se corresponde con el caso en el que a es mayor que b, como se considera en la definición, mientras que la otra solución es su inversa ya que se corresponde con el caso en el que el numerador es más pequeño que el denominador, es decir, b/a, la inversa de Phi. Ahora, si tenemos en cuenta quienes son Phi (Φ) y su inversa en la expresión de la definición de esta razón se tiene la siguiente igualdad:

Al número Phi, cuyos primeros dígitos son

1, 61803398874989484820458683436563811772030917…,

se le conoce con varios nombres: “extrema y media razón” (como se le denomina en Los Elementos de Euclides), “divina proporción” (nombre que le dio el matemático italiano Luca Paccioli (aprox. 1447-1517) en su libro Divina proportione (1509)), “proporción áurea”, “sección áurea” (el matemático alemán Martin Ohm (1792-1872) fue el primero en utilizar el término “sección áurea o dorada” en la segunda edición de su libro de texto Die reine Elementar-Mathematik / Matemáticas puras elementales (1835)), “número áureo”, “número de oro” o “Phi” (el físico e inventor Mark Barr (1871-1950) fue quien introdujo el símbolo Phi (Φ) para referirse a este número, ya que era la primera letra griega del nombre del escultor, pintor y arquitecto griego Fidias (aprox. 500-431 a.n.e.), responsable de supervisar la reconstrucción de la Acrópolis de Atenas, en la que está el Partenón, y realizó algunas de las esculturas de este último, como la estatua de la diosa Atenea, quien según algunos autores utilizaba la extrema y media razón para el diseño de sus esculturas). Aunque en muchos textos se afirme que algunos de estos nombres son antiguos, esto no es así, como se ha comentado, salvo en el caso del nombre griego “extrema y media razón”.

El rectángulo áureo

A partir de la definición del número de oro como extrema y media razón de un segmento recto, es decir, como una proporción, surge de manera natural el concepto de rectángulo áureo. Se dice que un rectángulo es áureo si la proporción a/b entre su alto, a, y su ancho, b, es precisamente la divina proporción Phi = 1,618…

Rectángulo áureo

Es una creencia muy difundida que el rectángulo áureo es el más bello, o el más placentero estéticamente, entre todos los posibles rectángulos. Por citar uno de los muchísimos ejemplos que existen, en el libro Mathematical Concepts, A Historical Approach / Conceptos matemáticos, una aproximación histórica (1967), de la matemática estadounidense Margaret Willerding (1919-2003), se escribe lo siguiente.

El rectángulo áureo fue utilizado por los arquitectos griegos en las dimensiones de sus templos y otros edificios. Los psicólogos han demostrado que la mayoría de la gente elige inconscientemente tarjetas postales, fotos, espejos y paquetes con estas dimensiones. Por alguna razón, el rectángulo áureo es el que más atractivo artístico tiene.

Esta idea de que el rectángulo áureo es el que nos parece más hermoso viene del experimento realizado en la década de 1860 por el físico, filósofo y psicólogo alemán Gustav Fechner (1801-1887). El experimento era simple y consistió en lo siguiente. Fechner dispuso diez rectángulos de diferentes proporciones, desde el cuadrado (proporción 1) hasta el rectángulo 2:5 (proporción 2,5), pasando por los rectángulos 3:4 (proporción 1,33), 2:3 (proporción 1,5) o 5:8 (proporción 1,6), como se muestran en la siguiente imagen, y preguntó a diferentes personas cuál de ellos les parecía estéticamente más bonito. Tres de los rectángulos se llevaron el 75% de los votos, en concreto, los de proporciones 1,5 (el 20,6%), 1,6 (el 35%) y 1,77 (20%), mientras que los demás no llegaban al 8%, incluso el rectángulo 5:6 (proporción 1,2) prácticamente no fue elegido.

Los diez rectángulos del experimento de Gustav Fechner

A partir de ese momento, el rectángulo áureo y, en general, la divina proporción, se convirtieron en símbolo de belleza. Por ejemplo, en la The New Columbia Encyclopedia, en su entrada sobre la sección áurea se afirma que

El rectángulo áureo, cuya longitud y anchura son los segmentos de una línea dividida según la sección áurea, ocupa un lugar importante en la pintura, la escultura y la arquitectura, porque sus proporciones se han considerado durante mucho tiempo las más atractivas a la vista.

Aunque, muchos investigadores modernos han puesto en duda el experimento estadístico de Gustav Fechner, por el uso de tan solo 10 opciones y la disposición de los rectángulos, de forma ordenada, en orden creciente de sus proporciones. En este sentido, un artículo muy interesante que pone en duda algunas de las creencias sobre la sección áurea, entre ellas esta, según la cual, el rectángulo áureo es el rectángulo más agradable desde el punto de vista estético, es Misconceptions about the Golden Ratio / Confusiones sobre la proporción áurea, del matemático George Markowsky. En particular, afirma que tendrían que haberse considerado muchos más rectángulos y distribuidos de una forma aleatoria, por ejemplo, como en la siguiente imagen.

Reconstrucción de la colección de rectángulos utilizados por el matemático George Markowsky

En las últimas décadas se han realizado muchos intentos de reproducir el experimento de Fechner, de manera más rigurosa, por diferentes investigadores, entre ellos psicólogos y matemáticos, algunos con la idea de avalar el trabajo de Fechner, otros para tirarlo por tierra y algunos para ver cuál puede ser la realidad, obteniéndose todo tipo de respuestas. Esto merecería un análisis más profundo, que no voy a realizar en esta entrada. De hecho, hay varias cuestiones interesantes relacionadas, como la metodología del experimento (claramente la de Fechner no fue la adecuada), si la pregunta directa de cuál de los rectángulos es más hermoso no induce a reflexionar sobre ella y a dar una respuesta más racional, y finalmente si el hecho de que durante mucho tiempo se haya dado por bueno que el rectángulo áureo es el más hermoso no condiciona en la actualidad las respuestas. Para leer un poco más sobre el tema podéis consultar el libro de Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, o realizar vuestra propia investigación sobre los estudios realizados.

Dejando aparte estas cuestiones, veamos cómo construir un rectángulo áureo de forma sencilla. Dado un cuadrado (en la imagen el cuadrado ABCD), que podemos considerar de lado 1, es fácil ver, por el teorema de Pitágoras, que el segmento que va desde el punto M que está en la mitad de uno de los lados (el de abajo, AB, en la imagen) a uno de los vértices del lado opuesto (el de arriba a la derecha, C, en la imagen) tiene longitud igual a raíz cuadrada de 5 dividido 2 (√5/2). Si ahora trazamos el arco de circunferencia centrado en M y de radio esa longitud, es decir, que pasa por el punto C, y llamamos E al punto de intersección de la circunferencia con la recta que extiende el segmento AB, entonces el rectángulo creado AEFD es un rectángulo áureo, puesto que el largo es Phi [1/2 + √5/2 = (1 + √5)/2] y el ancho es 1, luego tiene proporción áurea.

Construcción de un rectángulo áureo con un compás a partir de un cuadrado

Una de las particularidades de esta construcción es que el pequeño rectángulo BEFC añadido al cuadrado ABCD para formar el rectángulo áureo AEFD, también es un rectángulo áureo. Por lo tanto, ese rectángulo áureo BEFC también puede descomponerse en un cuadrado y un pequeño rectángulo áureo, como se muestra en la siguiente imagen. A ese más pequeño rectángulo, que también es áureo, le podríamos descomponer, una vez más, en cuadrado y pequeño rectángulo áureo, y así hasta el infinito.

Un universo Phi

Volvamos al cómic ECHO para ver cómo aparece el número Phi. Como comentábamos más arriba, Phi es el nombre del proyecto que ha dado lugar a ese traje experimental con tecnología muy avanzada. El motivo del nombre, Proyecto Phi, era que la matemática Annie Trotter se había dado cuenta de que la clave para avanzar en una investigación tan compleja era desechar el sistema de numeración decimal, que es un sistema de numeración muy humano (“si quieres comprender los mecanismos del universo, debes dejar atrás los mecanismos de la humanidad. Incluyendo la base 10”), por un sistema más universal, el sistema de numeración en base Phi (que explicaré en mi siguiente entrada del Cuaderno de Cultura Científica).

Nos habíamos quedado en el punto del cómic en el que se explica la importancia y universalidad del número de oro. En este punto se produce el siguiente diálogo.

[Dr. Dumfries]: Annie recalculó las teorías más importantes usando la base Phi y cambió todo lo que pensábamos que sabíamos de la Física. ¡Tachán!

[Dan Backer]: Phi. ¿1,618, Phi?

[Dr. Dumfries]: ¡Sí! ¡Exactamente!

[Dillon Murphy]: ¿Cómo es que conoces Phi?

[Dan Backer]: Me gusta el Arte.

[Dillon Murphy]: Estoy perdido.

[Dr. Dumfries]: Es muy simple. El Phi lleva por aquí desde el imperio babilonio, por lo menos. Los griegos a los que te referías Dillon… en tiempos antiguos, definieron Phi como el extremo de una línea, y significa proporción.

[Griego 1]: Es un número irracional.

[Griego 2]: Pero es la solución a tu ecuación cuadrática.

Y entonces nos encontramos con las siguientes viñetas.

En la segunda viñeta de la imagen se dice “cuando el ser humano se dio cuenta de este fenómeno, empezó a verlo por todas partes” y mediante dibujos se indica que la divina proporción se encuentra en la Naturaleza, tanto en las plantas en relación con los números de Fibonacci (es cierto que en la Filotaxis, una parte de la Botánica, los números de Fibonacci y el ángulo áureo juegan un papel fundamental, como se puede ver, por ejemplo, en la conferencia El teorema de la Rosa), como en las medidas de los animales o las personas, y además se utiliza en la Música, el Arte, la Arquitectura o el Diseño. Sobre todo esto no hablaremos hoy, aunque pueden leerse las entradas del Cuaderno de Cultura Científica anteriormente citadas o las referencias de la bibliografía.

La estructura del cómic

En la siguiente entrada del Cuaderno de Cultura Científica hablaremos del sistema de numeración en base Phi que se ha mencionado y que era tan importante, en la ficción, para la matemática Annie Trotter y su investigación.

Para terminar esta entrada mostraremos que no solo aparece el número áureo en el contenido del cómic ECHO, sino también en su estructura. Para empezar, cada página del cómic está formada por un rectángulo de viñetas, como es habitual en la mayoría de los cómics, pero en este caso este rectángulo es áureo, como puede verse en la siguiente imagen (en la que hemos tomado el dibujo original de una de las páginas del cómic que Terry Moore tiene colgadas en el blog de la editorial Abstract Studio).

Página original del cómic ECHO, de Terry Moore, sobre la que se ha pintado, en rojo, un rectángulo áureo que coincide con el rectángulo de la página de viñetas

Si nos fijamos bien en el dibujo original, hay diferentes líneas que marcan la estructura del dibujo, una de ellas es la que se corresponde con la descomposición del rectángulo áureo en un cuadrado y un pequeño rectángulo áureo (que a su vez se puede descomponer), que en este caso determina la estructura del dibujo, como se ve en la siguiente imagen.

Página original del cómic ECHO, de Terry Moore, sobre la que se ha pintado, en rojo, un rectángulo áureo que coincide con el rectángulo de la página de viñetas, pero a la vez la descomposición en cuadrado y pequeño rectángulo áureo, y este de nuevo descompuesto

Pero incluso los diseños de algunas de las viñetas están marcados por el rectángulo áureo y sus descomposiciones. Veamos algunos ejemplos.

 

Bibliografía

1.- Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, Ariel, 2006.

2.- George Markowsky, Misconceptions about the Golden Ratio, The College Mathematical Journal 23, n. 1, 1992.

 

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo ECHO, un cómic áureo se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Un nuevo estado magnético, el vortión, que imita las sinapsis neuronales

mar, 2025/03/04 - 11:59

Investigadores de la Universitat Autònoma de Barcelona (UAB) han desarrollado experimentalmente un nuevo estado magnético: el vortión o vórtice magnetoiónico. La investigación permite un nivel de control sin precedentes de las propiedades magnéticas a escala nanométrica y a temperatura ambiente, y abre nuevos horizontes para el desarrollo de dispositivos magnéticos avanzados.

La utilización de grandes cantidades de datos (Big Data) ha multiplicado la demanda energética en las tecnologías de la información. En general, para almacenar la información se utilizan corrientes eléctricas que calientan los dispositivos y disipan energía. Controlar las memorias magnéticas con voltaje, en lugar de corrientes eléctricas, puede minimizar este gasto. Una estrategia para hacerlo podría ser el uso de los materiales magnetoiónicos, que permiten manipulación de sus propiedades magnéticas añadiendo o extrayendo iones mediante cambios en el voltaje aplicado. Sin embargo, hasta ahora, la mayor parte de los estudios en este ámbito se han centrado en capas continuas, no en el control de las propiedades en bits de dimensiones nanométricas, necesarios para almacenar datos con densidad elevada. Por otro lado, es conocido que en la escala sub-micrométrica aparecen fenómenos magnéticos nuevos, que no existen en la escala macroscópica, como los vórtices magnéticos (que recuerdan pequeños remolinos magnéticos), los cuales tienen aplicaciones en el modo como se graban y leen los datos magnéticos actualmente, así como en biomedicina. Modificar el estado vórtice en muestras ya preparadas suele ser imposible o requiere grandes cantidades de energía.

Investigadores del Departamento de Física de la UAB, con la colaboración de científicos del ICMAB-CSIC, del Sincrotrón ALBA y de centros de investigación de Italia y de los Estados Unidos, proponen una nueva solución que combina la magnetoiónica y los vórtices magnéticos. Los investigadores han desarrollado experimentalmente un nuevo estado magnético que han denominado vórtice magnetoiónico, o vortión. El nuevo objeto permite controlar «a la carta» las propiedades magnéticas de un nanopunto (un punto de dimensiones nanométricas) con gran precisión. Esto se logra extrayendo iones de nitrógeno mediante la aplicación de voltaje, lo que permite un control eficiente con un consumo de energía muy bajo.

«Se trata de un objeto hasta ahora inexplorado en la nanoescala», explica el investigador ICREA del Departamento de Física de la UAB Jordi Sort, director de la investigación. «Existe una gran demanda para controlar los estados magnéticos a escala nanométrica pero, sorprendentemente, la mayor parte de la investigación en magnetoiónica se ha enfocado hasta ahora en el estudio de películas de materiales continuos. Si nos fijamos en los efectos del desplazamiento de iones en estructuras discretas de dimensiones nanométricas, los llamados nanopuntos que hemos analizado, vemos que aparecen configuraciones de espín muy interesantes que evolucionan dinámicamente y que son exclusivas de este tipo de estructuras». Estas configuraciones de espín y las propiedades magnéticas de los vortiones varían en función de la duración del voltaje aplicado. De este modo, a partir de nanopuntos de un material inicialmente no magnético se pueden generar diferentes estados magnéticos (por ejemplo, vortiones con diferentes propiedades o estados con la orientación magnética uniforme) mediante la extracción gradual de iones aplicando un voltaje.

«Con los vortiones que hemos desarrollado podemos tener un control sin precedentes de propiedades magnéticas como la magnetización, la coercitividad, la remanencia, los campos críticos de formación y aniquilación del vortión, o la anisotropía. Son propiedades fundamentales para el almacenamiento de información en memorias magnéticas, y ahora hemos logrado controlarlas y ajustarlas de manera analógica y reversible mediante un proceso de activación por voltaje, con un consumo de energía muy bajo», explica Irena Spasojević, investigadora postdoctoral en el Departamento de Física de la UAB y primera firmante del trabajo.

«El procedimiento de actuación por voltaje en lugar de corriente eléctrica evita el calentamiento en dispositivos como ordenadores portátiles, servidores o centros de datos, reduciendo drásticamente la pérdida de energía».
Los investigadores han demostrado que con un control preciso del grosor de la capa magnética generada con voltaje, el estado magnético del material se puede variar a voluntad, de manera controlada y reversible, entre un estado no magnético, un estado con una orientación magnética uniforme (como el que presenta un imán), o el nuevo estado vórtice magnetoiónico.

Imitar el comportamiento de las sinapsis neuronales

Este nivel de control sin precedentes de las propiedades magnéticas a escala nanométrica y a temperatura ambiente abre nuevos horizontes para el desarrollo de dispositivos magnéticos avanzados con funcionalidades que pueden adaptarse una vez el material ha sido sintetizado. Esto proporciona una mayor flexibilidad que es necesaria para satisfacer demandas tecnológicas específicas. «Prevemos, por ejemplo, la integración de vórtices magnetoiónicos reconfigurables en redes neuronales como sinapsis dinámicas, capaces de imitar el comportamiento de las sinapsis biológicas», avanza Jordi Sort. En el cerebro, las conexiones entre las neuronas, las sinapsis, presentan diferentes pesos (intensidades) que se van adaptando de manera dinámica según la actividad y aprendizaje. Del mismo modo, los vortiones podrían ofrecer enlaces neuronales con pesos sinápticos sintonizables, reflejados en valores de magnetización o de anisotropía reconfigurables, para dispositivos espintrónicos neuromórficos (inspirados en el cerebro). De hecho, «la actividad de las neuronas y sinapsis biológicas también está controlada por señales eléctricas y migración de iones, de manera análoga a nuestras unidades magnetoiónicas», comenta Irena Spasojević.

Los investigadores consideran que, además de su impacto en dispositivos inspirados en el cerebro, en computación analógica o en memorias multi-nivel, los vortiones podrían tener otras aplicaciones como, por ejemplo, en técnicas de terapia médica (teragnosis), seguridad de datos (ciberseguridad), o en dispositivos de computación mediante espín magnético (espín-lógica) o para la generación de ondas de espín (magnónica).

Referencia:

Spasojevic, I., Ma, Z., Barrera, A. et al. (2025) Magneto-ionic vortices: voltage-reconfigurable swirling-spin analog-memory nanomagnets. Nat. Commun. doi: 10.1038/s41467-025-57321-8

 

Edición realizada por César Tomé López a partir de materiales suministrados por la Universitat Autònoma de Barcelona.

El artículo Un nuevo estado magnético, el vortión, que imita las sinapsis neuronales se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Ryugu, un asteroide “mu salao”

lun, 2025/03/03 - 11:59

La búsqueda de agua líquida -existente tanto en el presente como en el pasado de nuestro sistema solar- es una de las prioridades de la astrobiología y, desde hace algunas décadas, las misiones espaciales han intentado buscar el rastro del agua no solo en Marte, sino también en la Luna o incluso en los asteroides y cometas.

¿Por qué? Pues porque la vida tal y como la conocemos -de momento no conocemos otra vida que la terrestre- necesita de agua líquida para poder florecer y sobrevivir y, siguiendo su pista, igual podemos encontrar lugares que fueron habitables antaño, incluso en sitios que hoy son realmente extremos, pero que podrían haber preservado biomarcadores -los distintos productos de la actividad vital de los organismos- que detectables en el futuro con misiones de retorno de muestras o con instrumentos más avanzados in situ.

En diciembre de 2014 despegó la misión Hayabusa 2 en dirección al asteroide Ryugu con el objetivo de no solo estudiarlo desde su órbita, sino también de traer muestras a la Tierra, hecho que logró en diciembre de 2020 al regresar un total de 5.4 gramos del asteroide que comenzaron a estudiarse poco tiempo después.

Este “pequeño” asteroide de unos 900 metros de diámetro no es un cuerpo monolítico, sino que es de los que conocemos como pila de escombros o “rubble pile” por su nombre en inglés. Estos son, en términos sencillos, un montón de fragmentos de roca que viajan juntos por el espacio por efecto de la gravedad. A mí me gusta imaginármelos como un montón de grava -eso sí, de muy distintos tamaños- de la que podemos comprar en una tienda de materiales de construcción cualquiera. Muy probablemente estos asteroides se hayan formado a partir de un cuerpo más grande que fue destruido hace mucho tiempo.

Ryugu fotografiado desde una distancia de 20 kilómetros. Resulta curioso que algunos de los asteroides de tamaño “pequeño” que hemos visitado con sondas espaciales -y que no son objetos monolíticos- tienen una particular forma de diamante, con una cintura ecuatorial muy marcada. Cortesía de JAXA, University of Tokyo, Kochi University, Rikkyo University, Nagoya University, Chiba Institute of Technology, Meiji University, University of Aizu and AIST.

Una de las cosas que hacen especial a Ryugu es que es un asteroide de tipo C, muy interesantes por ser cuerpos realmente primitivos y que pueden albergar materiales que hayan sufrido muy pocos cambios desde la formación del Sistema Solar. Concretamente tiene mucha afinidad con un grupo de meteoritos denominado CI, un tipo de meteoritos cuya composición, similar a la medida en la fotosfera solar, se considera la químicamente más primitiva de todos los meteoritos que existen.

Y, ¿De dónde procedería este asteroide? Los científicos piensan que el cuerpo a partir del cual se formó nació más allá de la “línea del hielo” del agua y del dióxido de carbono poco tiempo después de la formación de nuestro sistema solar. Para quien nunca haya escuchado este término, la línea “de hielo”, “de congelación” o incluso “de la nieve” es la distancia mínima desde una estrella -en este caso nuestro Sol- donde la temperatura es lo suficientemente baja para que los compuestos volátiles se condensen formando granos sólidos que les permitan unirse para dar lugar a planetesimales, los embriones de la formación planetaria.

Las muestras de Ryugu que nos ha traído la sonda Hayabusa 2 han sido una verdadera caja de sorpresas. En un estudio publicado en Nature Astronomy por Matsumoto et al. (2024), los científicos han encontrado pequeñas venas minerales y zonas compuestas por carbonatos de sodio, por cloruros e incluso por sulfatos en los granos de muestra del asteroide.

Estas sales, además, estaban asociadas a los filosilicatos, minerales hidratados que son una prueba de la alteración de otros minerales por parte del agua. Al principio, los científicos dudaron si estas partes ricas en sodio en realidad procedían de nuestro planeta a causa de una posible contaminación de las muestras, pero descartaron esta hipótesis por cómo están distribuidas y por la forma que tienen en los distintos granos de material que se han analizado.

El descubrimiento de estas sales de sodio es algo más importante que añadir un mineral más o menos a la lista. La presencia de carbonatos, cloruros y sulfatos de sodio sugieren que un agua alcalina y rica en sales fluyó por el interior del cuerpo que dio lugar a Ryugu.

Imagen tomada poco después del “aterrizaje” de la Hayabusa 2 sobre el asteroide Ryugu realizado para tomar muestras. Se puede ver perfectamente como parte de la materia rebota en dirección a la sonda, cuya sombra es muy marcada y en la que se distingue perfectamente el cuerpo de la propia sonda y los paneles solares. Cortesía de JAXA, University of Tokyo, Kochi University, Rikkyo University, Nagoya University, Chiba Institute of Technology, Meiji University, University of Aizu, AIST.)

Pero, ¿Cómo pudo convertirse ese cuerpo original en algo tan “salado”? Y por favor, entiendan la pregunta anterior como algo más evocativo que literal. El agua que recorría el cuerpo original alterando los minerales que encontraba a su paso probablemente era muy salada, quizás incluso podía ser una salmuera, que con el paso del tiempo iba ganando salinidad por la evaporación o la congelación del agua tras las últimas etapas de alteración acuosa que sufriría ese cuerpo.

Imaginemos unas salinas en nuestro planeta, los lugares donde se fabrica la sal que consumimos a diario en nuestra mesa. Normalmente son grandes extensiones de agua poco profunda donde se deja que lentamente el agua se evapore, permitiendo que se vaya concentrando en el agua y posteriormente precipitando. Un proceso similar podría haber ocurrido en el espacio por la evaporación o congelación del agua. En este último caso, la pérdida de calor y posterior congelación podría representar el momento en el que el calor interno -probablemente de origen radiogénico- del cuerpo dejó de ser suficiente para mantener el agua en estado líquido.

Hay un detalle más: como hemos dicho antes, el agua también era probablemente alcalina, con un pH alto, similar a algunos lagos de nuestro planeta. Y esta alcalinidad es consistente con los modelos de alteración acuosa que ya se habían postulado para este tipo de cuerpos.

Estos descubrimientos, incluso en un asteroide, tienen consecuencias de cara a la posible habitabilidad de estos. Sí, ya se que un asteroide puede ser un lugar realmente inhóspito para nuestros estándares sobre las condiciones adecuadas para la vida, pero quizás algunos no lo fueron tanto durante la infancia de nuestro sistema solar.

Es cierto que la composición de las aguas que circularon por el cuerpo original del que proceden los fragmentos de Ryugu era probablemente muy salina y alcalina, pero eso no es en ningún caso una barrera para la vida. Hay organismos extremófilos en nuestro planeta que viven en condiciones similares.

Imagen de detalle de la superficie de Ryugu tomada por la sonda Hayabusa 2. Se aprecia perfectamente como está formado por multitud de bloques de distinto tamaño y partículas mucho más finas que cubren todos los huecos entre los bloques. Imagen cortesía de AXA, University of Tokyo, Kochi University, Rikkyo University, Nagoya University, Chiba Institute of Technology, Meiji University, University of Aizu, AIST.

También pone de manifiesto que el agua salada, o muy salada, podría ser muy abundante en el Sistema Solar y, de hecho, pensamos que muchos de los océanos subterráneos que sospechamos que existen en los satélites de los gigantes gaseosos, tienen como ingrediente clave las sales, lo que les permite un mayor tiempo de vida de estos océanos -a nivel geológico- que si fueran de agua dulce, ya que las sales actúan como un poderoso anticongelante.

Todavía nos queda mucho por conocer de nuestro sistema solar e incluso ya empezamos a vislumbrar como cuerpos que antaño no parecían más que los ladrillos de la formación planetaria, casi anodinos, podrían haber reunido ciertas condiciones para ser cuerpos habitables, aunque fuese durante periodos relativamente cortos en comparación con cuerpos de tamaño planetario. ¿Qué sorpresas nos traerán las próximas misiones de retorno de muestras? No lo sabemos, pero seguro que seguirán dándonos muchas alegrías y nuevos descubrimientos.

Referencias:

Matsumoto, T., Noguchi, T., Miyake, A. et al. Sodium carbonates on Ryugu as evidence of highly saline water in the outer Solar System. Nat Astron 8, 1536–1543 (2024). doi: 10.1038/s41550-024-02418-1

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Ryugu, un asteroide “mu salao” se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Es lo mismo ser inteligente que tener altas capacidades?

dim, 2025/03/02 - 11:59
altas capacidadesFoto: Jorge Alejandro Rodríguez Aldana / Unsplash

Que pensamos con la cabeza puede parecer una obviedad, pero no siempre estuvo claro. Fue en los siglos IV y III a. e. c. cuando en Grecia Herófilo diseccionó científicamente a humanos; que sepamos, fue la primera persona en hacerlo y en señalar que la cabeza es la sede de la inteligencia (Aristóteles, por su parte, proponía que el cerebro servía para enfriar la sangre). Hubo que esperar mucho más hasta que comenzara a hacerse un registro sistemático de tareas consideradas “inteligentes”. Ocurrió a finales del siglo XIX gracias al británico Francis Galton, pero usó los resultados de estas mediciones para justificar sesgadamente teorías innatistas y eugenésicas.

Desde entonces, las propuestas ofrecidas para explicar qué significa ser inteligente pueden agruparse en dos tipos:

  1. Los modelos factoriales, que utilizan las matemáticas (análisis factoriales) para buscar puntos en común (factores) entre variables (puntuaciones en los test).
  2. Los modelos no factoriales, que no usan test, sino que parten de observaciones y comparaciones entre casos.

Debido a que las altas capacidades se relacionan con las puntuaciones en los test de inteligencia, podría pensarse que se ciñen exclusivamente al cociente intelectual, pero no es así. O, al menos, no debería. La idiosincrasia humana es más compleja que un simple número. Por consiguiente, para desentrañar este corpus, como hizo Herófilo, vamos por partes.

¿Sabemos medir la inteligencia?

En Francia nació la que está considerada como la primera prueba de inteligencia: el test de Binet-Simon (1905). Se creó para detectar deficiencias cognitivas en niños y niñas en edad escolar e implementar una educación especial (aquí apareció por primera vez el cociente intelectual). Al diseñar el test, su autor principal insistió en señalar que no servía para medir fielmente la inteligencia, sino que solo desarrolló una herramienta para resolver una necesidad específica en un contexto determinado.

Sin embargo, esta nueva corriente basada en medir inteligencia con tareas exclusivamente académicas (excluyendo creatividad, música, habilidades sociales, emocionales…) fue aumentando y han ido surgiendo otras pruebas. Las más conocidas son las escalas Weschler (WAIS-IV, WISC-V y WPPSI-IV). Otra menos conocida es la batería de actividades mentales diferenciales y generales.

altas capacidadesLas puntuaciones en los test estandarizados de inteligencia están diseñadas para que la media sea de 100 y la desviación típica de 15. Por ello, el rango de generalidad estadística, donde se sitúa casi el 70% de la población, se encuentra entre 85 y 115. Una puntuación superior a 115 se considera por encima de la media y se empezaría a valorar la presencia de altas capacidades. Fuente: Elaboración propia.

Estas y otras pruebas conceden mayor importancia a establecer rankings de cociente intelectual que a explicar la estructura de algo llamado inteligencia.

¿Qué es el factor ‘g’?

Con los resultados en estos tipos de test, los análisis factoriales han demostrado que las habilidades cognitivas están influidas por una capacidad común llamada factor “g” (general). Pero el factor “g” no se considera sinónimo de inteligencia. Además, el cociente intelectual es un número que se obtiene como resultado de aplicar la inteligencia, y tampoco sirve para definirla.

El principal autor que defiende un modelo no factorial, Howard Gardner (que acuñó el concepto de “inteligencias múltiples”), no niega la utilidad del análisis factorial para agrupar variables y formar categorías abstractas (como “g”). Pero sí pone objeciones a que la concepción de lo que llamamos inteligencia se vea reducida a un filtro estadístico.

También Robert Sternberg, autor de la teoría triárquica (analítica, práctica y creativa), critica que la inteligencia se limite exclusivamente a la habilidad para responder a problemas académicos.

Parece, pues, que no existe consenso sobre cómo “desmembrar” la inteligencia. Incluso ha llegado a cuestionarse si existe algo a lo que llamar así. A pesar de ello, los test de cociente intelectual son la principal herramienta para comenzar a examinar las altas capacidades.

¿Qué son las altas capacidades?

El concepto altas capacidades se utiliza a modo de paraguas para englobar a aquellas personas que destacan por encima de la media en test de cociente intelectual y que, además, muestran otras particularidades. Bajo este paraguas se incluyen los siguientes términos:

altas capacidadesSegún el modelo de Enriquecimiento Triádico o de los Tres Anillos de Renzulli (1978, 2011), existe un perfil multidimensional asociado a la superdotación (marcado con el asterisco), lo que provoca que su manifestación no sea homogénea al ser producto de factores neurobiológicos, motivacionales y ambientales en continua interacción. Elaboración propia a partir de Renzulli (2011).
  • Superdotación: se diagnostica al obtener una puntuación de cociente intelectual superior a 130 (percentil 98). Sin embargo, Joseph Renzulli (apoyado por Lewis Terman) critica sólidamente esta separación “a bisturí” y propone el modelo de enriquecimiento triádico. Según este modelo, la superdotación debería identificarse valorando la interacción entre tres elementos: un cociente intelectual superior a la media, alto compromiso con la tarea y alta creatividad. Renzulli argumenta que las personas más creativas y productivas se encuentran por debajo del percentil 95 (cociente intelectual de 125), y con un punto de corte tan alto se deja fuera a quienes tienen el mayor potencial para alcanzar altos niveles de logro.
  • Talento: capacidad de dominar excepcionalmente una o varias competencias, cuya adquisición puede explicarse con el modelo integral de desarrollo del talento de Françoys Gagné. Se ha propuesto diagnosticar un talento con puntuaciones superiores a 125 en áreas específicas de una prueba citada previamente, la batería de actividades mentales diferenciales y generales, resultando en talento lógico, verbal, numérico o visoespacial.Además, como los test de cociente intelectual excluyen la creatividad, se ha propuesto usar el test de Torrance de pensamiento creativo para valorar este talento. Una combinación de estos cinco talentos resultaría en talentos múltiples, complejos o conglomerados.
  • Prodigio: se consideran niñas o niños prodigio a quienes han sido capaces de producir trabajos admirables comparándolos con los de una persona adulta –aunque a menudo limitado a una única área (música, matemáticas…)– y sin haber cumplido los 10 años. Suelen tener un cociente intelectual destacable, aunque no extraordinario.
  • Genio/a: persona que se encuentra en el extremo más alto de las altas capacidades (con un cociente intelectual mayor de 145) y ha realizado alguna contribución muy notable en un área determinada.

Conviene citar la precocidad, un término evolutivo referido a manifestar habilidades antes de lo característico para la edad cronológica habitual (especialmente, lenguaje fluido). Y la eminencia, referida a quien ha añadido a la sociedad grandes aportaciones, pero como fruto de la oportunidad o la suerte, sin que los factores intelectuales han sido determinantes.

¿Hay inteligencia más allá del cociente intelectual?

Un estudio reciente que ha aplicado análisis factorial a test que valoran las llamadas “inteligencias centradas en las personas” (social, emocional y personal) ha revelado que también dependen del factor “g”. Y éstas no se exploran en los test de inteligencia tradicionales, es decir, que no participan en el cociente intelectual. Esos resultados tienen importantes consecuencias, ya que demuestran lo que numerosas teorías han estado criticando: que la inteligencia no puede limitarse al cociente intelectual actual.

Como crítica añadida a los test de cociente intelectual, la música no está considerada psicométricamente como un talento. Y la creatividad, como componente a valorar durante el diagnóstico de las altas capacidades, tampoco es registrada por este tipo de test, como ya se ha mencionado. Los estudios empíricos de la creatividad han mostrado solo una ligera correlación con el cociente intelectual. Esto implica que el cociente intelectual es una condición necesaria a valorar, pero ciertamente no es suficiente.

En definitiva, la inteligencia y las altas capacidades no son lo mismo. Ser inteligente se asocia a velocidad de procesamiento, memoria, fluidez verbal… es decir, a las tareas que rastrean los test de “inteligencia”, que resultan deficientes para detectar todas las capacidades humanas. Y tener altas capacidades significa poseer un cociente intelectual superior como requisito imprescindible, pero se requieren otros elementos, como motivación, creatividad o haber producido trabajos prodigiosos y geniales.

Y así, tras “abrir en canal” a estos conceptos, coincidimos con Herófilo en que los análisis profundos son más reveladores que las observaciones de corte superficial.The Conversation

Sobre el autor: Jorge Romero-Castillo, Profesor de Psicobiología e investigador en Neurociencia Cognitiva, Universidad de Málaga

Este artículo fue publicado originalmente en The Conversation. Lea el original.

El artículo ¿Es lo mismo ser inteligente que tener altas capacidades? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Y si viajáramos a Saturno?

sam, 2025/03/01 - 11:59

Una guía turística para visitar Saturno y alrededores.

Los vídeos ‘¿Y sí…?´ se plantean cuestiones ficticias pero que nos permiten aprender mucho sobre el mundo en el que vivimos. Se han emitido en el programa de divulgación científica de Televisión Española Órbita Laika, y producido en colaboración con la Cátedra de Cultura Científica de la Universidad del País Vasco.

Ficha técnica: Idea: José Antonio Pérez Ledo

Producción ejecutiva: Blanca Baena

Dirección: Aitor Gutierrez

Guion: Manuel Martinez March

Grafismo: Cristina Serrano

Música: Israel Santamaría

Producción: Olatz Vitorica

Locución: José Antonio Pérez Ledo

El artículo ¿Y si viajáramos a Saturno? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El origen genético de la familia de lenguas indoeuropeas

ven, 2025/02/28 - 11:59

Un estudio, en el que ha participado Iñigo Olalde, investigador Ramón y Cajal e Ikerbasque Research Fellow en el grupo BIOMICs de la Universidad del País Vasco, ha analizado el ADN antiguo de 435 individuos de sitios arqueológicos en toda Eurasia entre 6.400 y 2.000 a. C. Este trabajo proporciona nuevos datos que nos acercan a la respuesta a una pregunta de 200 años de antigüedad: ¿Dónde se encuentra el origen de la familia de lenguas indoeuropeas? Según se demuestra en la investigación, una población del Cáucaso y el Bajo Volga, recientemente reconocida, puede conectarse con todas las poblaciones de habla indoeuropea.

Las lenguas indoeuropeas, que suman más de 400 e incluyen grupos importantes como el germánico, el romance, el eslavo, el indoiraní y el celta, son habladas por casi la mitad de la población mundial actual. Originadas de la lengua protoindoeuropea, los historiadores y lingüistas han estado investigando sus orígenes y difusión desde el siglo XIX, ya que todavía existe una brecha de conocimiento en ese campo.

indoeuropeasTumba de la cultura Yamnaya. Fuente: Wikimedia Commons

Estudios genéticos anteriores habían demostrado que la cultura Yamnaya (3.300-2.600 a. C.), de las estepas póntico-caspias al norte de los mares Negro y Caspio, se expandió tanto a Europa como a Asia central a partir de aproximadamente 3.100 a. C., lo que explica la aparición de ‘ascendencia esteparia’ en las poblaciones humanas en toda Eurasia entre 3.100 y 1.500 a. C. Esas migraciones desde las estepas tuvieron el mayor efecto sobre los genomas humanos europeos que cualquier otro evento demográfico en los últimos 5.000 años y son ampliamente consideradas como el probable vector de la difusión de las lenguas indoeuropeas.

La única rama de las lenguas indoeuropeas que no había mostrado ninguna ascendencia esteparia anteriormente era la anatolia, incluido el hitita, probablemente la rama más antigua en separarse, preservando de manera única arcaísmos lingüísticos que se perdieron en todas las demás ramas de dichas lenguas. Estudios anteriores no habían encontrado ascendencia esteparia entre los hititas porque, según sostiene el nuevo artículo, las lenguas anatolias descendían de una lengua hablada por un grupo que no había sido descrito adecuadamente, una población eneolítica fechada entre 4.500 y 3.500 a. C. en las estepas entre las montañas del Cáucaso Norte y el bajo Volga. Cuando se utiliza como fuente la genética de esa población del Cáucaso-Bajo Volga recientemente reconocida, al menos cinco individuos en Anatolia fechados antes o durante la era hitita muestran ascendencia con esa zona.

El nuevo estudio muestra que la población Yamnaya obtuvo aproximadamente el 80 % de su ascendencia del grupo Cáucaso-Bajo Volga, que también proporcionó al menos una décima parte de la ascendencia de los habitantes de Anatolia central de la Edad del Bronce, hablantes de hitita. Por lo tanto, el grupo Cáucaso-Bajo Volga puede conectarse con todas las poblaciones de habla indoanatolia y es el mejor candidato como origen de la población que hablaba indoanatolia, el antepasado tanto del hitita como de todas las lenguas indoeuropeas posteriores, en el Cáucaso Norte y la región del Bajo Volga entre 4.400 a. C. y 4.000 a. C.

Referencia:

Lazaridis, I., Patterson, N., Anthony, D. et al. (2025) The genetic origin of the Indo-Europeans. Nature doi:  10.1038/s41586-024-08531-5

 

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El origen genético de la familia de lenguas indoeuropeas se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Teatro y Geología, un buen tándem para visibilizar pioneras

jeu, 2025/02/27 - 11:59

Febrero es el mes en el que todas las científicas intentamos visibilizar nuestro trabajo dentro de la celebración del «11F, Día Internacional de la Mujer y la Niña en la Ciencia» buscando cumplir con el mismo objetivo: generar vocaciones entre las niñas y las chicas más jóvenes para que se planteen su futuro como científicas, normalizando la presencia femenina en carreras históricamente tan masculinizadas como la Geología.

La manera más generalizada para conseguir este objetivo es que las científicas visitemos los centros educativos para realizar charlas, conferencias y presentaciones ante el alumnado contando los problemas a los que se enfrentaron las pioneras de nuestras disciplinas, comparando sus vicisitudes con las barreras que tuvimos, y aún tenemos, que superar nosotras en nuestra carrera.

Esta fórmula, eficaz gracias a la cercanía que fomenta entre las niñas y las profesionales, puede convertirse en contraproducente. Al final, las jóvenes reciben la visita de muchas científicas de disciplinas diferentes, contando vivencias muy diversas en un corto periodo de tiempo, lo que les impide procesar toda la información y recordar con detalle todo lo que les hemos contado. Así que, para no ser una anécdota más entre recuerdos infantiles, debemos buscar una manera de destacar y llamar la atención de nuestro público objetivo.

Mary AnningPóster promocional de Mi Primer Geolodía Granada 2025, celebrado en Diezma el sábado 22 de febrero.

Así es como nació «Mary Anning visita Mi Primer Geolodía Granada». Ya os hablé el año pasado de «Mi Primer Geolodía«, una iniciativa de la comisión Mujeres y Geología de la Sociedad Geológica de España que consiste en talleres interactivos, charlas, excursiones y actividades lúdicas para que las niñas y niños conozcan la Geología de manera amena y divertida. Pues dentro de las actividades programadas en Granada se encuentra una pequeña obra de teatro sobre la vida y los descubrimientos de Mary Anning, una de las pioneras de la Paleontología.

Mary AnningFoto de grupo tras una de las representaciones de la obra «Mary Anning visita Mi Primer Geolodía Granada» realizada en el hall del ayuntamiento de Diezma. De izquierda a derecha: Josefina Sánchez (Mary Anning adulta), Lucía Moreno (Mary Anning niña), Ana Ruiz (presidenta de la Sociedad Geológica de España y coordinadora de Mi Primer Geolodía Granada), Emilia Troncoso (alcaldesa de Diezma) y Blanca Martínez (paleontóloga actual).

En esta obra, Mary Anning, nacida hace 226 años en Lyme Regis, Inglaterra (si queréis conocerla mejor, podéis hacerlo aquí o aquí), viaja en el tiempo y en el espacio hasta la Granada de hoy en día para visitar los talleres de Mi Primer Geolodía, que este año se han realizado en Diezma, descubriendo cómo ha avanzado el conocimiento geológico en estos dos siglos. Aquí se encuentra con una paleontóloga que la reconoce y empiezan a entablar una conversación. De esta forma, Mary hace un pequeño repaso de su vida, recordando que desde niña tuvo que ganarse la vida recolectando y vendiendo fósiles a los grandes naturalistas de la época, que pusieron en duda sus descubrimientos paleontológicos por el simple hecho de ser una mujer sin estudios. Pero la paleontóloga actual no pierde la oportunidad de poner en relieve sus hallazgos científicos, realizando explicaciones sobre algunos de los descubrimientos de Mary, como el ictiosaurio o el plesiosaurio, hasta el punto de que, hoy en día, se la reconoce como la madre de la Paleontología gracias a los avances que propiciaron en esta ciencia sus estudios sobre diversos grupos fósiles, como los ammonites. Incluso, se menciona que los descubrimientos de Mary plantearon las bases de la teoría de la evolución de las especies de Darwin (con la intercesión de Lyell, en realidad).

Como os podéis imaginar, la obra de teatro tiene un mensaje muy potente, resaltando no solo cómo ha cambiado el conocimiento geológico en los últimos doscientos años, si no también poniendo en evidencia las barreras que tuvieron que superar las mujeres que nos precedieron, remarcando que, por desgracia, algunos de estos problemas aún siguen vigentes. Pero lo hace en un tono distendido y cómico para alcanzar al público infantil, al que también se le ofrecen explicaciones científicas muy rigurosas en un lenguaje sencillo adaptado a sus edades. Así, en los ojos infantiles que observan la representación se dibujan destellos de curiosidad y admiración, mientras que en muchos ojos adultos asoman lágrimas sinceras.

Y esta metodología docente, funciona. En otros talleres de Mi Primer Geolodía, se volvía a nombrar a Mary Anning. Cuando las monitoras preguntaban a las niñas y niños si la conocían, quienes habían visto la obra de teatro siempre daban la misma respuesta: «Claro, es la madre de la Paleontología y descubrió el ictiosaurio». La primera fase de nuestro trabajo ya está hecha, hemos sembrado la semilla de la curiosidad en las nuevas generaciones, ahora solo nos falta seguir regándola los próximos años, dando a conocer a otras pioneras geólogas y visibilizando el trabajo de las actuales, mientras les descubrimos más curiosidades geológicas con las que puedan entender los paisajes que les rodea. ¿Hemos creado vocaciones científicas entre las niñas? Quizás nunca lo sepamos. Pero seguro que jamás se olvidarán de esas geólogas que hicieron una obra de teatro sobre la madre de la Paleontología en su pueblo.

Agradecimientos:

La obra de teatro «Mary Anning visita Mi Primer Geolodía Granada» ha salido de las prodigiosas mentes de Ana Constán y Ana Ruiz Constán (madre e hija, porque de casta le viene al galgo), que han escrito el guion, elaborado el vestuario de las protagonistas y preparado la puesta en escena. Además, no habría sido posible representarla sin el trabajo y dedicación de Lucía Moreno, nuestra Mary Anning niña, joven artista aficionada al teatro y la interpretación, y de Josefina «Fini» Sánchez, que cambió su acento cordobés por uno puramente británico para meterse en su papel de Mary Anning adulta. Y no quiero olvidarme de María Druet, nuestra roca en la primera representación, y de Manuela Chamizo y Raquel Martín, las reporteras gráficas que se emocionaron al ver la actuación. ¡Qué aburrida sería mi vida sin vosotras, chicas!

La representación de la obra de teatro «Mary Anning visita Mi Primer Geolodía Granada» se retransmitió en directo por la cuenta oficial de Instagram de la Sociedad Geológica de España. Puede verse aquí.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Teatro y Geología, un buen tándem para visibilizar pioneras se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Marília Chaves Peixoto, especialista en sistemas dinámicos

mer, 2025/02/26 - 11:59

Además del incuestionable valor de las investigaciones que desarrolló, Marília Peixoto rompió con valentía un discurso virulento y arraigado que desalentaba a las mujeres a dedicarse a determinadas áreas del conocimiento y a determinadas actividades laborales, discurso normalmente basado en la idea de la existencia de una relación inequívoca entre los atributos biológicos de género, en la que lo femenino se limita al ejercicio de las funciones domésticas y a un número muy reducido de profesiones, generalmente de menor prestigio social y remuneración. Al convertirse en una profesional de referencia en un área considerada, hasta entonces, como exclusivamente masculina, la matemática Marília Peixoto abre un precedente de dignidad para todas las mujeres brasileñas, que aún permanecen en la lucha por la igualdad en el campo de los estudios formales y del trabajo.

Las anteriores palabras son de la política y profesora universitaria brasileña Dorinha Seabra Rezende quien, en 2020, presentó una resolución para dar el nombre de Marília Chaves Peixoto al Pleno 13 del Anexo II de la Cámara de Diputados de su país.

PeixotoMarília Chaves Peixoto. Fuente: Wikimedia Commons.

 

Deseando estudiar matemáticas

Marília Chaves nació el 24 de febrero de 1921 en Sant’Ana do Livramento, ciudad situada al sudoeste de Río Grande del Sur, en Brasil. Era la mayor de los tres hijos (Lúcia nació en 1924 y Livio en 1926) de Tullio de Saboia Chaves (profesor de la Facultad de Medicina Quirúrgica de Río de Janeiro) y Zillah da Costa Magalhães.

Gracias al apoyo de sus padres, pudo asistir a un colegio de Santana do Livramento, donde las chicas no podían estudiar de manera oficial. Como estudiante privada, pudo hacer los exámenes con los chicos.

Posteriormente pasó al menos un año en el Colégio Andrews, fundado por Isabella Robinson Andrews en 1918. En este centro se ofrecía una educación laica a niñas y niños, algo inusual en esa época en Brasil. Esta institución tenía entonces unos 1500 estudiantes de todos los niveles; los preparaban, tanto a niñas como a niños, para ingresar a las escuelas de Medicina, Derecho e Ingeniería.

Marília deseaba estudiar matemáticas y se preparaba para ingresar en la Escuela Nacional de Ingeniería de la Universidad de Brasil en Río de Janeiro: en 1939 obtuvo el tercer lugar entre los 73 estudiantes que consiguieron inscribirse. Las mujeres que lograron un puesto no llegaban al 7 % del total; no era muy común contar con alumnas en las escuelas de ingeniería de esa época.

Compartió aula con Maurício Matos Peixoto y Leopoldo Nachbin; los tres siguieron cursos de matemáticas avanzadas ya que su intención no era seguir una carrera de ingeniería. En 1943, Marília Chaves se graduó en ingeniería civil.

El 6 de septiembre de 1946, Marília y Maurício Matos Peixoto se casaron en Río de Janeiro. El matrimonio tuvo dos hijos, Marta (1949) y Ricardo (1953).

Impartiendo docencia e investigando en sistemas dinámicos

Marília presentó su tesis en 1949; fue aceptada para un doctorado en matemáticas, convirtiendo a Chaves Peixoto en la primera mujer brasileña en obtener un doctorado en esta materia. Y gracias a ello obtuvo la Cátedra de la Escuela Nacional de Ingeniería, donde enseñó cálculo diferencial e integral.

El 1 de julio de 1951 fue elegida miembro asociada de la Academia Brasileña de Ciencias, convirtiéndose en la primera mujer brasileña en ser elegida miembro de esta institución. Antes que ella, Marie Curie había sido elegida miembro asociada extranjera de esta Academia en 1926.

En 1955 publicó el manual Cálculo vetorial dirigido a estudiantes de ingeniería. Tres años después de la muerte de Marília, el libro fue reeditado con un prefacio de Maurício Peixoto en el que escribía, entre otros comentarios:

Claro, metódico, objetivo y bien elaborado, es un buen reflejo de sus cualidades didácticas y su ejemplar dedicación a la docencia.

PeixotoMarília Peixoto impartiendo docencia, 1952. Fuente: XIII SNHM.

 

Marília y su marido trabajaron juntos en la estabilidad estructural de los sistemas dinámicos; ella realizó una contribución sustancial para demostrar el teorema de Peixoto que proporciona la caracterización de sistemas estructuralmente estables en variedades bidimensionales. En 1959, Marília y Maurício Peixoto publicaron el artículo conjunto Structural Stability in the plane with enlarged boundary conditions. Este fue uno de los tres artículos (los otros dos fueron publicados por Maurício en solitario) sobre esta materia que ayudaron a enunciar el hoy conocido como el teorema de Peixoto en un artículo publicado en 1962. El matemático señalaba:

Me gustaría señalar que este trabajo sobre estabilidad estructural se llevó a cabo básicamente en varios artículos que se mencionan a continuación, uno de los cuales fue en colaboración con mi primera esposa Marília, quien no vivió para ver el final de esta aventura. Sin embargo, su influencia fue grande en aquellos días dorados, decisivos y ya lejanos, en el otoño de 1957 en Princeton.

Honores póstumos

Marília Chaves Peixoto falleció el 5 de enero de 1961 debido a problemas cardiacos. Ese mismo año la especialista en educación matemática Maria Laura Mozinho impartió una conferencia en la Academia Brasileña de Ciencias en la que dijo:

Al ver a aquella muchacha tranquila, de ojos muy grandes y expresivos, fue necesario que alguien nos susurrara que era una destacada profesora de Cálculo y Mecánica de la Escuela Nacional de Ingeniería, enérgica y, a la vez, generosa, además de tener una inteligencia aguda que se volcaba a la investigación matemática.

Una calle en su ciudad natal de Sant’Ana do Livramento se llama Rua Marília Chaves Peixoto.

Maurício Peixoto ayudó a fundar en 1971 la Escuela Municipal Marília Chaves Peixoto en la región de Controes de Petrópolis, una región rural donde el padre de Marília tenía una finca que cedió para fundar este centro de enseñanza. Fue una iniciativa muy aplaudida, ya que muchos de los residentes locales eran analfabetos y la escuela más cercana estaba a unos 10 kilómetros de distancia. Durante casi 40 años, más de trescientos estudiantes asistieron a la escuela primaria. En 1969, Maurício Peixoto recibió el Prêmio Moinho Santista de la Fundación Bunge por el teorema que lleva su nombre y que tanto debía a Marília. Peixoto utilizó el dinero del premio para financiar esta escuela.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia

El artículo Marília Chaves Peixoto, especialista en sistemas dinámicos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Cómo Hans Bethe se topó con las teorías cuánticas perfectas

mar, 2025/02/25 - 11:59

Los cálculos cuánticos son estimaciones sofisticadas, pero en 1931 Hans Bethe intuyó con precisión cómo se comportaría una cadena de partículas, una intuición que tuvo enormes consecuencias.

Un artículo de Matt von Hippel. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

BetheHans Bethe fue pionero en un método que, cuando las estrellas se alinean, permite a los físicos comprender perfectamente el comportamiento colectivo de cualquier número de partículas cuánticas. Ilustración: Señor Salme para Quanta Magazine

En 1928, los físicos cuánticos parecían estar a punto de desentrañar los secretos finales de la materia. El investigador alemán Walter Gordon había aplicado la emergente teoría de la mecánica cuántica al átomo de hidrógeno, el átomo más simple del universo, y había descubierto exactamente cómo se comportaba. Parecía seguro que el dominio de todos los átomos vendría detrás.

No fue así. Cuando las partículas cuánticas se influyen entre sí, sus posibilidades se entrelazan de tal manera que superan la capacidad de los físicos para predecir su futuro. En la búsqueda de respuestas precisas, el electrón solitario del átomo de hidrógeno marcó el inicio y el final del camino; incluso los dos electrones del átomo de helio condenaron al fracaso a planteamientos tan exactos como el de Gordon. Es una limitación con la que los físicos todavía lidian hoy. Casi todas las predicciones cuánticas son un poco aproximadas.

Sin embargo, tres años después del triunfo de Gordon, su compatriota Hans Bethe había encontrado una sorprendente manera de resolver este problema. El ansatz de Bethe, que en alemán significa “punto de partida”, resultó ser capaz de captar perfectamente el comportamiento de cualquier cantidad de partículas cuánticas, desde un solo electrón hasta los innumerables electrones de una capa de hielo. Sin embargo, este extraordinario poder tiene sus propias limitaciones, que llevaría décadas comprender.

El ansatz de Bethe ha cautivado a generaciones de investigadores. Richard Feynman, el legendario físico teórico, lo estaba estudiando cuando murió en la década de 1980. Hoy en día, son pocas las áreas de la física que no se han visto afectadas por la casi centenaria idea de Bethe.

“Su importancia ha seguido creciendo hasta el día de hoy”, explica Charlotte Kristjansen, profesora del Instituto Niels Bohr de Copenhague.

Imanes en una cadena

A principios de la década de 1930, Bethe intentaba utilizar la mecánica cuántica para comprender cómo se magnetiza el hierro. Pero un trozo de metal tiene muchas más partículas que un átomo de hidrógeno, por lo que no había forma de utilizar herramientas cuánticas estándar para comprender exactamente el imán. Necesitaba una forma de abordar un sistema cuántico mucho más complicado.

Bethe empleó un modelo simplificado de imán, conocido como cadena de espín: una única línea de átomos, cada uno apuntando hacia arriba o hacia abajo como su propio imán diminuto. Si todos los polos norte apuntaran hacia arriba, por ejemplo, la cadena se magnetizaría. Su reto era calcular la energía necesaria para hacer girar los átomos hasta esa posición. En principio, para ello era necesario llevar un registro de cada átomo, una tarea hercúlea que parecía necesitar aproximaciones, atajos que simplifican el cálculo pero introducen imprecisiones.

La cadena de espín se basó en el trabajo pionero de Felix Bloch de 1930. Bloch había dejado de lado los átomos individuales y sus numerosas interacciones y, en cambio, se centró en el movimiento colectivo que surgía de esas interacciones.

En una cadena de espín, ese movimiento son ondas como las que se ven en los estadios. Si se da la vuelta a un átomo, éste dará la vuelta a sus vecinos, que a su vez darán la vuelta a sus vecinos, y así sucesivamente. Estas ondas siguen siendo extremadamente complicadas: cuando dos ondas recorren el mismo tramo de partículas, cualquier partícula puede dar la vuelta a cualquier otra partícula, lo que da lugar a un caos. La teoría de Bloch prohibía este desorden. Supuso que cada átomo sólo podía dar la vuelta a su vecino inmediato. Luego supuso que, como consecuencia, las ondas resultantes siempre colisionarían suavemente, atravesándose unas a otras con una perturbación mínima. La suposición mantenía las cosas lo suficientemente ordenadas como para poder manejarlas.

BetheHans Bethe, un físico famoso por su meticulosidad, se basó en el trabajo de Bloch para desarrollar una forma de capturar a la perfección el comportamiento de ciertos sistemas cuánticos complejos. Foto: Los Alamos National Laboratory.

Su intuición casi resolvió el problema, pero pasó por alto un detalle matemático clave. “Si hubiera sido menos perezoso con las arcotangentes o los logaritmos, llamaríamos a esto el ansatz de Bloch”, asevera Jean-Sébastien Caux, profesor de la Universidad de Ámsterdam.

Bethe se dio cuenta de que había una segunda posibilidad para que dos ondas pudieran coexistir: podían atraerse entre sí de forma que viajarían juntas. Con esto, Bethe captó todo lo que la cadena de espín podía hacer. Teniendo en cuenta estos dos movimientos colectivos (choques suaves y viajes en pares), pudo calcular la energía exacta para cada posible disposición de la cadena.

Bethe había dado con una teoría cuántica perfecta, que funcionaba para cualquier número de partículas. Sin embargo, nunca la utilizó para explicar los imanes del mundo real. Funcionaba para cadenas, pero no para bloques de átomos, como él había imaginado. En cambio, demostraría su valor de otras maneras.

Las raíces de la perfección cuántica

Cuando Hitler ascendió al poder en los años siguientes, Bethe huyó de Alemania y llegó a los Estados Unidos, donde trabajó como líder del Proyecto Manhattan. Después de la guerra, continuó estudiando física, pero nunca regresó a su ansatz.

Serían otros los que descubrirían hasta qué punto podía funcionar el ansatz de Bethe. Funcionó para cadenas de espín con defectos e incluso para cadenas de partículas que se influyen entre sí de forma no magnética. Sin embargo, curiosamente, siguió fallando con los bloques de átomos del mundo real que originalmente habían motivado a Bethe. No fue hasta la década de 1960, cuando los teóricos lo aplicaron a delgadas láminas de hielo (otro sistema de innumerables partículas cuánticas), que descubrieron por qué.

Los investigadores, al enfriar el hielo a temperaturas inauditas, descubrieron un misterio: si el hielo perdía todo su calor, esperaban que sus moléculas se asentaran formando un cristal perfecto y único. En cambio, encontraron un extraño desorden, como si las moléculas pudieran acabar en diferentes disposiciones que variaban sutilmente de un experimento a otro.

Los teóricos se dieron cuenta de que las capas congeladas también contenían ondas que viajaban a lo largo de una línea. Cada capa formaba efectivamente un cristal perfecto de moléculas de H2O repetidas. Pero cada molécula podía adoptar una de seis configuraciones diferentes, como un píxel que puede ser rojo, verde, azul, amarillo, naranja o violeta. Cada vez que los experimentadores enfriaban el hielo, obtenían una imagen multicolor diferente. Pero había un método en la locura. Los teóricos descompusieron la imagen, comenzando por la parte superior, tomándola línea por línea. Trataron cada cadena de píxeles como un fotograma de una película. Y cuando reprodujeron la película, vieron ondas. Un píxel verde podía ondular la línea hacia la derecha, para dar un ejemplo demasiado simplista. Y cuando estas ondas chocaban, lo hacían suavemente, manteniendo su forma, exactamente como en la cadena de espín de Bethe.

De modo que con el ansatz de Bethe, los físicos podían calcular con precisión las probabilidades de medir esos patrones en un experimento. Era otra teoría cuántica perfecta.

Bethe
Felix Bloch worked out much of the physics that would ultimately become known as the Bethe ansatz. Foto: Dominio público

Esta suavidad y esta geometría eran la base del poder del ansatz de Bethe, como argumentó el físico australiano Rodney Baxter a principios de los años 1970. Muchos sistemas conservan el momento y la energía, incluso durante colisiones violentas. Pero en las capas de hielo, la suavidad de las colisiones preservaba muchas más cantidades. El momento y la energía eran solo las primeras de una lista interminable de leyes de conservación, cada una basada en la anterior. Basándose en estas leyes, Baxter explicó qué problemas podía resolver el ansatz de Bethe. Si un sistema contenía ondas que chocaban suavemente en alguna cadena, ya sea momento a momento o línea a línea, la multitud de leyes de conservación lo domaría.

En estos casos, “se tiene una historia completa de la A a la Z. Se empieza desde lo microscópico y se deriva absolutamente todo”, explica Caux.

El último enigma de Feynman

Con esta comprensión más profunda, los físicos continuaron utilizando el ansatz de Bethe de nuevas maneras. Después de su muerte, una fotografía de la pizarra de Feynman capturó las palabras: “Lo que no puedo crear, no lo entiendo”, junto con una lista rotulada “para aprender”, que comienza con el ansatz de Bethe.

En sus últimos meses, Feynman había hablado de un “ambicioso sueño” de utilizar el ansatz de Bethe para comprender las colisiones entre partículas de alta energía, que los físicos predecían mediante aproximaciones complicadas. Señaló que dos protones a menudo pasan a toda velocidad uno al lado del otro como si fueran coches en carriles opuestos de una autopista. En lugar de hacer contacto directo, intercambian partículas de vida corta. Este intercambio los acerca o los aleja, pero no afecta significativamente a su alta velocidad. Los cambios importantes se producen momento a momento a lo largo de una línea, como en una cadena de espín.

El cáncer se llevó a Feynman antes de que pudiera desarrollar la idea. Pero otros acabaron uniendo las piezas del rompecabezas. Cuando Ludvig Faddeev, físico ruso y maestro del ansatz de Bethe, dio una charla en la Universidad de Stony Brook en 1994, escribió en la pizarra una fórmula extraída de uno de sus artículos anteriores. En ella se describía un sistema concreto cuyo comportamiento podía calcularse utilizando el ansatz de Bethe. Gregory Korchemsky, un físico de partículas que se encontraba entre el público, la reconoció inmediatamente de otro contexto. Los premios Nobel David Gross y Frank Wilczek habían utilizado la misma fórmula en la década de 1970 para describir las partículas energéticas que “abrían” un protón.

Trabajando juntos, Faddeev y Korchemsky descubrieron que, efectivamente, el ansatz de Bethe se aplicaba a las colisiones de partículas de alta energía, haciendo realidad el sueño de Feynman. Lo que Gross y Wilczek habían aproximado, ellos lo calcularon con exactitud. El ansatz de Bethe ha encontrado más usos desde entonces, como en modelos de juguete perfectos de la gravedad cuántica.

En un mundo de muchas partículas, los efectos de todo sobre todo lo demás a menudo superan a los teóricos. Sin embargo, la suposición de Bethe proporcionó a los físicos una forma de comprender por completo ciertos sistemas cuánticos. Durante el siglo siguiente, los físicos destilaron su idea en una receta que, cuando las estrellas se alinean, les permite predecir con precisión lo que de otro modo sería incognoscible. Y se han maravillado de cómo esas estrellas a veces se alinean, lo que permite predicciones perfectas sobre el hielo, los protones, los agujeros negros y más.

Los métodos de ansatz Bethe Ansatz aparecen en muchos lugares, comenta Pedro Vieira, profesor del Instituto Perimeter de Física Teórica en Waterloo, Canadá. “Parece que la naturaleza aprecia las cosas bellas”.

 

El artículo original, How Hans Bethe Stumbled Upon Perfect Quantum Theories, se publicó el 12 de febrero de 2025 en Quanta Magazine.

Traducido por César Tomé López

El artículo Cómo Hans Bethe se topó con las teorías cuánticas perfectas se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Las gambas mantis: ataque ultrarrápido y escudo fonónico

lun, 2025/02/24 - 11:59

Las galeras (Squilla mantis) son unos crustáceos estomatópodos que se capturan en grandes cantidades en nuestras costas. A pesar de su excelente sabor son poco apreciadas por su aspecto. Sus patas adaptadas para atrapar presas recuerdan a las de las mantis religiosas (Figura 1).

gamba mantisFigura 1. A la izquierda vemos la galera de nuestras costas (Squilla mantis), mostrando sus patas adaptadas para atrapar presas. Foto: Dominio público. A la derecha, la gamba mantis (Odontodactylus scyllarus) con sus patas convertidas en mazas. Foto: Silke Baron, CC BY 2.0

Unos estomatópodos tropicales, los gonodactiloideos, conocidos como gambas mantis, han modificado estos apéndices para convertirlos en auténticas mazas con las que golpear a sus presas (Figura 1). Las propiedades de esta adaptación son impresionantes. El apéndice se pliega por acción muscular almacenando energía mecánica en una especie de resorte, algo parecido a lo que ocurre con una ballesta. Cuando se libera el resorte, el apéndice se dispara hacia delante para golpear el objetivo. La maza adquiere una velocidad de 30 metros por segundo en menos de tres milisegundos (Figura 2). La aceleración es similar a la de una bala de pequeño calibre, y podemos comprobar sus efectos en los siguientes vídeos.

Aquí vemos en acción a la gamba mantis pavo real (Odontodactylus scyllarus) rompiendo la concha de un cangrejo ermitaño. Se describe también el sorprendente sistema visual de estos animales, equipado con doce tipos de fotorreceptores capaces de detectar luz polarizada y ver en el espectro ultravioleta

El mecanismo de golpeo de la gamba mantis también le sirve como defensa. Aquí vemos como es capaz de derrotar a un pulpo mucho mayor que ella

Se trata de uno de los ataques más fulminantes registrados en el reino animal. Los más sólidos caparazones de artrópodos o conchas de moluscos terminan rompiéndose tras uno o varios golpes. Se ha descrito incluso como el cristal de un acuario se rompió a consecuencia de estos impactos.

Utilizando sensores muy precisos se observó que la presa recibe dos golpes en cada ataque. El primero de ellos tiene una fuerza de 400-1500 newtons. Para hacernos una idea, esta es la fuerza del puñetazo de un boxeador profesional. Menos de medio milisegundo después, la presa es golpeada de nuevo por una fuerza de unos 500 newtons.

gamba mantisFigura 2. Mecanismo de golpeo de las gambas mantis. La energía de la contracción muscular es almacenada en un resorte en forma de silla de montar. Su liberación provoca el lanzamiento de la maza hacia delante, alcanzando una velocidad de 30 m/s en menos de 3 milisegundos. De Tadayon M et al. (2018), iScience. CC-BY-NC-ND

La explicación de este doble golpe resultó asombrosa. El desplazamiento del fluido por el rapidísimo movimiento del apéndice provoca una burbuja de cavitación, formada por vapor de agua. La burbuja implosiona en nanosegundos, alcanzando temperaturas de miles de grados, emitiendo luz y sonido y provocando ondas de choque1. Estas ondas, de altísima frecuencia, son las que causan el segundo impacto sobre el objetivo.

Se estima que una gamba mantis es capaz de propinar 50 000 golpes en el intervalo entre mudas del caparazón. La pregunta es inevitable: ¿cómo es posible que sus apéndices sean capaces de quebrar los materiales más duros y no resulten dañados por tantos golpes?

Esta cuestión acaba de ser respondida en un estudio publicado en Science por investigadores de la universidad Northwestern, especializados en ingeniería de biomateriales. Empleando técnicas muy precisas de análisis, el equipo comprobó que las mazas de la gamba mantis están organizadas en dos capas. La zona de impacto está formada por una delgada capa (70 μm) de hidroxiapatito (el durísimo material inorgánico de nuestros huesos y dientes) y por otra capa (0,5 mm) de fibras mineralizadas de quitina en forma de espiga. Por debajo encontramos una capa de haces de fibras dispuestas de una forma helicoidal periódica. Se trata de una estructura Bouligand (Figura 3). Según los autores del estudio, estas estructuras constituirían un “escudo fonónico”, algo que debemos explicar más despacio.

gamba mantisFigura 3. En el centro se muestra cómo se organizan las fibras en la capa periódica de la maza formando una estructura Bouligand. A la derecha vemos una imagen de esta capa a microscopía electrónica de barrido. De Malekinejad, H. et al. (2024) J. Compos. Sci. CC BY 4.0

Los cristales fotónicos​ son nanoestructuras ópticas diseñadas para afectar el movimiento de los fotones a causa de los diferentes índices de refracción de sus capas, que se repiten periódicamente. Esto causa interferencias destructivas para determinadas longitudes de onda (colores) que no pueden propagarse por el material. De forma análoga, un material fonónico se comportaría ante ondas sonoras como un cristal fotónico ante la luz. Es decir, determinadas frecuencias de sonido quedarían atenuadas o anuladas al atravesar la estructura2.

Los resultados publicados en Science muestran que la estructura Bouligand periódica de la maza de la gamba mantis dispersa y atenúa por un mecanismo fonónico las ondas de alta frecuencia producidas por la cavitación. Estas ondas son especialmente perjudiciales para la integridad de la maza.

Los resultados pueden tener aplicación industrial, por ejemplo en el diseño de materiales destinados a recibir impactos violentos. No resulta sorprendente que entre los organismos que financian esta investigación se encuentren las oficinas de investigación de la Marina y las Fuerzas Aéreas de los EE.UU. En cualquier caso, este es un excelente ejemplo de cómo soluciones estructurales desarrolladas por los seres vivos en el transcurso de su evolución pueden ser aplicadas en la ingeniería.

Referencias

Alderete, N.A., Sandeep, S., Raetz, S. et al. (2025). Does the mantis shrimp pack a phononic shield? Science doi: 10.1126/science.adq7100

Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga

Notas:

1 No son los únicos animales capaces de generar estas burbujas de plasma. Sus parientes, las gambas pistola, también las producen al atacar a sus presas, en esta ocasión con chorros de agua a alta presión

2 Los interesados no deben perderse el excelente artículo de mi amigo Francis Villatoro sobre el tema. Allí se cuenta que la escultura “Órgano” de Eusebio Sempere (Fundación Juan March, Madrid) se comporta como un objeto fonónico, aunque no se había pretendido que tuviera esta propiedad

El artículo Las gambas mantis: ataque ultrarrápido y escudo fonónico se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Quipu, la superestructura más grande del universo conocido

dim, 2025/02/23 - 11:59
universoLa imagen muestra las superestructuras descubiertas en el estudio. En rojo aparece Quipu, la mayor que se ha encontrado en el universo local. El resto son: Shapley (azul), Serpens-Corona Borealis (verde), Hercules (violeta) y Sculptor-Pegasus (beige). Fuente: Boehringer et al. (2025) arXiv

Para la mente humana resulta muy difícil entender las colosales dimensiones del universo. En nuestra evolución hemos ajustado el mundo a la utilidad del día a día y somos capaces de asimilar de manera natural las escalas de metros, kilómetros, minutos o años, pero terminamos desconcertados por los modelos que incluyen distancias astronómicas fuera de nuestro rango de experiencia cotidiana. Los tamaños, masas, distancias y velocidades que operan en esa escala cósmica se escapan a nuestra intuición y lo único que podemos hacer para acercarnos a su entendimiento es utilizar analogía, metáforas y comparaciones.

Por ejemplo, se suele decir que las naves más rápidas construidas por el hombre tardarían miles de años simplemente para llegar a la estrella más cercana. La Voyager 1, lanzada en septiembre de 1977, realizó varias maniobras de asistencia gravitatoria que la aceleraron a una velocidad de escape de 61,000 km/h (unos 17 km/s) en relación con el Sol y, sin embargo, tras casi medio siglo de viaje, apenas ha salido de nuestro sistema solar. Manteniendo esas cifras tardaría más de 70.000 años en llegar hasta Próxima Centauri, situada a poco más de cuatro años luz de nosotros. Si usáramos como referencia la sonda Solar Parker Probe, que se mueve alrededor del Sol a unos 340.000 km/h, el viaje hasta nuestra vecina estelar se alargaría casi 6.600 años. Si intentamos imaginar ahora cómo sería cruzar la Vía Láctea, nuestra humilde y relativamente pequeña galaxia de unos 100.000 años luz de diámetro, nos encontramos que la Solar Parker Probe tardaría más de 150 millones de años y nuestra mente comienza a perderse…

En nuestra vida cotidiana podemos entender, e incluso visualizar mentalmente, cuánto pesan cuarenta kilos, cuánto miden veinte centímetros o cómo sería un trayecto de ochenta kilómetros. Tenemos experiencias que nos ayudan a interiorizar esas medidas, pero ese apoyo desaparece cuando se trata de entender la masa de Eta Carinae o la distancia que nos separa del exoplaneta Kepler-22b. En ningún momento de nuestra existencia hemos necesitado entender medidas como el año luz, la unidad astronómica o el parsec para poder sobrevivir y, de esta manera, no es de extrañar que nuestro cerebro requiera de un esfuerzo adicional para aproximarse a algo parecido a la comprensión. Por ello, va a resultar difícil entender el reciente artículo, publicado en el repositorio científico ArXiv, en el que un equipo de astrónomos anuncia el descubrimiento de «la mayor superestructura del universo», un monstruo gigantesco, una estructura cósmica de dimensiones difíciles de concebir, un verdadero titán al que han llamado «Quipu».

universoUn quipu inca de la colección del »Museo Arqueológico Rafael Larco Herrera de Lima», Perú Fuente:  Claus Ableiter / Wikimedia Commons

Antes de la llegada de los europeos al Nuevo Mundo, las civilizaciones andinas no contaban con un sistema de escritura convencional, es decir un sistema en el que se representan sonidos o palabras individuales mediante símbolos gráficos, como ocurre con los alfabetos. En su lugar desarrollaron otras técnicas, bastante ingeniosas, que les permitían representar la realidad matemática utilizando diferentes cuerdas y nudos (quipus) o diseños geométricos plasmados en tejidos, cerámicas y otros objetos artísticos (topacus).

Los quipus eran un sofisticado sistema de cuerdas que los incas utilizaron para almacenar información numérica como registros contables, censos o datos administrativos. Podían ser muy simples, apenas un par de cuerdas y algunos nudos, o convertirse en verdaderas marañas de colores representativos con cientos o incluso miles de cuerdas y nudos. Inspirados por esta idea del Quipu, los autores del artículo científico han bautizado con su nombre a «la estructura cósmica más grande descubierta hasta la fecha». Una pincelada de poesía histórica, una metáfora artística (otra más) para ayudarnos a visualizar mejor uno de los titánicos andamios de nuestro universo local.

Una de las características más destacadas del universo es que es muy uniforme a gran escala. Cuando en 1965 los físicos estadounidenses Arno Penzias y Robert Wilson detectaron por primera vez la radiación de fondo cósmico de microondas (CMB) se dieron cuenta de que esa radiación electromagnética presentaba las mismas propiedades por todos lados y en todas direcciones. Las diferentes imágenes del CMB representan la radiación emitida tan solo 380.000 años después del Big Bang, cuando el universo se volvió transparente a la radiación y, a grandes rasgos, son mapas de temperaturas donde las diferencias son mínimas. Era un universo muy caliente, a unos 2500 grados centígrados, pero las fluctuaciones de temperatura y densidad apenas representaban diferencias del orden de una parte en cien mil. Y aún así, no deberíamos infravalorar esas diminutas variaciones (anisotropías) porque terminaron convirtiéndose en las semillas de las futuras estructuras del universo, de las galaxias y de los cúmulos de galaxias.

Al igual que las cuerdas de los quipus incas, la estructura descrita en el estudio contiene largos filamentos que se extienden, aproximadamente, 1300 millones de años luz, unas dimensiones que la convierten en el objeto más grande el universo local, superando a récords anteriores como el supercúmulo Laniākea, en el que se encuentra la Tierra. Está formada por cúmulos de galaxias y cúmulos de cúmulos de galaxias con una masa estimada, asombrosa y difícil de comprender, de unos «200 cuatrillones de masas solares».

universoSupercúmulo Shapley con más de 8.000 galaxias y 1.000 cúmulos de galaxias. Fuente:  ESA /Planck Collaboration

El estudio también describe otras superestructuras cósmicas entre ellas el supercúmulo Shapley, que ya se conocía anteriormente y que poseía el récord como «la estructura cósmica más grande del universo local» pero que, ahora, palidece ante la grandeza de otras estructuras descubiertas como Serpens-Corona Borealis, Hercules o Sculptor-Pegasus. Todas ellas se encuentran a una distancia aproximada de entre 425 y 815 millones de años luz de la Tierra, pero Quipu destaca sobre el resto con una longitud que superaría 13.000 veces el diámetro de nuestra Vía Láctea. En conjunto, estas cinco superestructuras contienen el 45% de los cúmulos de galaxias, el 30% de las galaxias y el 25% de la materia del universo observable y, en total, constituyen el 13% del volumen del universo conocido.

Contamos con diferentes modelos cosmológicos que predicen estas grandes estructuras pero detectarlas no es un trabajo sencillo. Necesitamos datos de la distribución de la materia del universo en diferentes longitudes de onda, un buen número de datos recogidos por nuestros instrumentos ópticos terrestres, telescopios espaciales, sondas y observatorios que midan las «variaciones en el fondo cósmico de microondas, las distorsiones causadas por lentes gravitacionales a gran escala o la influencia de movimientos de transmisión a gran escala en las mediciones de la constante de Hubble».

universoRepresentación tridimensional de la Superestructura de Quipu. Los puntos son miembros del cúmulo con tamaños y colores que indican la distancia a un observador externo, azul para el cúmulo más cercano y rojo para el más distante. Fuente: Boehringer et al. (2025) arXiv

Se trata de un artículo importante, que ya ha sido aceptado para su publicación en breve en la revista Astronomy and Astrophysics y que nos deja pistas palpables para entender el funcionamiento del universo a gran escala. Estas grandes acumulaciones de materia tienen un gran impacto en el entorno general, en las velocidades y trayectorias de miles de galaxias e incluso «afecta las mediciones de la expansión general del universo: donde reinan las superestructuras, la expansión local de las galaxias puede distorsionar la medición de la expansión general del universo, conocida como la constante de Hubble». Finalmente, la atracción gravitatoria de tanta materia también puede causar una curvatura de la luz (efecto de lente gravitacional) que puede distorsionar las imágenes del cielo distante.

Futuros estudios de estas superestructuras afectan tanto al presente como al futuro del universo. Son estructuras temporales, como casi todo en nuestro cosmos, y la expansión del espacio-tiempo las irán desintegrando, dividiendo y dispersando en diferentes unidades más pequeñas pero, por ahora y según los propios autores, «representan entidades físicas con propiedades características y entornos cósmicos especiales que merecen una atención especial».

Referencias  y más información:

Boehringer, Hans, et al.  (2025)Unveiling the largest structures in the nearby Universe: Discovery of the Quipu superstructure arXiv doi: 10.48550/arXiv.2501.19236.

Stephanie Pappas (2025) Astronomers discover ‘Quipu’, the single largest structure in the known universo Live Science (2025)

Sobre el autor: Javier «Irreductible» Peláez (Puertollano, 1974) es escritor y comunicador científico. Autor de 500 años de frío. La gran aventura del Ártico (Crítica, 2019) y Planeta Océano (Crítica 2022). Es uno de los fundadores de la plataforma Naukas.com, editor de ciencia en Yahoo España y Latinoamérica. Es guionista científico en los programas de televisión «El Cazador de Cerebros» y «Órbita Laika» de RTVE. Durante más de una década ha escrito en diferentes medios de comunicación (El País, El Español, National Geographic, Voz Populi). Es autor de los podcasts Catástrofe Ultravioleta y La Aldea Irreductible, y ha colaborado en diferentes proyectos radiofónicos y televisivos (Radio Nacional de España, Radio Televisión Canaria). Es ganador de tres premios Bitácoras, un premio Prisma a la mejor web de divulgación científica y un Premio Ondas al mejor programa de radio digital.

El artículo Quipu, la superestructura más grande del universo conocido se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Y si la Tierra dejase de rotar?

sam, 2025/02/22 - 11:59

Si la Tierra dejase de rotar de forma abrupta, de entrada tendríamos un grave problema con la inercia.

Los vídeos ‘¿Y sí…?´ se plantean cuestiones ficticias pero que nos permiten aprender mucho sobre el mundo en el que vivimos. Se han emitido en el programa de divulgación científica de Televisión Española Órbita Laika, y producido en colaboración con la Cátedra de Cultura Científica de la Universidad del País Vasco.

Ficha técnica: Idea: José Antonio Pérez Ledo

Producción ejecutiva: Blanca Baena

Dirección: Aitor Gutierrez

Guion: Manuel Martinez March

Grafismo: Cristina Serrano

Música: Israel Santamaría

Producción: Olatz Vitorica

Locución: José Antonio Pérez Ledo

El artículo ¿Y si la Tierra dejase de rotar? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Pages