Los mejores barrios para empezar una vida en la galaxia
Algunos vecindarios de la Vía Láctea pueden ser más adecuados que otros para crear planetas habitables.
Un artículo de Rebecca Boyle Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Ilustración: Kristina Armitage / Quanta MagazinePara albergar vida, al menos tal como la conocemos, un planeta debe orbitar una estrella que sea relativamente tranquila y estable. La órbita del planeta también debe ser casi circular para que el planeta experimente un calor similar durante todo el año. Y no debe estar demasiado caliente, para que el agua de la superficie no hierva; ni demasiado frío, para que el agua no se quede fijada en hielo; sino el adecuado, para que los ríos y los mares permanezcan líquidos.
Estas características definen una “zona habitable” alrededor de las estrellas, lugares tentadores a los que apuntar en la búsqueda de exoplanetas aptos para la vida. Pero los científicos someten cada vez más a toda la galaxia a un escrutinio similar. De la misma manera que los continentes con biosferas distintas albergan flora y fauna distintas, diferentes regiones de la galaxia podrían albergar diferentes poblaciones de estrellas y planetas. La turbulenta historia de la Vía Láctea significa que no todos los rincones de la galaxia son iguales y que solo algunas regiones galácticas podrían ser las adecuadas para crear planetas que creemos que podrían estar habitados.
Conforme los científicos exoplanetarios afinan sus ideas sobre dónde buscar vida extraterrestre, ahora están considerando el origen de la estrella y su vecindario, explica Jesper Nielsen, astrónomo de la Universidad de Copenhague. Nuevas simulaciones, junto con observaciones de satélites que buscan planetas y monitorean millones de estrellas, están pintando una imagen de cómo diferentes vecindarios galácticos (y tal vez incluso diferentes galaxias) forman planetas de manera diferente.
«Esto, a su vez, puede ayudarnos a comprender mejor hacia dónde apuntar nuestros telescopios», afirma Nielsen.
Geografía galácticaHoy, la Vía Láctea tiene una estructura complicada. Su agujero negro supermasivo central está rodeado por el «bulbo», una espesa masa de estrellas que contiene a algunos de los ciudadanos más ancianos de la galaxia. El bulbo está rodeado por el “disco delgado”, la estructura que se puede ver serpenteando sobre nuestras cabezas en una noche clara y oscura. La mayoría de las estrellas, incluido el Sol, se encuentran en los brazos en espiral del disco delgado, que están abrazados por un «disco grueso» más ancho que contiene estrellas más viejas. Y un halo difuso, mayoritariamente esférico, de materia oscura, gas caliente y algunas estrellas envuelve toda la arquitectura.
Durante al menos dos décadas, los científicos se han preguntado si las condiciones habitables varían entre esas estructuras. El primer estudio sobre la habitabilidad galáctica data de 2004, cuando los científicos australianos Charles Lineweaver, Yeshe Fenner y Brad Gibson modelaron la historia de la Vía Láctea y la utilizaron para estudiar dónde podrían encontrarse zonas habitables. Querían saber qué estrellas anfitrionas tenían suficientes elementos pesados (como carbono y hierro) para formar planetas rocosos, qué estrellas habían existido el tiempo suficiente para que evolucionara vida compleja y qué estrellas (y cualquier planeta en órbita) estaban a salvo de las supernovas vecinas. Terminaron definiendo una “zona habitable galáctica”, una región en forma de dónut con el agujero centrado en el centro de la galaxia. El límite interior de la región comienza a unos 22.000 años luz del centro galáctico y su límite exterior termina a unos 29.000 años luz.
En las dos décadas posteriores los astrónomos han intentado definir con mayor precisión las variables que controlan la evolución tanto estelar como planetaria dentro de la galaxia, explica Kevin Schlaufman, astrónomo de la Universidad Johns Hopkins. Por ejemplo, continúa, los planetas nacen en discos de polvo que rodean a estrellas recién nacidas y, en pocas palabras, si “un disco protoplanetario tiene mucho material que puede formar rocas, entonces producirá más planetas”.
Algunas regiones de la galaxia pueden estar más densamente sembradas con esos ingredientes formadores de planetas que otras, y los científicos están trabajando ahora para comprender en qué medida los vecindarios galácticos influyen en los planetas que albergan.
Aquí hay exoplanetasEntre los aproximadamente 4.000 exoplanetas conocidos, hasta ahora existen pocas reglas que rijan qué tipos de planetas están en qué sitio; ningún sistema estelar se parece mucho al nuestro, y la mayoría de ellos ni siquiera se parecen mucho entre sí.
Nielsen y sus colegas querían saber si los planetas podrían formarse de manera diferente en el disco grueso, el disco delgado y el halo de la Vía Láctea. En general, las estrellas del disco delgado contienen más elementos pesados que las del disco grueso, lo que significa que surgieron de nubes que también podrían contener más ingredientes formadores de planetas. Utilizando datos del satélite de seguimiento de estrellas Gaia de la Agencia Espacial Europea, Nielsen y sus colegas primero separaron las estrellas en función de la abundancia de ciertos elementos. Luego simularon la formación de planetas entre esas poblaciones.
Sus simulaciones, que publicaron en octubre, mostraron que los planetas gigantes gaseosos y las supertierras (el tipo más común de exoplaneta) crecen más abundantemente en el disco delgado, probablemente porque (como se esperaba) esas estrellas tienen más material de construcción con el cual trabajar. También descubrieron que las estrellas más jóvenes con elementos más pesados tienden a albergar más planetas en general, y que los planetas gigantes son más comunes que los más pequeños. Por el contrario, los gigantes gaseosos son casi inexistentes en el disco grueso y el halo.
Schlaufman, que no participó en el trabajo, comenta que los resultados tienen sentido. La composición del polvo y el gas a partir del cual nacen las estrellas es crucial para determinar si las estrellas formarán planetas. Y aunque esa composición puede variar según la ubicación, argumenta que si bien la ubicación puede preparar el escenario para la construcción de mundos de una estrella, puede no determinar el resultado final.
Las simulaciones de Nielsen son teóricas, pero algunas observaciones recientes respaldan sus hallazgos.
En junio, un estudio que utilizó datos del telescopio espacial Kepler de la NASA, que busca planetas, encontró que las estrellas en el disco delgado de la Vía Láctea tienen más planetas, especialmente supertierras y mundos de tamaño subneptuno, que las estrellas en el disco grueso. Una explicación, apunta Jessie Christiansen, científica exoplanetaria del Instituto de Tecnología de California y coautora del estudio, es que las estrellas viejas del disco grueso pueden haber nacido cuando los ingredientes para formar planetas eran escasos, antes de que generaciones de estrellas moribundas sembrase el cosmos con los componentes básicos de los mundos. O tal vez las estrellas de disco grueso nacieron en ambientes densos y de alta radiación, donde la turbulencia impide que los planetas nacientes lleguen a fusionarse.
A los planetas les puede ir mejor en áreas abiertas, como los suburbios, en lugar de en áreas “urbanas” densamente pobladas, afirma Christiansen. Nuestro sol se encuentra en una de esas zonas suburbanas escasamente pobladas.
Otras TierrasLos estudios de Christiansen y las simulaciones de Nielsen se encuentran entre los primeros en estudiar la ocurrencia de planetas en función del vecindario galáctico; Vedant Chandra, astrónomo del Centro Harvard-Smithsonian de Astrofísica, se está preparando para ir un paso más allá y estudiar si la formación de planetas podría haber sido diferente en algunas de las galaxias que la Vía Láctea consumió a medida que crecía. En el futuro Nielsen espera que estudios e instrumentos perfeccionados, como el próximo telescopio espacial Nancy Grace Roman de la NASA, nos ayuden a comprender la formación de planetas de la misma manera que los demógrafos entienden las poblaciones. ¿Podemos predecir qué tipos de estrellas albergarán qué tipos de planetas? ¿Es más probable que las Tierras se formen en ciertos vecindarios? Y si sabemos dónde mirar, ¿encontraremos algo mirándonos?
Sabemos que vivimos en una zona habitable, en un mundo que orbita alrededor de una estrella tranquila. Pero cómo empezó la vida en la Tierra, y cuándo y por qué, es la pregunta más importante de todos los campos de la ciencia. Quizás los científicos también deberían pensar en la historia del origen de nuestra estrella, e incluso en la de los ancestros estelares que dieron forma a nuestro rincón de la Vía Láctea, hace miles de millones de años.
“¿Era inevitable la vida en la Tierra? ¿Fue especial?” se pregunta Chandra. «Solo una vez que empieces a tener esta imagen global… podrás empezar a responder preguntas como esa».
El artículo original, The Best Neighborhoods for Starting a Life in the Galaxy, se publicó el 24 de enero de 2024 en Quanta Magazine.
Traducido por César Tomé López
El artículo Los mejores barrios para empezar una vida en la galaxia se ha escrito en Cuaderno de Cultura Científica.
Aquí huele a pescado podrido: la trimetilamina
Pocos olores hay tan desagradables como el del pescado en mal estado. Cuando esa lubina comprada hace varios días que permanece en la nevera empieza a desprender un aroma nauseabundo, no hay vuelta atrás: la trimetilamina ya ha aparecido como producto de descomposición. Esta molécula también es la responsable del mal aliento y del molesto olor de algunas personas con alteraciones en el metabolismo de determinados aminoácidos.
Fuente: Pexels¿Qué es la trimetilamina?La trimetilamina (TMA), compuesto orgánico de fórmula N(CH3)3, es un gas irritante e incoloro a temperatura ambiente que en contacto con las membranas de las mucosas causa necrosis y corrosión. Se trata de una amina terciaria, fácilmente soluble en el agua y más básica que el amoniaco. La TMA es un producto de degradación microbiana de macromoléculas nitrogenadas tales como la colina, la L-carnitina y la betaína presentes en los tejidos de animales y plantas.
Trimetilamina. Nitrógeno en azul, carbono en negro, hidrógeno en blanco. Fuente: Wikimedia CommonsEn el agua salada, los animales marinos presentan sustancias que equilibran y limitan la concentración salina en el interior de sus células. Entre estos compuestos, el óxido de trimetilamina (TMAO) supone alrededor del 5% del tejido muscular de los peces de mar (atún, anchoa, dorada, gallo, pez espada, rodaballo…). Aunque este componente es inodoro y no da sabor, el TMAO se oxida y se transforma en TMA pocos minutos tras la muerte del pez por la acción de las bacterias y enzimas de su cuerpo. A eso hay que sumar la acción del aire, que también contribuye a la degradación de las grasas y de la urea en amoniaco. Todo ello compone una fétida mezcla de compuestos volátiles que son señal inequívoca de que el pescado no está fresco.
El olor a pescado en los humanosLos seres humanos también sintetizamos TMA como producto de la degradación de aminoácidos como la colina y la carnitina, pero en individuos sanos pasa desapercibido al transformarse a TMAO en el hígado y excretarse en la orina. Existe un trastorno del metabolismo por el cual algunas personas desprenden un intenso olor a pescado en descomposición debido a un fallo de las enzimas que llevan a cabo esta reacción. Aunque es una enfermedad rara, la trimetilaminuria o síndrome del olor a pescado tiene un origen genético y provoca que las personas afectadas expulsen elevadas concentraciones de TMA en la orina, el sudor, el aliento y otros fluidos, como los vaginales en las mujeres.
Los niveles elevados de trimetilamina no son tóxicos para el organismo, pero el olor corporal de las personas con trimetilaminuria puede degenerar en problemas psicosociales por aislamiento y baja autoestima. Actualmente, no existe tratamiento específico y las recomendaciones para mitigar el mal olor pasan por reducir la ingesta de productos ricos en aminoácidos ricos en azufre y nitrógeno (como los pescados azules, las legumbres, la carne y la clara de huevo).
Fuente: PexelsUna delicatessen sueca apestosaEl mal olor que desprende el pescado suele ser un indicador fiable de que no se encuentra en buen estado y nos puede ahorrar una desagradable intoxicación alimentaria. Sin embargo, existe una curiosa excepción: el surströmming. Este producto típico de Suecia consiste en arenques del Mar Báltico fermentados y es considerado uno de los alimentos más hediondos jamás creados por el ser humano. En este caso, el mal olor no se debe a la TMA desprendida por el pescado, sino a los productos de la fermentación que se encuentran en la propia salmuera. El surströmming suele venderse en latas, donde las bacterias del género Haloanaerobium producen dióxido de carbono y varios componentes que provocan su particular olor: ácido propanoico, sulfuro de hidrógeno (huevo podrido), ácido butírico (mantequilla rancia) y ácido acético (vinagre).
Pese a ser un producto tradicional, su consumo está descendiendo y la respuesta parece encontrarse en la genética. Un estudio publicado en la revista Current Biology relacionó la aversión hacia el hedor de este producto con una variante genética del gen TAAR5, responsable de la síntesis de un receptor olfativo encargado de detectar la ya archiconocida TMA. Vamos, que cientos de años de evolución nos han preparado para evitar la comida podrida.
En conclusión, el olor desagradable del pescado podrido se debe al compuesto volátil trimetilamina. Esta molécula, formada a partir de la descomposición bacteriana de TMAO presente en el pescado, aumenta a medida que progresa la degradación y su detección olfativa nos alerta de que el producto no se encuentra fresco. Más allá del pescado en mal estado, la trimetilamina también está vinculada al olor penetrante del mal aliento y el sudor de algunas personas que presentan alteraciones en el metabolismo de algunos aminoácidos. Un mal olor que también está presente y nos hace rechazar otros platos típicos, como el sueco surströmming, en el que el repugnante aroma se debe a la fermentación. En conjunto, la trimetilamina ejemplifica la intersección entre la química, la percepción sensorial y la cultura culinaria.
Referencias:
1. Instituto Nacional de Seguridad y Salud en el Trabajo DLEP 142 – Trimetilamina
2. Márquez Moreno (2013) Síndrome del olor a pescado: trimetilaminuria Formación Activa en Pediatría de Atención Primaria 6, 4
Sobre la autora: Raquel Gómez Molina es química especialista en laboratorio clínico y comunicación científica
El artículo Aquí huele a pescado podrido: la trimetilamina se ha escrito en Cuaderno de Cultura Científica.
Diccionario del asombro
Quizás conozca la palabra clina, o quizás no. Expresa la variación gradual de un rasgo. La palabra fue idea de Julian Huxley, quien la usó para referirse a la variación gradual, a lo largo de un espacio geográfico, de rasgos fenotípicos dentro de una misma especie. Proviene del griego cline (κλινειν), que significa «inclinación», un étimo que contiene, a su vez, la raíz indoeuropea klei, que expresa inclinación, pendiente o subida.
Los términos científicos sinclinal y anticlinal también están relacionados con Klei. Pero la presencia de esa raíz no se limita a términos técnicos, ni muchísimo menos. El lenguaje común está plagado de palabras que la contienen: Inclinar, reclinar, declinar, proclive, clínica, cliente y hasta clima, son palabras relacionadas con klei. Y es probable que clítoris también sea una de ellas.
La etimología es una disciplina preciosa. Además de satisfacer la curiosidad acerca del origen de las palabras, el hecho de conocer cómo se han generado significados transfiriendo propiedades de unos objetos a otros o de unos hechos a otros –en otras palabras, cómo se ha recurrido a elaboraciones metafóricas para expresar nuevas nociones– aporta un conocimiento más profundo también de los conceptos a los que dan nombre las palabras.
En “Diccionario del asombro. Una historia de la ciencia a través de las palabras” hay bastante de esto. Antonio Martínez Ron, su autor, ha escogido un término por cada letra del alfabeto y, a la vez que introduce el marco conceptual al que corresponde la palabra, hace un breve recorrido, a medio camino entre temporal y etimológico, por las nociones y términos emparentados con el que da título al capítulo.
A cada uno de los capítulos antecede un calendario en forma de línea vertical de la que salen, en su correspondiente fecha de creación, las diversas palabras que nombran conceptos relacionados con el de la palabra que da nombre al capítulo. Así, el capítulo “G de Gen” viene precedido de un calendario en el que aparece, en primer lugar “eugenesia” y que termina con “CRISPR”. A lo largo del tiempo transcurrido desde la primera a la última han pasado cromosoma, ácido nucleico, clon, genética, gen, epigenética, transhumanismo, meme y LUCA, aunque en el texto se van glosando muchas otras, siempre con la fecha en que se usaron por primera vez. De esa forma se puede trazar la historia de la disciplina, en este caso de la genética.
A lo largo de las sucesivas letras –de los sucesivos capítulos–, Martínez Ron va construyendo de ese modo una historia de la ciencia diferente, en la que, a la dimensión cronológica, se une otra terminológica que redunda en un conocimiento más profundo de las nociones y de la secuencia de hallazgos que jalonaron el desarrollo del campo del saber al que pertenecen esas nociones.
En sendos apéndices, el autor, de propina, nos ofrece dos breves colecciones adicionales de palabras. En la primera incluye términos creados originalmente en idioma español; no son muchos, pero es una colección interesante, con alguna incorporación muy reciente. Y en el segundo apéndice incluye otra relación de palabras que al autor le ha parecido que debían figurar en su diccionario y para las que no había encontrado acomodo en los capítulos regulares.
Hay un apotegma vasco que dice «izena duenak izana du». Literalmente, «lo que tiene nombre, tiene ser» o, lo que es lo mismo, «lo que tiene nombre, existe». En cierto modo, resulta más expresivo en forma negativa, porque igualmente podría decirse que lo que carece de nombre, no existe. El proverbio vasco refleja fielmente una de las ideas que inspiran el “Diccionario del asombro”. El avance del conocimiento científico produce nuevos conceptos. Pero los conceptos no cristalizan, no se pueden compartir, difundir, ni utilizar, si no se nombran. De hecho, en muchas ocasiones ni tan siquiera existen en tanto no se les da un nombre: izena duenak, izana du. La etimología es una fecunda fuente de saber, también en ciencia.
Título: Diccionario del asombro. Una historia de la ciencia a través de las palabras
Autor: Antonio Martínez Ron
Ed. Crítica, 2023.
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
Una versión de este texto de Juan Ignacio Pérez Iglesias apareció anteriormente en Lecturas y Conjeturas (Substack).
El artículo Diccionario del asombro se ha escrito en Cuaderno de Cultura Científica.
Día de Darwin 2024: evolución del sistema visual y neandertales
Tras 150 años siendo objeto de estudio, ¿se puede decir algo nuevo sobre los neandertales? ¿Sabemos cómo ha condicionado la visión en la evolución de los seres vivos? Esas son algunas de las preguntas que se van a plantear en la decimoctava edición del Día de Darwin.
Esta nueva edición tuvo lugar el 12 de febrero en la Biblioteca Bidebarrieta de Bilbao, justo cuando se cumplen 215 años del nacimiento del geólogo y biólogo inglés Charles Darwin y contará con la participación de la doctora en Neurociencias y profesora de la Facultad de Biología de Salamanca Conchi Lillo Delgado y el doctor, paleontólogo e investigador de la UPV/EHU, Asier Gómez Olivencia que ofrecerán dos charlas de 40 minutos cada una.
Lillo Delgado ofrece la charla “Una mirada a la evolución” en la que, partiendo desde las curiosidades y características de los vertebrados e invertebrados, explica cómo funciona el sistema visual de los seres vivos que, captando las formas, colores y profundidad del mundo que les rodean han desarrollado ventajas evolutivas para sobrevivir y defenderse.
Gómez Olivencia, por su parte, acerca al público los últimos descubrimientos que se han hecho en torno a los neandertales con la charla titulada “¿Qué tal, neandertal? Nuevos datos sobre un viejo conocido”, en la que profundiza en los nuevos hallazgos gracias a la utilización de nuevas tecnologías y la revisión de yacimientos clásicos.
El Día de Darwin es una iniciativa organizada desde 2007 por la Cátedra de Cultura Científica de la Universidad del País Vasco, el Círculo Escéptico y la Biblioteca Bidebarrieta de Bilbao. Una cita que se ha convertido en ineludible para los y las aficionadas a la ciencia y que cuenta con la ayuda del diario El Correo.
PonentesConchi Lillo Delgado es bióloga y doctora en Neurociencias y profesora en la Facultad de Biología de la Universidad de Salamanca. Su área de investigación es el de la neurobiología de la visión en el Instituto de Neurociencias de Castilla y León. En su faceta de divulgadora científica hay que destacar la publicación del libro ¡Abre los ojos! y la colaboración con distintas plataformas de divulgación como Naukas, The Conversation o una sección quincenal en el programa Hoy por Hoy en Ser Salamanca.
Asier Gómez Olivencia es doctor y paleontólogo especializado en Evolución Humana. Cuenta con una dilatada experiencia de investigación y publicación con más de 90 artículos científicos. Realizó su tesis en el Equipo de Investigación de Atapuerca, ha trabajado en la Universidad de Cambridge y en el Musée de l´Homme de París y en 2014 se incorporó a la Universidad del País Vasco, primero como investigador Ikerbasque y después como investigador Ramón y Cajal. Además de excavar en Atapuerca, dirige la excavación en varios yacimientos de Euskadi.
Edición realizada por César Tomé López
El artículo Día de Darwin 2024: evolución del sistema visual y neandertales se ha escrito en Cuaderno de Cultura Científica.
Las cinco imágenes de la supernova Refsdal
Una técnica pionera para medir la velocidad de expansión del universo ofrece una visión nueva e independiente sobre un viejo debate y podría ayudar a determinar la edad del universo con mayor precisión. Uno de los miembros del equipo que la ha desarrollado es Tom Broadhurst, profesor de investigación Ikerbasque de la UPV/EHU y asociado del DIPC.
En astronomía hay dos mediciones precisas de la expansión del universo, conocida también como «constante de Hubble». Una se calcula a partir de las observaciones próximas de las supernovas (las enormes explosiones que se producen al finalizar el ciclo de vida de algunas estrellas) y la segunda emplea el «fondo cósmico de microondas» o la radiación que comenzó a fluir libremente por el universo poco después del Big Bang. Pero estas dos mediciones difieren en un 10 % aproximadamente, lo que ha suscitado un amplio debate entre los físicos y los astrónomos. Si ambas mediciones son precisas, ello significa que la teoría actual que sostienen los científicos sobre la composición del universo es incompleta.
Un equipo internacional del que forma parte Tom Broadhurst, profesor de investigación Ikerbasque de la Universidad del País Vasco (UPV/EHU) y asociado del Donostia International Physics Center (DIPC), ha realizado un nuevo cálculo de la constante de Hubble analizando la luz de múltiples apariciones de una supernova.
Imagen del cúmulo de galaxias MACS J1149 y las localizaciones y el tiempo de las apariciones de la supernova Refsdal. Fuente: Patrick L. Kelly et al (2023) ApJ 948 93«Si las nuevas mediciones independientes confirman esta discrepancia entre ambas mediciones de la constante de Hubble, ello haría tambalear nuestros conocimientos y comprensión sobre el cosmos», señala Patrick Kelly, autor principal del estudio y profesor adjunto de la Escuela de Física y Astronomía de la Universidad de Minnesota. «La gran pregunta es si hay un posible problema con una o ambas mediciones. Nuestra investigación aborda esto midiendo de manera independiente y completamente diferente la tasa de expansión del universo».
Relación entre materia oscura y energía oscuraEl equipo ha calculado esta tasa de expansión utilizando datos de la supernova Refsdal, el primer ejemplo de supernova observada con una imagen multiplicada, es decir, el telescopio capturó cuatro imágenes diferentes del mismo evento cósmico. Tras el descubrimiento, equipos de todo el mundo predijeron que la supernova reaparecería en una nueva posición en 2015 y el equipo de la Universidad de Minnesota detectó esta imagen adicional. Estas imágenes múltiples aparecieron porque la supernova fue distorsionada por la lente gravitacional de un cúmulo de galaxias, un fenómeno por el cual la masa del cúmulo dobla y aumenta la luz. Empleando los retardos entre las apariciones de las imágenes de 2014 y 2015, los investigadores han podido medir la constante de Hubble aplicando una teoría desarrollada en 1964 por el astrónomo noruego Sjur Refsdal y que previamente no se había podido poner en práctica.
La nueva medición de la constante de Hubble coincide más con la del fondo cósmico de microondas «y confirma nuestra tesis de que la velocidad de expansión del universo se ve dominada por la presión exterior de la energía oscura y se compensa con la autogravedad de la materia oscura, de tal manera que actualmente se está acelerando», concluye Tom Broadhurst.
Referencias:
Patrick L. Kelly, Steven Rodney, Tommaso Treu, Masamune Oguri, Wenlei Chen, Adi Zitrin, Simon Birrer, Vivien Bonvin, Luc Dessart, Jose M. Diego, Alexei V. Filippenko, Ryan J. Foley, Daniel Gilman, Jens Hjorth, Mathilde Jauzac, Kaisey Mandel, Martin Millón, Justin Pierel, Keren Sharon, Stephen Thorp, Liliya Williams, Tom Broadhurst, Alan Dressler, Or Graur, Saurabh Jha, Curtis McCully, Marc Postman, Kasper Borello Schmidt, Brad E. Tucker, Anja von der Linden (2023) Constraints on Hubble constant from Supernova Refsdal’s reappearance Science doi: 10.1126/science.abh1322
Patrick L. Kelly, Steven Rodney, Tommaso Treu, Simon Birrer, Vivien Bonvin, Luc Dessart, Ryan J. Foley, Alexei V. Filippenko, Daniel Gilman, Saurabh Jha, Jens Hjorth, Kaisey Mandel, Martin Millon, Justin Pierel, Stephen Thorp, Adi Zitrin, Tom Broadhurst, Wenlei Chen, Jose M. Diego, Alan Dressler, Or Graur, Mathilde Jauzac, Matthew A. Malkan, Curtis McCully, Masamune Oguri, Marc Postman, Kasper Borello Schmidt, Keren Sharon, Brad E. Tucker, Anja von der Linden eta Joachim Wambsganss (2023) The Magnificent Five Images of Supernova Refsdal: Time Delay and Magnification Measurements The Astrophysical Journal doi: 10.3847/1538-4357/ac4ccb
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Las cinco imágenes de la supernova Refsdal se ha escrito en Cuaderno de Cultura Científica.
Viendo pasar el tiempo
¿Qué es, pues, el tiempo? Si nadie me lo pregunta, lo sé; pero si quiero explicárselo al que me lo pregunta, no lo sé. Lo que sí digo sin vacilación es que sé que si nada pasase no habría tiempo pasado; y si nada sucediese, no habría tiempo futuro; y si nada existiese, no habría tiempo presente.
Esta es una de las citas más populares de San Agustín de Hipona. Aparece en sus Confesiones (397-398 d. C.). Y, aunque él hacía este planteamiento desde el punto de vista de la teología, lo cierto es que también estaba planteando una de las cuestiones más fundamentales de la física.
Foto: zero take / UnsplashLa física trata de desentrañar las leyes que rigen el universo a través, en primer lugar, de la observación de los fenómenos de la naturaleza, pero curiosamente, en estas leyes se manifiesta una propiedad que choca de frente con nuestra experiencia: no determinan ninguna dirección preferente para el transcurrir del tiempo. Las leyes de la mecánica clásica, del electromagnetismo, la relatividad o la mecánica cuántica funcionan «hacia delante» y «hacia atrás», no diferencian entre pasado y futuro; y también da igual cuándo empecemos a medir, se cumplen en cualquier instante. Decimos que presentan simetría temporal.
¿Por qué, entonces, tenemos la sensación de que el tiempo va siempre en la misma dirección? Vivimos en un mundo de causas y efectos que, de hecho, utilizamos para ordenar y explicar el mundo que observamos. No experimentamos regresiones al pasado ni bucles ni saltos temporales ―aunque en ocasiones daríamos cualquier cosa porque fuera así―, sino que todo sucede en una línea ordenada de eventos sucesivos. ¿Cuál es la explicación? ¿Acaso está mal el formalismo de la física? ¿Qué nos estamos perdiendo?
Para responder a todas estas preguntas hay que sumergirse en las matemáticas sobre las que se sostiene el andamiaje de la física. En concreto, en uno de sus principios más conocidos: el de la conservación de la energía.
En 1915, Emmy Noether formuló el que probablemente sea uno de los teoremas más bellos de la física: «A cada simetría continua le corresponde una ley de conservación, y viceversa». Así, la simetría espacial ―traslaciones en el espacio―, estaría relacionada con la conservación del momento lineal; la simetría de rotación, con la conservación del momento angular, y la temporal… con la conservación de la energía. Existen más, pero, de momento, nos quedaremos con estos ejemplos. Todo esto se puede expresar de una manera más sencilla: las leyes de la física son las mismas aquí, a cincuenta metros de aquí y en una galaxia muy, muy lejana; también si miramos nuestro sistema de frente, de espaldas, por arriba, por abajo o de lado. Y, por supuesto, siguen siendo las mismas hoy, que ayer, que en la antigua Mesopotamia, y tampoco esperamos que cambien sustancialmente con el paso de los eones.
La matemática Emmy Noether (1882-1935). Foto: CC BY-SA 2.0/Konrad Jacobs, ErlangenHe aquí la clave: la simetría temporal está relacionada con el teorema de conservación de la energía, así que no existirá simetría temporal en aquellos tipos de fenómenos en los que la energía no se conserve. Y nuestro entorno está lleno de ellos. Sirvan como ejemplo los sistemas que disipan calor.
La flecha del tiempo termodinámicaFue en el ámbito de la termodinámica donde se encontró por primera vez una ley que parecía explicar por qué vemos que determinados procesos siempre se desarrollan en un sentido y no en otro, y nos da esa percepción de dirección temporal «hacia delante»; el teorema de Clausius: «Es imposible un proceso cuyo único resultado sea transferir energía en forma de calor de un objeto a otro a mayor temperatura». O, dicho de otra forma: la transferencia de calor siempre se produce desde los cuerpos más calientes a los más fríos, salvo que se realice un trabajo externo. Rudolf Clausius definió también la entropía como esa parte de la energía de un sistema que no se puede aprovechar para realizar ningún trabajo, y llegó a la conclusión de que, en sistemas aislados, esta magnitud tendía a incrementarse con el tiempo. Le había otorgado entidad matemática al principio que Nicolás Carnot había planteado en 1834, o segundo principio de la termodinámica.
Seguro que cualquiera ha visto cómo se rompe un huevo al caer al suelo, pero nadie ha observado que, espontáneamente, un huevo roto se vuelva a recomponer. La ley de Clausius establece una dirección preferente para el transcurrir del tiempo, y esa dirección es aquella en la que la entropía de un sistema aumenta. Este sería un ejemplo. Foto: CC BY-SA 4.0/Balise42Ludwig Boltzmann ampliaría el concepto de entropía de Clausius aplicándolo al ámbito de la mecánica estadística, esto es, la rama de la termodinámica que estudia el comportamiento de sistemas compuestos por un gran número de partículas. A partir del análisis estadístico de los comportamientos microscópicos de átomos y moléculas, se pueden deducir propiedades macroscópicas como la temperatura, el volumen o la presión, así como la entropía. Es por esta visión de Boltzmann por lo que habitualmente se suele definir la entropía como el grado de «desorden» de un sistema, pero no es exactamente eso.
En el mundo de los sistemas termodinámicos formados por muchas partículas existen innumerables, y diferentes, configuraciones microscópicas que pueden dar lugar a las mismas propiedades macroscópicas. Veámoslo con un ejemplo muy fácil: la habitación de un adolescente. ¿Cuántas formas hay de que la habitación de un adolescente esté recogida y cuántas de que esté hecha un desastre? Para el primer caso, seguramente solo unas pocas: la ropa debe estar en el armario, la cama hecha, el escritorio ordenado…, pero para el segundo caso la cosa cambia. Las maneras en que el cuarto de un adolescente puede estar hecho una pocilga son incontables y mucho más numerosas. La forma en la que se pueden distribuir los objetos, enseres, ropa y bolsas vacías de patatas fritas son muchísimas más, sin lugar a dudas. Así que, probablemente, cuando una madre o un padre entren a la habitación de sus hijos por sorpresa se la van a encontrar desordenada.
Esto es lo que, en realidad, nos dice la entropía de Boltzmann sobre la dirección del tiempo: de todas las configuraciones que puede adoptar un sistema microscópico, hay una probabilidad aplastantemente más alta de encontrarlo en un estado desordenado que en uno ordenado. No es que haya una magia oculta que haga que todo fluya irremediablemente hacia el desorden, es que, poniendo un ejemplo, las posibles configuraciones de las moléculas de H₂O para encontrar agua en forma de cubitos de hielo ―sistema ordenado― son muchísimo más bajas que las posibles configuraciones de esas mismas moléculas para encontrar agua líquida o vapor ―sistemas desordenados―. ¿Sería imposible que el huevo que aparecía en la imagen anterior se recompusiera espontáneamente? Bueno… las leyes de la física no lo prohíben, pero la posibilidad es tan remota ―tan, tan, tan extremadamente remota―, que no tiene sentido ni planteársela.
Otras flechas del tiempoPor supuesto, la flecha del tiempo termodinámica que hemos explicado no es la única que existe. Con el tiempo se han ido descubriendo otro tipo de sistemas que también muestran una asimetría temporal. Esta también se manifiesta en la evolución temporal que ha sufrido nuestro universo tras el big bang, hacia un estado de mayor entropía ―flecha del tiempo cosmológica―; en el proceso de medida de un sistema cuántico ―flecha del tiempo de la mecánica cuántica―, en algunos procesos nucleares, como el decaimiento radiactivo. Pero lo que no sabemos es si esto sucede porque el tiempo es una especie de variable intrínseca del universo o por la manera en la que hemos planteando las leyes físicas. Y esa es la verdadera cuestión.
Todo esto significa, básicamente, que la cuestión de la dirección del tiempo sigue sin resolverse. No sabemos realmente lo que es en un sentido fundamental. Percibimos cómo fluye, observamos sus efectos… mientras, al mismo tiempo, algunas teorías también nos han revelado que no es necesario para entender el mundo que nos rodea.
La gravedad cuántica de bucles, por ejemplo, está intentando nuevas aproximaciones en ese sentido, y plantea el tiempo como una «propiedad emergente» de los sistemas cuánticos, no como una variable fundamental. De esta manera, esta teoría, que busca unificar la física cuántica y la teoría de la relatividad, explica el universo a través de relaciones, de eventos, no de «objetos que se mueven respecto a algo» más rápido o más despacio. Carlo Rovelli lo explica con esta frase: «la cosas no son, acontecen», esto es, cambian unas respecto a otras, pero no necesitan del tiempo para describir cómo se produce ese cambio. No… no se trata de conceptos muy fáciles de entender.
La cuestión de la flecha del tiempo es, probablemente, uno de los mayores enigmas de la física. ¿Cómo se acabará resolviendo? Paradójicamente… seguro que el tiempo lo dirá.
Referencias:
Neuenschwander, Dwight E. (2011). Emmy Noether’s wonderful theorem. The Johns Hopkins University Press.
Rovelli, Carlo (2018). El orden del tiempo. Anagrama.
Zeh, Dieter H. (2007). The physical basis of the direction of time. Springer.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo Viendo pasar el tiempo se ha escrito en Cuaderno de Cultura Científica.
Los números primos de Sophie Germain
En noviembre de 2022, la artista donostiarra Esther Ferrer, la directora de Tabakalera, el Centro Internacional de Cultura Contemporánea de Donostia, Edurne Ormazabal, y el alcalde de Donostia/San Sebastián, Eneko Goia, presentaron ante la prensa una intervención artística para la futura plaza de acceso a Tabakalera. Como se pudo leer en diferentes medios de comunicación, se trata de una instalación que forma parte de su serie El poema de los números primos, realizada en cerámica de colores azul y verde, los que para la artista definen la ciudad de San Sebastián, junto con otros dos colores, el gris y el dorado. Este último es un homenaje a la matemática francesa Sophie Germain (1776-1831).
Proyecto del nuevo acceso al Centro Internacional de Cultura Contemporánea de Donostia, Tabakalera, con la instalación donada por la artista Esther FerrerLa matemática Sophie GermainNació en París, el 1 de abril de 1776, en una familia burguesa que participó en la revolución francesa. Durante la misma se refugió en su casa y dedicó su tiempo a la lectura de libros de la biblioteca. La impresionó mucho una historia de las matemáticas y la anécdota de la muerte de Arquímedes. Este gran matemático griego, que ya en su época alcanzó cierta fama, murió a manos de un legionario romano mientras se hallaba absorto en la resolución de un problema geométrico, durante el asalto de Siracusa (véase una explicación más extensa sobre su muerte en la entrada Muerte entre las ecuaciones (Historias de muerte y matemáticas 1)). Estudió matemáticas por su cuenta, aunque con la oposición de su familia (por la noche le quitaban la luz, la calefacción y la ropa).
Caricatura de Sophie Germain, realizada por Enrique Morente, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)Como la Escuela Politécnica de París, que fue fundada en 1794, cuando Sophie tenía 18 años, no admitía a las mujeres como alumnas (de hecho, no las admitiría hasta 1972), ella consiguió hacerse con algunos apuntes, como los de Química del químico francés Antoine François, Conde de Fourcroy (1755-1809) o los de Análisis Matemático del matemático franco-italiano, Joseph-Louis Lagrange (1736-1818). Al final del periodo lectivo los estudiantes solían presentar sus investigaciones, o comentarios, a sus profesores, así que Sophie Germain envió un trabajo a Lagrange, firmándolo como Antoine-Auguste Leblanc, un antiguo alumno de la Escuela Politécnica. Este trabajo impresionó a Lagrange, quien quiso conocer al estudiante. Al averiguar su verdadera identidad la felicitó, la animó a seguir estudiando y predijo que tendría éxito como matemática. Ese encuentro la hizo famosa en la comunidad científica y empezó a relacionarse con científicos de la época. Alcanzó cierta notoriedad. Muchos le enviaban sus trabajos o se querían entrevistar con ella.
Caricatura de Joseph-Louis Lagrange, realizada por Enrique Morente, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)Cuando Sophie Germain empezó a escribir al gran matemático alemán Carl Friedrich Gauss (1777-1855) para compartir con él sus investigaciones en Teoría de Números (intentaba demostrar el Teorema de Fermat), firmó sus cartas con el seudónimo de “Monsieur Leblanc”. En 1906 con motivo de la campaña de Prusia de Napoleón, Sophie Germain temió que algo le ocurriera a Gauss y le escribió a un militar amigo suyo para que velara por la seguridad del matemático. El militar le escribió a Germain para comunicarle que Gauss estaba bien, que este le agradecía su mediación, pero que no conocía a ninguna Sophie Germain. Entonces la matemática francesa tuvo que escribirle para contarle que ella era Monsieur Leblanc. Gauss sorprendido al conocer su identidad, le escribió una carta alabando su talento, su valor y su genio, y comentando como una mujer encuentra más obstáculos que un hombre para trabajar en matemáticas debido a los prejuicios.
Caricatura de Carl Friedrich Gauss, realizada por Enrique Morente, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)El resultado que lleva su nombre fue un avance muy importante en la demostración del Teorema de Fermat (que no se demostraría hasta 1995, por Andrew Wiles). Posteriormente se dedicaría al estudio de las superficies elásticas, intentando explicar matemáticamente los experimentos del físico alemán Ernst Florenz Friedrich Chladni (1756- 1827), los patrones geométricos que forma la música sobre las placas metálicas con arena, lo que le valdría el Premio de la Academia de Ciencias. Trabajó en otros temas como la curvatura o incluso en Filosofía de la Ciencia. Su ensayo filosófico Considérations générales sur l’état des Sciences y des Lettres aux différentes époques de leur culture / Consideraciones generales sobre las Ciencias y las Letras en las diferentes épocas de su cultura (1833), para identificar los procesos intelectuales de las “Ciencias” y las “Letras” e incluso de todas las actividades humanas, fue elogiado por el filósofo Augusto Comte.
Si se esparce arena en una placa metálica y se le hace vibrar con música, por ejemplo, un arco de violín, la arena se distribuye formando patrones geométricos. Fotografía de Chris Smith, de su proyecto Pattern 365, en flickr
Dedicó toda su vida a las matemáticas, no se casó nunca y murió de cáncer de mama en 1831. Poco antes de su muerte, en 1830, Gauss intentó que la Universidad de Gotinga, en Alemania, le otorgara el título de Doctor Honoris Causa, pero a pesar de su gran influencia en esta universidad, su propuesta fue rechazada.
El último teorema de FermatComo se comentaba más arriba el teorema que lleva asociado el nombre de esta matemática francesa, el teorema de Germain, que da lugar al concepto de número primo de Sophie Germain, está relacionado con el famoso último teorema de Fermat.
Empecemos recordando brevemente este importante resultado de la Teoría de Números (para más información sobre el mismo se puede leer la entrada Euler y el último teorema de Fermat o el artículo Avatares literarios del último teorema de Fermat).
Caricatura de Pierre de Fermat, realizada por Gerardo Basabe de Viñaspre, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)El jurista francés y aficionado a las matemáticas Pierre de Fermat (1601-1665), inspirado en el problema de expresar el cuadrado de un número como la suma de los cuadrados de dos números, es decir, buscar soluciones de números enteros positivos a la ecuación pitagórica x2 + y2 = z2 (existen infinitas soluciones, ternas pitagóricas, como (3,4,5) o (5,12,13)), problema que aparecía en el libro Aritmética del matemático griego Diofanto (alrededor del siglo III o siglo IV), se planteó extender ese problema a cualquier potencia y afirmó tener una demostración (el famoso margen en su ejemplar del libro de Diofanto), del hecho de que no existían soluciones para cualquier potencia, diferente de 2. Sin embargo, esa demostración nunca apareció y fue el inicio de una gran aventura matemática, la búsqueda de una demostración del llamado último teorema de Fermat.
Último teorema de Fermat: No es posible encontrar tres números enteros positivos x, y, z tales que verifiquen la ecuación, xn + yn = zn, para n mayor, o igual, que 3.
El primer avance significativo en los intentos por demostrar el teorema de Fermat, en más de un siglo, se produjo de la mano del matemático suizo Leonhard Euler (1707-1783). Este estaba estudiando los papeles de Pierre de Fermat cuando en mitad de una demostración encontró un razonamiento válido para el teorema de Fermat cuando n = 4, es decir, de que no existen números enteros positivos x, y, z tales que x4 + y4 = z4. La técnica que utilizaba Fermat era la conocida con el nombre de “descenso infinito”.
Euler hizo uso de la técnica del descenso infinito, pero utilizando números complejos en el razonamiento, para demostrar la conjetura de Fermat para el caso n = 3, x3 + y3 = z3. Aunque Euler cometió un error en dicha demostración, el resultado necesario para corregirlo estaba en otro de los trabajos del matemático suizo, por lo que se sigue considerando válida su demostración. Las ideas de la demostración de Euler fueron generalizadas por matemáticos como el alemán Peter Gustav Lejeune Dirichlet (1805-1859), el francés Adrien-Marie Legendre (1752-1833) o el francés Gabriel Lamé (1795-1870) para probar algunos otros casos particulares, como, por ejemplo, n = 5 y 7.
Caricatura de Leonhard Euler, realizada por Enrique Morente, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)Después del trabajo de Euler quedó claro que bastaba demostrar el último teorema de Fermat para los números primos impares. El argumento es el siguiente. Si un número primo p divide a n, entonces tendremos que n será el producto del número primo p con otro número q, es decir, n = pq. Por lo tanto, la ecuación xn + yn = zn, puede escribirse como
de donde se deduce, que si la ecuación xp + yp = zp, no tiene solución, tampoco la tendrá la anterior. Por otra parte, si ningún número primo impar divide a n, entonces n será una potencia de 2 y entonces 4 divide a n (para n = 2, ya sabemos la solución, son los triples pitagóricos). Por el mismo argumento anterior, si 4 divide a n, basta demostrar que la ecuación x4 + y4 = z4 no tiene solución, como ya sabemos, por el propio Fermat (a través de Euler, claro).
En consecuencia, había que intentar demostrar el último teorema de Fermat para los números primos impares. Pero solo se conocía la demostración para los primeros números primos impares, 3, 5 y 7. Y precisamente el primer resultado general vino de la mano de la matemática francesa Sophie Germain.
Caricatura de Sofía Kovalévskaya (1850-1891), realizada por Gerardo Basabe de Viñaspre, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)Los primos de Sophie GermainEl estudio de la ecuación xp + yp = zp, para p un número primo impar, se dividió en dos casos. El primer caso cuando p no divide a x, y y z (es decir, que x, y y z no son múltiplos de p) y el segundo caso cuando p sí divide a alguno de los tres, x, y o z. El resultado de Germain se refería al estudio del primer caso del último teorema de Fermat y es el siguiente.
Teorema de Germain: Si p es un número primo, tal que 2p + 1 también es primo, entonces no existen números enteros x, y, z, no nulos y no múltiplos de p, tales que xp + yp = zp.
Este resultado de Germain fue el primer resultado general en la demostración del último teorema de Fermat, que establecía una familia de números primos para los cuales no se cumplía el primer caso del último teorema de Fermat.
Debido al resultado anterior, a los números primos p tales que 2p + 1 es también primo se les llama primos de Sophie Germain (o primos de Germain). Por ejemplo, los números 2, 3 o 5 son primos de Sophie Germain, ya que 2 x 2 + 1 = 5, 2 x 3 + 1 = 7 y 2 x 5 + 1 = 11 son también primos. La sucesión de números primos de Sophie Germain es la sucesión A005384 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, y los primeros miembros de la sucesión son:
2, 3, 5, 11, 23, 29, 41, 53, 83, 89, 113, 131, 173, 179, 191, 233, 239, 251, 281, 293, 359, 419, 431, 443, 491, 509, 593, 641, 653, 659, 683, 719, 743, 761, 809, 911, 953, 1013, 1019, 1031, 1049, 1103, 1223, 1229, 1289, 1409, 1439, 1451, 1481, 1499, 1511, 1559, …
A los números primos de la forma 2p + 1, tales que p es un número primo (por lo tanto, p es un primo de Germain), se les llama números primos seguros. El nombre se deriva de la importancia de los números primos de Germain p y los primos seguros 2p + 1 en la criptografía. La sucesión de números primos seguros es la sucesión A005385 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, y los primeros miembros de la sucesión son:
5, 7, 11, 23, 47, 59, 83, 107, 167, 179, 227, 263, 347, 359, 383, 467, 479, 503, 563, 587, 719, 839, 863, 887, 983, 1019, 1187, 1283, 1307, 1319, 1367, 1439, 1487, 1523, 1619, 1823, 1907, 2027, 2039, 2063, 2099, 2207, 2447, 2459, 2579, 2819, 2879, 2903, 2963, …
Se desconoce, al igual que ocurre con los números primos gemelos (véase la entrada Números primos gemelos, parientes y sexis (1)), si existen infinitos números primos de Sophie Germain. Y, de nuevo, como en otros temas, se buscan números primos de Germain lo más grandes posibles. Como puede verse en la página web dedicada a los números primos y sus records, The Prime pages, el número primo de Sophie Germain más grande conocido, a día de hoy, fue obtenido en febrero de 2016, y es el número
que tiene 388.342 dígitos.
Mirando la lista de los números primos de Sophie Germain anterior podemos descubrir cuestiones como la siguiente. Si tomamos el número 2, que es un primo de Germain, resulta que el número primo seguro asociado, 2 x 2 + 1 = 5, también es primo de Germain. Más aún, el número primo seguro asociado al 5, 2 x 5 + 1 = 11, también es primo de Germain. Pero podemos continuar más, ya que 2 x 11 + 1 = 23 también es un primo de Germain. Aunque, este camino se termina aquí, puesto que 2 x 23 + 1 = 47, que ya no lo es. En cualquier caso, observamos que podemos generar cadenas de números de Germain concatenados. De hecho, a las cadenas de números primos de Sophie Germain concatenados, incluido el número primo seguro asociado al último de la cadena, en el caso anterior la cadena 2, 5, 11, 23, 47, se las llama cadenas de Cunningham, que reciben ese nombre en honor al matemático indio-británico Allan J. C. Cunningham (1842-1928). Las cadenas de Cunningham tienen la siguiente forma, si p es el número primo de Germain inicial:
Otro ejemplo de cadena de Cunningham es 89, 179, 359, 719, 1439 y 2879. En 2008, el matemático polaco Jaroslaw Wroblewski descubrió la cadena más larga conocida, a día de hoy, formada por 17 elementos. Esta cadena empieza por el número primo de Sophie Germain (con 22 dígitos):
2.759.832.934.171.386.593.519.
El poema de los números primosEsther Ferrer es una reconocida artista cuyo arte transita entre el minimalismo y el arte conceptual, así como una pionera del arte de la performance. Su trabajo ha sido reconocido con múltiples galardones como el Premio Nacional de Artes Plásticas, en 2008, el Premio Gure Artea, en 2012, o los siguientes premios en 2014, Premio MAV (Mujeres en las Artes Visuales), Prix Marie Claire pour l’Art Contemporain y Premio Velázquez de las Artes Plásticas. Una recomendación para las personas interesadas en conocer su trayectoria artística es el documental Esther Ferrer: Hilos de Tiempo (Josu Rekalde, 2020).
Cartel del documental Esther Ferrer: Hilos de Tiempo (2020), dirigido por Josu RekaldeEn su arte podemos encontrar muchos elementos relacionados con las matemáticas, tanto como fuente de inspiración, como herramienta de creación artística, desde los números primos con los que trabaja desde la década de los años 1970, hasta el infinito en el número pi, pasando por la combinatoria, el azar, las ilusiones ópticas o la geometría. Algunas de las entradas del Cuaderno de Cultura Científica estudian esta interesante interacción, como Variaciones artísticas del teorema de Napoleón, sobre una serie de obras titulada Triángulo de Napoleón que está relacionada con un resultado clásico de la geometría, el teorema de Napoleón, o la entrada ¿Es normal el número pi?, en la cual se explica la importancia de las matemáticas en la estética de la obra Pi (2009-2010). Pero una de las herramientas de creación artística más importantes en la producción de Esther Ferrer son los números primos. De sus procesos creativos y obras relacionadas con los mismos se ha escrito en las entradas El poema de los números primos, El poema de los números primos (2) o Números primos gemelos, parientes y sexis (1), pero también en el libro La gran familia de los números (Libros de la Catarata – ICMAT – FESPM, 2021).
Boceto de la instalación para la nueva plaza de acceso a Tabakalera, perteneciente a la serie El poema de los números primos, de Esther Ferrer. Mi más sincero agradecimiento a Esther Ferrer por permitirme mostrar este hermoso boceto, cuya realización se podrá disfrutar en breve en Tabakalera (Donostia)La instalación para la nueva plaza de acceso a Tabakalera, perteneciente a la serie El poema de los números primos, de Esther Ferrer, se construye utilizando la espiral de Ulam (véase la entrada El poema de los números primos, para una lectura más en profundidad de esta estructura geométrica plana numérica) y los números primos de Sophie Germain, que se han explicado en esta misma entrada, mediante un proceso creativo similar al de algunas de las obras de las series El poema de los números primos y Un mar de números primos, que explicaremos a continuación.
La espiral de Ulam es una estructura geométrica plana, de tipo reticular, en la que los números naturales son escritos en espiral, empezando en el 1 y en el sentido contrario a las agujas del reloj, destacando los números primos. En la siguiente imagen se muestra la espiral de Ulam hasta el número 144 (aunque es un número bajo ya se puede percibir la idea de su proceso de construcción), con las casillas de los números primos (como 2, 3, 5, 7 11, etcétera) en gris, lo que permite observar la distribución de los números primos en la misma (sobre todo para grandes retículas, como hizo el matemático polaco Stanislaw Ulam (1909-1984)).
Espiral de Ulam hasta el número 144, con las casillas de los números primos en gris
El boceto de la instalación de Esther Ferrer, que luego se trasladará a la obra formada por baldosas ubicada en la nueva entrada de Tabakalera, consiste en una espiral de Ulam de 88 filas y 89 columnas, es decir, 7.832 casillas (desde el número 1, en el centro de la retícula cuadrada, al número 7.832 en la esquina de abajo a la izquierda). En las casillas/baldosas con números compuestos, es decir, no primos, se han borrado los números, mientras que se han dejado escritos los números primos en sus correspondientes casillas, pero además estas casillas, están pintadas de gris (la última casilla gris de la espiral de Ulam, luego de un número primo, es el 7.829), salvo algunas que serán doradas. Estas se corresponden con otro elemento importante en esta obra, como comentábamos más arriba, son los números primos de Sophie Germain. Las casillas que contienen estos números van pintadas de dorado, en lugar de gris, como homenaje a la matemática francesa (la última casilla dorada de la espiral es el número 7.823).
En la siguiente imagen mostramos una reconstrucción de la idea de la instalación de Esther Ferrer, pero para la pequeña retícula de 144 casillas (12 filas y 12 columnas), en la que se recoge lo explicado hasta el momento: espiral de Ulam, casillas doradas con números primos de Sophie Germain, casillas grises con números primos que no son de Germain y, por ahora, casillas blancas para los números compuestos.
Espiral de Ulam en la que se han borrado los números compuestos –no primos-, se han pintado de gris las casillas de los números primos, salvo aquellas que corresponden a números primos de Germain, que están pintadas de dorado
El método general de Esther Ferrer, en las obras relacionadas con los números primos, consiste en generar patrones planos utilizando dos estructuras relacionadas con los mismos, la criba de Eratóstenes y la espiral de Ulam, que acabamos de mencionar para la futura instalación. En ambos casos, el patrón geométrico queda establecido de forma objetiva, por la distribución de los números primos, mientras que la artista “actúa” después sobre las zonas de números compuestos, no primos. Normalmente, crea interacciones artísticas cambiantes sobre las “lagunas de números primos”, es decir, las zonas de números compuestos, no primos, entre dos números primos consecutivos. Un ejemplo de interacción artística consiste, por ejemplo, en que, en cada casilla de un número compuesto, no primo, se dibuja una diagonal siguiendo la siguiente regla. Las diagonales tienen dos posiciones (ascendente o descendente, en el sentido del recorrido de los números) y dos colores (por ejemplo, azul y verde), y el sentido y el color de las diagonales cambian de una laguna de números primos a la siguiente. En otras obras, las diagonales van avanzando en zigzag (ascendente/descendente) de una casilla a la siguiente y es el color de las diagonales el que cambia de una laguna a otra, es decir, cambian con cada nuevo número primo. Pueden verse algunos ejemplos en las entradas mencionadas más arriba.
Sin embargo, en esta última obra Esther Ferrer ha incluido un elemento nuevo, como son los números primos de Sophie Germain y la intervención artística cambia en la misma, de diagonales en zigzag verdes a diagonales en zigzag azules, y viceversa, no en los números primos como antes, sino en los números primos de Germain. Por otra parte, las lagunas de números primos se marcan pintando media casilla, inicial y final, del color correspondiente (lo que provoca que para los números primos gemelos la casilla intermedia sea completamente azul o verde, ya que es inicial y final a la vez). En la siguiente imagen se muestra una reconstrucción para la pequeña retícula de 144 casillas.
Reconstrucción del boceto de la instalación para la nueva plaza de acceso a Tabakalera, perteneciente a la serie El poema de los números primos, de Esther Ferrer, para la pequeña retícula de 144 casillas (12 filas y 12 columnas), que se corresponde con la parte central del bocetoObsérvese que, si nos vamos moviendo en espiral, como ha sido construida la espiral de Ulam, los colores de las diagonales en zigzag cambian entre los números primos de Germain, que son (menores que 144) los siguientes, 2, 3, 5, 11, 23, 29, 41, 53, 83, 89, 113 y 131. Las casillas coloreadas solamente la mitad se corresponden con casillas iniciales y finales de lagunas de números primos (recordemos que son zonas de números no primos, entre un primo y el siguiente), luego las casillas monocolor se corresponden con la única casilla que está entre dos primos gemelos (parejas de números primos con solo un número par entre ellos). Por ejemplo, dos números primos de Germain consecutivos son el 41 y el 53, cuyas casillas son doradas; el color que domina las casillas entre ellos es el azul; entre el 41 y 43 la casilla es completamente azul, ya que son números primos gemelos; la pequeña laguna entre el 43 y el 47, es una pequeña zona en zigzag azul, con la casilla del 44 (inicial) con la mitad azul y la casilla del 46 (final) con la mitad azul; y algo similar en la siguiente laguna entre los números primos 47 y 53. Y entonces, en el primo de Germain 53, cambia el color al verde, hasta el siguiente, el 83.
Poema de los números primos lagunas (2020), de Esther Ferrer, construida mediante una espiral de Ulam –que empieza en un número primo muy alto, el 1.693.182.318.746.371–, teniendo en cuenta las lagunas de números primos y con una gran laguna central, de 1131 números compuestos consecutivos. Tuve el placer de colaborar con Esther Ferrer en la parte matemática de esta obra, y otras relacionadas. Muchas gracias, Esther.Bibliografía
1.- R. Ibáñez, La gran familia de los números, Libros de la Catarata – ICMAT – FESPM, 2021.
2.- María Molero, Adela Salvador, Sophie Germain (1776-1831), Ed. del Orto, 2007.
3.- Lourdes Figueiras, María Molero, Adela Salvador, Nieves Zuasti, El juego de Ada. Matemáticas en las Matemáticas, Proyecto Sur, Granada. 1988.
4.- Susana Mataix, Matemática es nombre de mujer, Rubes, 2005.
5.- Xaro Nomdedeu, Mujeres, manzanas y matemáticas, Nivola, 2000.
6.- VVAA, El rostro humano de las matemáticas, Nivola, 2008.
7.- Dora Musielak, Sophie Germain, Revolutionary Mathematician, Springer, 2020.
8.- Paulo Ribenboim, The Little Book of Bigger Primes, Springer, 2004.
9.- R. Ibáñez, Las matemáticas como herramienta de creación artística, Libros de la Catarata – FESPM, 2023.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los números primos de Sophie Germain se ha escrito en Cuaderno de Cultura Científica.
Anticipando las crisis de precios agroalomentarios usando inteligencia artificial
España es uno de los mayores suministradores de frutas y verduras para los países europeos y la agricultura representa uno de los pilares fundamentales de nuestra economía como país. Anticipar el precio futuro de dichos productos permitiría a las cooperativas y agricultores programar la producción, cosecha y comercialización de una manera más eficiente. Esto se traduciría en una remuneración más justa, contribuyendo de paso a disminuir el desperdicio alimentario que supera el 14% de la producción de las frutas y verduras a nivel mundial.
Como en cualquier mercado, conocer de antemano cómo van a evolucionar los precios en el sector no es nada fácil, pero ahí es donde la inteligencia artificial tiene algo que aportar. Un equipo de investigadores ha analizado el potencial del algoritmo de Machine learning Reservoir Computing de cara a anticipar la evolución de los precios en el sector agroalimentario y con ello prevenir, o al menos anticiparse, a posibles crisis.
“Anticipar crisis de precios en el mercado agroalimentario es fundamental para garantizar la sostenibilidad del sector y la seguridad alimentaria, ambos objetivos de la ONU para la Agenda 2030. Sin embargo, esta no es tarea fácil, ya que el problema implica analizar series temporales con pocos datos, muy volátiles y que están influenciadas por factores externos como la producción y demanda, las exportaciones o el clima”, explica Mar Grande, investigadora de la Escuela Técnica Superior de Ingeniería Agronómica, Alimentaria y de Biosistemas (ETSIAAB) de la UPM y de la empresa AGrowingData y una de las autoras del trabajo.
Para afrontar este problema, el equipo analizó el rendimiento del algoritmo de Reservoir Computing para predecir series temporales de precios. Además, desarrollaron una arquitectura óptima, basada en la descomposición de la serie temporal, para anticipar la evolución del mercado agroalimentario.
El trabajo pone de manifiesto el potencial de dicho algoritmo a la hora de predecir la evolución de los precios. Además, supera en rendimiento a otros modelos utilizados hasta el momento como los modelos econométricos (SARIMA) o las redes neuronales como LSTM, reduciendo el error absoluto medio y, lo que es más importante, aumentado la precisión al predecir la dirección del mercado.
Crisis de precios y desperdicio de comidaLos resultados obtenidos suponen una importante contribución de cara a garantizar la seguridad alimentaria y crear un sistema agroalimentario sostenible. Además, conocer con la suficiente anticipación los periodos de precios mínimos en los que la producción se tira porque no es rentable su venta, permitiría a gobiernos y ONGs destinar dicha producción a las poblaciones vulnerables.
Y es que, pese a la importancia de los datos, los investigadores subrayan que “no podremos tener un sistema alimentario sostenible si no solventamos el problema del desperdicio de comida” muy relacionado con las crisis de precios.
“Alrededor del 14% de las frutas y verduras que se producen en el mundo se pierden antes de llegar al mercado. Esto ocurre principalmente por las crisis de precios, donde el precio es tan bajo que no sale rentable comercializar los productos. Así, para alcanzar la sostenibilidad del sector agroalimentario es tarea clave anticipar los precios del mercado para que se puedan llevar a cabo acciones adecuadas antes de que se produzca una crisis”, concluyen.
Referencias:
L. Domingo, M. Grande, F. Borondo y J. Borondo (2023) Anticipating food price crises by reservoir computing Chaos, Solitons and Fractals doi: 10.1016/j.chaos.2023.113854
L. Domingo, M. Grande, G. Carlo, F. Borondo y J. Borondo (2023) Optimal quantum reservoir computing for market forecasting: An application to fight food price crises arXiv doi: 10.48550/arXiv.2401.03347
Edición realizada por César Tomé López a partir de materiales suministrados por la Universidad Politécnica de Madrid
El artículo Anticipando las crisis de precios agroalomentarios usando inteligencia artificial se ha escrito en Cuaderno de Cultura Científica.
Un océano para Mimas
Las misiones planetarias que han visitado nuestro Sistema Solar exterior han supuesto una verdadera revolución en nuestra visión y comprensión de la actividad geológica más allá de la Tierra, especialmente en lo que se refiere a los cuerpos más pequeños donde, a priori, tras la formación del Sistema Solar, habrían tenido tiempo más que suficiente como para enfriarse por completo y ser mundos -en términos coloquiales- muertos a nivel geológico.
Sin la misión Cassini, que estuvo en órbita alrededor de Saturno durante trece años, quizás nuestra visión seguiría siendo, si no la misma, muy parecida a la que teníamos antes. Pero la enorme cantidad de imágenes y datos que nos envió de los distintos y diversos satélites del gigante gaseoso, y que probablemente representen diferentes estadios evolutivos, este cambio habría tardado mucho más.
El caso que vamos a tratar hoy es un poco peculiar porque servirá para darle otra vuelta a los modelos de evolución planetaria, pero también nos podría ayudar a saber como deberíamos seguir explorando otros mundos para obtener una visión más certera sobre estos. Por eso hoy vamos a hablar de Mimas, porque quizás, después de todo, tenga un océano interior.
Mimas visto con las cámaras de la Cassini el 13 de febrero de 2010 a una distancia de unos 9500 kilómetros. Cortesía de NASA/JPL-Caltech/Space Science Institute.Mimas es un pequeño satélite de Saturno -apenas tiene un diámetro de 400 kilómetros- y cuando uno mira su superficie, lo primero que salta a la vista es que está completamente cubierta por cráteres, muchas veces superpuestos los unos a los otros, uno de los cuales, Herschel, tiene aproximadamente un tercio del diámetro del satélite. Por cierto, es este cráter el que le da esa apariencia de “estrella de la muerte” que hace que su aspecto sea tan reconocible.
En geología planetaria, normalmente, el número y tamaño de los cráteres nos indica la juventud o la senectud de una superficie, porque cuanto mayor es el grado de actividad geológica, su superficie tendrá una mayor probabilidad de renovarse y, por lo tanto, borrar esos cráteres que han ido acumulándose en su superficie.
Hay otra serie de aspectos que nos podrían indicar una actividad reciente, como la presencia de sistemas de pliegues y fracturas como los que podemos ver en cuerpos como por ejemplo sería el caso de Encélado, otro satélite de Saturno, y cuya actividad es patente en su superficie no solo por zonas muy rejuvenecidas y con una total ausencia de cráteres, sino también por los geiseres activos que emanan de grandes sistemas de fracturas y atestiguan que es un mundo activo todavía hoy.
En el caso de los cuerpos cuya corteza está formada por hielo -la mayor parte de los satélites del Sistema Solar exterior son así- para que exista actividad en su superficie tiene que existir al mismo tiempo un océano interior que sirva como una correa de transmisión de ese calor que todavía queda en su núcleo rocoso o que, incluso, se está generando en estos momentos, bien en el núcleo o incluso en el propio hielo.
Si miramos más de cerca la superficie de Mimas en esta imagen de falso color -hecha para detectar variaciones composicionales- observamos claramente la permeabilidad de los cráteres. Cortesía de NASA/JPL/Space Science Institute.Si nos fijamos solo en el aspecto de Mimas, a priori no parecería un mundo activo con un océano subterráneo, puesto que debido a su pequeño tamaño y con el tiempo que ha pasado desde su formación habría tenido tiempo más que suficiente para congelarse por completo en el caso de haber existido en algún momento.
Pero los datos de la misión Cassini han permitido en los últimos años detectar una serie de detalles que hacen pensar que podríamos estar muy equivocados. Uno de los datos más importantes consistió en observar las libraciones de Mimas a lo largo de su órbita alrededor de Saturno. ¿Qué son las libraciones? De una manera sencilla es un movimiento oscilante -o un bamboleo- que sufren los cuerpos celestes cuando los observamos desde el mismo punto.
Estas libraciones vienen condicionadas por las interacciones gravitatorias entre los cuerpos y que tiene como consecuencia cambios en su movimiento orbital y de rotación, algo que nos permite que a veces veamos más de la mitad de una luna, y me explico: Nosotros, desde la Tierra, parece que siempre vemos la misma cara de nuestra Luna, pero en realidad vemos algo más del 50% de su superficie gracias a las libraciones.
Más allá de permitirnos ver una mayor parte de la superficie, estas libraciones nos permiten encontrar pistas sobre la estructura interna de los satélites, como, por ejemplo, el tamaño del núcleo rocoso o la presencia de un océano interior. A estos datos hay que sumarles los datos gravitatorios y topográficos que también se tomaron durante la misión Cassini y que ayudan a completar los modelos sobre el interior.
Mimas, frente a los anillos de Saturno. Cortesía de NASA/JPL/Space Science Institute.Algunos de los modelos iniciales mostraban que Mimas tendría un núcleo rocoso con una forma poco esférica -o dicho de otra manera, alejado del equilibrio hidrostático- y una corteza completamente congelada, con ningún o muy poco margen para la presencia de un océano, aunque es cierto que algunos autores como Rhoden et al. (2022, 2023) sugerían que esta podría ser una posibilidad.
Pero un estudio recién publicado por Lainey et al. (2024) en la revista Nature aporta una nueva pista: la corteza no rota al mismo ritmo que el núcleo, lo que sugiere que, efectivamente, entre ambas existe un océano interior, una estructura interna que casaría mejor con los datos de forma, topografía y campo gravitatorio de Mimas. Este océano ocuparía aproximadamente el 50% del volumen del satélite.
Entonces, ¿Por qué no vemos reflejo de ese océano en la superficie? Pues porque estaríamos ante un océano joven, y que probablemente tenga menos de 25 millones de años, es decir, en términos geológicos, un recién llegado. Este periodo de tiempo no habría sido suficiente para que la actividad del océano haya llegado a propagarse hacia la superficie y, por lo tanto, sea un océano invisible o camuflado.
Estos hallazgos nos hacen replantearnos una serie de cuestiones sobre la geología de los cuerpos más pequeños del Sistema Solar, especialmente en cuanto a la duración de su actividad geológica. Los cuerpos ya no solo podrían enfriarse y estar condenados a carecer casi por completo de esta, sino que podrían tener una segunda vida geológica en el caso de sufrir cambios en sus parámetros orbitales por la interacción con otros satélites del sistema, por poner un ejemplo, abriendo la puerta a un Sistema Solar todavía más vivo de lo que podríamos imaginar e incluso, quien sabe, si también más habitable desde el punto de vista de la astrobiología.
Referencias:
Lainey, V., N. Rambaux, G. Tobie, N. Cooper, Q. Zhang, B. Noyelles, y K. Baillié (2024) A Recently Formed Ocean inside Saturn’s Moon Mimas Nature doi: 10.1038/s41586-023-06975-9.
Rhoden, Alyssa Rose (2023) Mimas: Frozen Fragment, Ring Relic, or Emerging Ocean World? Annual Review of Earth and Planetary Sciences doi: 10.1146/annurev-earth-031621-061221.
Rhoden, Alyssa Rose, y Matthew E. Walker (2022) The Case for an Ocean-Bearing Mimas from Tidal Heating Analysis Icarus doi: 10.1016/j.icarus.2021.114872.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Un océano para Mimas se ha escrito en Cuaderno de Cultura Científica.
La necesaria refundación del sistema de publicación científica
Uno de los pilares sobre los que se sostiene el avance acumulativo del conocimiento científico es el sistema universal de comunicación, publicación y edición científica. Su fundación moderna se remonta al siglo XVII, cuando fueron creados los primeros grupos organizados con el propósito explícito de promover el avance de la ciencia. Algunas de las más antiguas y prestigiosas Sociedades Científicas son la Accademia dei Lincei (Roma, 1603), la Deutsche Akademie der Naturforscher Leopoldina (Halle, 1652), la Royal Society (Londres, 1660) y la Académie des Sciences (Paris, 1666). Todas ellas promovieron la publicación de importantes libros y escritos de sus miembros, y en marzo de 1665 Henry Oldenburg, primer secretario de la Royal Society de Londres lanzó la primera revista científica periódica: las Philosophical Transactions, que hoy día aún sigue activa.
La labor editorial científica se demostró de enorme importancia para la comunicación pública internacional del conocimiento, así como para la colaboración entre las personas dedicadas a la ciencia. Esto supuso una aceleración conjunta para el avance acumulativo en todas las áreas de conocimiento, que fue creciendo durante los sucesivos siglos.
Foto: Bernd Klutsch / UnsplashDurante todo el siglo XX este sistema de publicación se adaptó a la necesidad de garantizar la calidad de los artículos científicos propuestos para ser publicados. Esto requiere la revisión por especialistas de los contenidos de los que se propone publicar, y estos especialistas son normalmente también autores de otros escritos en temática relacionada, para poder juzgar un texto con verdadero conocimiento de causa. Este procedimiento, llamado peer review (revisión mutua entre personas especialistas dedicadas al mismo campo) es laborioso, pero difícil de sustituir para intentar garantizar la calidad de lo que salga publicado.
Desde el inicio del siglo XXI hemos experimentado un imparable incremento anual de artículos científicos publicados, en buena parte porque los gobiernos de países con o sin tradición científica se dieron cuenta de la importancia del avance nacional e internacional de la ciencia e impulsaron ciertas políticas científicas para ello. A pesar de la loable intención de la mayor parte de los gobiernos, simplistas políticas científicas han llevado a clasificar la importancia de la ciencia y las personas dedicadas a ello en cada país bajo incompletos indicadores como la cantidad de artículos publicados, el “impacto” de las revistas en que se publica o fórmulas fáciles de emplear como el índice h.
Publica o muereEl efecto real de estas políticas para el colectivo de personas dedicadas a la ciencia ha sido reducir la investigación a la idea de publicar lo que sea y como sea, bajo el conocido lema publish or perish – publicad o morid. Esta situación dio lugar a que en el primer cuarto del siglo XXI un gran número de nuevos grupos editoriales privados crearan de la nada en tiempo récord cientos de nuevas revistas científicas, y los grupos editoriales tradicionales también se expandieran en más y más revistas bajo la égida de su marca. Además, estos colectivos de publicación científica fueron fusionándose o comprándose, basándose en las puras leyes del mercado. Esto ha dejado actualmente el sistema de publicación en un enorme negocio editorial donde el objetivo principal no es promover el avance científico, sino los intereses pecuniarios de cualquier mercantil.
Existen actualmente varias decenas de miles de revistas aparentemente dedicadas a la ciencia. Se descubre a menudo que revistas pertenecientes a grandes grupos publican artículos de baja calidad, sin revisión y bajo cierto pago. La punta del iceberg es que miles de estos artículos son finalmente repudiados o retirados. Por ejemplo, el año 2021 la importante editorial Wiley adquirió el grupo científico Hindawi y solamente este último año 2023 mandó retirar más de 8000 artículos. Otros grandes grupos editoriales científicos como MDPI y Frontiers han hecho también surgir muchas dudas sobre la calidad de lo publicado. La inexistencia de procedimientos de revisión rigurosos, así como la promoción de malas prácticas entre los autores, algunos de los cuales “escriben” y publican cerca de 70 artículos de investigación científica al año han creado un colapso. Es evidente que un científico no puede producir una nueva investigación cada 5 días, pero el negocio editorial, junto con las simplistas políticas científicas y la falta de ética de algunos autores, han generado una cacofonía de publicaciones que no ayudan al avance del conocimiento, sino a la seria posibilidad de que lleguemos a perder confianza en la ciencia.
Los más conocidos grupos editoriales científicos -Nature y Science- también han efectuado movimientos para optimizar sus resultados económicos. Decenas de nuevas revistas bajo su marca, pero de muy desigual calidad, se han expandido. El impacto de estas firmas es muy alto, su poder editorial es el más influente y el montante económico que debe pagarse para publicar en ellas es el mayor del mercado, pero su calidad científica no es la mejor, ni siquiera en sus revistas insignia. Muchos ganadores de premios Nobel han denunciado la excesiva influencia de estas revistas, que consideran impropia para la ciencia como empresa colectiva universal.
Por ejemplo, el biólogo Randy Schekman anunció el año en que recibió el Nobel que su laboratorio de la Universidad de California en Berkeley no volvería a mandar más artículos a las todopoderosas Nature, Cell ni Science, cuyas políticas de publicación criticó duramente. También estudios bibliométricos demuestran que en las publicaciones científicas el impacto no es equivalente a la calidad. Respecto a cantidad de artículos, el famoso premio Nobel de física Peter Higgs declaró también que indicadores como el escaso número de sus publicaciones o su bajo índice h le habría hoy día impedido obtener empleo como investigador.
Refundar el sistema actualSi deseamos que la publicación internacional científica converja en un verdadero avance acumulativo de todas las áreas de conocimiento debemos refundar el sistema actual en múltiples facetas, incluyendo realistas y eficaces políticas científicas, que les competen a los gobiernos del mundo. Con respecto a las distribuciones de artículos, en agosto de 1991 el físico Paul Ginsparg, de la Universidad de Cornell puso en funcionamiento el importante repositorio arXiv, que alberga con acceso abierto millones de pre-artículos científicos si cumplen unos requisitos básicos. Otros repositorios como HAL, bioRxiv, medRxiv o ChemRxiv se han ido sumando a esta misma idea. Este filtro previo permite a miles de autores cada día depositar en público sus trabajos, y de ahí poder enviarlos a revistas especializadas para su revisión y posible futura publicación.
No es nada sencillo reordenar el actual pandemónium editorial. Las Sociedades Científicas pusieron en marcha el sistema hace casi cuatro siglos y los gobiernos mundiales han reconocido su importancia. Existen muchos intereses individuales, mercantiles, nacionales y personales, pero si no ponemos por delante el avance global de la ciencia no es posible corregir la situación. Tenemos un órgano de gobierno universal dedicado a la educación, la ciencia, la cultura, la comunicación y la información como la UNESCO. Un gran repositorio digital de acceso público tipo ArXiv financiado desde las naciones unidas, apoyado por las revisiones especializadas de los trabajos desde las Sociedades Científicas y coordinadas por unas editoriales de revistas científicas supervisadas y financiadas desde la UNESCO puede parecer una utopía, pero merece la pena intentar cuidar verdaderamente la ciencia como bien común para la humanidad.
Para más información:
Los males de la ciencia (serie)
Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)
El artículo La necesaria refundación del sistema de publicación científica se ha escrito en Cuaderno de Cultura Científica.
¡Ups! Hoyle contra el Big Bang
En los años 30 del siglo XX el sacerdote y astrónomo belga Georges Lemaître postuló que el universo había nacido de una singularidad, un átomo primigenio al que llamó huevo cósmico. Ese primer átomo sufrió algo parecido a una explosión. Lo que dio lugar a un universo que desde entonces no ha parado de expandirse. Al astrofísico Fred Hoyle aquello le parecía una patochada. Consideraba que estaba demasiado cerca de postulados religiosos que daban por supuesta la existencia de un creador. En una entrevista concedida a la BBC en 1949 Hoyle quiso burlarse de esa teoría poniéndole un nombre ridículo. La llamó Big Bang. ¿Te suena ese nombre, verdad?
Producción ejecutiva: Blanca Baena
Guion: José Antonio Pérez Ledo
Grafismo: Cristina Serrano
Música: Israel Santamaría
Producción: Olatz Vitorica
Doblaje: K 2000
Locución: José Antonio Pérez Ledo
Edición realizada por César Tomé López
El artículo ¡Ups! Hoyle contra el Big Bang se ha escrito en Cuaderno de Cultura Científica.
La urgente necesidad de medir la diversidad genética
Cada ser vivo en nuestro planeta se distingue de sus congéneres por pequeñas diferencias en su material hereditario. En consecuencia, cuando el entorno cambia y se vuelve desfavorable para las especies tanto vegetales como animales, esta variabilidad genética puede permitirles adaptarse a las nuevas condiciones en lugar de extinguirse o tener que migrar a otros hábitats: la diversidad genética es una de las claves para la supervivencia de las especies durante el cambio climático. En 2022, la Convención Internacional sobre Diversidad Biológica (CDB, por sus siglas en inglés) hizo hincapié en la necesidad de proteger la diversidad genética que se encuentra en especies silvestres, un componente fundamental de la diversidad biológica que ha sido descuidado en numerosas ocasiones.
Foto: Anton Darius / UnsplashEl calentamiento global está ejerciendo una gran presión sobre muchas especies en Europa, especialmente aquellas con poblaciones que habitan en los límites climáticos de su rango. La capacidad de las especies para resistir un mayor calor o sequía, así como las estrategias para enfrentar las nuevas especies que colonizan su entorno, determina sus posibilidades de supervivencia. Es en estos entornos límite donde es más urgente medir la diversidad genética, para evaluar la capacidad de las especies que habitan estos espacios para sobrevivir.
Un estudio internacional liderado por Peter Pearman, investigador Ikerbasque en la UPV/EHU y asociado al BC3, ha examinado el monitoreo de la diversidad genética en Europa. Los resultados de Pearman y sus coautores muestran que los esfuerzos para monitorear la diversidad genética en Europa son insuficientes y deben completarse teniendo en cuenta los posibles impactos del cambio climático en especies de interés conservacionista.
Al analizar todos los programas de monitoreo genético en Europa, el estudio mostró las áreas geográficas en las que se necesitan mayores esfuerzos de monitoreo, principalmente en el sureste de Europa (Turquía y los Balcanes). El estudio muestra que muchas especies también estarán amenazadas por el cambio climático en la Península Ibérica. «Sin un mejor monitoreo europeo de la diversidad genética, corremos el riesgo de perder variantes genéticas importantes», dice Peter Pearman, el autor principal del estudio.
Un monitoreo mejorado permitiría detectar áreas climáticamente favorables para estas variantes y protegerlas para mantener la diversidad genética que es esencial para la supervivencia a largo plazo de las especies. Algunas de estas especies amenazadas también proporcionan servicios invaluables a los humanos, como la polinización de cultivos, el control de plagas, la purificación del agua y la regulación del clima.
El estudio incorporó los esfuerzos de 52 científicos/as que representan a 60 universidades y centros de investigación de 31 países. Los resultados sugieren que los programas de monitoreo de la diversidad genética en Europa deben adaptarse sistemáticamente para abarcar gradientes ambientales completos e incluir todas las regiones sensibles y de alta biodiversidad.
En línea con los recientes acuerdos, refrendados por España para frenar la disminución de la biodiversidad, la investigación concluye que es necesario un mejor monitoreo que responda al cambio climático de las especies en general, y de su diversidad genética en particular, a nivel internacional. Esto permitirá una mejor planificación del uso del suelo y un mejor apoyo a las acciones de conservación y restauración del ecosistema, que contribuyan a garantizar la persistencia de las especies y los servicios que brindan.
Referencia:
Peter B. Pearman et al. (2024) Monitoring species genetic diversity in Europe varies greatly and overlooks potential climate change impacts Nature Ecology & Evolution doi: 10.1038/s41559-023-02260-0
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La urgente necesidad de medir la diversidad genética se ha escrito en Cuaderno de Cultura Científica.
Visibilizando el papel femenino en Geología “de otra manera”
En el año 2015, la Asamblea General de las Naciones Unidas nombró el 11 de febrero como el “Día Internacional de la Mujer y la Niña en la Ciencia”, una efeméride para visibilizar el papel que tenemos las mujeres en ciencia y tecnología, así como fomentar las vocaciones científicas entre las niñas.
Realmente, cuando hablo de este tema con otras compañeras geólogas, consideramos que debemos realizar actividades divulgativas buscando cumplir con estos objetivos durante todo el año. Pero eso no quita para que nos volquemos en organizar eventos especiales en estas fechas.
La Geología es la gran desconocidaEn el caso de las Ciencias de la Tierra, en general, y de la Geología, en particular, contamos con un par de desventajas. Por un lado, a pesar de ser una de las cinco ciencias básicas, la Geología es la gran desconocida. La gente no sabe a qué nos dedicamos, ni desde la ciencia básica ni desde la aplicada, y generalmente solo nos asocian a eventos destructivos como terremotos y volcanes. Y, por otro lado, cuando empiezan a descubrir nuestro trabajo, siempre lo consideran como una profesión muy masculinizada (ir al campo a coger rocas a martillazos y llenarse de barro no parece demasiado “femenino”). Pero podemos darles la vuelta a estas desventajas para que actúen a nuestro favor, ya que cualquier cosa que contemos sobre nuestra labor va a despertar la curiosidad de la gente y también podemos sorprenderla al mostrar nuestro día a día, tanto en el campo como en el laboratorio, como algo normal y corriente.
El siguiente obstáculo con el que nos encontramos es el formato empleado para mostrar y normalizar el trabajo de las geólogas al público más joven. Lo más habitual durante el 11F es acudir a centros educativos a dar pequeñas charlas sobre nuestras vidas mientras recordamos a algunas de las pioneras de la Geología. Con la experiencia de otros años, nos hemos dado cuenta de que, así, no conseguimos despertar del todo la curiosidad del estudiantado más joven, tanto por falta de tiempo (apenas tenemos unos 50 minutos, lo que impide una interacción amplia y profunda con el público) como por saturación del público (varias charlas el mismo día o en varios días seguidos, que hacen que ya ni se acuerden de las científicas que han visitado su clase). Otro de los formatos más empleados consiste en organizar eventos más grandes, tipo feria de la ciencia, donde los centros educativos acuden durante unas horas a un lugar en el que se encuentran stands de diferentes disciplinas científicas dirigidos por mujeres. En este caso, los problemas que hemos encontrado han sido el tener que competir, en el buen sentido de la palabra, con otras ciencias que, a priori, pueden resultar más llamativas o conocidas para el público y se llevan toda la atención, además de que, en ocasiones, el estudiantado viene obligado a nuestras mesas mirando la hora en el reloj para poder salir corriendo.
Mi primer GeolodíaEn la Comisión Mujeres y Geología de la Sociedad Geológica de España nos hemos planteado como solventar estos problemas y poder poner en marcha un evento divulgativo que, realmente, consiga despertar la curiosidad del público más joven, en especial estudiantes de infantil y primaria, por las Ciencias de la Tierra mientras normalizamos la presencia de las mujeres como profesionales de la Geología sin forzar la situación, es decir, de una manera sutil. Así es como surgió la iniciativa “Mi Primer Geolodía” y, a modo de ejemplo, quiero detallaros la actividad que hemos realizado el pasado sábado 10 de febrero en la localidad de Padul, en Granada.
Cartel promocional de “Mi Primer Geolodía Granada”, con una ilustración de Dánae Sanz (Universidad Complutense de Madrid).Padul cuenta con una historia geológica excepcional. A los pies de Sierra Nevada y estando afectada por accidentes tectónicos responsables de la sismicidad de Granada, en esta localidad se desarrolla una importante laguna con una turbera en la que se han encontrado restos fósiles de mamuts lanudos, lo que la convierte en la localidad más meridional en la que aparecen estos ejemplares. Por este motivo ha sido la elegida para celebrar esta edición de “Mi Primer Geolodía Granada”, ya que permite mostrar la interacción entre diferentes disciplinas geológicas para poder interpretar toda esa historia.
Aspecto general de los talleres y experimentos de “Mi Primer Geolodía Granada”.La actividad ha consistido en la preparación de 15 talleres con experimentos interactivos y 5 charlas cortas que se pudieron visitar, de manera libre y gratuita, durante toda la mañana en una nave industrial anexa al Ayuntamiento de Padul. Con estos talleres, las personas asistentes pudieron descubrir cómo se formaron la laguna y la turbera y por qué aparecen fósiles de mamuts en la zona, relacionándolo con los estudios sobre el cambio climático y el comportamiento de las aguas subterráneas. También conocieron el funcionamiento interno de nuestro planeta, responsable de la creación del relieve que rodea la zona, así como de la falla de Padul-Nigüelas, una de las culpables de los terremotos de Granada. Y también hubo una parte más lúdica, con un rocódromo donde se practicaron técnicas de espeleología, un taller de pinturas rupestres, manualidades geológicas, la visita a la réplica de una cueva y un juego gigante de volcanes y dinosaurios. Además, se pudo visitar la exposición “Geas, Mujeres que estudian la Tierra”, basada en el libro del mismo título escrito por Ana Ruiz y Rosa María Mateos, investigadoras del IGME-CSIC, e ilustrado por Nívola Uyá, donde se muestra la vida de 12 pioneras de la Geología. Incluso, el público asistente recibió la visita de una de ellas, Mary Anning, la “madre de la paleontología”, gracias a una pequeña obra de teatro.
Rosi (Umbriel Teatro, Motril) y Lucía caracterizadas como Mary Anning adulta y niña, respectivamente, para la obra de teatro, junto al panel de la pionera de la paleontología perteneciente a la exposición “Geas, Mujeres que estudian la Tierra”.Este formato ha resultado ser todo un éxito. Más de 450 personas, la mitad niñas y niños, la mayoría en un rango de edad de 4-7 años, se acercaron a conocer la historia geológica de Padul y descubrieron de manera amena y divertida la importancia de esta ciencia para asegurar nuestro futuro ante cuestiones como la mitigación de los efectos del cambio climático, la búsqueda de materias primas minerales o la prevención de los riesgos geológicos, gracias a que los talleres preparados estaban todos interrelacionados. Además, normalizaron la presencia femenina en Geología sin darse cuenta, ya que participaron 50 profesionales de las Ciencias de la Tierra, un grupo paritario y muy diverso conformado por profesoras de investigación o catedráticos de universidad explicando mano a mano con estudiantes de máster y doctorado. Es decir, comprobaron la verdadera conformación de los grupos de trabajo en Geología, mujeres y hombres de diferentes edades y grados de experiencia compartiendo conocimientos y experiencias.
Grupo de monitoras y monitores de “Mi Primer Geolodía Granada” en la explanada del Ayuntamiento de Padul.No podemos asegurar que hayamos creado vocaciones entre las niñas, pero sí que hemos mostrado que la Geología es una ciencia útil, amena y divertida, donde no importa si eres hombre o mujer para convertirla en tu profesión, lo único que necesitas es curiosidad por conocer lo que te rodea y ganas de descubrir los secretos que esconde nuestro planeta. Y, aunque el 11F ya termine, seguiremos visibilizando el papel femenino en ciencia de la Tierra todo el año.
Agradecimientos:
Quiero dar las gracias a todos y todas las compañeras de Granada y alrededores que, de manera totalmente altruista, han conseguido sacar adelante esta gran txiki-fiesta de la Geología, en especial a Ana Ruiz (IGME-CSIC) por tirar del carro.
“Mi Primer Geolodía Granada” ha estado organizado por el Instituto Geológico y Minero de España (IGME-CSIC), el Instituto Andaluz de Ciencias de la Tierra (IACT-CSIC) y la Universidad de Granada (UGR). Además, esta iniciativa forma parte del proyecto de divulgación “Geolodía”, una actividad organizada por la Sociedad Geológica de España con la colaboración de la Fundación Española para la Ciencia y la Tecnología – Ministerio de Ciencia, Innovación y Universidades, el Instituto Geológico y Minero de España (IGME-CSIC), la International Association of Sedimentologists (IAS), AEPECT, Repsol y varias decenas de instituciones y empresas más.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Visibilizando el papel femenino en Geología “de otra manera” se ha escrito en Cuaderno de Cultura Científica.
“x”, esa cantidad desconocida
La letra “x” no se usa demasiado en castellano; solo la “k” y la “w” son menos frecuentes que ella. Sin embargo, es la letra que utilizamos para rellenar las quinielas, contestar cuestionarios tipo test o decidir en la declaración de la renta a quien deseamos dar un porcentaje de nuestros impuestos. ¿Quizás se use en estos casos por su simetría? ¿O quizás porque es realmente un misterio saber si hemos acertado los resultados de los partidos de fútbol, si nuestro cuestionario contiene errores o si nuestra contribución servirá para mejorar la vida de alguna persona?
Imagen: Freepik.
En matemáticas la “x” representa precisamente las incógnitas, las cantidades desconocidas. Tampoco se conoce el origen de esta notación, existen diferentes teorías, pero no muy fiables.
¿Un problema de impresión?
Lo que sí se conoce es que en La geometría, uno de los apéndices del Discurso del método (1637), Réné Descartes introdujo la notación algebraica como la utilizamos hoy en día, declarando que usaría las letras finales del alfabeto, (x, y, z) para las incógnitas y las primeras (a, b, c) para las constantes. Algunas hipótesis señalan que el impresor de Descartes habría pedido al filósofo que, para nombrar una incógnita, utilizase las letras del alfabeto que aparecían con menor frecuencia en un texto escrito para no desperdiciar aquellas más utilizadas y que escaseaban.
En su cuento X-ing a paragrab (1849) –X en un suelto– el escritor Edgar Allan Poe también relacionó la “x” con un problema de impresión.
Este breve relato narra una peculiar contienda entre los directores de los diarios La Tetera y La Gaceta de la ciudad de Nópolis. Veleta Cabezudo –director de La Tetera–, ofendido porque John Smith –director de La Gaceta–, se ha burlado de él por utilizar un lenguaje grandilocuente (con muchas expresiones forzadas del tipo ¡Oh!) decide enviarle una respuesta a través de un mensaje en su diario en estos términos:
«¡Oh, John; oh, tonto! ¿Cómo no te tomo encono, lomo de plomo? ¡Ve a Concord, John, antes de todo! ¡Vuelve pronto, gran mono romo! ¡Oh, eres un sollo, un oso, un topo, un lobo, un pollo! ¡No un mozo, no! ¡Tonto goloso! ¡Coloso sordo! ¡Te tomo odio, John! ¡Ya oigo tu coro, loco! ¿Somos bobos nosotros? ¡Tordo rojo! ¡Pon el hombro, y ve a Concord en otoño, con los colonos!», etc.
El aprendiz a quien se le ha encargado la impresión del texto, Bob, descubre con angustia que el cajetín de las “oes” mayúsculas (y también el de las minúsculas) está vacío… y acude al gerente para saber cómo solucionar el problema.
El texto de Poe continúa de la siguiente manera:
La orden que acababa de darle el gerente no era demasiado insólita, pues cosas así suelen ocurrir en las imprentas. Aunque me resulta imposible explicarlo, cuando eso sucede se acude siempre a la x como sustituto de la letra faltante. Quizá la razón resida en que la x tiende a sobreabundar en las cajas de composición (o, por lo menos, así ocurría en otros tiempos), por lo cual los impresores se han ido acostumbrando a emplearla para sustituir otras letras. En cuanto a Bob, frente a un caso como el presente, hubiera considerado escandaloso emplear otra letra que la x, pues tal era su costumbre.
–Tendré que ponerle x a este suelto –se dijo, mientras lo leía lleno de estupefacción–, pero que me cuelguen si no es el suelto con más oes que he visto en mi vida.
Inflexible, sin embargo, procedió a componer usando la x, y así entró el suelto en prensa.
A la mañana siguiente la población de Nópolis se quedó de una pieza al leer en La Tetera el siguiente extraordinario artículo:
«¡Xh, Jxhn, xh, txntx! ¿Cxmx nx te txmx encxnx, lxmx de plxmx! ¡Ve a Cxncxrd, Jxhn, antes de txdx! ¡Vuelve prxntx, gran m xnx rxmx! ¡Xh, eres un sxllx, un xsx, un txpx, un lxbx, un pxllx! ¡Nx un mxzx, nx! ¡Txntx gxlxsx! ¡Cxlxsx sxrdx! ¡Te txmx xdix, Jxhn! ¡Ya xigx tu cxrx, lxcx! ¿Sxmxs bxbxs nxsxtrxs? ¡Txrdx rxjx! ¡Pxn el hxmbrx, y ve a Cxncxrd en xtxñx, cxn Ixs cxlxnxs!», etc.
Los habitantes de Nópolis, al leer al día siguiente en La Tetera semejante galimatías piensan que se trataba de un conjuro diabólico… y corren a linchar a Veleta Cabezudo que ha huido… Y las opiniones sobre lo que decía el mensaje se extienden… Incluso piden su opinión al matemático de Nópolis:
La conclusión más compartida, sin embargo, fue que el asunto era sencillamente extraordinario e inexplicable. Incluso el matemático del pueblo admitió que no encontraba la solución del problema. Como todo el mundo sabía, x representaba una cantidad desconocida, una incógnita; pero en este caso (como hizo notar apropiadamente) había además una cantidad desconocida de x.
Referencias
-
Sergio Parra, ¿Por qué usamos X cómo incógnita en los problemas de matemáticas?, Xataka, 12 noviembre 2014
-
Edgar Allan Poe, X en un suelto en Cuentos (traducción de Julio Cortázar), Alianza Editorial, 1997, páginas 546-549
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo “x”, esa cantidad desconocida se ha escrito en Cuaderno de Cultura Científica.
Los palos de ciego de la transición vítrea
Lo que solemos llamar cristal, en realidad vidrio, nos rodea por todas partes. Los artesanos son capaces de elaborar piezas muy complejas y bellas y la industria es capaz de producirlo en infinidad de variedades de propiedades técnicas específicas. Sin embargo, la ciencia aún no tiene una descripción microscópica completa de cómo se comporta un líquido sobreenfriado cuando se convierte en un vidrio, lo que se conoce como transición vítrea. Un resultado reciente ilustra como se investiga esta cuestión: creando modelos de una forma similar a como un ciego usa su bastón.
Los distintos modelos existentes pueden capturar diferentes aspectos de la dinámica espacial y temporal de la transición vítrea, pero los supuestos detrás de estos modelos son, en algunos casos, mutuamente excluyentes. Ahora Yoshihiko Nishikawa de la Universidad de Tohoku, Japón, y Ludovic Berthier de la Universidad de Montpellier, Francia, han conseguido reconciliar dos descripciones contrapuestas del comportamiento durante la transición vítrea utilizando un modelo reticular.
Un modelo de la transición vítrea conocido como transición aleatoria de primer orden sostiene que un líquido formador de vidrio que se enfría adopta una estructura estática similar a un mosaico con un orden de rango finito. En este marco, las llamadas fluctuaciones dinámicas (reorganizaciones de las partículas de un material) ocurren cuando los límites entre las baldosas de mosaico se reorganizan colectivamente. Estas fluctuaciones están fundamentalmente ligadas a variaciones estáticas de una región a otra en la estructura de un material.
Un modelo alternativo conocido como facilitación dinámica no necesita hacer suposiciones sobre la estructura estática del sistema o las variaciones de una región a otra. Este modelo postula que las fluctuaciones dinámicas se producen a través de reordenamientos locales de partículas a pequeña escala que desencadenan una reacción en cadena de reorganización, que es la que luego se propaga a través del material.
Nishikawa y Berthier utilizan un modelo diferente de la transición vítrea de un líquido sobreenfriado. Su base es una red tridimensional que exhibe variaciones estructurales similares a los mosaicos, que serían consistentes con la transición aleatoria de primer orden. Sin embargo, los investigadores descubrieron que las predicciones del modelo para las fluctuaciones dinámicas se parecen más a las del marco de facilitación dinámica.
Nishikawa afirma que ningún experimento actual puede confirmar directamente la aparición de estos comportamientos en materiales reales que formen vidrios. Pero espera utilizar el modelo de red tridimensional para reproducir algunos datos experimentales indirectos observados recientemente. Y con esta esperanza se sigue trabajando, a ver si alguien da con la tecla.
Referencias:
Yoshihiko Nishikawa and Ludovic Berthier (2024) Collective Relaxation Dynamics in a Three-Dimensional Lattice Glass Model Phys. Rev. Lett. doi: 10.1103/PhysRevLett.132.067101
Marric Stephens (2024) Lattice Model Captures Dynamics of the Glass Transition Physics 17, s19
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Los palos de ciego de la transición vítrea se ha escrito en Cuaderno de Cultura Científica.
El peligro invisible del radón, el gas del cáncer
Ni se ve, ni huele ni se puede tocar. Y sin embargo, el radón es la segunda causa de cáncer de pulmón, por detrás del tabaco. Pese a ser menos conocido que otros gases nobles de su misma familia, como el neón o el xenón, se puede acumular en el sótano de nuestras viviendas y lugares de trabajo. Su inhalación se ha relacionado también con un mayor riesgo de ictus, lo que subraya la importancia de medir su concentración para garantizar niveles seguros para la salud.
Un gas radiactivo y naturalEl radón, elemento 86, se agrupa dentro de los gases nobles de la tabla periódica. La nobleza de estos gases radica en su falta de reactividad, que sin embargo no impide el proceso de fisión por el cual se desintegra en otras partículas. De hecho, constituye la principal fuente de radiación natural a la que está expuesta la población. Se forma por desintegración de uranio y torio, elementos también radiactivos presentes en muchos suelos y rocas terrestres.
Como gas radiactivo (que no radioactivo) se produce de forma natural y libera en su descomposición partículas alfa de alta energía pero con limitada capacidad de penetración. Estas partículas, constituidas por átomos de helio con dos protones y dos neutrones, no son capaces de atravesar una delgada hoja de papel ni nuestra piel, pero una vez inhaladas pueden provocar daños severos en nuestras células.
El radón se acumula en los sótanos¿Cómo evitar que el radón llegue a nuestros pulmones? La mayor fuente de radón es el suelo donde se ubican las viviendas, especialmente aquellas construidas en terrenos graníticos. En España, se localizan principalmente en Galicia, Extremadura, Madrid, Canarias, Castilla y León y Cataluña. Al aire libre, el radón se diluye rápidamente hasta alcanzar concentraciones muy bajas y no suele resultar peligroso.
Se forma por desintegración de uranio y torio, elementos radiactivos presentes en muchos suelos y rocas terrestres
Sin embargo, es más pesado que el aire, por lo tiende a acumularse zonas bajas como garajes y sótanos, espacios cerrados que además suelen contar con poca ventilación. Las minas, las cuevas y las centrales de tratamiento de aguas son otros lugares con niveles de radón elevados, mientras que la cantidad emitida por el granito usado en la construcción o la decoración de la vivienda es mínima.
Radon Facts. Fuente: CDCMedidas para mitigar sus efectosEn este sentido, hace escasas semanas se aprobó desde el Consejo de Ministros el Plan Nacional contra el gas radón, que busca garantizar bajos niveles de radón revisando las infraestructuras de las edificaciones tanto existentes como nuevas. De acuerdo con esta nueva norma, los niveles de exposición al radón no deben superar los 300 becquerelios por metro cúbico (Bq/m3) y, en caso contrario, se deberán implementar medidas para reducir su concentración, ya sea mediante sistemas de evacuación mecánica o mejorando el sellado y la ventilación del edificio.
Tiende a acumularse zonas bajas como garajes y sótanos, espacios cerrados que además suelen contar con poca ventilación
Riesgo de cáncer de pulmón e ictusEsta normativa hace hincapié en la necesidad de aumentar la conciencia de la población y de los trabajadores sobre los efectos de este peligroso gas invisible sobre la salud y, en particular, en combinación con el tabaco. De hecho, el riesgo asociado al radón que corre un fumador es 25 veces superior al de una persona que no fuma tabaco según la Organización Mundial de la Salud. En España, el radón es el responsable de la muerte de 1.500 personas, y a nivel mundial, de entre un 3% y un 14% de los casos de cáncer de pulmón.
Pero los riesgos del radón no acaban con el cáncer, tal y como ha publicado la revista Neurology. En un reciente estudio, los investigadores han establecido una relación entre el riesgo de accidente cerebrovascular y la inhalación de niveles moderados e incluso bajos de este gas. Los resultados han puesto de manifiesto que las mujeres expuestas a radón tenían un 14% más de probabilidades de sufrir trombos en los vasos sanguíneos que aquellas en cuyas casas los niveles de gas eran prácticamente nulos.
Aunque el radón puede pasar desapercibido, su amenaza para la salud no debe subestimarse. La detección temprana y las medidas de mitigación son esenciales para evitar la exposición no deseada a este gas radiactivo así como para prevenir los efectos nocivos sobre la salud. Gestos tan sencillos como asegurar una adecuada ventilación pueden evitar la acumulación de este veneno invisible y ayudar a la protección de nuestros hogares y nuestras células.
Referencias:
Radón (Radon) (2021) ATSDR / CDC
El radón y sus efectos en la salud (2021) Organización Mundial de la Salud
Sobre la autora: Raquel Gómez Molina es química especialista en laboratorio clínico y comunicación científica
El artículo El peligro invisible del radón, el gas del cáncer se ha escrito en Cuaderno de Cultura Científica.
Afantasía y música
¿Te gusta imaginar cosas? ¿Tienes facilidad para recordar aquel capítulo de tu vida tan significativo? ¿Visualizas imágenes mientras escuchas música o te retrotraen muy vívidamente a algún hecho? Lo más probable es que la respuesta a estas preguntas sea sí, aunque también existe la posibilidad de que la respuesta sea un rotundo no, que te pondrían en un porcentaje minoritario de población.
Foto: RUPAM DUTTA / UnsplashLas personas usamos imágenes visuales para comprender mejor nuestro entorno. Los esquemas mentales de los recuerdos, la visualización de los eventos que nos sucedieron en el pasado es habitual en la mayoría de la población. Sin embargo, existe un pequeño grupo de personas, entre un 2% y un 5% de la población (dependiendo de los estudios), que no son capaces de hacerlo, es decir, que los intentos de visualizar algún objeto o situación no conduce a ninguna experiencia sensorial del mismo. Se dice entonces que esas personas son afantásicas o bien que experimentan afantasía. Este término es definido en 2015 por Adam Zeman1 y sus colaboradores como una imaginación voluntaria reducida o ausente.
En experimentos donde se les insta a imaginar cosas, las personas afantásicas muestran una activación de un amplio conjunto de áreas cerebrales asociadas negativamente con la viveza de las imágenes, mientras que las personas con una alta visualización mental registran predominantemente activaciones cerebrales restringidas en las cortezas posteriores. Esto implica que existen datos neurocientíficos y fisiológicos que evidencian una capacidad deficiente de visualización de imágenes. Esta capacidad deficiente significa que hay personas que tienen serias dificultades si les pidiéramos que imaginaran el rostro de algún personaje famoso o algún edificio emblemático, aunque sí podrían reconocerlos. Una especie de ceguera mental imaginaria.
Esto puede implicar una respuesta emocional atenuada hacia ciertos estímulos, ya que la inducción de emociones está asociada a las imágenes visuales. Por ejemplo, hay respuestas emocionales de baja intensidad de las personas afantásicas con respecto a recuerdos, es decir, todo lo relacionado con la memoria episódica. En la música, la visualización de imágenes evocadas también intensifica la experiencia emocional, como han demostrado algunos estudios23. Esto podría implicar que los afantásicos pueden ver reducidas sus posibilidades de experimentar emociones con la música y, por lo tanto, afectar a su juicio estético. ¿El atractivo estético está condicionado por la visualización de imágenes? ¿Sienten menos placer las personas afantásicas al escuchar música? Esto podría llevar a un menor compromiso social y en su vida cotidiana de estas personas con la música. Estas cuestiones que pueden ser relevantes se las han planteado recientemente las investigadoras Sarah Hashim y sus colaboradoras4.
Afantasía y respuesta a la músicaPara averiguar cómo afecta la afantasía a la percepción de la música realizaron dos encuestas. La primera de ellas se hizo para obtener una visión general de las diferencias de las respuestas afectivas y estéticas en dos tipos de oyentes, afantásicos y grupo control, mediante escalas Likert. A pesar de que la prevalencia de imágenes visuales y la viveza de esas imágenes fue significativamente mayor en el grupo control (no afantásicos), en los modelos que predicen el gusto por la música no se encontraron diferencias, aunque sí en los modelos de intensidad emocional sentida. Estos resultados revelan una correlación positiva entre la prevalencia de imágenes visuales, la viveza de esas imágenes y la intensidad emocional experimentada, pero que no afecta al gusto musical. Por lo tanto, las imágenes mentales puede que no sean determinantes en el gusto por la música, sino simplemente una ayuda. En la segunda encuesta, las investigadoras quisieron averiguar si la visualización atenuada característica de las personas afantásicas afecta a la capacidad para discriminar diferentes tipos de emociones que la música puede transmitir.
La conclusión es que tiene una incidencia nula, es decir, pueden discriminar perfectamente las emociones que transmite la música. Las autoras proponen ocho mecanismos5 asociados con las emociones inducidas por la música, de los cuales la visualización de imágenes es uno de ellos. Al comparar el grupo afantásico con el grupo control vieron en qué medida actúan los otros mecanismos que no usan la capacidad de visualización. Con esto se puede obtener información sobre las funciones que tiene para los oyentes la música, incluyendo factores relacionados con experiencias cotidianas emocionales (el estrés, la ansiedad) o usos de la música relacionados con la regulación cognitiva, el sueño o el recuerdo. Para lo que menos usan la música las personas afantásicas es para recordar eventos o personas, derivado de su défcit que les ocasiona dificultades para revivir recuerdos, aunque también para simular el futuro.
En resumen, las personas afantásicas pueden experimentar placer con la música, a pesar de que la falta de visualización de imágenes atenúa las emociones inducidas. La condición de no poder crear imágenes en la mente afecta a la forma en que se usa y se experimenta la música, sin embargo, no es una condición que impida el gusto y disfrute. De hecho, en estudios futuros puede que exista la posibilidad de que la música arroje más datos sobre este tipo de condición gracias a las respuestas emocionales. Una vez más la música demuestra que puede aportar datos relevantes para otras disciplinas del conocimiento, así como su transversalidad emocional, tanto en personas que pueden imaginar como en otras que tan solo pueden reconocer.
Referencias y notas:
1 Zeman, Adam, Michaela Dewar, and Sergio Della Sala (2015) Lives without imagery–Congenital aphantasia. Cortex doi: 10.1016/j.cortex.2015.05.019
2 Hashim, Sarah, Lauren Stewart, and Mats B. Küssner (2020) Saccadic eye-movements suppress visual mental imagery and partly reduce emotional response during music listening Music & Science doi: 10.1177/2059204320959580
3 Hashim, Sarah, et al. (2023) Music listening evokes story-like visual imagery with both idiosyncratic and shared content Plos one doi: 10.1371/journal.pone.0293412
4 Hashim, Sarah, et al. (2024) The Experience of Music in Aphantasia: Emotion, Reward, and Everyday Functions. Music & Science doi: 10.1177/20592043231216259
5 Los ocho mecanismos son: visualización de imágenes, reflejo del tronco encefálico, arrastre rítmico, condicionamiento evaluativo, contagio emocional, memoria episódica, expectativa musical y juicio estético.
Sobre el autor: José Manuel González Gamarro es profesor de guitarra e investigador para la Asociación para el Estudio de la Guitarra del Real Conservatorio Superior de Música “Victoria Eugenia” de Granada.
El artículo Afantasía y música se ha escrito en Cuaderno de Cultura Científica.
Ilustrando la evolución humana
La brecha de género tiene su reflejo en el ámbito científico. Tiene consecuencias en la carrera de investigación de las mujeres pero, además, conlleva la creación de contenido científico erróneo. De hecho, con el tiempo ha ocurrido que ideas y estereotipos incorrectos se hayan convertido en afirmaciones científicas.
Ejemplo de ello son algunas de las ilustraciones utilizadas en el ámbito científico. Imágenes que son muy importantes a la hora de divulgar ciencia, ya que hay que tener en cuenta que recordar información solo con datos y números es mucho más difícil que hacerlo mediante imágenes. La paleontología es un buen ejemplo.
Actualmente no tenemos muchas referencias gráficas de la época que estudia la paleontología y algunas de ellas se han confeccionado desde un punto de vista de género concreto y no son más que el reflejo de la brecha existente en la sociedad actual. Por ejemplo, sin basarse en la evidencia científica, no se ha tenido en cuenta el comportamiento humano y se han aplicado los roles sexistas actuales. Por esa razón es necesario volver a analizar los trabajos realizados hasta el momento e identificar los detalles que refuerzan la desigualdad.
Este fue el tema desarrollado por la investigadora e ilustradora científica Vega Asensio en su charla “Ilustrando la evolución humana” dentro del ciclo Zientziaren Ertzetik organizado por la Cátedra de Cultura Científica de la Universidad del País Vasco y la Biblioteca Bizenta Mogel de Durango.
Vega Asensio es doctora en Biología por la Universidad del País Vasco (UPV/EHU). Ha trabajado y estudiado en diferentes universidades europeas como investigadora. Fundó el Estudio de Ilustración Científica NorArte Visual Science en 2011. Un proyecto en el que ha podido unir sus dos pasiones, dibujo y ciencia, movida por la necesidad de mejorar la comunicación y la divulgación científica. Actualmente es coordinadora del primer posgrado de ilustración científica en la UPV/EHU.
Si no ve correctamente el vídeo, use este enlace.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Ilustrando la evolución humana se ha escrito en Cuaderno de Cultura Científica.
Terapia fotodinámica: luz y oxígeno para destruir microorganismos
La Organización Mundial de la Salud (OMS) ha declarado la resistencia antimicrobiana como uno de los principales problemas de salud mundial. El uso abusivo e incorrecto de antibióticos está provocando que bacterias, virus y hongos se vuelvan resistentes a los medicamentos que actualmente utilizamos para combatirlos.
Eso implica que enfermedades comunes que hasta ahora habían estado controladas dejen de estarlo, como infecciones urinarias provocadas por la bacteria Escherichia coli o infecciones más graves en el torrente sanguíneo causadas por el hongo Candida auris. La falta de respuesta dificulta el tratamiento, prolonga la duración de la enfermedad, incrementa el riesgo de recurrencias y propagación de dichas enfermedades y, en el peor de los casos, acrecienta el número de muertes.
Así las cosas, surge la necesidad de buscar estrategias alternativas para hacer frente a estos parásitos multirresistentes. Sin embargo, el desarrollo de nuevos antibióticos supone altos costes y, generalmente, requiere de largos periodos de tiempo hasta su regulación y aprobación. Tanto es así que, en algunos casos, los microorganismos generan resistencia a los nuevos fármacos antes de que sean aprobados para su comercialización.
Foto: John Doyle / UnsplashMatar microbios con luz y oxígenoUna de las estrategias alternativas a los antibióticos es la terapia fotodinámica. Requiere la presencia de tres elementos de manera simultánea: luz, un compuesto fotosensible generalmente de naturaleza orgánica que presenta un color intenso (fotosensibilizador) y oxígeno molecular.
La luz de una determinada longitud de onda (azul, verde, roja) activa a la molécula fotosensible, que a su vez es capaz de activar al oxígeno molecular y generar lo que se conoce como especies reactivas de oxígenos (ROS, por sus siglas en inglés).
Las ROS son capaces de dañar diversas biomoléculas esenciales para las células o microorganismos como las proteínas, lípidos y ácidos nucleicos. Como consecuencia, se genera un daño en las células, bacterias, virus u hongos, provocando su muerte.
Sin apenas efectos secundariosLo interesante de este tratamiento es que solo cuando los tres componentes están presentes simultáneamente tiene lugar el efecto terapéutico, ya que los tres elementos por separado no son tóxicos. Eso nos permite controlar y localizar el tratamiento a través de la luz: solo en las zonas donde las moléculas fotosensibles se hayan acumulado y sean irradiadas de forma local con dosis de luz controlada (en potencia y tiempo) se generarán especies reactivas de oxígeno. De ahí que podamos asegurar que se trata de un procedimiento selectivo, que actúa justo donde queremos y apenas provoca efectos secundarios.
Actualmente, esta terapia se utiliza en diversos problemas de salud localizados en superficies cutáneas, principalmente en dermatología (infecciones fúngicas, acné, psoriasis,…) y como tratamiento selectivo para algunos carcinomas de la piel, y lesiones precancerosas, como la queratosis actínica.
También se emplea en el ámbito odontológico para el tratamiento de infecciones en la cavidad bucal como la periodontitis, provocadas por la acumulación de placa bacteriana.
Imagen confocal de fluorescencia de bacterias (Escherichia coli) a las que se les ha aplicado la terapia fotodinámica. Las bacterias con fluorescencia roja son las bacterias que han muerto, mientras que las verdes son las que han resistido el tratamiento.La terapia fotodinámica también destruye virusLa terapia fotodinámica es prometedora por varios motivos. Por un lado, actúa contra diversos agentes infecciosos, incluyendo virus frente a los cuales los antibióticos no tienen ningún efecto. Además sus resultados son inmediatos y no suele desarrollar resistencia, por lo que se puede repetir el tratamiento varias veces.
Sin embargo, también presenta varias limitaciones en las que la comunidad científica está trabajando. La primera es que, normalmente, los fotosensibilizadores son compuestos orgánicos poco solubles en medios acuosos, lo que dificulta su entrada a la célula. En segundo lugar, para que no se acumulen en las células sanas hay que promover su especificidad exclusivamente hacia los agentes patológicos (virus, bacterias y hongos).
Una de las opciones que se barajan es añadirles grupos funcionales o moléculas que son solubles en agua y/o que son selectivas hacia un tipo de microorganismo (por ejemplo, azúcares) para así reducir su carácter hidrófobo inherente y aumentar su especificidad. También se plantea usar nanopartículas como transportadores de estos compuestos fotoactivos.
El uso de la nanotecnología es cada vez más común en nuestra sociedad en aplicaciones biomédicas (nanomedicina). Área ampliamente estudiada para el transporte de fármacos y en este caso de los fotosensibilizadores.
Aunque aún queda trabajo de investigación por desarrollar y realizar nuevos ensayos clínicos, todo apunta a que la luz y el oxígeno podrían transformar el futuro del tratamiento de las enfermedades infecciosas.
Sobre las autoras: Ruth Prieto-Montero, doctora en Ciencia y Tecnología de Materiales, Universidad del País Vasco / Euskal Herriko Unibertsitatea y Virginia Martínez Martínez, investigadora doctora permanente en química física, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Terapia fotodinámica: luz y oxígeno para destruir microorganismos se ha escrito en Cuaderno de Cultura Científica.
Neurociencia ¿ficción?
El pasado 29 de enero, el empresario Elon Musk anunciaba en X/Twitter que su empresa Neuralink había realizado el primer implante cerebral de uno de sus dispositivos en un ser humano. Al día siguiente, desveló que el nombre del dispositivo era Telepathy, a lo que añadió, ese mismo día, en otro tuit:
Permite controlar el teléfono o el ordenador y, a través de estos, casi cualquier dispositivo, solo con el pensamiento. Los usuarios iniciales serán aquellos que hayan perdido el uso de sus extremidades. Imaginad que Stephen Hawking hubiera podido comunicarse más rápido que el más veloz mecanógrafo o un subastador. Ese es el objetivo.
Aunque poco más se sabe por el momento, lo que es innegable es que esta maniobra del multimillonario ha reavivado el interés por un tipo de tecnología que tampoco es realmente nueva, pero cuyo germen lleva alimentando nuestros sueños ―y también nuestras pesadillas― desde, mínimo, los tiempos del Frankestein de Mary Shelley.
Neuralink representa la idea de la transformación de la naturaleza humana a través de la ciencia y la tecnología en tan solo una de sus múltiples formas, pero una de las que más poder de impacto tiene: el cíborg. La posibilidad de trascendencia más allá de lo humano. Y, aunque es posible que, sin darnos cuenta, casi todos nos hayamos convertido ya en uno desde el momento en que empezamos a ser incapaces de salir de casa sin nuestro smartphone, lo cierto es que los cíborgs «de verdad» ya llevan mucho tiempo entre nosotros ―pensemos, simplemente, en aquellas personas que utilizan prótesis mioeléctricas o implantes cocleares―. Y eso, por el momento, no lo han conseguido ni el marketing ni el hype, sino que lo ha conseguido la ciencia.
En lo referente a las pretensiones de Neuralink, si bien su planteamiento coquetea abiertamente con la ciencia ficción, su trasfondo científico no es nuevo del todo. En cuanto a lo primero, es marca de la casa de muchos de los proyectos de Elon Musk. Las futuras colonias marcianas con las que sueña SpaceX, el robot autónomo que está desarrollando Tesla e incluso la estética de su último vehículo presentado en EE. UU., la Cybertruck, están inspirados por las viejas historias de este género: la serie de La Cultura de Iain M. Banks, los amables robots positrónicos de Isaac Asimov, el movimiento y la estética del ciberpunk de los años ochenta… Y Neuralink aspira también de traspasar la línea que convierte lo que hoy es solo magia en ciencia avanzada. No está vendiendo la tecnología todavía ―personalmente no creo ni que lo pretenda―, está vendiendo una idea: la de materializar el «cordón neural» que aparece en la mencionada serie de Banks ―un dispositivo que mejora las capacidades cognitivas, monitorea y regula las funciones corporales, permite almacenar la conciencia, la comunicación con otras mentes y dispositivos, acceder a realidad virtual y aumentada…―, por eso cualquier mínimo paso que da se convierte en noticia, aunque científicamente no lo sea. En palabras de su propio fundador, Neuralink busca alcanzar la «simbiosis con la inteligencia artificial». Desde luego, se trata de un eslogan mucho más comercial que algo del tipo «entender el funcionamiento del cerebro y tratar enfermedades neurológicas».
Serie La Cultura, de Iain M. banks.No obstante, si hablamos de lo segundo, del trasfondo científico, desde luego tiene ya muy poco de ciencia ficción. La estimulación del sistema nervioso mediante impulsos eléctricos lleva entre nosotros desde los experimentos de Luigi Galvani y Alessandro Volta, aunque es cierto que poco tiene que ver lo que se hacía a finales del siglo XIX y principios del XX con las técnicas más actuales. Una de ellas, y de la que bebe Neuralink, es la estimulación cerebral profunda.
Esta técnica consiste en implantar, de forma quirúrgica, electrodos en determinadas áreas del cerebro que van conectados a un neuroestimulador situado bajo la piel ―por lo general, en la clavícula, en la parte inferior del tórax o en la zona del vientre―, como una especie de marcapasos. Los pulsos eléctricos que viajan desde el neuroestimulador hasta el cerebro son capaces de interferir o bloquear las señales del propio cerebro causantes de los síntomas de determinados trastornos o enfermedades neurológicas, como, por ejemplo, el Parkinson, y reducirlos. También se ha utilizado con éxito en el tratamiento de temblores, distonías musculares, dolor crónico, síndrome de Tourette y epilepsia, o en casos de depresión mayor resistente al tratamiento, trastorno obsesivo-compulsivo, adicciones y trastorno de estrés postraumático. Como es obvio, este tipo de intervenciones no está exenta de riegos, y por ello suele utilizarse solo en casos en los que los beneficios para el paciente y la mejora en su calidad de vida compensen los posibles perjuicios que pueda llegar a sufrir.
Radiografía de cirugía de estimulación cerebral profunda para el tratamiento del trastorno obsesivo compulsivo. Fuente: CC BY-SA 3.0 Deed/jmarchnPero la estimulación cerebral profunda es solo un miembro de la ecuación que propone Neuralink. El otro viene de la mano del desarrollo de interfaces cerebro-computadora (BCI, brain computer interface), esto es, sistemas capaces de registrar e interpretar la actividad cerebral que nos permiten controlar dispositivos externos directamente desde nuestro cerebro y que ya existen. Estos pueden ser invasivos ―implantando electrodos directamente en el cerebro―, no invasivos ―utilizando sensores que se colocan en el cuero cabelludo, aunque son menos precisos que los primeros―, o semiinvasivos ―los sensores se colocan dentro del cráneo, pero sobre el cerebro―. Entre sus posibles aplicaciones se encuentra el control de prótesis, la restauración de funciones motoras a través de exoesqueletos controlados por la mente o la comunicación en personas con parálisis severa ―seleccionando letras o palabras en una pantalla―. La streamer Perrikaryal utiliza incluso una de estas interfaces no invasivas para jugar a videojuegos.
Los métodos de Neuralink, en cualquier caso, difieren ligeramente de los que utilizan otros laboratorios de investigación a día de hoy, para bien y para mal. Según especifican en su propia página web, los 64 hilos en los que están distribuidos los 1024 electrodos del implante N1 de Neuralink son significativamente más delgados que los que se utilizan para la estimulación cerebral profunda y, por ello, el procedimiento lo lleva a cabo un robot quirúrgico, mucho más preciso que un cirujano humano. Una vez insertados estos hilos en las áreas correspondientes del cerebro, van conectados a un chip colocado por debajo del cráneo que procesa y transmite las señales hacia el exterior de forma inalámbrica. Por último, una aplicación externa se encarga de decodificarlas y llevar a cabo las acciones correspondientes. La fuente de alimentación de la batería que incorpora el implante se cargaría, también de forma inalámbrica, por inducción.
Elon Musk en una demostración de Neuralink en 2020, con el robot quirúrgico que se utiliza para colocar los implantes. Fuente: CC BY 2.0 Deed/Steve JurvetsonEn cualquier caso, la compañía no termina de ser muy transparente en las investigaciones que está llevando a cabo. PubMed y Google Scholar, dos de las bases de datos más amplias de literatura científica, apenas ofrecen un resultado en cuanto a artículos científicos publicados. Así que tal vez convendría no lanzar las campanas al vuelo antes de tiempo. Por otro lado, a finales de 2022, el Departamento de Agricultura de los Estados Unidos (USDA) inició una investigación por una posible violación de los derechos de los animales por parte de Neuralink, de la que, a día de hoy, aún no se han obtenido conclusiones ni se sabe si ha habido sanciones. Aun así, la compañía recibió la aprobación de la Administración de Alimentos y Medicamentos de EE. UU. (FDA) para realizar su primer ensayo clínico en humanos el 25 de mayo de 2023, y poco después abrió las solicitudes para participar en los ensayos clínicos. Ha sido este mes de enero cuando el magnate ha anunciado que estos ya han comenzado, aunque no han trascendido datos sobre el primer paciente que ha recibido uno de sus implantes.
El tiempo dirá si, en esta ocasión, estamos ante el delirio de un millonario o un punto de inflexión en la historia de las neurociencias. En cualquier caso, hay algo en lo que Neuralink, por el momento, sí tiene mérito: ha conseguido que muchísimas personas estén hablando de ciencia.
Referencias:
Chaudhary, U., Vlachos, I., Zimmermann, J. B. et al. (2022). Spelling interface using intracortical signals in a completely locked-in patient enabled via auditory neurofeedback training. Nat Commun, 13, 1236. https://doi.org/10.1038/s41467-022-28859-8
Fonsegrives, R. (5 de febrero de 2024). US Woman Receives Revolutionary Brain Implant For OCD And Epilepsy. Science Alert. https://www.sciencealert.com/us-woman-receives-revolutionary-brain-implant-for-ocd-and-epilepsy
MedlinePlus (25 de octubre de 2021). Estimulación cerebral profunda. https://medlineplus.gov/spanish/ency/article/007453.htm
Musk E., Neuralink (2019). An integrated brain-machine interface platform with thousands of channels. J Med Internet Res, 21(10):e16194. https://www.jmir.org/2019/10/e16194/
Neuralink (2024). Our mission. Create a generalized brain interface to restore autonomy to those with unmet medical needs today and unlock human potential tomorrow. https://neuralink.com
Perrikaryal (1 de febrero de 2023). How I Play Elden Ring With My Mind (EEG) [Vídeo]. YouTube. https://youtu.be/rIbfNUA5pWk
Schiff, N. D., Giacino, J. T., Butson, C. R. et al. (2023). EThalamic deep brain stimulation in traumatic brain injury: a phase 1, randomized feasibility study. Nat Med, 29, 3162-3174. https://doi.org/10.1038/s41591-023-02638-4
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo Neurociencia ¿ficción? se ha escrito en Cuaderno de Cultura Científica.