Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 1 hour 38 min ago

Las cinco imágenes de la supernova Refsdal

Fri, 2024/02/23 - 11:59

Una técnica pionera para medir la velocidad de expansión del universo ofrece una visión nueva e independiente sobre un viejo debate y podría ayudar a determinar la edad del universo con mayor precisión. Uno de los miembros del equipo que la ha desarrollado es Tom Broadhurst, profesor de investigación Ikerbasque de la UPV/EHU y asociado del DIPC.

En astronomía hay dos mediciones precisas de la expansión del universo, conocida también como «constante de Hubble». Una se calcula a partir de las observaciones próximas de las supernovas (las enormes explosiones que se producen al finalizar el ciclo de vida de algunas estrellas) y la segunda emplea el «fondo cósmico de microondas» o la radiación que comenzó a fluir libremente por el universo poco después del Big Bang. Pero estas dos mediciones difieren en un 10 % aproximadamente, lo que ha suscitado un amplio debate entre los físicos y los astrónomos. Si ambas mediciones son precisas, ello significa que la teoría actual que sostienen los científicos sobre la composición del universo es incompleta.

Un equipo internacional del que forma parte Tom Broadhurst, profesor de investigación Ikerbasque de la Universidad del País Vasco (UPV/EHU) y asociado del Donostia International Physics Center (DIPC), ha realizado un nuevo cálculo de la constante de Hubble analizando la luz de múltiples apariciones de una supernova.

RefsdalImagen del cúmulo de galaxias MACS J1149 y las localizaciones y el tiempo de las apariciones de la supernova Refsdal. Fuente: Patrick L. Kelly et al (2023) ApJ 948 93

«Si las nuevas mediciones independientes confirman esta discrepancia entre ambas mediciones de la constante de Hubble, ello haría tambalear nuestros conocimientos y comprensión sobre el cosmos», señala Patrick Kelly, autor principal del estudio y profesor adjunto de la Escuela de Física y Astronomía de la Universidad de Minnesota. «La gran pregunta es si hay un posible problema con una o ambas mediciones. Nuestra investigación aborda esto midiendo de manera independiente y completamente diferente la tasa de expansión del universo».

Relación entre materia oscura y energía oscura

El equipo ha calculado esta tasa de expansión utilizando datos de la supernova Refsdal, el primer ejemplo de supernova observada con una imagen multiplicada, es decir, el telescopio capturó cuatro imágenes diferentes del mismo evento cósmico. Tras el descubrimiento, equipos de todo el mundo predijeron que la supernova reaparecería en una nueva posición en 2015 y el equipo de la Universidad de Minnesota detectó esta imagen adicional. Estas imágenes múltiples aparecieron porque la supernova fue distorsionada por la lente gravitacional de un cúmulo de galaxias, un fenómeno por el cual la masa del cúmulo dobla y aumenta la luz. Empleando los retardos entre las apariciones de las imágenes de 2014 y 2015, los investigadores han podido medir la constante de Hubble aplicando una teoría desarrollada en 1964 por el astrónomo noruego Sjur Refsdal y que previamente no se había podido poner en práctica.

La nueva medición de la constante de Hubble coincide más con la del fondo cósmico de microondas «y confirma nuestra tesis de que la velocidad de expansión del universo se ve dominada por la presión exterior de la energía oscura y se compensa con la autogravedad de la materia oscura, de tal manera que actualmente se está acelerando», concluye Tom Broadhurst.

Referencias:

Patrick L. Kelly, Steven Rodney, Tommaso Treu, Masamune Oguri, Wenlei Chen, Adi Zitrin, Simon Birrer, Vivien Bonvin, Luc Dessart, Jose M. Diego, Alexei V. Filippenko, Ryan J. Foley, Daniel Gilman, Jens Hjorth, Mathilde Jauzac, Kaisey Mandel, Martin Millón, Justin Pierel, Keren Sharon, Stephen Thorp, Liliya Williams, Tom Broadhurst, Alan Dressler, Or Graur, Saurabh Jha, Curtis McCully, Marc Postman, Kasper Borello Schmidt, Brad E. Tucker, Anja von der Linden (2023) Constraints on Hubble constant from Supernova Refsdal’s reappearance Science doi: 10.1126/science.abh1322

Patrick L. Kelly, Steven Rodney, Tommaso Treu, Simon Birrer, Vivien Bonvin, Luc Dessart, Ryan J. Foley, Alexei V. Filippenko, Daniel Gilman, Saurabh Jha, Jens Hjorth, Kaisey Mandel, Martin Millon, Justin Pierel, Stephen Thorp, Adi Zitrin, Tom Broadhurst, Wenlei Chen, Jose M. Diego, Alan Dressler, Or Graur, Mathilde Jauzac, Matthew A. Malkan, Curtis McCully, Masamune Oguri, Marc Postman, Kasper Borello Schmidt, Keren Sharon, Brad E. Tucker, Anja von der Linden eta Joachim Wambsganss (2023) The Magnificent Five Images of Supernova Refsdal: Time Delay and Magnification Measurements The Astrophysical Journal doi: 10.3847/1538-4357/ac4ccb

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Las cinco imágenes de la supernova Refsdal se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Viendo pasar el tiempo

Thu, 2024/02/22 - 11:59

¿Qué es, pues, el tiempo? Si nadie me lo pregunta, lo sé; pero si quiero explicárselo al que me lo pregunta, no lo sé. Lo que sí digo sin vacilación es que sé que si nada pasase no habría tiempo pasado; y si nada sucediese, no habría tiempo futuro; y si nada existiese, no habría tiempo presente.

Esta es una de las citas más populares de San Agustín de Hipona. Aparece en sus Confesiones (397-398 d. C.). Y, aunque él hacía este planteamiento desde el punto de vista de la teología, lo cierto es que también estaba planteando una de las cuestiones más fundamentales de la física.

tiempoFoto: zero take / Unsplash

La física trata de desentrañar las leyes que rigen el universo a través, en primer lugar, de la observación de los fenómenos de la naturaleza, pero curiosamente, en estas leyes se manifiesta una propiedad que choca de frente con nuestra experiencia: no determinan ninguna dirección preferente para el transcurrir del tiempo. Las leyes de la mecánica clásica, del electromagnetismo, la relatividad o la mecánica cuántica funcionan «hacia delante» y «hacia atrás», no diferencian entre pasado y futuro; y también da igual cuándo empecemos a medir, se cumplen en cualquier instante. Decimos que presentan simetría temporal.

¿Por qué, entonces, tenemos la sensación de que el tiempo va siempre en la misma dirección? Vivimos en un mundo de causas y efectos que, de hecho, utilizamos para ordenar y explicar el mundo que observamos. No experimentamos regresiones al pasado ni bucles ni saltos temporales ―aunque en ocasiones daríamos cualquier cosa porque fuera así―, sino que todo sucede en una línea ordenada de eventos sucesivos. ¿Cuál es la explicación? ¿Acaso está mal el formalismo de la física? ¿Qué nos estamos perdiendo?

Para responder a todas estas preguntas hay que sumergirse en las matemáticas sobre las que se sostiene el andamiaje de la física. En concreto, en uno de sus principios más conocidos: el de la conservación de la energía.

En 1915, Emmy Noether formuló el que probablemente sea uno de los teoremas más bellos de la física: «A cada simetría continua le corresponde una ley de conservación, y viceversa». Así, la simetría espacial ―traslaciones en el espacio―, estaría relacionada con la conservación del momento lineal; la simetría de rotación, con la conservación del momento angular, y la temporal… con la conservación de la energía. Existen más, pero, de momento, nos quedaremos con estos ejemplos. Todo esto se puede expresar de una manera más sencilla: las leyes de la física son las mismas aquí, a cincuenta metros de aquí y en una galaxia muy, muy lejana; también si miramos nuestro sistema de frente, de espaldas, por arriba, por abajo o de lado. Y, por supuesto, siguen siendo las mismas hoy, que ayer, que en la antigua Mesopotamia, y tampoco esperamos que cambien sustancialmente con el paso de los eones.

tiempoLa matemática Emmy Noether (1882-1935). Foto: CC BY-SA 2.0/Konrad Jacobs, Erlangen

He aquí la clave: la simetría temporal está relacionada con el teorema de conservación de la energía, así que no existirá simetría temporal en aquellos tipos de fenómenos en los que la energía no se conserve. Y nuestro entorno está lleno de ellos. Sirvan como ejemplo los sistemas que disipan calor.

La flecha del tiempo termodinámica

Fue en el ámbito de la termodinámica donde se encontró por primera vez una ley que parecía explicar por qué vemos que determinados procesos siempre se desarrollan en un sentido y no en otro, y nos da esa percepción de dirección temporal «hacia delante»; el teorema de Clausius: «Es imposible un proceso cuyo único resultado sea transferir energía en forma de calor de un objeto a otro a mayor temperatura». O, dicho de otra forma: la transferencia de calor siempre se produce desde los cuerpos más calientes a los más fríos, salvo que se realice un trabajo externo. Rudolf Clausius definió también la entropía como esa parte de la energía de un sistema que no se puede aprovechar para realizar ningún trabajo, y llegó a la conclusión de que, en sistemas aislados, esta magnitud tendía a incrementarse con el tiempo. Le había otorgado entidad matemática al principio que Nicolás Carnot había planteado en 1834, o segundo principio de la termodinámica.

tiempoSeguro que cualquiera ha visto cómo se rompe un huevo al caer al suelo, pero nadie ha observado que, espontáneamente, un huevo roto se vuelva a recomponer. La ley de Clausius establece una dirección preferente para el transcurrir del tiempo, y esa dirección es aquella en la que la entropía de un sistema aumenta. Este sería un ejemplo. Foto: CC BY-SA 4.0/Balise42

Ludwig Boltzmann ampliaría el concepto de entropía de Clausius aplicándolo al ámbito de la mecánica estadística, esto es, la rama de la termodinámica que estudia el comportamiento de sistemas compuestos por un gran número de partículas. A partir del análisis estadístico de los comportamientos microscópicos de átomos y moléculas, se pueden deducir propiedades macroscópicas como la temperatura, el volumen o la presión, así como la entropía. Es por esta visión de Boltzmann por lo que habitualmente se suele definir la entropía como el grado de «desorden» de un sistema, pero no es exactamente eso.

En el mundo de los sistemas termodinámicos formados por muchas partículas existen innumerables, y diferentes, configuraciones microscópicas que pueden dar lugar a las mismas propiedades macroscópicas. Veámoslo con un ejemplo muy fácil: la habitación de un adolescente. ¿Cuántas formas hay de que la habitación de un adolescente esté recogida y cuántas de que esté hecha un desastre? Para el primer caso, seguramente solo unas pocas: la ropa debe estar en el armario, la cama hecha, el escritorio ordenado…, pero para el segundo caso la cosa cambia. Las maneras en que el cuarto de un adolescente puede estar hecho una pocilga son incontables y mucho más numerosas. La forma en la que se pueden distribuir los objetos, enseres, ropa y bolsas vacías de patatas fritas son muchísimas más, sin lugar a dudas. Así que, probablemente, cuando una madre o un padre entren a la habitación de sus hijos por sorpresa se la van a encontrar desordenada.

Esto es lo que, en realidad, nos dice la entropía de Boltzmann sobre la dirección del tiempo: de todas las configuraciones que puede adoptar un sistema microscópico, hay una probabilidad aplastantemente más alta de encontrarlo en un estado desordenado que en uno ordenado. No es que haya una magia oculta que haga que todo fluya irremediablemente hacia el desorden, es que, poniendo un ejemplo, las posibles configuraciones de las moléculas de H₂O para encontrar agua en forma de cubitos de hielo ―sistema ordenado― son muchísimo más bajas que las posibles configuraciones de esas mismas moléculas para encontrar agua líquida o vapor ―sistemas desordenados―. ¿Sería imposible que el huevo que aparecía en la imagen anterior se recompusiera espontáneamente? Bueno… las leyes de la física no lo prohíben, pero la posibilidad es tan remota ―tan, tan, tan extremadamente remota―, que no tiene sentido ni planteársela.

Otras flechas del tiempo

Por supuesto, la flecha del tiempo termodinámica que hemos explicado no es la única que existe. Con el tiempo se han ido descubriendo otro tipo de sistemas que también muestran una asimetría temporal. Esta también se manifiesta en la evolución temporal que ha sufrido nuestro universo tras el big bang, hacia un estado de mayor entropía ―flecha del tiempo cosmológica―; en el proceso de medida de un sistema cuántico ―flecha del tiempo de la mecánica cuántica―, en algunos procesos nucleares, como el decaimiento radiactivo. Pero lo que no sabemos es si esto sucede porque el tiempo es una especie de variable intrínseca del universo o por la manera en la que hemos planteando las leyes físicas. Y esa es la verdadera cuestión.

Todo esto significa, básicamente, que la cuestión de la dirección del tiempo sigue sin resolverse. No sabemos realmente lo que es en un sentido fundamental. Percibimos cómo fluye, observamos sus efectos… mientras, al mismo tiempo, algunas teorías también nos han revelado que no es necesario para entender el mundo que nos rodea.

La gravedad cuántica de bucles, por ejemplo, está intentando nuevas aproximaciones en ese sentido, y plantea el tiempo como una «propiedad emergente» de los sistemas cuánticos, no como una variable fundamental. De esta manera, esta teoría, que busca unificar la física cuántica y la teoría de la relatividad, explica el universo a través de relaciones, de eventos, no de «objetos que se mueven respecto a algo» más rápido o más despacio. Carlo Rovelli lo explica con esta frase: «la cosas no son, acontecen», esto es, cambian unas respecto a otras, pero no necesitan del tiempo para describir cómo se produce ese cambio. No… no se trata de conceptos muy fáciles de entender.

La cuestión de la flecha del tiempo es, probablemente, uno de los mayores enigmas de la física. ¿Cómo se acabará resolviendo? Paradójicamente… seguro que el tiempo lo dirá.

Referencias:

Neuenschwander, Dwight E. (2011). Emmy Noether’s wonderful theorem. The Johns Hopkins University Press.

Rovelli, Carlo (2018). El orden del tiempo. Anagrama.

Zeh, Dieter H. (2007). The physical basis of the direction of time. Springer.

Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo Viendo pasar el tiempo se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Los números primos de Sophie Germain

Wed, 2024/02/21 - 11:59

En noviembre de 2022, la artista donostiarra Esther Ferrer, la directora de Tabakalera, el Centro Internacional de Cultura Contemporánea de Donostia, Edurne Ormazabal, y el alcalde de Donostia/San Sebastián, Eneko Goia, presentaron ante la prensa una intervención artística para la futura plaza de acceso a Tabakalera. Como se pudo leer en diferentes medios de comunicación, se trata de una instalación que forma parte de su serie El poema de los números primos, realizada en cerámica de colores azul y verde, los que para la artista definen la ciudad de San Sebastián, junto con otros dos colores, el gris y el dorado. Este último es un homenaje a la matemática francesa Sophie Germain (1776-1831).

GermainProyecto del nuevo acceso al Centro Internacional de Cultura Contemporánea de Donostia, Tabakalera, con la instalación donada por la artista Esther FerrerLa matemática Sophie Germain

Nació en París, el 1 de abril de 1776, en una familia burguesa que participó en la revolución francesa. Durante la misma se refugió en su casa y dedicó su tiempo a la lectura de libros de la biblioteca. La impresionó mucho una historia de las matemáticas y la anécdota de la muerte de Arquímedes. Este gran matemático griego, que ya en su época alcanzó cierta fama, murió a manos de un legionario romano mientras se hallaba absorto en la resolución de un problema geométrico, durante el asalto de Siracusa (véase una explicación más extensa sobre su muerte en la entrada Muerte entre las ecuaciones (Historias de muerte y matemáticas 1)). Estudió matemáticas por su cuenta, aunque con la oposición de su familia (por la noche le quitaban la luz, la calefacción y la ropa).

GermainCaricatura de Sophie Germain, realizada por Enrique Morente, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)

Como la Escuela Politécnica de París, que fue fundada en 1794, cuando Sophie tenía 18 años, no admitía a las mujeres como alumnas (de hecho, no las admitiría hasta 1972), ella consiguió hacerse con algunos apuntes, como los de Química del químico francés Antoine François, Conde de Fourcroy (1755-1809) o los de Análisis Matemático del matemático franco-italiano, Joseph-Louis Lagrange (1736-1818). Al final del periodo lectivo los estudiantes solían presentar sus investigaciones, o comentarios, a sus profesores, así que Sophie Germain envió un trabajo a Lagrange, firmándolo como Antoine-Auguste Leblanc, un antiguo alumno de la Escuela Politécnica. Este trabajo impresionó a Lagrange, quien quiso conocer al estudiante. Al averiguar su verdadera identidad la felicitó, la animó a seguir estudiando y predijo que tendría éxito como matemática. Ese encuentro la hizo famosa en la comunidad científica y empezó a relacionarse con científicos de la época. Alcanzó cierta notoriedad. Muchos le enviaban sus trabajos o se querían entrevistar con ella.

Caricatura de Joseph-Louis Lagrange, realizada por Enrique Morente, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)

Cuando Sophie Germain empezó a escribir al gran matemático alemán Carl Friedrich Gauss (1777-1855) para compartir con él sus investigaciones en Teoría de Números (intentaba demostrar el Teorema de Fermat), firmó sus cartas con el seudónimo de “Monsieur Leblanc”. En 1906 con motivo de la campaña de Prusia de Napoleón, Sophie Germain temió que algo le ocurriera a Gauss y le escribió a un militar amigo suyo para que velara por la seguridad del matemático. El militar le escribió a Germain para comunicarle que Gauss estaba bien, que este le agradecía su mediación, pero que no conocía a ninguna Sophie Germain. Entonces la matemática francesa tuvo que escribirle para contarle que ella era Monsieur Leblanc. Gauss sorprendido al conocer su identidad, le escribió una carta alabando su talento, su valor y su genio, y comentando como una mujer encuentra más obstáculos que un hombre para trabajar en matemáticas debido a los prejuicios.

Caricatura de Carl Friedrich Gauss, realizada por Enrique Morente, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)

El resultado que lleva su nombre fue un avance muy importante en la demostración del Teorema de Fermat (que no se demostraría hasta 1995, por Andrew Wiles). Posteriormente se dedicaría al estudio de las superficies elásticas, intentando explicar matemáticamente los experimentos del físico alemán Ernst Florenz Friedrich Chladni (1756- 1827), los patrones geométricos que forma la música sobre las placas metálicas con arena, lo que le valdría el Premio de la Academia de Ciencias. Trabajó en otros temas como la curvatura o incluso en Filosofía de la Ciencia. Su ensayo filosófico Considérations générales sur l’état des Sciences y des Lettres aux différentes époques de leur culture / Consideraciones generales sobre las Ciencias y las Letras en las diferentes épocas de su cultura (1833), para identificar los procesos intelectuales de las “Ciencias” y las “Letras” e incluso de todas las actividades humanas, fue elogiado por el filósofo Augusto Comte.

Si se esparce arena en una placa metálica y se le hace vibrar con música, por ejemplo, un arco de violín, la arena se distribuye formando patrones geométricos. Fotografía de Chris Smith, de su proyecto Pattern 365, en flickr

 

Dedicó toda su vida a las matemáticas, no se casó nunca y murió de cáncer de mama en 1831. Poco antes de su muerte, en 1830, Gauss intentó que la Universidad de Gotinga, en Alemania, le otorgara el título de Doctor Honoris Causa, pero a pesar de su gran influencia en esta universidad, su propuesta fue rechazada.

El último teorema de Fermat

Como se comentaba más arriba el teorema que lleva asociado el nombre de esta matemática francesa, el teorema de Germain, que da lugar al concepto de número primo de Sophie Germain, está relacionado con el famoso último teorema de Fermat.

Empecemos recordando brevemente este importante resultado de la Teoría de Números (para más información sobre el mismo se puede leer la entrada Euler y el último teorema de Fermat o el artículo Avatares literarios del último teorema de Fermat).

Caricatura de Pierre de Fermat, realizada por Gerardo Basabe de Viñaspre, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)

El jurista francés y aficionado a las matemáticas Pierre de Fermat (1601-1665), inspirado en el problema de expresar el cuadrado de un número como la suma de los cuadrados de dos números, es decir, buscar soluciones de números enteros positivos a la ecuación pitagórica x2 + y2 = z2 (existen infinitas soluciones, ternas pitagóricas, como (3,4,5) o (5,12,13)), problema que aparecía en el libro Aritmética del matemático griego Diofanto (alrededor del siglo III o siglo IV), se planteó extender ese problema a cualquier potencia y afirmó tener una demostración (el famoso margen en su ejemplar del libro de Diofanto), del hecho de que no existían soluciones para cualquier potencia, diferente de 2. Sin embargo, esa demostración nunca apareció y fue el inicio de una gran aventura matemática, la búsqueda de una demostración del llamado último teorema de Fermat.

Último teorema de Fermat: No es posible encontrar tres números enteros positivos x, y, z tales que verifiquen la ecuación, xn + yn = zn, para n mayor, o igual, que 3.

El primer avance significativo en los intentos por demostrar el teorema de Fermat, en más de un siglo, se produjo de la mano del matemático suizo Leonhard Euler (1707-1783). Este estaba estudiando los papeles de Pierre de Fermat cuando en mitad de una demostración encontró un razonamiento válido para el teorema de Fermat cuando n = 4, es decir, de que no existen números enteros positivos x, y, z tales que x4 + y4 = z4. La técnica que utilizaba Fermat era la conocida con el nombre de “descenso infinito”.

Euler hizo uso de la técnica del descenso infinito, pero utilizando números complejos en el razonamiento, para demostrar la conjetura de Fermat para el caso n = 3, x3 + y3 = z3. Aunque Euler cometió un error en dicha demostración, el resultado necesario para corregirlo estaba en otro de los trabajos del matemático suizo, por lo que se sigue considerando válida su demostración. Las ideas de la demostración de Euler fueron generalizadas por matemáticos como el alemán Peter Gustav Lejeune Dirichlet (1805-1859), el francés Adrien-Marie Legendre (1752-1833) o el francés Gabriel Lamé (1795-1870) para probar algunos otros casos particulares, como, por ejemplo, n = 5 y 7.

Caricatura de Leonhard Euler, realizada por Enrique Morente, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)

Después del trabajo de Euler quedó claro que bastaba demostrar el último teorema de Fermat para los números primos impares. El argumento es el siguiente. Si un número primo p divide a n, entonces tendremos que n será el producto del número primo p con otro número q, es decir, n = pq. Por lo tanto, la ecuación xn + yn = zn, puede escribirse como

de donde se deduce, que si la ecuación xp + yp = zp, no tiene solución, tampoco la tendrá la anterior. Por otra parte, si ningún número primo impar divide a n, entonces n será una potencia de 2 y entonces 4 divide a n (para n = 2, ya sabemos la solución, son los triples pitagóricos). Por el mismo argumento anterior, si 4 divide a n, basta demostrar que la ecuación x4 + y4 = z4 no tiene solución, como ya sabemos, por el propio Fermat (a través de Euler, claro).

En consecuencia, había que intentar demostrar el último teorema de Fermat para los números primos impares. Pero solo se conocía la demostración para los primeros números primos impares, 3, 5 y 7. Y precisamente el primer resultado general vino de la mano de la matemática francesa Sophie Germain.

Caricatura de Sofía Kovalévskaya (1850-1891), realizada por Gerardo Basabe de Viñaspre, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)Los primos de Sophie Germain

El estudio de la ecuación xp + yp = zp, para p un número primo impar, se dividió en dos casos. El primer caso cuando p no divide a x, y y z (es decir, que x, y y z no son múltiplos de p) y el segundo caso cuando p sí divide a alguno de los tres, x, y o z. El resultado de Germain se refería al estudio del primer caso del último teorema de Fermat y es el siguiente.

Teorema de Germain: Si p es un número primo, tal que 2p + 1 también es primo, entonces no existen números enteros x, y, z, no nulos y no múltiplos de p, tales que xp + yp = zp.

Este resultado de Germain fue el primer resultado general en la demostración del último teorema de Fermat, que establecía una familia de números primos para los cuales no se cumplía el primer caso del último teorema de Fermat.

Debido al resultado anterior, a los números primos p tales que 2p + 1 es también primo se les llama primos de Sophie Germain (o primos de Germain). Por ejemplo, los números 2, 3 o 5 son primos de Sophie Germain, ya que 2 x 2 + 1 = 5, 2 x 3 + 1 = 7 y 2 x 5 + 1 = 11 son también primos. La sucesión de números primos de Sophie Germain es la sucesión A005384 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, y los primeros miembros de la sucesión son:

2, 3, 5, 11, 23, 29, 41, 53, 83, 89, 113, 131, 173, 179, 191, 233, 239, 251, 281, 293, 359, 419, 431, 443, 491, 509, 593, 641, 653, 659, 683, 719, 743, 761, 809, 911, 953, 1013, 1019, 1031, 1049, 1103, 1223, 1229, 1289, 1409, 1439, 1451, 1481, 1499, 1511, 1559, …

A los números primos de la forma 2p + 1, tales que p es un número primo (por lo tanto, p es un primo de Germain), se les llama números primos seguros. El nombre se deriva de la importancia de los números primos de Germain p y los primos seguros 2p + 1 en la criptografía. La sucesión de números primos seguros es la sucesión A005385 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, y los primeros miembros de la sucesión son:

5, 7, 11, 23, 47, 59, 83, 107, 167, 179, 227, 263, 347, 359, 383, 467, 479, 503, 563, 587, 719, 839, 863, 887, 983, 1019, 1187, 1283, 1307, 1319, 1367, 1439, 1487, 1523, 1619, 1823, 1907, 2027, 2039, 2063, 2099, 2207, 2447, 2459, 2579, 2819, 2879, 2903, 2963, …

Se desconoce, al igual que ocurre con los números primos gemelos (véase la entrada Números primos gemelos, parientes y sexis (1)), si existen infinitos números primos de Sophie Germain. Y, de nuevo, como en otros temas, se buscan números primos de Germain lo más grandes posibles. Como puede verse en la página web dedicada a los números primos y sus records, The Prime pages, el número primo de Sophie Germain más grande conocido, a día de hoy, fue obtenido en febrero de 2016, y es el número

que tiene 388.342 dígitos.

Mirando la lista de los números primos de Sophie Germain anterior podemos descubrir cuestiones como la siguiente. Si tomamos el número 2, que es un primo de Germain, resulta que el número primo seguro asociado, 2 x 2 + 1 = 5, también es primo de Germain. Más aún, el número primo seguro asociado al 5, 2 x 5 + 1 = 11, también es primo de Germain. Pero podemos continuar más, ya que 2 x 11 + 1 = 23 también es un primo de Germain. Aunque, este camino se termina aquí, puesto que 2 x 23 + 1 = 47, que ya no lo es. En cualquier caso, observamos que podemos generar cadenas de números de Germain concatenados. De hecho, a las cadenas de números primos de Sophie Germain concatenados, incluido el número primo seguro asociado al último de la cadena, en el caso anterior la cadena 2, 5, 11, 23, 47, se las llama cadenas de Cunningham, que reciben ese nombre en honor al matemático indio-británico Allan J. C. Cunningham (1842-1928). Las cadenas de Cunningham tienen la siguiente forma, si p es el número primo de Germain inicial:

Otro ejemplo de cadena de Cunningham es 89, 179, 359, 719, 1439 y 2879. En 2008, el matemático polaco Jaroslaw Wroblewski descubrió la cadena más larga conocida, a día de hoy, formada por 17 elementos. Esta cadena empieza por el número primo de Sophie Germain (con 22 dígitos):

2.759.832.934.171.386.593.519.

El poema de los números primos

Esther Ferrer es una reconocida artista cuyo arte transita entre el minimalismo y el arte conceptual, así como una pionera del arte de la performance. Su trabajo ha sido reconocido con múltiples galardones como el Premio Nacional de Artes Plásticas, en 2008, el Premio Gure Artea, en 2012, o los siguientes premios en 2014, Premio MAV (Mujeres en las Artes Visuales), Prix Marie Claire pour l’Art Contemporain y Premio Velázquez de las Artes Plásticas. Una recomendación para las personas interesadas en conocer su trayectoria artística es el documental Esther Ferrer: Hilos de Tiempo (Josu Rekalde, 2020).

Cartel del documental Esther Ferrer: Hilos de Tiempo (2020), dirigido por Josu Rekalde

En su arte podemos encontrar muchos elementos relacionados con las matemáticas, tanto como fuente de inspiración, como herramienta de creación artística, desde los números primos con los que trabaja desde la década de los años 1970, hasta el infinito en el número pi, pasando por la combinatoria, el azar, las ilusiones ópticas o la geometría. Algunas de las entradas del Cuaderno de Cultura Científica estudian esta interesante interacción, como Variaciones artísticas del teorema de Napoleón, sobre una serie de obras titulada Triángulo de Napoleón que está relacionada con un resultado clásico de la geometría, el teorema de Napoleón, o la entrada ¿Es normal el número pi?, en la cual se explica la importancia de las matemáticas en la estética de la obra Pi (2009-2010). Pero una de las herramientas de creación artística más importantes en la producción de Esther Ferrer son los números primos. De sus procesos creativos y obras relacionadas con los mismos se ha escrito en las entradas El poema de los números primos, El poema de los números primos (2) o Números primos gemelos, parientes y sexis (1), pero también en el libro La gran familia de los números (Libros de la Catarata – ICMAT – FESPM, 2021).

GermainBoceto de la instalación para la nueva plaza de acceso a Tabakalera, perteneciente a la serie El poema de los números primos, de Esther Ferrer. Mi más sincero agradecimiento a Esther Ferrer por permitirme mostrar este hermoso boceto, cuya realización se podrá disfrutar en breve en Tabakalera (Donostia)

La instalación para la nueva plaza de acceso a Tabakalera, perteneciente a la serie El poema de los números primos, de Esther Ferrer, se construye utilizando la espiral de Ulam (véase la entrada El poema de los números primos, para una lectura más en profundidad de esta estructura geométrica plana numérica) y los números primos de Sophie Germain, que se han explicado en esta misma entrada, mediante un proceso creativo similar al de algunas de las obras de las series El poema de los números primos y Un mar de números primos, que explicaremos a continuación.

La espiral de Ulam es una estructura geométrica plana, de tipo reticular, en la que los números naturales son escritos en espiral, empezando en el 1 y en el sentido contrario a las agujas del reloj, destacando los números primos. En la siguiente imagen se muestra la espiral de Ulam hasta el número 144 (aunque es un número bajo ya se puede percibir la idea de su proceso de construcción), con las casillas de los números primos (como 2, 3, 5, 7 11, etcétera) en gris, lo que permite observar la distribución de los números primos en la misma (sobre todo para grandes retículas, como hizo el matemático polaco Stanislaw Ulam (1909-1984)).

Espiral de Ulam hasta el número 144, con las casillas de los números primos en gris

 

El boceto de la instalación de Esther Ferrer, que luego se trasladará a la obra formada por baldosas ubicada en la nueva entrada de Tabakalera, consiste en una espiral de Ulam de 88 filas y 89 columnas, es decir, 7.832 casillas (desde el número 1, en el centro de la retícula cuadrada, al número 7.832 en la esquina de abajo a la izquierda). En las casillas/baldosas con números compuestos, es decir, no primos, se han borrado los números, mientras que se han dejado escritos los números primos en sus correspondientes casillas, pero además estas casillas, están pintadas de gris (la última casilla gris de la espiral de Ulam, luego de un número primo, es el 7.829), salvo algunas que serán doradas. Estas se corresponden con otro elemento importante en esta obra, como comentábamos más arriba, son los números primos de Sophie Germain. Las casillas que contienen estos números van pintadas de dorado, en lugar de gris, como homenaje a la matemática francesa (la última casilla dorada de la espiral es el número 7.823).

En la siguiente imagen mostramos una reconstrucción de la idea de la instalación de Esther Ferrer, pero para la pequeña retícula de 144 casillas (12 filas y 12 columnas), en la que se recoge lo explicado hasta el momento: espiral de Ulam, casillas doradas con números primos de Sophie Germain, casillas grises con números primos que no son de Germain y, por ahora, casillas blancas para los números compuestos.

Espiral de Ulam en la que se han borrado los números compuestos –no primos-, se han pintado de gris las casillas de los números primos, salvo aquellas que corresponden a números primos de Germain, que están pintadas de dorado

 

El método general de Esther Ferrer, en las obras relacionadas con los números primos, consiste en generar patrones planos utilizando dos estructuras relacionadas con los mismos, la criba de Eratóstenes y la espiral de Ulam, que acabamos de mencionar para la futura instalación. En ambos casos, el patrón geométrico queda establecido de forma objetiva, por la distribución de los números primos, mientras que la artista “actúa” después sobre las zonas de números compuestos, no primos. Normalmente, crea interacciones artísticas cambiantes sobre las “lagunas de números primos”, es decir, las zonas de números compuestos, no primos, entre dos números primos consecutivos. Un ejemplo de interacción artística consiste, por ejemplo, en que, en cada casilla de un número compuesto, no primo, se dibuja una diagonal siguiendo la siguiente regla. Las diagonales tienen dos posiciones (ascendente o descendente, en el sentido del recorrido de los números) y dos colores (por ejemplo, azul y verde), y el sentido y el color de las diagonales cambian de una laguna de números primos a la siguiente. En otras obras, las diagonales van avanzando en zigzag (ascendente/descendente) de una casilla a la siguiente y es el color de las diagonales el que cambia de una laguna a otra, es decir, cambian con cada nuevo número primo. Pueden verse algunos ejemplos en las entradas mencionadas más arriba.

Sin embargo, en esta última obra Esther Ferrer ha incluido un elemento nuevo, como son los números primos de Sophie Germain y la intervención artística cambia en la misma, de diagonales en zigzag verdes a diagonales en zigzag azules, y viceversa, no en los números primos como antes, sino en los números primos de Germain. Por otra parte, las lagunas de números primos se marcan pintando media casilla, inicial y final, del color correspondiente (lo que provoca que para los números primos gemelos la casilla intermedia sea completamente azul o verde, ya que es inicial y final a la vez). En la siguiente imagen se muestra una reconstrucción para la pequeña retícula de 144 casillas.

Reconstrucción del boceto de la instalación para la nueva plaza de acceso a Tabakalera, perteneciente a la serie El poema de los números primos, de Esther Ferrer, para la pequeña retícula de 144 casillas (12 filas y 12 columnas), que se corresponde con la parte central del boceto

Obsérvese que, si nos vamos moviendo en espiral, como ha sido construida la espiral de Ulam, los colores de las diagonales en zigzag cambian entre los números primos de Germain, que son (menores que 144) los siguientes, 2, 3, 5, 11, 23, 29, 41, 53, 83, 89, 113 y 131. Las casillas coloreadas solamente la mitad se corresponden con casillas iniciales y finales de lagunas de números primos (recordemos que son zonas de números no primos, entre un primo y el siguiente), luego las casillas monocolor se corresponden con la única casilla que está entre dos primos gemelos (parejas de números primos con solo un número par entre ellos). Por ejemplo, dos números primos de Germain consecutivos son el 41 y el 53, cuyas casillas son doradas; el color que domina las casillas entre ellos es el azul; entre el 41 y 43 la casilla es completamente azul, ya que son números primos gemelos; la pequeña laguna entre el 43 y el 47, es una pequeña zona en zigzag azul, con la casilla del 44 (inicial) con la mitad azul y la casilla del 46 (final) con la mitad azul; y algo similar en la siguiente laguna entre los números primos 47 y 53. Y entonces, en el primo de Germain 53, cambia el color al verde, hasta el siguiente, el 83.

Poema de los números primos lagunas (2020), de Esther Ferrer, construida mediante una espiral de Ulam –que empieza en un número primo muy alto, el 1.693.182.318.746.371–, teniendo en cuenta las lagunas de números primos y con una gran laguna central, de 1131 números compuestos consecutivos. Tuve el placer de colaborar con Esther Ferrer en la parte matemática de esta obra, y otras relacionadas. Muchas gracias, Esther.

Bibliografía

1.- R. Ibáñez, La gran familia de los números, Libros de la Catarata – ICMAT – FESPM, 2021.

2.- María Molero, Adela Salvador, Sophie Germain (1776-1831), Ed. del Orto, 2007.

3.- Lourdes Figueiras, María Molero, Adela Salvador, Nieves Zuasti, El juego de Ada. Matemáticas en las Matemáticas, Proyecto Sur, Granada. 1988.

4.- Susana Mataix, Matemática es nombre de mujer, Rubes, 2005.

5.- Xaro Nomdedeu, Mujeres, manzanas y matemáticas, Nivola, 2000.

6.- VVAA, El rostro humano de las matemáticas, Nivola, 2008.

7.- Dora Musielak, Sophie Germain, Revolutionary Mathematician, Springer, 2020.

8.- Paulo Ribenboim, The Little Book of Bigger Primes, Springer, 2004.

9.- R. Ibáñez, Las matemáticas como herramienta de creación artística, Libros de la Catarata – FESPM, 2023.

 

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Los números primos de Sophie Germain se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Anticipando las crisis de precios agroalomentarios usando inteligencia artificial

Tue, 2024/02/20 - 11:59
crisis de preciosPuesto en el Mercado de San José de Barcelona (popularmente conocido como La Boquería). Foto: Jacopo Maia / Unsplash

España es uno de los mayores suministradores de frutas y verduras para los países europeos y la agricultura representa uno de los pilares fundamentales de nuestra economía como país. Anticipar el precio futuro de dichos productos permitiría a las cooperativas y agricultores programar la producción, cosecha y comercialización de una manera más eficiente. Esto se traduciría en una remuneración más justa, contribuyendo de paso a disminuir el desperdicio alimentario que supera el 14% de la producción de las frutas y verduras a nivel mundial.

Como en cualquier mercado, conocer de antemano cómo van a evolucionar los precios en el sector no es nada fácil, pero ahí es donde la inteligencia artificial tiene algo que aportar. Un equipo de investigadores ha analizado el potencial del algoritmo de Machine learning Reservoir Computing de cara a anticipar la evolución de los precios en el sector agroalimentario y con ello prevenir, o al menos anticiparse, a posibles crisis.

crisis de precios

“Anticipar crisis de precios en el mercado agroalimentario es fundamental para garantizar la sostenibilidad del sector y la seguridad alimentaria, ambos objetivos de la ONU para la Agenda 2030. Sin embargo, esta no es tarea fácil, ya que el problema implica analizar series temporales con pocos datos, muy volátiles y que están influenciadas por factores externos como la producción y demanda, las exportaciones o el clima”, explica Mar Grande, investigadora de la Escuela Técnica Superior de Ingeniería Agronómica, Alimentaria y de Biosistemas (ETSIAAB) de la UPM y de la empresa AGrowingData y una de las autoras del trabajo.

Para afrontar este problema, el equipo analizó el rendimiento del algoritmo de Reservoir Computing para predecir series temporales de precios. Además, desarrollaron una arquitectura óptima, basada en la descomposición de la serie temporal, para anticipar la evolución del mercado agroalimentario.

El trabajo pone de manifiesto el potencial de dicho algoritmo a la hora de predecir la evolución de los precios. Además, supera en rendimiento a otros modelos utilizados hasta el momento como los modelos econométricos (SARIMA) o las redes neuronales como LSTM, reduciendo el error absoluto medio y, lo que es más importante, aumentado la precisión al predecir la dirección del mercado.

Crisis de precios y desperdicio de comida

Los resultados obtenidos suponen una importante contribución de cara a garantizar la seguridad alimentaria y crear un sistema agroalimentario sostenible. Además, conocer con la suficiente anticipación los periodos de precios mínimos en los que la producción se tira porque no es rentable su venta, permitiría a gobiernos y ONGs destinar dicha producción a las poblaciones vulnerables.

Y es que, pese a la importancia de los datos, los investigadores subrayan que “no podremos tener un sistema alimentario sostenible si no solventamos el problema del desperdicio de comida” muy relacionado con las crisis de precios.

“Alrededor del 14% de las frutas y verduras que se producen en el mundo se pierden antes de llegar al mercado. Esto ocurre principalmente por las crisis de precios, donde el precio es tan bajo que no sale rentable comercializar los productos. Así, para alcanzar la sostenibilidad del sector agroalimentario es tarea clave anticipar los precios del mercado para que se puedan llevar a cabo acciones adecuadas antes de que se produzca una crisis”, concluyen.

Referencias:

L. Domingo, M. Grande, F. Borondo y J. Borondo (2023) Anticipating food price crises by reservoir computing Chaos, Solitons and Fractals doi: 10.1016/j.chaos.2023.113854

L. Domingo, M. Grande, G. Carlo, F. Borondo y J. Borondo (2023) Optimal quantum reservoir computing for market forecasting: An application to fight food price crises arXiv doi: 10.48550/arXiv.2401.03347

 

Edición realizada por César Tomé López a partir de materiales suministrados por la Universidad Politécnica de Madrid

 

El artículo Anticipando las crisis de precios agroalomentarios usando inteligencia artificial se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Un océano para Mimas

Mon, 2024/02/19 - 11:59

Las misiones planetarias que han visitado nuestro Sistema Solar exterior han supuesto una verdadera revolución en nuestra visión y comprensión de la actividad geológica más allá de la Tierra, especialmente en lo que se refiere a los cuerpos más pequeños donde, a priori, tras la formación del Sistema Solar, habrían tenido tiempo más que suficiente como para enfriarse por completo y ser mundos -en términos coloquiales- muertos a nivel geológico.

Sin la misión Cassini, que estuvo en órbita alrededor de Saturno durante trece años, quizás nuestra visión seguiría siendo, si no la misma, muy parecida a la que teníamos antes. Pero la enorme cantidad de imágenes y datos que nos envió de los distintos y diversos satélites del gigante gaseoso, y que probablemente representen diferentes estadios evolutivos, este cambio habría tardado mucho más.

El caso que vamos a tratar hoy es un poco peculiar porque servirá para darle otra vuelta a los modelos de evolución planetaria, pero también nos podría ayudar a saber como deberíamos seguir explorando otros mundos para obtener una visión más certera sobre estos. Por eso hoy vamos a hablar de Mimas, porque quizás, después de todo, tenga un océano interior.

mimasMimas visto con las cámaras de la Cassini el 13 de febrero de 2010 a una distancia de unos 9500 kilómetros. Cortesía de NASA/JPL-Caltech/Space Science Institute.

Mimas es un pequeño satélite de Saturno -apenas tiene un diámetro de 400 kilómetros- y cuando uno mira su superficie, lo primero que salta a la vista es que está completamente cubierta por cráteres, muchas veces superpuestos los unos a los otros, uno de los cuales, Herschel, tiene aproximadamente un tercio del diámetro del satélite. Por cierto, es este cráter el que le da esa apariencia de “estrella de la muerte” que hace que su aspecto sea tan reconocible.

En geología planetaria, normalmente, el número y tamaño de los cráteres nos indica la juventud o la senectud de una superficie, porque cuanto mayor es el grado de actividad geológica, su superficie tendrá una mayor probabilidad de renovarse y, por lo tanto, borrar esos cráteres que han ido acumulándose en su superficie.

Hay otra serie de aspectos que nos podrían indicar una actividad reciente, como la presencia de sistemas de pliegues y fracturas como los que podemos ver en cuerpos como por ejemplo sería el caso de Encélado, otro satélite de Saturno, y cuya actividad es patente en su superficie no solo por zonas muy rejuvenecidas y con una total ausencia de cráteres, sino también por los geiseres activos que emanan de grandes sistemas de fracturas y atestiguan que es un mundo activo todavía hoy.

En el caso de los cuerpos cuya corteza está formada por hielo -la mayor parte de los satélites del Sistema Solar exterior son así- para que exista actividad en su superficie tiene que existir al mismo tiempo un océano interior que sirva como una correa de transmisión de ese calor que todavía queda en su núcleo rocoso o que, incluso, se está generando en estos momentos, bien en el núcleo o incluso en el propio hielo.

mimasSi miramos más de cerca la superficie de Mimas en esta imagen de falso color -hecha para detectar variaciones composicionales- observamos claramente la permeabilidad de los cráteres. Cortesía de NASA/JPL/Space Science Institute.

Si nos fijamos solo en el aspecto de Mimas, a priori no parecería un mundo activo con un océano subterráneo, puesto que debido a su pequeño tamaño y con el tiempo que ha pasado desde su formación habría tenido tiempo más que suficiente para congelarse por completo en el caso de haber existido en algún momento.

Pero los datos de la misión Cassini han permitido en los últimos años detectar una serie de detalles que hacen pensar que podríamos estar muy equivocados. Uno de los datos más importantes consistió en observar las libraciones de Mimas a lo largo de su órbita alrededor de Saturno. ¿Qué son las libraciones? De una manera sencilla es un movimiento oscilante -o un bamboleo- que sufren los cuerpos celestes cuando los observamos desde el mismo punto.

Estas libraciones vienen condicionadas por las interacciones gravitatorias entre los cuerpos y que tiene como consecuencia cambios en su movimiento orbital y de rotación, algo que nos permite que a veces veamos más de la mitad de una luna, y me explico: Nosotros, desde la Tierra, parece que siempre vemos la misma cara de nuestra Luna, pero en realidad vemos algo más del 50% de su superficie gracias a las libraciones.

Más allá de permitirnos ver una mayor parte de la superficie, estas libraciones nos permiten encontrar pistas sobre la estructura interna de los satélites, como, por ejemplo, el tamaño del núcleo rocoso o la presencia de un océano interior. A estos datos hay que sumarles los datos gravitatorios y topográficos que también se tomaron durante la misión Cassini y que ayudan a completar los modelos sobre el interior.

mimasMimas, frente a los anillos de Saturno. Cortesía de NASA/JPL/Space Science Institute.

Algunos de los modelos iniciales mostraban que Mimas tendría un núcleo rocoso con una forma poco esférica -o dicho de otra manera, alejado del equilibrio hidrostático- y una corteza completamente congelada, con ningún o muy poco margen para la presencia de un océano, aunque es cierto que algunos autores como Rhoden et al. (2022, 2023) sugerían que esta podría ser una posibilidad.

Pero un estudio recién publicado por Lainey et al. (2024) en la revista Nature aporta una nueva pista: la corteza no rota al mismo ritmo que el núcleo, lo que sugiere que, efectivamente, entre ambas existe un océano interior, una estructura interna que casaría mejor con los datos de forma, topografía y campo gravitatorio de Mimas. Este océano ocuparía aproximadamente el 50% del volumen del satélite.

Entonces, ¿Por qué no vemos reflejo de ese océano en la superficie? Pues porque estaríamos ante un océano joven, y que probablemente tenga menos de 25 millones de años, es decir, en términos geológicos, un recién llegado. Este periodo de tiempo no habría sido suficiente para que la actividad del océano haya llegado a propagarse hacia la superficie y, por lo tanto, sea un océano invisible o camuflado.

Estos hallazgos nos hacen replantearnos una serie de cuestiones sobre la geología de los cuerpos más pequeños del Sistema Solar, especialmente en cuanto a la duración de su actividad geológica. Los cuerpos ya no solo podrían enfriarse y estar condenados a carecer casi por completo de esta, sino que podrían tener una segunda vida geológica en el caso de sufrir cambios en sus parámetros orbitales por la interacción con otros satélites del sistema, por poner un ejemplo, abriendo la puerta a un Sistema Solar todavía más vivo de lo que podríamos imaginar e incluso, quien sabe, si también más habitable desde el punto de vista de la astrobiología.

Referencias:

Lainey, V., N. Rambaux, G. Tobie, N. Cooper, Q. Zhang, B. Noyelles, y K. Baillié (2024) A Recently Formed Ocean inside Saturn’s Moon Mimas Nature  doi: 10.1038/s41586-023-06975-9.

Rhoden, Alyssa Rose (2023) Mimas: Frozen Fragment, Ring Relic, or Emerging Ocean World? Annual Review of Earth and Planetary Sciences doi: 10.1146/annurev-earth-031621-061221.

Rhoden, Alyssa Rose, y Matthew E. Walker (2022) The Case for an Ocean-Bearing Mimas from Tidal Heating Analysis Icarus doi: 10.1016/j.icarus.2021.114872.

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Un océano para Mimas se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La necesaria refundación del sistema de publicación científica

Sun, 2024/02/18 - 11:59

Uno de los pilares sobre los que se sostiene el avance acumulativo del conocimiento científico es el sistema universal de comunicación, publicación y edición científica. Su fundación moderna se remonta al siglo XVII, cuando fueron creados los primeros grupos organizados con el propósito explícito de promover el avance de la ciencia. Algunas de las más antiguas y prestigiosas Sociedades Científicas son la Accademia dei Lincei (Roma, 1603), la Deutsche Akademie der Naturforscher Leopoldina (Halle, 1652), la Royal Society (Londres, 1660) y la Académie des Sciences (Paris, 1666). Todas ellas promovieron la publicación de importantes libros y escritos de sus miembros, y en marzo de 1665 Henry Oldenburg, primer secretario de la Royal Society de Londres lanzó la primera revista científica periódica: las Philosophical Transactions, que hoy día aún sigue activa.

La labor editorial científica se demostró de enorme importancia para la comunicación pública internacional del conocimiento, así como para la colaboración entre las personas dedicadas a la ciencia. Esto supuso una aceleración conjunta para el avance acumulativo en todas las áreas de conocimiento, que fue creciendo durante los sucesivos siglos.

publicación científicaFoto: Bernd Klutsch / Unsplash

Durante todo el siglo XX este sistema de publicación se adaptó a la necesidad de garantizar la calidad de los artículos científicos propuestos para ser publicados. Esto requiere la revisión por especialistas de los contenidos de los que se propone publicar, y estos especialistas son normalmente también autores de otros escritos en temática relacionada, para poder juzgar un texto con verdadero conocimiento de causa. Este procedimiento, llamado peer review (revisión mutua entre personas especialistas dedicadas al mismo campo) es laborioso, pero difícil de sustituir para intentar garantizar la calidad de lo que salga publicado.

Desde el inicio del siglo XXI hemos experimentado un imparable incremento anual de artículos científicos publicados, en buena parte porque los gobiernos de países con o sin tradición científica se dieron cuenta de la importancia del avance nacional e internacional de la ciencia e impulsaron ciertas políticas científicas para ello. A pesar de la loable intención de la mayor parte de los gobiernos, simplistas políticas científicas han llevado a clasificar la importancia de la ciencia y las personas dedicadas a ello en cada país bajo incompletos indicadores como la cantidad de artículos publicados, el “impacto” de las revistas en que se publica o fórmulas fáciles de emplear como el índice h.

Publica o muere

El efecto real de estas políticas para el colectivo de personas dedicadas a la ciencia ha sido reducir la investigación a la idea de publicar lo que sea y como sea, bajo el conocido lema publish or perishpublicad o morid. Esta situación dio lugar a que en el primer cuarto del siglo XXI un gran número de nuevos grupos editoriales privados crearan de la nada en tiempo récord cientos de nuevas revistas científicas, y los grupos editoriales tradicionales también se expandieran en más y más revistas bajo la égida de su marca. Además, estos colectivos de publicación científica fueron fusionándose o comprándose, basándose en las puras leyes del mercado. Esto ha dejado actualmente el sistema de publicación en un enorme negocio editorial donde el objetivo principal no es promover el avance científico, sino los intereses pecuniarios de cualquier mercantil.

Existen actualmente varias decenas de miles de revistas aparentemente dedicadas a la ciencia. Se descubre a menudo que revistas pertenecientes a grandes grupos publican artículos de baja calidad, sin revisión y bajo cierto pago. La punta del iceberg es que miles de estos artículos son finalmente repudiados o retirados. Por ejemplo, el año 2021 la importante editorial Wiley adquirió el grupo científico Hindawi y solamente este último año 2023 mandó retirar más de 8000 artículos. Otros grandes grupos editoriales científicos como MDPI y Frontiers han hecho también surgir muchas dudas sobre la calidad de lo publicado. La inexistencia de procedimientos de revisión rigurosos, así como la promoción de malas prácticas entre los autores, algunos de los cuales “escriben” y publican cerca de 70 artículos de investigación científica al año han creado un colapso. Es evidente que un científico no puede producir una nueva investigación cada 5 días, pero el negocio editorial, junto con las simplistas políticas científicas y la falta de ética de algunos autores, han generado una cacofonía de publicaciones que no ayudan al avance del conocimiento, sino a la seria posibilidad de que lleguemos a perder confianza en la ciencia.

Los más conocidos grupos editoriales científicos -Nature y Science- también han efectuado movimientos para optimizar sus resultados económicos. Decenas de nuevas revistas bajo su marca, pero de muy desigual calidad, se han expandido. El impacto de estas firmas es muy alto, su poder editorial es el más influente y el montante económico que debe pagarse para publicar en ellas es el mayor del mercado, pero su calidad científica no es la mejor, ni siquiera en sus revistas insignia. Muchos ganadores de premios Nobel han denunciado la excesiva influencia de estas revistas, que consideran impropia para la ciencia como empresa colectiva universal.

Por ejemplo, el biólogo Randy Schekman anunció el año en que recibió el Nobel que su laboratorio de la Universidad de California en Berkeley no volvería a mandar más artículos a las todopoderosas Nature, Cell ni Science, cuyas políticas de publicación criticó duramente. También estudios bibliométricos demuestran que en las publicaciones científicas el impacto no es equivalente a la calidad. Respecto a cantidad de artículos, el famoso premio Nobel de física Peter Higgs declaró también que indicadores como el escaso número de sus publicaciones o su bajo índice h le habría hoy día impedido obtener empleo como investigador.

Refundar el sistema actual

Si deseamos que la publicación internacional científica converja en un verdadero avance acumulativo de todas las áreas de conocimiento debemos refundar el sistema actual en múltiples facetas, incluyendo realistas y eficaces políticas científicas, que les competen a los gobiernos del mundo. Con respecto a las distribuciones de artículos, en agosto de 1991 el físico Paul Ginsparg, de la Universidad de Cornell puso en funcionamiento el importante repositorio arXiv, que alberga con acceso abierto millones de pre-artículos científicos si cumplen unos requisitos básicos. Otros repositorios como HAL, bioRxiv, medRxiv o ChemRxiv se han ido sumando a esta misma idea. Este filtro previo permite a miles de autores cada día depositar en público sus trabajos, y de ahí poder enviarlos a revistas especializadas para su revisión y posible futura publicación.

No es nada sencillo reordenar el actual pandemónium editorial. Las Sociedades Científicas pusieron en marcha el sistema hace casi cuatro siglos y los gobiernos mundiales han reconocido su importancia. Existen muchos intereses individuales, mercantiles, nacionales y personales, pero si no ponemos por delante el avance global de la ciencia no es posible corregir la situación. Tenemos un órgano de gobierno universal dedicado a la educación, la ciencia, la cultura, la comunicación y la información como la UNESCO. Un gran repositorio digital de acceso público tipo ArXiv financiado desde las naciones unidas, apoyado por las revisiones especializadas de los trabajos desde las Sociedades Científicas y coordinadas por unas editoriales de revistas científicas supervisadas y financiadas desde la UNESCO puede parecer una utopía, pero merece la pena intentar cuidar verdaderamente la ciencia como bien común para la humanidad.

Para más información:

Los males de la ciencia (serie)

Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)

El artículo La necesaria refundación del sistema de publicación científica se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

¡Ups! Hoyle contra el Big Bang

Sat, 2024/02/17 - 11:59

big bang

En los años 30 del siglo XX el sacerdote y astrónomo belga Georges Lemaître postuló que el universo había nacido de una singularidad, un átomo primigenio al que llamó huevo cósmico. Ese primer átomo sufrió algo parecido a una explosión. Lo que dio lugar a un universo que desde entonces no ha parado de expandirse. Al astrofísico Fred Hoyle aquello le parecía una patochada. Consideraba que estaba demasiado cerca de postulados religiosos que daban por supuesta la existencia de un creador. En una entrevista concedida a la BBC en 1949 Hoyle quiso burlarse de esa teoría poniéndole un nombre ridículo. La llamó Big Bang. ¿Te suena ese nombre, verdad?

 

Producción ejecutiva: Blanca Baena

Guion: José Antonio Pérez Ledo

Grafismo: Cristina Serrano

Música: Israel Santamaría

Producción: Olatz Vitorica

Doblaje: K 2000

Locución: José Antonio Pérez Ledo

Edición realizada por César Tomé López

El artículo ¡Ups! Hoyle contra el Big Bang se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La urgente necesidad de medir la diversidad genética

Fri, 2024/02/16 - 11:59

Cada ser vivo en nuestro planeta se distingue de sus congéneres por pequeñas diferencias en su material hereditario. En consecuencia, cuando el entorno cambia y se vuelve desfavorable para las especies tanto vegetales como animales, esta variabilidad genética puede permitirles adaptarse a las nuevas condiciones en lugar de extinguirse o tener que migrar a otros hábitats: la diversidad genética es una de las claves para la supervivencia de las especies durante el cambio climático. En 2022, la Convención Internacional sobre Diversidad Biológica (CDB, por sus siglas en inglés) hizo hincapié en la necesidad de proteger la diversidad genética que se encuentra en especies silvestres, un componente fundamental de la diversidad biológica que ha sido descuidado en numerosas ocasiones.

diversidad genéticaFoto: Anton Darius / Unsplash

El calentamiento global está ejerciendo una gran presión sobre muchas especies en Europa, especialmente aquellas con poblaciones que habitan en los límites climáticos de su rango. La capacidad de las especies para resistir un mayor calor o sequía, así como las estrategias para enfrentar las nuevas especies que colonizan su entorno, determina sus posibilidades de supervivencia. Es en estos entornos límite donde es más urgente medir la diversidad genética, para evaluar la capacidad de las especies que habitan estos espacios para sobrevivir.

Un estudio internacional liderado por Peter Pearman, investigador Ikerbasque en la UPV/EHU y asociado al BC3, ha examinado el monitoreo de la diversidad genética en Europa. Los resultados de Pearman y sus coautores muestran que los esfuerzos para monitorear la diversidad genética en Europa son insuficientes y deben completarse teniendo en cuenta los posibles impactos del cambio climático en especies de interés conservacionista.

Al analizar todos los programas de monitoreo genético en Europa, el estudio mostró las áreas geográficas en las que se necesitan mayores esfuerzos de monitoreo, principalmente en el sureste de Europa (Turquía y los Balcanes). El estudio muestra que muchas especies también estarán amenazadas por el cambio climático en la Península Ibérica. «Sin un mejor monitoreo europeo de la diversidad genética, corremos el riesgo de perder variantes genéticas importantes», dice Peter Pearman, el autor principal del estudio.

Un monitoreo mejorado permitiría detectar áreas climáticamente favorables para estas variantes y protegerlas para mantener la diversidad genética que es esencial para la supervivencia a largo plazo de las especies. Algunas de estas especies amenazadas también proporcionan servicios invaluables a los humanos, como la polinización de cultivos, el control de plagas, la purificación del agua y la regulación del clima.

El estudio incorporó los esfuerzos de 52 científicos/as que representan a 60 universidades y centros de investigación de 31 países. Los resultados sugieren que los programas de monitoreo de la diversidad genética en Europa deben adaptarse sistemáticamente para abarcar gradientes ambientales completos e incluir todas las regiones sensibles y de alta biodiversidad.
En línea con los recientes acuerdos, refrendados por España para frenar la disminución de la biodiversidad, la investigación concluye que es necesario un mejor monitoreo que responda al cambio climático de las especies en general, y de su diversidad genética en particular, a nivel internacional. Esto permitirá una mejor planificación del uso del suelo y un mejor apoyo a las acciones de conservación y restauración del ecosistema, que contribuyan a garantizar la persistencia de las especies y los servicios que brindan.

Referencia:

Peter B. Pearman et al. (2024) Monitoring species genetic diversity in Europe varies greatly and overlooks potential climate change impacts Nature Ecology & Evolution doi: 10.1038/s41559-023-02260-0

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La urgente necesidad de medir la diversidad genética se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Visibilizando el papel femenino en Geología “de otra manera”

Thu, 2024/02/15 - 11:59

En el año 2015, la Asamblea General de las Naciones Unidas nombró el 11 de febrero como el “Día Internacional de la Mujer y la Niña en la Ciencia”, una efeméride para visibilizar el papel que tenemos las mujeres en ciencia y tecnología, así como fomentar las vocaciones científicas entre las niñas.

Realmente, cuando hablo de este tema con otras compañeras geólogas, consideramos que debemos realizar actividades divulgativas buscando cumplir con estos objetivos durante todo el año. Pero eso no quita para que nos volquemos en organizar eventos especiales en estas fechas.

La Geología es la gran desconocida

En el caso de las Ciencias de la Tierra, en general, y de la Geología, en particular, contamos con un par de desventajas. Por un lado, a pesar de ser una de las cinco ciencias básicas, la Geología es la gran desconocida. La gente no sabe a qué nos dedicamos, ni desde la ciencia básica ni desde la aplicada, y generalmente solo nos asocian a eventos destructivos como terremotos y volcanes. Y, por otro lado, cuando empiezan a descubrir nuestro trabajo, siempre lo consideran como una profesión muy masculinizada (ir al campo a coger rocas a martillazos y llenarse de barro no parece demasiado “femenino”). Pero podemos darles la vuelta a estas desventajas para que actúen a nuestro favor, ya que cualquier cosa que contemos sobre nuestra labor va a despertar la curiosidad de la gente y también podemos sorprenderla al mostrar nuestro día a día, tanto en el campo como en el laboratorio, como algo normal y corriente.

El siguiente obstáculo con el que nos encontramos es el formato empleado para mostrar y normalizar el trabajo de las geólogas al público más joven. Lo más habitual durante el 11F es acudir a centros educativos a dar pequeñas charlas sobre nuestras vidas mientras recordamos a algunas de las pioneras de la Geología. Con la experiencia de otros años, nos hemos dado cuenta de que, así, no conseguimos despertar del todo la curiosidad del estudiantado más joven, tanto por falta de tiempo (apenas tenemos unos 50 minutos, lo que impide una interacción amplia y profunda con el público) como por saturación del público (varias charlas el mismo día o en varios días seguidos, que hacen que ya ni se acuerden de las científicas que han visitado su clase). Otro de los formatos más empleados consiste en organizar eventos más grandes, tipo feria de la ciencia, donde los centros educativos acuden durante unas horas a un lugar en el que se encuentran stands de diferentes disciplinas científicas dirigidos por mujeres. En este caso, los problemas que hemos encontrado han sido el tener que competir, en el buen sentido de la palabra, con otras ciencias que, a priori, pueden resultar más llamativas o conocidas para el público y se llevan toda la atención, además de que, en ocasiones, el estudiantado viene obligado a nuestras mesas mirando la hora en el reloj para poder salir corriendo.

Mi primer Geolodía

En la Comisión Mujeres y Geología de la Sociedad Geológica de España nos hemos planteado como solventar estos problemas y poder poner en marcha un evento divulgativo que, realmente, consiga despertar la curiosidad del público más joven, en especial estudiantes de infantil y primaria, por las Ciencias de la Tierra mientras normalizamos la presencia de las mujeres como profesionales de la Geología sin forzar la situación, es decir, de una manera sutil. Así es como surgió la iniciativa “Mi Primer Geolodía” y, a modo de ejemplo, quiero detallaros la actividad que hemos realizado el pasado sábado 10 de febrero en la localidad de Padul, en Granada.

geologíaCartel promocional de “Mi Primer Geolodía Granada”, con una ilustración de Dánae Sanz (Universidad Complutense de Madrid).

Padul cuenta con una historia geológica excepcional. A los pies de Sierra Nevada y estando afectada por accidentes tectónicos responsables de la sismicidad de Granada, en esta localidad se desarrolla una importante laguna con una turbera en la que se han encontrado restos fósiles de mamuts lanudos, lo que la convierte en la localidad más meridional en la que aparecen estos ejemplares. Por este motivo ha sido la elegida para celebrar esta edición de “Mi Primer Geolodía Granada”, ya que permite mostrar la interacción entre diferentes disciplinas geológicas para poder interpretar toda esa historia.

geologíaAspecto general de los talleres y experimentos de “Mi Primer Geolodía Granada”.

La actividad ha consistido en la preparación de 15 talleres con experimentos interactivos y 5 charlas cortas que se pudieron visitar, de manera libre y gratuita, durante toda la mañana en una nave industrial anexa al Ayuntamiento de Padul. Con estos talleres, las personas asistentes pudieron descubrir cómo se formaron la laguna y la turbera y por qué aparecen fósiles de mamuts en la zona, relacionándolo con los estudios sobre el cambio climático y el comportamiento de las aguas subterráneas. También conocieron el funcionamiento interno de nuestro planeta, responsable de la creación del relieve que rodea la zona, así como de la falla de Padul-Nigüelas, una de las culpables de los terremotos de Granada. Y también hubo una parte más lúdica, con un rocódromo donde se practicaron técnicas de espeleología, un taller de pinturas rupestres, manualidades geológicas, la visita a la réplica de una cueva y un juego gigante de volcanes y dinosaurios. Además, se pudo visitar la exposición “Geas, Mujeres que estudian la Tierra”, basada en el libro del mismo título escrito por Ana Ruiz y Rosa María Mateos, investigadoras del IGME-CSIC, e ilustrado por Nívola Uyá, donde se muestra la vida de 12 pioneras de la Geología. Incluso, el público asistente recibió la visita de una de ellas, Mary Anning, la “madre de la paleontología”, gracias a una pequeña obra de teatro.

Rosi (Umbriel Teatro, Motril) y Lucía caracterizadas como Mary Anning adulta y niña, respectivamente, para la obra de teatro, junto al panel de la pionera de la paleontología perteneciente a la exposición “Geas, Mujeres que estudian la Tierra”.

Este formato ha resultado ser todo un éxito. Más de 450 personas, la mitad niñas y niños, la mayoría en un rango de edad de 4-7 años, se acercaron a conocer la historia geológica de Padul y descubrieron de manera amena y divertida la importancia de esta ciencia para asegurar nuestro futuro ante cuestiones como la mitigación de los efectos del cambio climático, la búsqueda de materias primas minerales o la prevención de los riesgos geológicos, gracias a que los talleres preparados estaban todos interrelacionados. Además, normalizaron la presencia femenina en Geología sin darse cuenta, ya que participaron 50 profesionales de las Ciencias de la Tierra, un grupo paritario y muy diverso conformado por profesoras de investigación o catedráticos de universidad explicando mano a mano con estudiantes de máster y doctorado. Es decir, comprobaron la verdadera conformación de los grupos de trabajo en Geología, mujeres y hombres de diferentes edades y grados de experiencia compartiendo conocimientos y experiencias.

geologíaGrupo de monitoras y monitores de “Mi Primer Geolodía Granada” en la explanada del Ayuntamiento de Padul.

No podemos asegurar que hayamos creado vocaciones entre las niñas, pero sí que hemos mostrado que la Geología es una ciencia útil, amena y divertida, donde no importa si eres hombre o mujer para convertirla en tu profesión, lo único que necesitas es curiosidad por conocer lo que te rodea y ganas de descubrir los secretos que esconde nuestro planeta. Y, aunque el 11F ya termine, seguiremos visibilizando el papel femenino en ciencia de la Tierra todo el año.

Agradecimientos:

Quiero dar las gracias a todos y todas las compañeras de Granada y alrededores que, de manera totalmente altruista, han conseguido sacar adelante esta gran txiki-fiesta de la Geología, en especial a Ana Ruiz (IGME-CSIC) por tirar del carro.

“Mi Primer Geolodía Granada” ha estado organizado por el Instituto Geológico y Minero de España (IGME-CSIC), el Instituto Andaluz de Ciencias de la Tierra (IACT-CSIC) y la Universidad de Granada (UGR). Además, esta iniciativa forma parte del proyecto de divulgación “Geolodía”, una actividad organizada por la Sociedad Geológica de España con la colaboración de la Fundación Española para la Ciencia y la Tecnología – Ministerio de Ciencia, Innovación y Universidades, el Instituto Geológico y Minero de España (IGME-CSIC), la International Association of Sedimentologists (IAS), AEPECT, Repsol y varias decenas de instituciones y empresas más.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

 

El artículo Visibilizando el papel femenino en Geología “de otra manera” se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

“x”, esa cantidad desconocida

Wed, 2024/02/14 - 11:59

La letra “x” no se usa demasiado en castellano; solo la “k” y la “w” son menos frecuentes que ella. Sin embargo, es la letra que utilizamos para rellenar las quinielas, contestar cuestionarios tipo test o decidir en la declaración de la renta a quien deseamos dar un porcentaje de nuestros impuestos. ¿Quizás se use en estos casos por su simetría? ¿O quizás porque es realmente un misterio saber si hemos acertado los resultados de los partidos de fútbol, si nuestro cuestionario contiene errores o si nuestra contribución servirá para mejorar la vida de alguna persona?

Imagen: Freepik.

 

En matemáticas la “x” representa precisamente las incógnitas, las cantidades desconocidas. Tampoco se conoce el origen de esta notación, existen diferentes teorías, pero no muy fiables.

¿Un problema de impresión?

Lo que sí se conoce es que en La geometría, uno de los apéndices del Discurso del método (1637), Réné Descartes introdujo la notación algebraica como la utilizamos hoy en día, declarando que usaría las letras finales del alfabeto, (x, y, z) para las incógnitas y las primeras (a, b, c) para las constantes. Algunas hipótesis señalan que el impresor de Descartes habría pedido al filósofo que, para nombrar una incógnita, utilizase las letras del alfabeto que aparecían con menor frecuencia en un texto escrito para no desperdiciar aquellas más utilizadas y que escaseaban.

En su cuento X-ing a paragrab (1849) –X en un suelto– el escritor Edgar Allan Poe también relacionó la “x” con un problema de impresión.

Este breve relato narra una peculiar contienda entre los directores de los diarios La Tetera y La Gaceta de la ciudad de Nópolis. Veleta Cabezudo –director de La Tetera–, ofendido porque John Smith –director de La Gaceta–, se ha burlado de él por utilizar un lenguaje grandilocuente (con muchas expresiones forzadas del tipo ¡Oh!) decide enviarle una respuesta a través de un mensaje en su diario en estos términos:

«¡Oh, John; oh, tonto! ¿Cómo no te tomo encono, lomo de plomo? ¡Ve a Concord, John, antes de todo! ¡Vuelve pronto, gran mono romo! ¡Oh, eres un sollo, un oso, un topo, un lobo, un pollo! ¡No un mozo, no! ¡Tonto goloso! ¡Coloso sordo! ¡Te tomo odio, John! ¡Ya oigo tu coro, loco! ¿Somos bobos nosotros? ¡Tordo rojo! ¡Pon el hombro, y ve a Concord en otoño, con los colonos!», etc.

El aprendiz a quien se le ha encargado la impresión del texto, Bob, descubre con angustia que el cajetín de las “oes” mayúsculas (y también el de las minúsculas) está vacío… y acude al gerente para saber cómo solucionar el problema.

El texto de Poe continúa de la siguiente manera:

La orden que acababa de darle el gerente no era demasiado insólita, pues cosas así suelen ocurrir en las imprentas. Aunque me resulta imposible explicarlo, cuando eso sucede se acude siempre a la x como sustituto de la letra faltante. Quizá la razón resida en que la tiende a sobreabundar en las cajas de composición (o, por lo menos, así ocurría en otros tiempos), por lo cual los impresores se han ido acostumbrando a emplearla para sustituir otras letras. En cuanto a Bob, frente a un caso como el presente, hubiera considerado escandaloso emplear otra letra que la x, pues tal era su costumbre.

–Tendré que ponerle a este suelto –se dijo, mientras lo leía lleno de estupefacción–, pero que me cuelguen si no es el suelto con más oes que he visto en mi vida.

Inflexible, sin embargo, procedió a componer usando la x, y así entró el suelto en prensa.

A la mañana siguiente la población de Nópolis se quedó de una pieza al leer en La Tetera el siguiente extraordinario artículo:

«¡Xh, Jxhn, xh, txntx! ¿Cxmx nx te txmx encxnx, lxmx de plxmx! ¡Ve a Cxncxrd, Jxhn, antes de txdx! ¡Vuelve prxntx, gran m xnx rxmx! ¡Xh, eres un sxllx, un xsx, un txpx, un lxbx, un pxllx! ¡Nx un mxzx, nx! ¡Txntx gxlxsx! ¡Cxlxsx sxrdx! ¡Te txmx xdix, Jxhn! ¡Ya xigx tu cxrx, lxcx! ¿Sxmxs bxbxs nxsxtrxs? ¡Txrdx rxjx! ¡Pxn el hxmbrx, y ve a Cxncxrd en xtxñx, cxn Ixs cxlxnxs!», etc.

Los habitantes de Nópolis, al leer al día siguiente en La Tetera semejante galimatías piensan que se trataba de un conjuro diabólico… y corren a linchar a Veleta Cabezudo que ha huido… Y las opiniones sobre lo que decía el mensaje se extienden… Incluso piden su opinión al matemático de Nópolis:

La conclusión más compartida, sin embargo, fue que el asunto era sencillamente extraordinario e inexplicable. Incluso el matemático del pueblo admitió que no encontraba la solución del problema. Como todo el mundo sabía, x representaba una cantidad desconocida, una incógnita; pero en este caso (como hizo notar apropiadamente) había además una cantidad desconocida de x.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo “x”, esa cantidad desconocida se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Los palos de ciego de la transición vítrea

Tue, 2024/02/13 - 11:59

Lo que solemos llamar cristal, en realidad vidrio, nos rodea por todas partes. Los artesanos son capaces de elaborar piezas muy complejas y bellas y la industria es capaz de producirlo en infinidad de variedades de propiedades técnicas específicas. Sin embargo, la ciencia aún no tiene una descripción microscópica completa de cómo se comporta un líquido sobreenfriado cuando se convierte en un vidrio, lo que se conoce como transición vítrea. Un resultado reciente ilustra como se investiga esta cuestión: creando modelos de una forma similar a como un ciego usa su bastón.

transición vítrea

Los distintos modelos existentes pueden capturar diferentes aspectos de la dinámica espacial y temporal de la transición vítrea, pero los supuestos detrás de estos modelos son, en algunos casos, mutuamente excluyentes. Ahora Yoshihiko Nishikawa de la Universidad de Tohoku, Japón, y Ludovic Berthier de la Universidad de Montpellier, Francia, han conseguido reconciliar dos descripciones contrapuestas del comportamiento durante la transición vítrea utilizando un modelo reticular.

Un modelo de la transición vítrea conocido como transición aleatoria de primer orden sostiene que un líquido formador de vidrio que se enfría adopta una estructura estática similar a un mosaico con un orden de rango finito. En este marco, las llamadas fluctuaciones dinámicas (reorganizaciones de las partículas de un material) ocurren cuando los límites entre las baldosas de mosaico se reorganizan colectivamente. Estas fluctuaciones están fundamentalmente ligadas a variaciones estáticas de una región a otra en la estructura de un material.

Un modelo alternativo conocido como facilitación dinámica no necesita hacer suposiciones sobre la estructura estática del sistema o las variaciones de una región a otra. Este modelo postula que las fluctuaciones dinámicas se producen a través de reordenamientos locales de partículas a pequeña escala que desencadenan una reacción en cadena de reorganización, que es la que luego se propaga a través del material.

Nishikawa y Berthier utilizan un modelo diferente de la transición vítrea de un líquido sobreenfriado. Su base es una red tridimensional que exhibe variaciones estructurales similares a los mosaicos, que serían consistentes con la transición aleatoria de primer orden. Sin embargo, los investigadores descubrieron que las predicciones del modelo para las fluctuaciones dinámicas se parecen más a las del marco de facilitación dinámica.

Nishikawa afirma que ningún experimento actual puede confirmar directamente la aparición de estos comportamientos en materiales reales que formen vidrios. Pero espera utilizar el modelo de red tridimensional para reproducir algunos datos experimentales indirectos observados recientemente. Y con esta esperanza se sigue trabajando, a ver si alguien da con la tecla.

Referencias:

Yoshihiko Nishikawa and Ludovic Berthier (2024) Collective Relaxation Dynamics in a Three-Dimensional Lattice Glass Model Phys. Rev. Lett. doi: 10.1103/PhysRevLett.132.067101

Marric Stephens (2024) Lattice Model Captures Dynamics of the Glass Transition Physics 17, s19

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los palos de ciego de la transición vítrea se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El peligro invisible del radón, el gas del cáncer

Mon, 2024/02/12 - 11:59
Fuente: Pexels

Ni se ve, ni huele ni se puede tocar. Y sin embargo, el radón es la segunda causa de cáncer de pulmón, por detrás del tabaco. Pese a ser menos conocido que otros gases nobles de su misma familia, como el neón o el xenón, se puede acumular en el sótano de nuestras viviendas y lugares de trabajo. Su inhalación se ha relacionado también con un mayor riesgo de ictus, lo que subraya la importancia de medir su concentración para garantizar niveles seguros para la salud.

Un gas radiactivo y natural

El radón, elemento 86, se agrupa dentro de los gases nobles de la tabla periódica. La nobleza de estos gases radica en su falta de reactividad, que sin embargo no impide el proceso de fisión por el cual se desintegra en otras partículas. De hecho, constituye la principal fuente de radiación natural a la que está expuesta la población. Se forma por desintegración de uranio y torio, elementos también radiactivos presentes en muchos suelos y rocas terrestres.

Como gas radiactivo (que no radioactivo) se produce de forma natural y libera en su descomposición partículas alfa de alta energía pero con limitada capacidad de penetración. Estas partículas, constituidas por átomos de helio con dos protones y dos neutrones, no son capaces de atravesar una delgada hoja de papel ni nuestra piel, pero una vez inhaladas pueden provocar daños severos en nuestras células.

El radón se acumula en los sótanos

¿Cómo evitar que el radón llegue a nuestros pulmones? La mayor fuente de radón es el suelo donde se ubican las viviendas, especialmente aquellas construidas en terrenos graníticos. En España, se localizan principalmente en Galicia, Extremadura, Madrid, Canarias, Castilla y León y Cataluña. Al aire libre, el radón se diluye rápidamente hasta alcanzar concentraciones muy bajas y no suele resultar peligroso.

Se forma por desintegración de uranio y torio, elementos radiactivos presentes en muchos suelos y rocas terrestres

Sin embargo, es más pesado que el aire, por lo tiende a acumularse zonas bajas como garajes y sótanos, espacios cerrados que además suelen contar con poca ventilación. Las minas, las cuevas y las centrales de tratamiento de aguas son otros lugares con niveles de radón elevados, mientras que la cantidad emitida por el granito usado en la construcción o la decoración de la vivienda es mínima.

Radon Facts. Fuente: CDCMedidas para mitigar sus efectos

En este sentido, hace escasas semanas se aprobó desde el Consejo de Ministros el Plan Nacional contra el gas radón, que busca garantizar bajos niveles de radón revisando las infraestructuras de las edificaciones tanto existentes como nuevas. De acuerdo con esta nueva norma, los niveles de exposición al radón no deben superar los 300 becquerelios por metro cúbico (Bq/m3) y, en caso contrario, se deberán implementar medidas para reducir su concentración, ya sea mediante sistemas de evacuación mecánica o mejorando el sellado y la ventilación del edificio.

Tiende a acumularse zonas bajas como garajes y sótanos, espacios cerrados que además suelen contar con poca ventilación

Riesgo de cáncer de pulmón e ictus

Esta normativa hace hincapié en la necesidad de aumentar la conciencia de la población y de los trabajadores sobre los efectos de este peligroso gas invisible sobre la salud y, en particular, en combinación con el tabaco. De hecho, el riesgo asociado al radón que corre un fumador es 25 veces superior al de una persona que no fuma tabaco según la Organización Mundial de la Salud. En España, el radón es el responsable de la muerte de 1.500 personas, y a nivel mundial, de entre un 3% y un 14% de los casos de cáncer de pulmón.

Pero los riesgos del radón no acaban con el cáncer, tal y como ha publicado la revista Neurology. En un reciente estudio, los investigadores han establecido una relación entre el riesgo de accidente cerebrovascular y la inhalación de niveles moderados e incluso bajos de este gas. Los resultados han puesto de manifiesto que las mujeres expuestas a radón tenían un 14% más de probabilidades de sufrir trombos en los vasos sanguíneos que aquellas en cuyas casas los niveles de gas eran prácticamente nulos.

Aunque el radón puede pasar desapercibido, su amenaza para la salud no debe subestimarse. La detección temprana y las medidas de mitigación son esenciales para evitar la exposición no deseada a este gas radiactivo así como para prevenir los efectos nocivos sobre la salud. Gestos tan sencillos como asegurar una adecuada ventilación pueden evitar la acumulación de este veneno invisible y ayudar a la protección de nuestros hogares y nuestras células.

Referencias:

Radón (Radon) (2021) ATSDR / CDC

El radón y sus efectos en la salud (2021) Organización Mundial de la Salud

Sobre la autora: Raquel Gómez Molina es química especialista en laboratorio clínico y comunicación científica

El artículo El peligro invisible del radón, el gas del cáncer se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Afantasía y música

Sun, 2024/02/11 - 11:59

¿Te gusta imaginar cosas? ¿Tienes facilidad para recordar aquel capítulo de tu vida tan significativo? ¿Visualizas imágenes mientras escuchas música o te retrotraen muy vívidamente a algún hecho? Lo más probable es que la respuesta a estas preguntas sea sí, aunque también existe la posibilidad de que la respuesta sea un rotundo no, que te pondrían en un porcentaje minoritario de población.

afantasíaFoto: RUPAM DUTTA / Unsplash

Las personas usamos imágenes visuales para comprender mejor nuestro entorno. Los esquemas mentales de los recuerdos, la visualización de los eventos que nos sucedieron en el pasado es habitual en la mayoría de la población. Sin embargo, existe un pequeño grupo de personas, entre un 2% y un 5% de la población (dependiendo de los estudios), que no son capaces de hacerlo, es decir, que los intentos de visualizar algún objeto o situación no conduce a ninguna experiencia sensorial del mismo. Se dice entonces que esas personas son afantásicas o bien que experimentan afantasía. Este término es definido en 2015 por Adam Zeman1 y sus colaboradores como una imaginación voluntaria reducida o ausente.

En experimentos donde se les insta a imaginar cosas, las personas afantásicas muestran una activación de un amplio conjunto de áreas cerebrales asociadas negativamente con la viveza de las imágenes, mientras que las personas con una alta visualización mental registran predominantemente activaciones cerebrales restringidas en las cortezas posteriores. Esto implica que existen datos neurocientíficos y fisiológicos que evidencian una capacidad deficiente de visualización de imágenes. Esta capacidad deficiente significa que hay personas que tienen serias dificultades si les pidiéramos que imaginaran el rostro de algún personaje famoso o algún edificio emblemático, aunque sí podrían reconocerlos. Una especie de ceguera mental imaginaria.

Esto puede implicar una respuesta emocional atenuada hacia ciertos estímulos, ya que la inducción de emociones está asociada a las imágenes visuales. Por ejemplo, hay respuestas emocionales de baja intensidad de las personas afantásicas con respecto a recuerdos, es decir, todo lo relacionado con la memoria episódica. En la música, la visualización de imágenes evocadas también intensifica la experiencia emocional, como han demostrado algunos estudios23. Esto podría implicar que los afantásicos pueden ver reducidas sus posibilidades de experimentar emociones con la música y, por lo tanto, afectar a su juicio estético. ¿El atractivo estético está condicionado por la visualización de imágenes? ¿Sienten menos placer las personas afantásicas al escuchar música? Esto podría llevar a un menor compromiso social y en su vida cotidiana de estas personas con la música. Estas cuestiones que pueden ser relevantes se las han planteado recientemente las investigadoras Sarah Hashim y sus colaboradoras4.

Afantasía y respuesta a la música

Para averiguar cómo afecta la afantasía a la percepción de la música realizaron dos encuestas. La primera de ellas se hizo para obtener una visión general de las diferencias de las respuestas afectivas y estéticas en dos tipos de oyentes, afantásicos y grupo control, mediante escalas Likert. A pesar de que la prevalencia de imágenes visuales y la viveza de esas imágenes fue significativamente mayor en el grupo control (no afantásicos), en los modelos que predicen el gusto por la música no se encontraron diferencias, aunque sí en los modelos de intensidad emocional sentida. Estos resultados revelan una correlación positiva entre la prevalencia de imágenes visuales, la viveza de esas imágenes y la intensidad emocional experimentada, pero que no afecta al gusto musical. Por lo tanto, las imágenes mentales puede que no sean determinantes en el gusto por la música, sino simplemente una ayuda. En la segunda encuesta, las investigadoras quisieron averiguar si la visualización atenuada característica de las personas afantásicas afecta a la capacidad para discriminar diferentes tipos de emociones que la música puede transmitir.

La conclusión es que tiene una incidencia nula, es decir, pueden discriminar perfectamente las emociones que transmite la música. Las autoras proponen ocho mecanismos5 asociados con las emociones inducidas por la música, de los cuales la visualización de imágenes es uno de ellos. Al comparar el grupo afantásico con el grupo control vieron en qué medida actúan los otros mecanismos que no usan la capacidad de visualización. Con esto se puede obtener información sobre las funciones que tiene para los oyentes la música, incluyendo factores relacionados con experiencias cotidianas emocionales (el estrés, la ansiedad) o usos de la música relacionados con la regulación cognitiva, el sueño o el recuerdo. Para lo que menos usan la música las personas afantásicas es para recordar eventos o personas, derivado de su défcit que les ocasiona dificultades para revivir recuerdos, aunque también para simular el futuro.

En resumen, las personas afantásicas pueden experimentar placer con la música, a pesar de que la falta de visualización de imágenes atenúa las emociones inducidas. La condición de no poder crear imágenes en la mente afecta a la forma en que se usa y se experimenta la música, sin embargo, no es una condición que impida el gusto y disfrute. De hecho, en estudios futuros puede que exista la posibilidad de que la música arroje más datos sobre este tipo de condición gracias a las respuestas emocionales. Una vez más la música demuestra que puede aportar datos relevantes para otras disciplinas del conocimiento, así como su transversalidad emocional, tanto en personas que pueden imaginar como en otras que tan solo pueden reconocer.

Referencias y notas:

1 Zeman, Adam, Michaela Dewar, and Sergio Della Sala (2015) Lives without imagery–Congenital aphantasia. Cortex doi: 10.1016/j.cortex.2015.05.019

2 Hashim, Sarah, Lauren Stewart, and Mats B. Küssner (2020) Saccadic eye-movements suppress visual mental imagery and partly reduce emotional response during music listening Music & Science doi: 10.1177/2059204320959580

3 Hashim, Sarah, et al. (2023) Music listening evokes story-like visual imagery with both idiosyncratic and shared content Plos one doi: 10.1371/journal.pone.0293412

4 Hashim, Sarah, et al. (2024) The Experience of Music in Aphantasia: Emotion, Reward, and Everyday Functions. Music & Science doi: 10.1177/20592043231216259

5 Los ocho mecanismos son: visualización de imágenes, reflejo del tronco encefálico, arrastre rítmico, condicionamiento evaluativo, contagio emocional, memoria episódica, expectativa musical y juicio estético.

Sobre el autor: José Manuel González Gamarro es profesor de guitarra e investigador para la Asociación para el Estudio de la Guitarra del Real Conservatorio Superior de Música “Victoria Eugenia” de Granada.

El artículo Afantasía y música se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Ilustrando la evolución humana

Sat, 2024/02/10 - 11:59

evolución humana

La brecha de género tiene su reflejo en el ámbito científico. Tiene consecuencias en la carrera de investigación de las mujeres pero, además, conlleva la creación de contenido científico erróneo. De hecho, con el tiempo ha ocurrido que ideas y estereotipos incorrectos se hayan convertido en afirmaciones científicas.

Ejemplo de ello son algunas de las ilustraciones utilizadas en el ámbito científico. Imágenes que son muy importantes a la hora de divulgar ciencia, ya que hay que tener en cuenta que recordar información solo con datos y números es mucho más difícil que hacerlo mediante imágenes. La paleontología es un buen ejemplo.

Actualmente no tenemos muchas referencias gráficas de la época que estudia la paleontología y algunas de ellas se han confeccionado desde un punto de vista de género concreto y no son más que el reflejo de la brecha existente en la sociedad actual. Por ejemplo, sin basarse en la evidencia científica, no se ha tenido en cuenta el comportamiento humano y se han aplicado los roles sexistas actuales. Por esa razón es necesario volver a analizar los trabajos realizados hasta el momento e identificar los detalles que refuerzan la desigualdad.

Este fue el tema desarrollado por la investigadora e ilustradora científica Vega Asensio en su charla “Ilustrando la evolución humana” dentro del ciclo Zientziaren Ertzetik organizado por la Cátedra de Cultura Científica de la Universidad del País Vasco y la Biblioteca Bizenta Mogel de Durango.

Vega Asensio es doctora en Biología por la Universidad del País Vasco (UPV/EHU). Ha trabajado y estudiado en diferentes universidades europeas como investigadora. Fundó el Estudio de Ilustración Científica NorArte Visual Science en 2011. Un proyecto en el que ha podido unir sus dos pasiones, dibujo y ciencia, movida por la necesidad de mejorar la comunicación y la divulgación científica. Actualmente es coordinadora del primer posgrado de ilustración científica en la UPV/EHU.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Ilustrando la evolución humana se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Terapia fotodinámica: luz y oxígeno para destruir microorganismos

Fri, 2024/02/09 - 11:59

La Organización Mundial de la Salud (OMS) ha declarado la resistencia antimicrobiana como uno de los principales problemas de salud mundial. El uso abusivo e incorrecto de antibióticos está provocando que bacterias, virus y hongos se vuelvan resistentes a los medicamentos que actualmente utilizamos para combatirlos.

Eso implica que enfermedades comunes que hasta ahora habían estado controladas dejen de estarlo, como infecciones urinarias provocadas por la bacteria Escherichia coli o infecciones más graves en el torrente sanguíneo causadas por el hongo Candida auris. La falta de respuesta dificulta el tratamiento, prolonga la duración de la enfermedad, incrementa el riesgo de recurrencias y propagación de dichas enfermedades y, en el peor de los casos, acrecienta el número de muertes.

Así las cosas, surge la necesidad de buscar estrategias alternativas para hacer frente a estos parásitos multirresistentes. Sin embargo, el desarrollo de nuevos antibióticos supone altos costes y, generalmente, requiere de largos periodos de tiempo hasta su regulación y aprobación. Tanto es así que, en algunos casos, los microorganismos generan resistencia a los nuevos fármacos antes de que sean aprobados para su comercialización.

fotodinámicaFoto: John Doyle / UnsplashMatar microbios con luz y oxígeno

Una de las estrategias alternativas a los antibióticos es la terapia fotodinámica. Requiere la presencia de tres elementos de manera simultánea: luz, un compuesto fotosensible generalmente de naturaleza orgánica que presenta un color intenso (fotosensibilizador) y oxígeno molecular.

La luz de una determinada longitud de onda (azul, verde, roja) activa a la molécula fotosensible, que a su vez es capaz de activar al oxígeno molecular y generar lo que se conoce como especies reactivas de oxígenos (ROS, por sus siglas en inglés).

Las ROS son capaces de dañar diversas biomoléculas esenciales para las células o microorganismos como las proteínas, lípidos y ácidos nucleicos. Como consecuencia, se genera un daño en las células, bacterias, virus u hongos, provocando su muerte.

Sin apenas efectos secundarios

Lo interesante de este tratamiento es que solo cuando los tres componentes están presentes simultáneamente tiene lugar el efecto terapéutico, ya que los tres elementos por separado no son tóxicos. Eso nos permite controlar y localizar el tratamiento a través de la luz: solo en las zonas donde las moléculas fotosensibles se hayan acumulado y sean irradiadas de forma local con dosis de luz controlada (en potencia y tiempo) se generarán especies reactivas de oxígeno. De ahí que podamos asegurar que se trata de un procedimiento selectivo, que actúa justo donde queremos y apenas provoca efectos secundarios.

Actualmente, esta terapia se utiliza en diversos problemas de salud localizados en superficies cutáneas, principalmente en dermatología (infecciones fúngicas, acné, psoriasis,…) y como tratamiento selectivo para algunos carcinomas de la piel, y lesiones precancerosas, como la queratosis actínica.

También se emplea en el ámbito odontológico para el tratamiento de infecciones en la cavidad bucal como la periodontitis, provocadas por la acumulación de placa bacteriana.

fotodinámicaImagen confocal de fluorescencia de bacterias (Escherichia coli) a las que se les ha aplicado la terapia fotodinámica. Las bacterias con fluorescencia roja son las bacterias que han muerto, mientras que las verdes son las que han resistido el tratamiento.La terapia fotodinámica también destruye virus

La terapia fotodinámica es prometedora por varios motivos. Por un lado, actúa contra diversos agentes infecciosos, incluyendo virus frente a los cuales los antibióticos no tienen ningún efecto. Además sus resultados son inmediatos y no suele desarrollar resistencia, por lo que se puede repetir el tratamiento varias veces.

Sin embargo, también presenta varias limitaciones en las que la comunidad científica está trabajando. La primera es que, normalmente, los fotosensibilizadores son compuestos orgánicos poco solubles en medios acuosos, lo que dificulta su entrada a la célula. En segundo lugar, para que no se acumulen en las células sanas hay que promover su especificidad exclusivamente hacia los agentes patológicos (virus, bacterias y hongos).

Una de las opciones que se barajan es añadirles grupos funcionales o moléculas que son solubles en agua y/o que son selectivas hacia un tipo de microorganismo (por ejemplo, azúcares) para así reducir su carácter hidrófobo inherente y aumentar su especificidad. También se plantea usar nanopartículas como transportadores de estos compuestos fotoactivos.

El uso de la nanotecnología es cada vez más común en nuestra sociedad en aplicaciones biomédicas (nanomedicina). Área ampliamente estudiada para el transporte de fármacos y en este caso de los fotosensibilizadores.

Aunque aún queda trabajo de investigación por desarrollar y realizar nuevos ensayos clínicos, todo apunta a que la luz y el oxígeno podrían transformar el futuro del tratamiento de las enfermedades infecciosas.The Conversation

Sobre las autoras: Ruth Prieto-Montero, doctora en Ciencia y Tecnología de Materiales, Universidad del País Vasco / Euskal Herriko Unibertsitatea y Virginia Martínez Martínez, investigadora doctora permanente en química física, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Terapia fotodinámica: luz y oxígeno para destruir microorganismos se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Neurociencia ¿ficción?

Wed, 2024/02/07 - 11:59

El pasado 29 de enero, el empresario Elon Musk anunciaba en X/Twitter que su empresa Neuralink había realizado el primer implante cerebral de uno de sus dispositivos en un ser humano. Al día siguiente, desveló que el nombre del dispositivo era Telepathy, a lo que añadió, ese mismo día, en otro tuit:

Permite controlar el teléfono o el ordenador y, a través de estos, casi cualquier dispositivo, solo con el pensamiento. Los usuarios iniciales serán aquellos que hayan perdido el uso de sus extremidades. Imaginad que Stephen Hawking hubiera podido comunicarse más rápido que el más veloz mecanógrafo o un subastador. Ese es el objetivo.

Aunque poco más se sabe por el momento, lo que es innegable es que esta maniobra del multimillonario ha reavivado el interés por un tipo de tecnología que tampoco es realmente nueva, pero cuyo germen lleva alimentando nuestros sueños ―y también nuestras pesadillas― desde, mínimo, los tiempos del Frankestein de Mary Shelley.

Neuralink representa la idea de la transformación de la naturaleza humana a través de la ciencia y la tecnología en tan solo una de sus múltiples formas, pero una de las que más poder de impacto tiene: el cíborg. La posibilidad de trascendencia más allá de lo humano. Y, aunque es posible que, sin darnos cuenta, casi todos nos hayamos convertido ya en uno desde el momento en que empezamos a ser incapaces de salir de casa sin nuestro smartphone, lo cierto es que los cíborgs «de verdad» ya llevan mucho tiempo entre nosotros ―pensemos, simplemente, en aquellas personas que utilizan prótesis mioeléctricas o implantes cocleares―. Y eso, por el momento, no lo han conseguido ni el marketing ni el hype, sino que lo ha conseguido la ciencia.

En lo referente a las pretensiones de Neuralink, si bien su planteamiento coquetea abiertamente con la ciencia ficción, su trasfondo científico no es nuevo del todo. En cuanto a lo primero, es marca de la casa de muchos de los proyectos de Elon Musk. Las futuras colonias marcianas con las que sueña SpaceX, el robot autónomo que está desarrollando Tesla e incluso la estética de su último vehículo presentado en EE. UU., la Cybertruck, están inspirados por las viejas historias de este género: la serie de La Cultura de Iain M. Banks, los amables robots positrónicos de Isaac Asimov, el movimiento y la estética del ciberpunk de los años ochenta… Y Neuralink aspira también de traspasar la línea que convierte lo que hoy es solo magia en ciencia avanzada. No está vendiendo la tecnología todavía ―personalmente no creo ni que lo pretenda―, está vendiendo una idea: la de materializar el «cordón neural» que aparece en la mencionada serie de Banks ―un dispositivo que mejora las capacidades cognitivas, monitorea y regula las funciones corporales, permite almacenar la conciencia, la comunicación con otras mentes y dispositivos, acceder a realidad virtual y aumentada…―, por eso cualquier mínimo paso que da se convierte en noticia, aunque científicamente no lo sea. En palabras de su propio fundador, Neuralink busca alcanzar la «simbiosis con la inteligencia artificial». Desde luego, se trata de un eslogan mucho más comercial que algo del tipo «entender el funcionamiento del cerebro y tratar enfermedades neurológicas».

NeuralinkSerie La Cultura, de Iain M. banks.

No obstante, si hablamos de lo segundo, del trasfondo científico, desde luego tiene ya muy poco de ciencia ficción. La estimulación del sistema nervioso mediante impulsos eléctricos lleva entre nosotros desde los experimentos de Luigi Galvani y Alessandro Volta, aunque es cierto que poco tiene que ver lo que se hacía a finales del siglo XIX y principios del XX con las técnicas más actuales. Una de ellas, y de la que bebe Neuralink, es la estimulación cerebral profunda.

Esta técnica consiste en implantar, de forma quirúrgica, electrodos en determinadas áreas del cerebro que van conectados a un neuroestimulador situado bajo la piel ―por lo general, en la clavícula, en la parte inferior del tórax o en la zona del vientre―, como una especie de marcapasos. Los pulsos eléctricos que viajan desde el neuroestimulador hasta el cerebro son capaces de interferir o bloquear las señales del propio cerebro causantes de los síntomas de determinados trastornos o enfermedades neurológicas, como, por ejemplo, el Parkinson, y reducirlos. También se ha utilizado con éxito en el tratamiento de temblores, distonías musculares, dolor crónico, síndrome de Tourette y epilepsia, o en casos de depresión mayor resistente al tratamiento, trastorno obsesivo-compulsivo, adicciones y trastorno de estrés postraumático. Como es obvio, este tipo de intervenciones no está exenta de riegos, y por ello suele utilizarse solo en casos en los que los beneficios para el paciente y la mejora en su calidad de vida compensen los posibles perjuicios que pueda llegar a sufrir.

NeuralinkRadiografía de cirugía de estimulación cerebral profunda para el tratamiento del trastorno obsesivo compulsivo. Fuente: CC BY-SA 3.0 Deed/jmarchn

Pero la estimulación cerebral profunda es solo un miembro de la ecuación que propone Neuralink. El otro viene de la mano del desarrollo de interfaces cerebro-computadora (BCI, brain computer interface), esto es, sistemas capaces de registrar e interpretar la actividad cerebral que nos permiten controlar dispositivos externos directamente desde nuestro cerebro y que ya existen. Estos pueden ser invasivos ―implantando electrodos directamente en el cerebro―, no invasivos ―utilizando sensores que se colocan en el cuero cabelludo, aunque son menos precisos que los primeros―, o semiinvasivos ―los sensores se colocan dentro del cráneo, pero sobre el cerebro―. Entre sus posibles aplicaciones se encuentra el control de prótesis, la restauración de funciones motoras a través de exoesqueletos controlados por la mente o la comunicación en personas con parálisis severa ―seleccionando letras o palabras en una pantalla―. La streamer Perrikaryal utiliza incluso una de estas interfaces no invasivas para jugar a videojuegos.

Los métodos de Neuralink, en cualquier caso, difieren ligeramente de los que utilizan otros laboratorios de investigación a día de hoy, para bien y para mal. Según especifican en su propia página web, los 64 hilos en los que están distribuidos los 1024 electrodos del implante N1 de Neuralink son significativamente más delgados que los que se utilizan para la estimulación cerebral profunda y, por ello, el procedimiento lo lleva a cabo un robot quirúrgico, mucho más preciso que un cirujano humano. Una vez insertados estos hilos en las áreas correspondientes del cerebro, van conectados a un chip colocado por debajo del cráneo que procesa y transmite las señales hacia el exterior de forma inalámbrica. Por último, una aplicación externa se encarga de decodificarlas y llevar a cabo las acciones correspondientes. La fuente de alimentación de la batería que incorpora el implante se cargaría, también de forma inalámbrica, por inducción.

NeuralinkElon Musk en una demostración de Neuralink en 2020, con el robot quirúrgico que se utiliza para colocar los implantes. Fuente: CC BY 2.0 Deed/Steve Jurvetson

En cualquier caso, la compañía no termina de ser muy transparente en las investigaciones que está llevando a cabo. PubMed y Google Scholar, dos de las bases de datos más amplias de literatura científica, apenas ofrecen un resultado en cuanto a artículos científicos publicados. Así que tal vez convendría no lanzar las campanas al vuelo antes de tiempo. Por otro lado, a finales de 2022, el Departamento de Agricultura de los Estados Unidos (USDA) inició una investigación por una posible violación de los derechos de los animales por parte de Neuralink, de la que, a día de hoy, aún no se han obtenido conclusiones ni se sabe si ha habido sanciones. Aun así, la compañía recibió la aprobación de la Administración de Alimentos y Medicamentos de EE. UU. (FDA) para realizar su primer ensayo clínico en humanos el 25 de mayo de 2023, y poco después abrió las solicitudes para participar en los ensayos clínicos. Ha sido este mes de enero cuando el magnate ha anunciado que estos ya han comenzado, aunque no han trascendido datos sobre el primer paciente que ha recibido uno de sus implantes.

El tiempo dirá si, en esta ocasión, estamos ante el delirio de un millonario o un punto de inflexión en la historia de las neurociencias. En cualquier caso, hay algo en lo que Neuralink, por el momento, sí tiene mérito: ha conseguido que muchísimas personas estén hablando de  ciencia.

Referencias:

Chaudhary, U., Vlachos, I., Zimmermann, J. B. et al. (2022). Spelling interface using intracortical signals in a completely locked-in patient enabled via auditory neurofeedback training. Nat Commun, 13, 1236. https://doi.org/10.1038/s41467-022-28859-8

Fonsegrives, R. (5 de febrero de 2024). US Woman Receives Revolutionary Brain Implant For OCD And Epilepsy. Science Alert. https://www.sciencealert.com/us-woman-receives-revolutionary-brain-implant-for-ocd-and-epilepsy

MedlinePlus (25 de octubre de 2021). Estimulación cerebral profunda. https://medlineplus.gov/spanish/ency/article/007453.htm

Musk E., Neuralink (2019). An integrated brain-machine interface platform with thousands of channels. J Med Internet Res, 21(10):e16194. https://www.jmir.org/2019/10/e16194/

Neuralink (2024). Our mission. Create a generalized brain interface to restore autonomy to those with unmet medical needs today and unlock human potential tomorrow. https://neuralink.com

Perrikaryal (1 de febrero de 2023). How I Play Elden Ring With My Mind (EEG) [Vídeo]. YouTube. https://youtu.be/rIbfNUA5pWk

Schiff, N. D., Giacino, J. T., Butson, C. R. et al. (2023). EThalamic deep brain stimulation in traumatic brain injury: a phase 1, randomized feasibility study. Nat Med, 29, 3162-3174. https://doi.org/10.1038/s41591-023-02638-4

Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo Neurociencia ¿ficción? se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Los poliedros de Kepler–Poinsot

Wed, 2024/02/07 - 11:59

Mi anterior entrada de la sección Matemoción del Cuaderno de Cultura Científica, titulada Los sólidos platónicos, estaba dedicada a explicar qué son los poliedros regulares convexos, conocidos con el nombre de sólidos platónicos, quienes son (tetraedro, octaedro, icosaedro, cubo y dodecaedro), cuál es su origen y su relación con la cosmogonía platónica, así mismo, nos preguntamos si ya eran conocidos en el neolítico, como sugiere una conocida fotografía.

Ilustración con los cinco sólidos platónicos (tetraedro, cubo, dodecaedro, octaedro e icosaedro) del libro Ein aigentliche und grundtliche anweysung in die Geometria / Una introducción actual y completa a la geometría, del matemático y artista alemán Augustin Hirschvogel (1503–1553). Imagen del MET – The Metropolitan Museum of Art

Como explicábamos en la anterior entrada, los sólidos platónicos son los poliedros regulares convexos. Por lo tanto, para empezar, son poliedros, es decir, figuras geométricas tridimensionales formadas por caras poligonales planas, aristas rectas (que son los lados compartidos de cualesquiera dos caras poligonales planas) y vértices (que son los puntos en los que se juntan las aristas).

Pero los sólidos platónicos son un tipo especial de poliedros, en particular, son poliedros regulares, es decir, sus caras son polígonos regulares (esto quiere decir que los lados del polígono, respectivamente, sus ángulos interiores, son iguales entre sí) todos iguales y la estructura de todos los vértices es la misma. Más aún, los sólidos platónicos son poliedros regulares que además son convexos. La convexidad, como se explicaba en la anterior entrada, de define de la siguiente forma. Un poliedro (o cualquier otro objeto geométrico) es convexo si dados dos puntos cualesquiera del mismo, el segmento que los une está en el interior del poliedro. Esta definición general tiene una expresión particular en el caso de los poliedros, ya que un poliedro es convexo si para el plano en el que se apoya cualquier cara de este, el poliedro estará colocado completamente a un solo lado de dicho plano.

Si se mira la anterior imagen, puede observarse que claramente los poliedros que en ella aparecen, el tetraedro, el cubo, el dodecaedro, el octaedro y el icosaedro, son poliedros regulares convexos, luego sólidos platónicos. En la entrada Los sólidos platónicos se explicaba, y se demostraba con un sencillo argumento que se remonta a la matemática griega, que solo existen estos cinco sólidos platónicos.

Ilustración con el modelo del sistema solar que aparece en la obra Mysterium Cosmographicum / Misterio cosmográfico (1596), del astrónomo, matemático y físico alemán Johannes Kepler (1571-1630). El modelo de Kepler está basado en los sólidos platónicos y consiste en que los sólidos platónicos están inscritos y circunscritos por esferas concéntricas, de forma concatenada (de dentro hacia fuera: octaedro, icosaedro, dodecaedro, tetraedro y cubo), y cada uno de los seis planetas conocidos –Mercurio, Venus, Tierra, Marte, Jupiter y Saturno– tiene su órbita en una de las seis esferas del modelo. Imagen del portal e-rara, desarrollado por ETH-Bibliothek Zürich

Sin embargo, en esta entrada nos vamos a plantear si existen poliedros regulares que no sean convexos. La no convexidad se puede manifestar de dos formas distintas. La primera es que las caras del poliedro se intersequen unas con otras, con lo cual claramente el poliedro no puede ser convexo, puesto que, al intersecarse las caras, el plano que contiene a cualquiera de ellas divide al poliedro es dos partes, una a cada lado del plano. Por ejemplo, en la siguiente imagen se muestra el cubohemioctaedro, un polígono no convexo, formado por 10 caras (6 de ellas son cuadrados y el resto hexágonos), 24 aristas y 12 vértices, en cada uno de los cuales confluyen dos cuadrados y dos hexágonos, que se intersecan entre sí.

Cubohemioctaedro, poliedro no convexo, con diez caras, seis de ellas cuadrados y cuatro de ellas hexágonos, que se intersecan dos a dos. Imagen creada con el software Stella de Robert Webb

 

Este caso incluye que las propias caras poligonales pueden ser también estrelladas, en particular, que los lados del polígono se intersequen entre sí, como en el prisma pentagrámico, que es un poliedro no convexo formado por 7 caras (5 de ellas cuadrados y las otras 2 pentagramas o estrellas pentagonales, es decir, polígonos regulares formados por 5 vértices y 5 artistas, que no unen vértices consecutivos, sino que se van saltando uno), 15 aristas y 10 vértices.

Prisma pentagrámico, poliedro no convexo, con siete caras, dos de ellas pentagramas y las otras cinco cuadrados, que se intersecan según marcan los lados de los pentagramas. Imagen creada con el software Stella de Robert Webb

 

La segunda manera en que un poliedro no es convexo es que las caras del poliedro no se intersequen unas con otras, pero aun así no se cumpla la propiedad de convexidad. Un ejemplo de esta situación nos lo encontramos en el icosaedro de Jensen, que es un poliedro no convexo, con la misma cantidad que el icosaedro regular de caras triangulares (20) -aunque aquí son 8 triángulos equiláteros y 12 triángulos isósceles-, aristas (30) y vértices (12). Claramente, como se ve en la imagen, en no convexo (en muchos de los casos, el segmento que une dos vértices no está dentro del poliedro).

Icosaedro de Jensen, poliedro no convexo, con veinte caras triangulares, ocho triángulos equiláteros y doce triángulos isósceles, treinta aristas y doce vértices

 

Teniendo en cuenta que las caras de un poliedro regular son polígonos regulares, incluyendo los polígonos estrellados (no convexos), vamos a realizar un pequeño recorrido por estos.

Los polígonos regulares

Para empezar, recordemos que un polígono es una figura geométrica plana formada por vértices y segmentos (aristas) que forman una cadena poligonal (una secuencia alternada de vértices y segmentos, tal que tres vértices consecutivos no sean colineales) cerrada, es decir, que empieza y termina en el mismo vértice.

Tres ejemplos de polígonos, el primero convexo y los otros dos, no convexos

 

Por otra parte, las caras de los poliedros regulares son polígonos regulares, es decir, polígonos que tienen los lados y los ángulos iguales. Además, estos pueden ser convexos o no convexos.

Los polígonos regulares convexos son, como es de sobra conocido, el triángulo equilátero (3 lados/aristas y ángulo interior de 60 grados), el cuadrado (4 lados y ángulo interior de 90 grados), el pentágono (5 lados y ángulo de 108 grados), el hexágono (6 lados, 120 grados), el heptágono (7 lados, 128,57 grados), el octógono (8 lados, 135 grados), el nonágono (9 lados, 140 grados), el decágono (10, 144 grados), el endecágono (11 lados, 147,27 grados), el dodecágono (12 lados, 150 grados), y así vamos subiendo el número de lados, cada vez uno más.

Primeros polígonos regulares convexos, en función del número de lados: triángulo equilátero (3), cuadrado (4), pentágono (5), hexágono (6), heptágono (7), octógono (8), nonágono (9), decágono (10) y endecágono (11)

 

Como se puede observar en la anterior imagen, todos los vértices de un polígono regular convexo se encuentran en una misma circunferencia, la circunferencia circunscrita. Recíprocamente, dada una circunferencia y n puntos regularmente distribuidos en ella, es decir, la distancia entre cada dos puntos consecutivos cualesquiera es siempre la misma, se construye el polígono regular de n lados, uniendo los puntos consecutivos mediante un segmento recto (el lado o arista), hasta cerrar el polígono.

Aunque los polígonos regulares convexos son de sobra conocidos, no lo son tanto los polígonos regulares no convexos, también llamados polígonos regulares estrellados. Veamos primero un ejemplo muy conocido de polígono regular estrellado, el pentagrama o estrella pentagonal. Para construir este polígono estrellado se toman 5 puntos distribuidos de forma regular, es decir, que equidisten los puntos consecutivos, sobre una circunferencia, y luego se trazan segmentos que unan los puntos de forma alternada (se unen cada dos vértices de forma continua hasta cerrar el polígono).

A partir de cinco puntos distribuidos regularmente en una circunferencia se puede trazar un pentágono y una estrella pentagonal, o pentagrama, como aparece en la imagen

 

El pentagrama es un polígono regular no convexo, o estrellado, con 5 lados y ángulos (internos) de 36 grados en los vértices. Recordemos que, en el pentágono regular (convexo), el ángulo interno de los vértices es de 108 grados.

Para clasificar los polígonos estrellados se utiliza el símbolo de Schläfli, que para el caso del pentagrama es {5/2}, que nos indica que tiene 5 vértices y están unidos, cada 2 vértices, por segmentos (aristas). En general, el polígono estrellado {p/q} estará formado por p vértices, unidos por segmentos cada q vértices.

Si queremos construir un polígono regular estrellado con seis aristas, deberíamos considerar seis puntos regularmente espaciados en una circunferencia y podríamos unir los puntos, no de forma consecutiva, ya que obtendríamos el hexágono, que es convexo, sino uniendo cada dos vértices, sería el polígono {6/2}, o cada tres vértices {6/3}. Por desgracia, en ambos casos se obtendrían “polígonos degenerados” (que no son polígonos). En el primer caso, se obtiene el hexagrama que está formado por dos triángulos equiláteros (es, lo que se denomina, un polígono compuesto).

El polígono estrellado {6/2}, el hexagrama, es un polígono degenerado formado por dos triángulos equiláteros

 

El caso del polígono {6/3} es todavía más degenerado, ya que está formado por tres segmentos rectos que se intersecan en un punto.

El polígono estrellado {6/3} es un polígono degenerado formado por tres aristas

 

Si lo pensamos un poco, el polígono {p/q} será un polígono regular estrellado (no degenerado) si p y q son coprimos, es decir, que el único divisor común de p y q es el 1. Así, en función de la cantidad de lados tenemos el pentagrama {5/2}, dos heptagramas {7/2} y {7/3}, el octagrama {8/3}, dos eneagramas {9/2} y {9/4}, el decagrama {10/3} y cuatro endecagramas {11/2}, {11/3}, {11/4} y {11/5}, que vemos en la siguiente imagen, y así podríamos seguir aumentando el número de lados.

Primeros polígonos regulares estrellados: pentagrama {5/2}, heptagramas {7/2} y {7/3}, octagrama {8/3}, eneagramas {9/2} y {9/4}, decagrama {10/3} y endecagramas {11/2}, {11/3}, {11/4} y {11/5}

 

Para terminar esta sección, planteémonos la siguiente cuestión, si el polígono de la siguiente imagen, que es un decágono (10 vértices y 10 lados), es un polígono regular. La respuesta es negativa, Los lados son todos iguales, pero no sus ángulos interiores, que valen 36 grados y 180 – 36 = 144 grados.

Dodecágono no convexo y no regular

 

Los poliedros de Kepler-Poinsot

Ahora ya estamos en condiciones de presentar los poliedros regulares no convexos (estrellados), que son los que reciben el nombre de poliedros de Kepler-Poinsot. Existen cuatro de estos poliedros, el gran dodecaedro, el gran icosaedro, el pequeño dodecaedro estrellado, el gran dodecaedro estrellado.

El gran dodecaedro es un poliedro regular que está formado por 12 caras pentagonales (pentágonos regulares), que se intersecan unas con otras, de manera que en cada vértice se encuentran cinco de esos pentágonos (la estructura de cada vértice es la misma), 30 aristas y 12 vértices.

El gran dodecaedro, que es un poliedro de Kepler-Poinsot, formado por pentágonos regulares que se intersecan entre sí, siguiendo la figura del pentagrama en los vértices. Imagen creada con el software Stella de Robert Webb

 

El símbolo de Schläfli del gran dodecaedro es {5, 5/2}. El primer término del símbolo de Schläfli describe las caras del poliedro. En este caso, como el primer término es 5, son pentágonos regulares. Por otra parte, el segundo término indica cual es la estructura (o figura) de los vértices del poliedro. Para el gran dodecaedro, el segundo término es 5/2, luego las caras pentagonales se intersecan como en un pentagrama. Observemos en la anterior imagen que sobre el pentágono que corta a los cinco anteriores, que confluyen en el mismo vértice, se forma, efectivamente, el pentagrama. Por otra parte, los símbolos de Schläfli de los poliedros regulares convexos, los sólidos platónicos, son {3, 3} (tetraedro), {3,4} (octaedro), {3,5} (icosaedro), {4,3} (cubo) y {5, 3} (dodecaedro).

Observemos que, si se consideran solamente las aristas y los vértices del gran dodecaedro, y se toman, como caras, los triángulos equiláteros que unen, de forma natural, las aristas, se obtiene el icosaedro. Es lo que se llama el cierre convexo, que es el conjunto convexo más pequeño que contiene al gran dodecaedro, aunque no hablaremos en esta entrada de este concepto.

En el libro Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568) del orfebre y grabador alemán Wenzel Jamnitzer (1507/08-1585), con grabados del grabador suizo-alemán Jost Amman (1539-1591), se muestra un grabado del gran dodecaedro, que es la primera imagen conocida del mismo.

Página del libro Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568), de Wenzel Jamnitzer, con un grabado que incluye seis poliedros, arriba a la izquierda el icosaedro regular y debajo el gran dodecaedro. Imagen del MET – The Metropolitan Museum of Art

Sin embargo, la primera persona que lo introdujo, desde un punto de vista matemático, fue el matemático y físico francés Louis Poinsot (1777-1859), en su artículo Memoire sur les polygones et sur les polyèdres / Memoria sobre los polígonos y sobre los poliedros (1810). En este artículo Poinsot introdujo los cuatro poliedros regulares estrellados, el gran dodecaedro, el gran icosaedro, el pequeño dodecaedro estrellado y el gran dodecaedro estrellado. Los dos últimos ya habían sido descritos, y estudiados, por el astrónomo, matemático y físico alemán Johannes Kepler (1571-1630) en su libro Harmonices mundi / La armonía del mundo (1619). Por este motivo, se conocen con el nombre de poliedros de Kepler. Mientras que a los dos primeros se les conoce con el nombre de poliedros de Poinsot.

El otro poliedro de Poinsot es el gran icosaedro, cuyo símbolo de Schläfli es {3, 5/2}, ya que sus caras son triángulos equiláteros y la figura de cada vértice está dada, de nuevo, por el pentagrama. El gran icosaedro está formado por 20 caras (triángulos equiláteros), 30 aristas y 12 vértices.

 Kepler-PoinsotEl gran icosaedro, que es un poliedro de Kepler-Poinsot, formado por triángulos equiláteros que se intersecan entre sí, siguiendo la figura del pentagrama en los vértices. Imagen creada con el software Stella de Robert Webb

 

Vayamos ahora por los dos poliedros regulares estrellados de Kepler, que están formados por polígonos estrellados. Empecemos por el pequeño dodecaedro estrellado, que está formado por 12 caras pentagrámicas (pentagramas o estrellas pentagonales), 30 aristas y 12 vértices. Su símbolo de Schläfli es {5/2, 5}, es decir, las caras son estrellas pentagonales {5/2} y en cada vértice se apoyan 5 de esos pentagramas.

 Kepler-PoinsotEl pequeño dodecaedro estrellado, que es un poliedro de Kepler-Poinsot, formado por pentagramas que se intersecan entre sí, con símbolo de Schläfli es {5/2, 5}. Imagen creada con el software Stella de Robert Webb

 

La distribución de los vértices en el espacio es la misma que la del icosaedro, por lo tanto, el cierre convexo del pequeño dodecaedro estrellado es el icosaedro.

La primera imagen, de la que se tiene conocimiento, de un pequeño dodecaedro estrellado es un mosaico de mármol, realizado en 1430 por el artista y matemático italiano Paolo Uccello (1397-1475), del suelo de la Catedral de San Marcos, en Venecia (Italia).

 Kepler-PoinsotPequeño dodecaedro estrellado de mármol, realizado en 1430 por el artista y matemático italiano Paolo Uccello, del suelo de la Catedral de San Marcos, en Venecia

En el mencionado libro, Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568) de Wenzel Jamnitzer aparece un pequeño dodecaedro estrellado, al que se le ha cortado parte de las puntas (pirámides) pentagonales, como se puede observar en la imagen.

 Kepler-PoinsotPágina del libro Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568), de Wenzel Jamnitzer, con un grabado que incluye seis poliedros, abajo a la izquierda está el pequeño dodecaedro estrellado, que está truncado por sus pirámides pentagonales

Y finalmente, el gran dodecaedro estrellado, cuyo símbolo de Schläfli es {5/2, 3}, es decir, las caras son estrellas pentagonales {5/2} y en cada vértice se apoyan 3 de esas caras pentagrámicas. Está formado por 12 caras, 30 aristas y 20 vértices.

 Kepler-PoinsotEl gran dodecaedro estrellado, que es un poliedro de Kepler-Poinsot, formado por pentagramas que se intersecan entre sí, con símbolo de Schläfli es {5/2, 3}. Imagen creada con el software Stella de Robert Webb

 

También el gran dodecaedro estrellado está recogido en el libro Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568) de Wenzel Jamnitzer, como se puede observar en la imagen.

 Kepler-PoinsotPágina del libro Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568), de Wenzel Jamnitzer, con un grabado que incluye dos poliedros, el de la derecha es el gran dodecaedro estrellado. Imagen del MET – The Metropolitan Museum of Art

Estos cuatro poliedros regulares estrellados son los únicos que existen, como demostró el matemático francés Augustin-Louis Cauchy (1789-1857).

Bibliografía

1.- Pedro Miguel González Urbaneja, Los sólidos pitagórico-platónicos (Geometría, Arte, Mística y Filosofía), FESPM, 2008.

2.- Claudi Alsina, Las mil caras de la belleza geométrica (los poliedros), El mundo es matemático, RBA, 2010.

3.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.

4.- Alan Holden, Shapes, Space, and Symmetry, Dover, 1991.

5.- Wolfram MathWorld: Kepler-Poinsot Polyhedron

6.- Wikipedia: Kepler-Poinsot Polyhedron

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Los poliedros de Kepler–Poinsot se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Lo que tu cerebro hace cuando no estás haciendo nada

Tue, 2024/02/06 - 11:59

Cuando tu mente divaga, la red neuronal «por defecto» de tu cerebro está activa. Su descubrimiento hace 20 años inspiró una serie de investigaciones sobre las redes de regiones cerebrales y cómo interactúan entre sí.

Un artículo de Nora Bradford. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

red neuronal por defectoIlustración: Kristina Armitage / Quanta Magazine

Siempre que realizas activamente una tarea (por ejemplo, levantar pesas en el gimnasio o realizar un examen difícil), las partes del cerebro necesarias para llevarla a cabo se vuelven «activas» cuando las neuronas aumentan su actividad eléctrica. Pero, ¿tu cerebro está activo incluso cuando estás distraído en el sofá?

La respuesta, según han descubierto los investigadores, es sí. Durante las últimas dos décadas han definido lo que se conoce como red neuronal por defecto, una colección de áreas del cerebro aparentemente no relacionadas que se activan cuando no estás haciendo nada. Su descubrimiento ha ofrecido información sobre cómo funciona el cerebro independientemente de tareas bien definidas y también ha impulsado investigaciones sobre el papel de las redes cerebrales (no sólo de las regiones cerebrales) en la gestión de nuestra experiencia interna.

A finales del siglo XX los neurocientíficos comenzaron a utilizar nuevas técnicas para tomar imágenes del cerebro de las personas mientras realizaban tareas en escáneres. Como era de esperar, la actividad en ciertas áreas del cerebro aumentaba durante las tareas y, para sorpresa de los investigadores, la actividad en otras áreas del cerebro disminuía simultáneamente. A los neurocientíficos les llamó la atención el hecho de que durante una amplia variedad de tareas las mismas áreas del cerebro redujeran constantemente su actividad.

Era como si estas áreas hubieran estado activas cuando la persona no estaba haciendo nada y luego se apagaran cuando la mente tenía que concentrarse en algo externo.

Los investigadores llamaron a estas áreas “tarea negativas”. Cuando se identificaron por primera vez, Marcus Raichle, neurólogo de la Facultad de Medicina de la Universidad de Washington en St. Louis, sospechaba que estas áreas tarea negativas desempeñan un papel importante en la mente en reposo. «Esto planteó la pregunta de ‘¿Cuál es la actividad cerebral de base?'», recuerda Raichle. En un experimento, pidió a personas sometidas a escáneres que cerraran los ojos y simplemente dejaran vagar sus mentes mientras él medía su actividad cerebral.

Descubrió que durante el descanso, cuando nos volvemos mentalmente hacia adentro, las áreas tarea negativas utilizan más energía que el resto del cerebro. En un artículo de 2001, denominó esta actividad como «un modo predeterminado de función cerebral«. Dos años más tarde, después de generar datos de mayor resolución, un equipo de la Facultad de Medicina de la Universidad de Stanford descubrió que esta actividad tarea negativa define una red coherente de regiones cerebrales que interactúan, a la que llamaron red neuronal por defecto.

El descubrimiento de la red neuronal por defecto despertó la curiosidad entre los neurocientíficos sobre lo que hace el cerebro en ausencia de una tarea centrada en el exterior. Aunque algunos investigadores creían que la función principal de la red era generar nuestra experiencia de divagar o soñar despierto, había muchas otras conjeturas. Tal vez controlaba corrientes de consciencia o activaba recuerdos de experiencias pasadas. Y la disfunción en la red neuronal por defecto se planteó como una característica potencial de casi todos los trastornos psiquiátricos y neurológicos, incluidas la depresión, la esquizofrenia y la enfermedad de Alzheimer.

Desde entonces, una avalancha de investigaciones sobre la red por defecto ha complicado esa comprensión inicial. «Ha sido muy interesante ver los tipos de diferentes tareas y paradigmas que involucran la red por defecto en los últimos 20 años», comenta Lucina Uddin, neurocientífica de la Universidad de California en Los Ángeles.

La red por defecto fue una de las primeras redes cerebrales caracterizadas por la ciencia. Consiste en un puñado de regiones cerebrales, incluidas algunas en la parte frontal del cerebro, como las cortezas prefrontal medial dorsal y ventral, y otras dispersas por todo el órgano, como la corteza cingulada posterior, el precúneo y el giro angular. Estas regiones están asociadas con la memoria, la repetición de experiencias, la predicción, la consideración de acciones, la recompensa/castigo y la integración de información. (El resaltado de color en la siguiente figura indica algunas de las áreas externas del cerebro que se vuelven más activas cuando se activa la red por defecto).

Ilustración: Merrill Sherman/Quanta Magazine

Desde su descubrimiento, los neurocientíficos han identificado groseramente un puñado de redes distintas adicionales que activan áreas aparentemente dispares del cerebro. Estas áreas activadas no actúan de forma independiente, sino que se armonizan en sincronía entre sí. «No se puede pensar en una orquesta sinfónica solo con los violines o los oboes», explica Raichle. De manera similar, en una red cerebral las partes individuales interactúan para provocar efectos que solo pueden producir juntas.

Según la investigación, los efectos de la red neuronal por defecto incluyen divagar, recordar experiencias pasadas, pensar en los estados mentales de los demás, visualizar el futuro y procesar el lenguaje. Si bien esto puede parecer un conjunto de aspectos no relacionados de la cognición, Vinod Menon, director del Laboratorio de Neurociencia Cognitiva y Sistémica de Stanford, hace poco lanzó la hipótesis de que todas estas funciones podrían ser útiles para construir una narrativa interna. En su opinión, la red neuronal por defecto te ayuda a pensar en quién eres en relación con los demás, recordar tus experiencias pasadas y luego resumir todo eso en una autonarrativa coherente.

En 2001, el neurólogo Marcus Raichle identificó la red de actividad cerebral que se activa cuando la mente divaga, llamándola el “modo predeterminado” de función cerebral. Foto cortesía de Marcus Raichle

La red por defecto es claramente para algo complicado; está involucrada en muchos procesos diferentes que no se pueden describir claramente. «Es un poco tonto pensar que alguna vez vamos a decir: ‘Esta región o red cerebral hace una cosa'», afirma Uddin. «No creo que sea así como funciona».

Uddin comenzó a investigar la red neuronal por defecto porque estaba interesada en el autorreconocimiento, y muchas tareas de autorreconocimiento, como identificar tu propia cara o voz, parecían estar asociadas con la red. En los últimos años, ha centrado su atención en las interacciones entre redes cerebrales. Así como diferentes áreas del cerebro interactúan entre sí para formar redes, diferentes redes interactúan entre sí de manera significativa, explica Uddin. «Las interacciones de redes son más esclarecedoras en cierto modo que simplemente estudiar una red aislada, porque trabajan juntas y luego se separan y entonces cambian con el tiempo lo que hacen».

La neurocientífica Lucina Uddin investiga cómo interactúan las diferentes redes cerebrales, incluida la red de modo predeterminado. Foto cortesía de Lucina Uddin

Está particularmente interesada en cómo interactúa la red neuronal por defecto con la red de prominencia, lo que parece ayudarnos a identificar la información más relevante en un momento dado. Su trabajo sugiere que la red de prominencia detecta cuándo es importante prestar atención a algo y luego actúa como un interruptor de apagado para la red neuronal por defecto.

Los investigadores también han estado examinando si los trastornos de salud mental como la depresión podrían estar relacionados con problemas con la red neuronal por defecto. Hasta ahora, los hallazgos no han sido concluyentes. En personas con depresión, por ejemplo, algunos investigadores han descubierto que los nodos de la red están demasiado conectados, mientras que otros han descubierto lo contrario: que los nodos no se conectan. Y en algunos estudios, la red neuronal por defecto en sí no es anormal, pero sí sus interacciones con otras redes. Estos hallazgos pueden parecer incompatibles, pero se alinean con hallazgos recientes de que la depresión es quizás un grupo de trastornos diferentes que se presentan con síntomas similares.

Mientras tanto, Menon ha desarrollado lo que él llama la teoría de la triple red. Postula que las interacciones anormales entre la red neuronal por defecto, la red de prominencia y una tercera llamada red frontoparietal podrían contribuir a trastornos de salud mental como esquizofrenia, depresión, ansiedad, demencia y autismo. Normalmente, la actividad de la red neuronal por defecto disminuye cuando alguien presta atención a un estímulo externo, mientras que la actividad en las otras dos redes aumenta. Menon sospecha que este tira y afloja entre redes puede no funcionar de la misma manera en personas con trastornos psiquiátricos o del desarrollo.

Deanna Barch, que estudia neurobiología de las enfermedades mentales en la Universidad de Washington en St. Louis, está intrigada por la teoría de la triple red. Investigar cómo las redes están conectadas de manera diferente en personas con trastornos de salud mental puede ayudar a los investigadores a encontrar mecanismos subyacentes y desarrollar tratamientos, explica. Sin embargo, no cree que las interacciones de redes por sí solas expliquen completamente las enfermedades mentales. «Creo que entender las diferencias de conectividad es un punto de partida», afirma Barch. «No es un punto final».

La comprensión actual de la red neuronal por defecto seguramente tampoco es su punto final. Desde su descubrimiento, ha empujado a los neurocientíficos a pensar más allá de las responsabilidades de regiones individuales del cerebro hacia los efectos de las interacciones entre redes cerebrales. Y ha llevado a muchas personas a apreciar las actividades de la mente enfocadas al interior: que incluso cuando estamos soñando despiertos o reposando, nuestro cerebro está trabajando arduamente para que esto suceda.

 

El artículo original, What Your Brain Is Doing When You’re Not Doing Anything, se publicó el 5 de febrero de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo Lo que tu cerebro hace cuando no estás haciendo nada se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Riesgo geológico para una presencia permanente en la Luna

Mon, 2024/02/05 - 11:59

Cuando hablamos de nuestro satélite, la Luna, nos referimos a él como un cuerpo que -a nivel geológico- está bastante inactivo. Y lo cierto es que es así, al menos para los estándares a los que estamos acostumbrados en la Tierra, donde registramos de una manera continua actividad sísmica y volcánica en una gran parte del planeta.

Esto por supuesto no quiere decir que la Luna esté totalmente muerta, ya que sabemos que siguen ocurriendo terremotos y que solo con los instrumentos instalados en las misiones Apolo se registraron decenas de miles de eventos sísmicos a lo largo de 8 años de operaciones. Esto no significa que se registrasen todos los terremotos ocurridos en la Luna -estamos hablando de instrumentación de finales de la década de los 60 y 70, menos sensible que la de hoy- y situada en un área concreta de la Luna, lo que obviamente reduce el número de detecciones especialmente para los eventos de menor magnitud.

El astronauta Buzz Aldrin instalando el primer sismómetro en la Luna. Imagen cortesía de la NASA

Desde luego, este elevado número nos tiene que hacer plantearnos algunas cuestiones como ¿qué origen tienen los terremotos lunares? En primer lugar, tenemos los terremotos térmicos, una serie de movimientos que ocurren principalmente durante la mañana y la tarde de una manera bastante periódica y que son debido a los bruscos cambios de temperatura que ocurren en la superficie lunar, que permite que los materiales se dilaten y contraigan, fracturándose y provocando estos movimientos.

También tenemos terremotos ocasionados por el impacto natural de asteroides contra la superficie, pero también por la colisión de objetos hechos por el hombre, como, por ejemplo, las etapas de cohetes espaciales o naves cuyo aterrizaje no ha sido precisamente suave. Estos terremotos pueden ser muy útiles porque si podemos localizar con precisión el punto de impacto, seremos capaces de conseguir datos de mucha calidad y con mucha menor incertidumbre.

Existen también una serie de terremotos conocidos como terremotos profundos, que ocurren a grandes profundidades -entre los 700 y los 1200 kilómetros- y que son el grupo más numeroso de todos los detectados. Se piensa que estos podrían estar ocasionados por las mareas que ejerce la Tierra sobre la Luna porque además se ha observado una periodicidad relacionada con estas, pero también con los efectos de las mareas ejercidas por el Sol.

Y por último tendríamos los terremotos someros, que son relativamente poco abundantes pero que son los que pueden resultar más peligrosos para el ser humano puesto que ocurren a profundidades de entre 0 y los 200 kilómetros de profundidad y la atenuación de las ondas sísmicas es menor, por lo que llega a la superficie una parte importante de la energía liberada. Además, de estos terremotos algunos han llegado a una magnitud equivalente a un 5.8 terrestre, lo que supone una sacudida importante.

Las flechas junto al número 1 (en la parte superior) marcan la existencia de una falla en la superficie de la Luna. Las imágenes inferiores, la 1 y la 3, muestran dos deslizamientos que podrían estar relacionados con terremotos y la 2 muestra la caída de una roca ladera abajo y que podría ser también como consecuencia de un terremoto que inestabilice las rocas y las haga caer. Imagen cortesía de NASA/GSFC/Arizona State University/Smithsonian.

Precisamente queríamos centrarnos en este tipo de terremotos ahora que se acerca -esperamos que para no dentro de muchos años- el aterrizaje de los astronautas del programa Artemis de la NASA y que tienen como destino una zona cercana al polo sur de la Luna, puesto que ahí podría haber un riesgo sísmico relativamente elevado y relacionado con estos terremotos poco profundos.

La circunferencia de la Luna ha encogido como consecuencia de su enfriamiento interno -ese que al mismo tiempo va robándole actividad geológica- unos 45 metros. No nos puede parecer mucho, ya que la circunferencia ecuatorial de la Luna está en torno a los 10900 kilómetros y la reducción de la que hablamos está en torno al 0.0004%.

Pero al encogerse la Luna comienza a arrugarse y plegarse, algo que puede también parecer contraintuitivo porque la Luna es sólida pero, a escala geológica, los materiales pueden plegarse hasta que se supera su umbral de resistencia y se acaban rompiendo porque en realidad son materiales frágiles y no pueden acumular esa deformación de una manera indefinida.

Otra falla lunar, de la que podemos ver su sinuoso escarpe y que en el relieve da una forma de escalón muy característica debido al movimiento vertical de los bloques. Imagen cortesía de NASA/GSFC/Arizona State University.

¿Qué ocurre entonces? Esas fracturas que nacen son lo que conocemos como fallas, los lugares donde se producen los terremotos y, casualmente, en el polo Sur de la Luna se han encontrado un importante número de estas fallas provocadas por el enfriamiento de su interior… y como son estructuras muy epidérmicas -en el sentido de superficiales- podrían provocar terremotos muy someros. Pero no solo eso, algunos terremotos lunares pueden duran horas porque la Luna, hablando coloquialmente, suena como una campana y en ocasiones resuena debido a las propiedades de su corteza.

Esto quiere decir que, sobre todo, para estancias permanentes en zonas donde haya este tipo de fallas, hay que tener en cuenta el riesgo sísmico y construir estructuras que sean capaces de aguantar una sacudida sísmica… pero también construir lejos de pendientes muy escarpadas. ¿Por qué? Porque este tipo de terremotos también puede desestabilizar las laderas y provocar deslizamientos que sean destructivos.

La parte buena: podemos aplicar el conocimiento de nuestro planeta para cartografiar e intentar medir el grado de actividad de estas estructuras capaces de generar terremotos y crear mapas de peligrosidad que nos indiquen las zonas donde haya un menor riesgo, pero también de cara a la ingeniería, ser capaces de levantar o llevar edificaciones capaces de soportar los terremotos lunares.

Es probable que para la exploración más permanente todavía queden algunas décadas pero sin duda tener en cuenta el riesgo sísmico de las distintas regiones permitirá que nuestra estancia allí sea mucho más segura y menos peligrosa.

Referencias:

Nunn, C. et al. (2020) Lunar seismology: A data and instrumentation review Space Science Reviews doi: 10.1007/s11214-020-00709-3.

Sadeh, D. and Wood, K. (1978) Periodicity in lunar seismic activity and earthquakes Journal of Geophysical Research: Solid Earth doi: 10.1029/jb083ib03p01245.

Watters, T.R. et al. (2024) Tectonics and seismicity of the Lunar South Polar Region The Planetary Science Journal doi: 10.3847/psj/ad1332.

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Riesgo geológico para una presencia permanente en la Luna se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Lo que la ciencia forense nos enseña sobre la naturaleza humana

Sun, 2024/02/04 - 11:59

Llegué a «Todo lo que queda» pensando que se trataba de un libro de divulgación científica sobre ciencia forense. Pero, estrictamente hablando, no se puede considerar un libro de ciencia. Esto no quiere decir que no haya ciencia en sus páginas; la hay, pero sin entrar en mucho detalle ni profundizar demasiado en la metodología.

A lo largo de sus capítulos Sue Black, una reputada antropóloga forense escocesa, ofrece breves descripciones de los métodos que utilizan los patólogos o los antropólogos forenses para descubrir la identidad de personas fallecidas, normalmente en circunstancias dramáticas –como consecuencia de actos delictivos en mucho casos–, para hallar a quien agredió o provocó la muerte de alguna víctima, o para determinar la forma en que las personas fallecidas en esas circunstancias murieron.

En ese recorrido por los aspectos metodológicos, va desde las técnicas más clásicas, basadas en análisis minuciosos de los restos mortales y el entorno en que fueron hallados los cadáveres de las personas fallecidas, hasta el uso de técnicas propias de la genética molecular, métodos novedosos de identificación de sospechosos –como la arquitectura de la red de vasos sanguíneos que circulan bajo la piel de las manos, por ejemplo– o, incluso, el desarrollo de nuevos procedimientos para fijar los tejidos humanos y de esa forma conservar los cadáveres para su uso en la docencia de anatomía humana.

El trayecto no se limita a las técnicas. También hay un recorrido por diferentes lugares, sitios en los que la doctora Black ha trabajado, como Londres y, especialmente, Dundee. Y otros a los que se ha desplazado, bien enviada por su gobierno –Kosovo–, o por iniciativa propia –Tailandia–. En cada uno de estos lugares ha trabajado en la resolución de distintos problemas y por razones muy diferentes.

Pero como decía, el libro no se puede considerar, sensu stricto, una obra de divulgación científica. Es, ante todo, una reflexión extensa y profunda acerca de la muerte, de la forma en que transitamos a ella desde la vida, y de las circunstancias bajo las que sobreviene. La reflexión parte de la relación directa y muy próxima de la autora con el hecho de la muerte, sobre todo en la primera parte del libro. Se basa en sus primeras experiencias de relación o proximidad a cadáveres humanos, como los de miembros de su propia familia –su tío Willy, su madre y su padre– o como el de una persona –a quien Sue Black llamaba el tío Henry– que había donado su cuerpo a la ciencia y cuyo cadáver era utilizado como materia de estudio cuando ella era estudiante universitaria. Al final, en el epílogo, retoma el tono reflexivo, precisamente cuando piensa acerca de su propia muerte.

Las historias que relata Sue Black forman parte de su trayectoria profesional; lo que cuenta se basa en su propia experiencia. Como es natural, aunque es una profesora en la Universidad de Dundee, la mayor parte de sus historias tienen que ver con hechos delictivos o muertes sospechosas. En todas introduce alguna pincelada científica, describe el procedimiento que han de seguir para identificar un cadáver o hallar a un criminal y, sobre todo, reflexiona, como he dicho, sobre la vida y la muerte, y sobre la naturaleza humana.

Muchas de estas historias tienen una componente impactante. En mi caso, las que más me han conmovido han sido las que transcurren en Kosovo, donde la doctora Black fue desplazada por su gobierno para ayudar a identificar los restos humanos de cadáveres de personas que habían sido víctimas de actuaciones genocidas por parte de milicianos serbios y para reunir las pruebas que se pudiesen utilizar para acusar y, en su caso, condenar al líder serbio Slobodan Milosevic y los altos cargos de su gobierno por esas actuaciones.

Lo normal es que al llegar a los relatos de esas historias terribles, hubiera dejado de leer el libro. Sin embargo, no estuve tentado en ningún momento de hacerlo. El mérito es de la autora, porque consigue, mediante una muy buena combinación de compasión por las víctimas y sentido del humor, aliviar el pesar que, de otra forma, hubiese provocado la lectura. Sue Black es, además, una narradora excelente, por lo que la lectura de «Todo lo que queda» es verdaderamente, un placer.

Título: Todo lo que queda. Lo que la ciencia forense nos enseña sobre la naturaleza humana

Autora: Sue Black

Editorial: Paidos (2023).

Es traducción de “All That Remains. A Life in Death”, Doubleday (2019).

 

En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.

Una versión de este texto de Juan Ignacio Pérez Iglesias apareció anteriormente en Lecturas y Conjeturas (Substack).

El artículo Lo que la ciencia forense nos enseña sobre la naturaleza humana se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Pages