S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 1 heure 49 min

STEAM e indagación en el aprendizaje de Ciencias Experimentales

sam, 2023/12/02 - 11:59

STEAM

La jornada Las Pruebas de la Educación tuvo lugar con el objetivo de analizar la validez de las estrategias educativas puestas en marcha durante los últimos años. El enfoque STEAM o las clases virtuales fueron analizados desde la evidencia científica por un grupo de expertos y expertas que se reunió en la Facultad de Educación de Bilbao de la Universidad del País Vasco. La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la facultad de Educación de Bilbao, tuvo lugar el 27 de octubre pasado.

Esta sexta edición volvió a estar dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. Su objetivo ha sido reflexionar, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día. El seminario ha contado, una vez más, con la dirección académica de la vicedecana de Investigación y Transferencia de la Universidad Autónoma de Madrid, Marta Ferrero González.

Beatriz Baro Torija es doctora en Didáctica de las Ciencias Experimentales y licenciada en Biología por la Universidad de Santiago de Compostela. Actualmente es Profesora Titular de Universidad del Departamento de Didácticas Específicas (área de Didáctica de las Ciencias Experimentales) en la Universidad Autónoma de Madrid.  Ella es la encargada de analizar en esta charla los resultados del enfoque STEAM implantado durante los últimos años.

Edición realizada por César Tomé López

El artículo STEAM e indagación en el aprendizaje de Ciencias Experimentales se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Los robotaxis hacen trampas: la conducción autónoma podría no serlo tanto

ven, 2023/12/01 - 11:59

Los vehículos autónomos han sufrido un verano muy intenso, particularmente las empresas Waymo y Cruise, propiedades de los gigantes Google y General Motors, respectivamente. Se trata de dos de las startups más adelantadas en la carrera por dominar esta tecnología que, sin embargo, han tenido que frenar en seco en los últimos meses.

robotaxis

 

El 11 de agosto de 2023 ambas compañías obtuvieron la aprobación del estado de California para comenzar a ofrecer servicios de taxis autónomos 24 horas al día, los 7 días a la semana, y cobrando (hasta entonces, su actividad estaba restringida a unos horarios de poca densidad de tráfico). La ciudad de San Francisco se abría por primera vez a estos servicios.

(Comenzar el vídeo en 1:40.)

Poco les duró la alegría. Unos días más tarde, el 19 de agosto, las autoridades estatales penalizaron a Cruise por varios fallos graves ocurridos la noche anterior. Primero, un robotaxi se empotró contra un camión de bomberos que acudía una emergencia. En otro incidente, unas horas más tarde, fue un coche normal, pilotado por un humano, el que se saltó un semáforo y arrolló a uno de estos robotaxis.

En total, Cruise tuvo que reducir los 300 vehículos que tenía circulando por la ciudad a la mitad. Sin embargo, aún le faltaba la puntilla a la startup de General Motors, y ésta llegó hace unos días, cuando saltó la noticia de que el estado de California le retiraba la licencia de vehículos autónomos después de que uno de sus modelos no detectara que tenía a una persona atropellada debajo. Tras ello, Cruise anunció que cancelaba todas sus operaciones en Estados Unidos. Waymo ha optado por frenar su ritmo de expansión.

La cruda realidad es que una startup que no circula es una startup que no genera beneficios. Esto es un problema cuando estás inmerso en una carrera empresarial y tecnológica por quemar dinero, demostrar resultados, y seguir quemando dinero de inversores, todo ello hasta que a estos se les agote la paciencia o una de las empresas se erija vencedora.

¿Cuál es la situación de los robotaxis ahora?

Tecnológicamente, el hecho de que hayan estado circulando por ciudad cientos de vehículos autónomos es una gran hazaña. Waymo y Cruise han recorrido un total de casi 13 millones de kilómetros sin conductor, incluidos más de 6,4 millones de kilómetros en San Francisco desde principios de 2023. Debido a que la ley de California exige que las empresas de vehículos autónomos informen de cada accidente importante de forma pública, sabemos mucho sobre su desempeño.

En total, las dos empresas han informado de algo más de 100 accidentes con vehículos sin conductor. Puede parecer mucho, pero ocurrieron en unos 10 millones de kilómetros de conducción. Eso equivale a un accidente cada 100 000 kilómetros, unos cinco años de conducción para un automovilista habitual.

Sin embargo, en estas estadísticas no se cuentan otros incidentes también importantes, como atropellos a perros, golpes de chapa en los que el robotaxi huye, o que el vehículo autónomo arda espontáneamente.

Si echamos la vista atrás, lo que las grandes tecnológicas nos prometían eran transportes en ciudad más baratos, rápidos y seguros. Uno de los mayores críticos de esta tecnología es el investigador Filip Piekniewski, quien ya advirtió que, después de 100 000 millones de dólares invertidos en esta tecnología, seis empresas han quebrado, tres están intentando sobrevivir y solo a dos parece irles bien.

Probablemente, la actitud de Piekniewski sea demasiado radical. En mi caso, estoy convencido de que la conducción autónoma se logrará, aunque quizás necesitemos cambios más profundos.

En muchos medios se puede encontrar el dato de que entre el 90 y 94 % de los accidentes en carretera se deben a errores humanos. La historia de esta cifra se remonta nada menos que a 1979. Posteriormente, la autoridad en seguridad vial de EE UU, la NHTSA, publicó en 2015 un documento de dos páginas que decía que “la razón crítica, que es el último evento en la cadena causal del accidente, fue asignada al conductor en el 94 % de los accidentes”. Un poco más adelante, el organismo subrayaba que, “aunque la razón crítica es una parte importante de la descripción de los eventos que condujeron al accidente, no debe interpretarse como la causa del accidente”.

El argumento de sustituir al conductor por un algoritmo para reducir ese 94 % de causas humanas es, por lo tanto, falso. Numerosas voces autorizadas en seguridad vial han levantado la voz sobre este uso tramposo de las estadísticas.

Quizás, por lo tanto, los vehículos autónomos no deban reflejar como métrica principal el número de accidentes, sino que debieran tener sus propias métricas. Y probablemente también sea importante recordar que cada vehículo autónomo en la vía pública tiene un conductor humano de seguridad a bordo o en algún lugar observando y controlando de forma remota.

Los vehículos autónomos podrían no serlo tanto

Precisamente hace unos días, el New York Times publicó un artículo que saca los colores a Cruise y a estos conductores de seguridad.

Según los periodistas del New York Times, la empresa de vehículos autónomos empleaba una media de 1,5 conductores de seguridad por vehículo, y tenían que intervenir en la conducción muy frecuentemente. Si esto fuera cierto, sería lógico cuestionarse si el resto de startup de robotaxis están haciendo las mismas trampas. Siendo así, estaríamos aún muy lejos de la conducción autónoma del imaginario popular.

Quizás la conducción autónoma no sea la solución a nuestros problemas de tráfico. Tal vez haya que pensar en una conducción tecnológicamente asistida, que complemente al humano y que le ayude a no fallar. Al fin y al cabo, puede que la viabilidad técnica de vehículos tan complejos que rocen la inteligencia e intuición humana sea imposible en los marcos de movilidad urbana de nuestras ciudades.

Probablemente, también sea importante entender que los robotaxis no son solo un invento tecnológico, sino uno en gran medida socioeconómico.The Conversation

Sobre el autor: Julián Estévez Sanz, Profesor e investigador en Robótica e Inteligencia Artificial, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Los robotaxis hacen trampas: la conducción autónoma podría no serlo tanto se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Al borde de la extinción en el Pleistoceno

jeu, 2023/11/30 - 11:59

José María Bermúdez de Castro, codirector de los yacimientos de Atapuerca, reflexiona en este texto sobre la repercusión de un inquietante estudio sobre lo cerca que estuvo la humanidad de la extinción durante el Pleistoceno.

PleistocenoCráneo de neandertal (a la izquierda) y de Homo sapiens (a la derecha). Fuente:  The Trustees of the Natural History Museum

Un prestigioso equipo de investigadores de varias instituciones científicas de China, formado, entre otros, por Hu Wangjie, Ha Zigian, Pan Y-Huan y Li Haipeng, publicó hace poco un trabajo en la revista Science, cuyas conclusiones resultan inquietantes. Estos científicos han estudiado el ADN de una muestra de más de 3.000 individuos actuales procedentes de diferentes regiones del planeta y han desarrollado un nuevo modelo genético (FitCoal), extremadamente complejo para la comprensión de quienes no somos genetistas y matemáticos.

Este modelo posibilita proyectar la variación genética actual hacia el pasado y estimar el tamaño de las poblaciones pretéritas. Los resultados del estudio sugieren que hace entre 813.000 y 930.000 años la humanidad experimentó un cuello de botella y quedó reducida a poco menos de 1.300 individuos reproductores. Ese cuello de botella, quizá causado por las severas condiciones climáticas de finales del Pleistoceno inferior, duró nada menos que 117.000 años y habría dejado al linaje humano al borde de su desaparición.

Esta conclusión nos deja con un nudo en el estómago, pero también con algo de escepticismo en relación con los titulares que el propio editorial de la revista Science ha propiciado. Sabemos que en aquella época existían varias especies del género Homo distribuidas por África y Eurasia: Homo antecessor, Homo erectus, Homo ergaster, Homo floresiensis y tal vez alguna más. Con esta diversidad, parece seguro que nuestra genealogía habría tenido, en conjunto, una respuesta adaptativa suficiente como para salir del cualquier atolladero.

Tras meditar sobre las conclusiones del artículo de nuestros colegas, hemos intentado poner un poco de orden en nuestra mente, sin dejarnos llevar por la autoridad de los trabajos de investigación publicados por una revista de tanto prestigio como Science y por un modelo tan complejo, cuya comprensión está al alcance de pocos.

Un “agujero negro” en la evolución humana

Es cierto que el registro fósil de hace aproximadamente un millón de años es limitado. Tanto es así que desde siempre se ha comentado entre los expertos la existencia de un verdadero “agujero negro” en la evolución de los homininos. Esa falta de yacimientos con fósiles humanos podría explicarse por causas geológicas. Además, el territorio inexplorado por arqueólogos y paleontólogos hasta la fecha por razones económicas, políticas y sociales es inmenso.

Poco a poco, ese agujero negro se ha ido llenando de contenido y ya han empezado a contabilizarse un cierto número de yacimientos de esa época tanto en África como en Eurasia. No olvidemos, por ejemplo, que el nivel TD6 del yacimiento de la cueva de la Gran Dolina, en la sierra de Atapuerca (Burgos), se ha datado en aproximadamente 850.000 años, precisamente en los límites temporales de ese cuello de botella sugerido por los resultados del modelo de los científicos chinos.

El yacimiento de la Gran Dolina y otros yacimientos europeos de la misma época sugieren que el sur de Europa estuvo habitado hacia finales del Pleistoceno inferior por una población humana relativamente numerosa y viable. Ciertamente, cada vez tenemos mayor constancia de la existencia de homininos de esa época en el este de África o China. ¿Entonces?, ¿qué significado tienen los resultados del equipo de científicos chinos?, ¿se trata solo de un modelo, que puede estar equivocado? No necesariamente.

Pienso que el propio resumen realizado por el editorial de la revista Science nos ha confundido a todos. Los medios de comunicación de todo el mundo han publicado titulares llamativos acordes con ese resumen, que no se ajustan a la realidad de lo que pudo haber sucedido hace 900.000 años.

En ese tiempo, una de las poblaciones de homininos, todavía por determinar, pudo ser el origen de los neandertales, los denisovanos y los humanos modernos. Hasta el momento, nadie ha sido capaz de identificar con seguridad esa población enigmática que, en mi opinión, vivió en Oriente Próximo. Mientras tanto, en varias de regiones de África y Eurasia prosperaban otras poblaciones de diferentes especies: Homo antecessor, Homo erectus, Homo ergaster, Homo floresiensis

¿Cómo lograron sobrevivir tan pocos tanto tiempo?

Mi interpretación de los resultados de los científicos chinos es que el modelo FitCoal conduce únicamente a esa población misteriosa de la que surgió finalmente la humanidad actual, junto a los neandertales y los denisovanos.

Si lo que pienso es correcto, no sería de extrañar que esa población enigmática se hubiera originado como resultado de ese cuello de botella que sugiere el modelo FitCoal. Siendo una población de tamaño tan exiguo, es normal que las excavaciones arqueológicas y paleontológicas no hayan dado todavía con algún yacimiento de esa población. Pero todavía quedaría una pregunta por responder: ¿cómo es posible que una población tan pequeña pudiera sobrevivir durante más de 100.000 años?

Si el cuello de botella hubiera persistido durante tanto tiempo, las posibilidades de supervivencia de la población habrían sido casi nulas. Los autores de la investigación son plenamente conscientes de ese problema y plantean la misma pregunta en el último párrafo de su artículo en Science.

Los modelos son eso precisamente: modelos, que no tienen por qué ajustarse necesariamente a la realidad. La hipótesis de que sapiens, neandertales y denisovanos comparten un mismo ancestro común, cuyo origen puede situarse en algún lugar de África o Eurasia hace unos 900.000 años, es ampliamente aceptada por la comunidad científica. El modelo FitCoal seguramente ha podido llegar en sus estimaciones hasta esa población “misteriosa”, pero habría obviado esas otras poblaciones que medraban por buena parte de África y Eurasia a finales del Pleistoceno inferior.

Si esta interpretación es correcta, la población originaria del linaje que condujo finalmente hasta nosotros estuvo pendiente de un hilo. Caso de que esa población enigmática hubiera fracasado por falta de efectivos, otras especies humanas habrían prosperado. ¿Imaginan los lectores un planeta habitado por los descendientes de Homo erectus?

Para saber más:

La humanidad ante su propia extinción
Quince virus que han cambiado la historia de la Humanidad

Sobre el autor: José María Bermúdez de Castro. Investigador ad Honorem. Centro Nacional de Investigación sobre la Evolución Humana (CENIEH), Burgos.

Este texto apareció originalmente en SINC.

El artículo Al borde de la extinción en el Pleistoceno se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El toro, la botella de Klein y el plano proyectivo real (III)

mer, 2023/11/29 - 11:59

Con esta entrada del Cuaderno de Cultura Científica cerramos una serie dedicada a tres curiosas superficies relacionadas con la banda de Moebius, a saber, el toro, la botella de Klein y el plano proyectivo real, y a cómo algunos artistas contemporáneos han representado estas superficies en sus obras de arte. La primera entrada, titulada El toro, la botella de Klein y el plano proyectivo real (I), estaba dedicada a la superficie del toro y se mostraban esculturas del artista japonés Keizo Ushio, del escultor minimalista estadounidense Richard Serra o del artista británico Jack Eagan, entre otros. Mientras que la segunda entrada, titulada El toro, la botella de Klein y el plano proyectivo real (II), se centraba en la superficie conocida con el nombre de botella de Klein y en obras de artistas como el mexicano Pedro Reyes, la parisina Bettina Samson o la matemática y artista argentina Moira Chas. Y la serie se cierra, en esta entrada, con el plano proyectivo real.

Down Force / Fuerza hacia abajo (2015), del escultor estadounidense Harry Pollitt, es una escultura en madera de una larga banda de MoebiusTodo empieza con una superficie rectangular

Antes de introducir la extraña superficie conocida con el nombre de plano proyectivo real, vamos a repasar cómo se construían el toro y la botella de Klein. Se empieza con una tira de papel rectangular ABCD (véase la siguiente imagen), en general, una superficie “topológica” rectangular, es decir, que nos permitiremos estirarla si fuese necesario, ya que estamos interesados en la creación de superficies topológicas, en este caso, el toro, la botella de Klein y el plano proyectivo real.

Tira de papel ABCD

 

Dada esa superficie rectangular ABCD, si se pegan los lados AB con DC se obtiene un cilindro, pero en función de cómo se junten los otros dos lados se generan dos nuevas e interesantes superficies. Si lo hacen de forma directa (AD con BC, como indican las flechas de la siguiente imagen) será la superficie cerrada con dos caras, denominada en matemáticas “toro”, que tiene forma de rosquilla o flotador.

Construcción de la superficie del toro

Si los otros dos lados se pegan en el sentido contrario (AD con CB), girando media vuelta antes de pegarse, entonces se construye la superficie topológica llamada “botella de Klein”, que es una superficie cerrada que solo tiene una cara. Como se explicaba en la anterior entrada y se muestra en la siguiente imagen, los extremos del cilindro no se pegan de forma directa, sino en sentido contrario, luego sería como si se pegaran “por detrás”. El problema es que para hacer esto tenemos que cruzar la propia superficie para poder unir esos dos extremos en la forma descrita. De esta manera, lo que se genera es una “representación” de la botella de Klein que se autointerseca, como se muestra en la imagen.

Construcción de la botella de Klein con autointersección

También explicábamos en la anterior entrada, que la botella de Klein, tal cual la hemos definido, no debiera de tener autointersecciones. El problema está en que esta construcción geométrica “ideal” no genera una superficie que esté dentro de nuestro espacio tridimensional, sino que su espacio natural es el espacio de dimensión cuatro, y aquí nos encontramos con un gran problema, ya que no somos capaces de visualizar la cuarta dimensión. Por este motivo, nos quedábamos en la anterior entrada con esta representación, que al menos habita en el espacio visual, el espacio de dimensión tres.

Un material muy interesante para observar y entender bien la botella de Klein, en particular, su realización en el espacio tridimensional, es el cristal. En la siguiente imagen podéis disfrutar de una botella de Klein realizada en cristal. Aquí os presento mi botella de Klein construida en cristal, que me ha regalado la junta directiva de la Sociedad Madrileña de Profesores de Matemáticas (SMPM) Emma Castelnuovo, por mi participación en las jornadas formativas de enseñanza y aprendizaje de las matemáticas, de este año 2023. ¡Muchísimas gracias por tan hermoso presente!

Botella de Klein construida en cristal

 

Por otra parte, mi amiga Mariel García, la conocida “Mariel Mates”, que tiene hermosas creaciones textiles relacionadas con las matemáticas, como las geniales y coloridas bufandas “pi-bufanda” y “fibo-bufanda”, ha tejido recientemente una interesante y hermosa botella de Klein, que podéis ver en la siguiente imagen.

Fibobufanda (2023), de la matemática y artista Mariel MatesEl plano proyectivo real

La superficie que nos ocupa para cerrar esta serie, el plano proyectivo real, es una interesante superficie desde el punto de vista matemático, pero también complicada de entender, aunque vamos a intentar definirla siguiendo la línea constructiva que hemos trazado en esta serie.

Volviendo a nuestra tira rectangular ABCD, si se pegan los dos extremos opuestos, pero girando media vuelta uno de los extremos, por ejemplo, en el rectángulo de la siguiente imagen se pega AD con CB, se forma la banda de Moebius, como ya hemos explicado en muchas entradas anteriores y mostramos en la siguiente imagen.

Construcción de la banda de Moebius, pegando los extremos AD con CB de una tira rectangular ABCD

Pero, si ahora, dada esa banda de Moebius, pegamos los otros dos extremos del rectángulo, girando media vuelta de nuevo a uno de ellos, es decir, se pega AB con CD, se obtiene la conocida superficie denominada “el plano proyectivo real”, que resulta ser otra superficie cerrada (sin borde) con una sola cara. Para intentar realizar una “imagen” de esta superficie, tenemos que darnos cuenta de que las dos parejas de lados opuestos del rectángulo ABCD se pegan en sentido contrario, DA con BC y AB con CD. Esta forma de pegar los lados opuestos es como si pegáramos DAB con BCD, como se muestra en la siguiente imagen. El problema está, de nuevo, que no hay forma de pegar DAB con BCD sin pasar a través de la propia superficie, por lo que la imagen que se muestra a continuación es una realización tridimensional, con autointersecciones, del plano proyectivo real (que se conoce con el nombre de “gorra cruzada”, del inglés “cross cap”). Al igual que ocurría con la botella de Klein, el plano proyectivo real tampoco está, de forma natural, en el espacio tridimensional, sino que habita de forma natural en el espacio de dimensión cuatro. Por lo tanto, lo que nosotros podemos ver son proyecciones del plano proyectivo real, que existe en el espacio de dimensión cuatro, sobre el espacio tridimensional. Luego no vemos toda su realidad, sino proyecciones del mismo.

plano proyectivo realRepresentación tridimensional, luego con auto-intersecciones, de la construcción del plano proyectivo real, a partir de una tira rectangular ABCD, pegando los extremos DA con BC y AB con CD, o lo que es lo mismo, pegando DAB con BCD. A esta representación del plano proyectivo real se la conoce con el nombre gorra cruzada

Como acabamos de comentar, el plano proyectivo real es una superficie que, por su construcción, no se puede representar en el espacio tridimensional (nuestro espacio visual y mental), sino que vive en el espacio de dimensión cuatro. Por este motivo, al proyectarlo en el espacio tridimensional se producen auto-intersecciones, como en la representación anterior. Aunque no vamos a explicar su origen, existen otras formas de representar/proyectar el plano proyectivo real en el espacio tridimensional. Tres representaciones clásicas del plano proyectivo real son el sombrero cruzado, que ya hemos mostrado, la superficie de Boy (que recibe su nombre del matemático alemán Werner Boy (1879-1914), quien descubrió esta superficie en 1901, cuando su director de tesis, el matemático alemán David Hilbert (1862-1943) le pidió que demostrase que era imposible realizar una “inmersión” del plano proyectivo real en el espacio tridimensional) y la superficie romana de Steiner (que recibe su nombre del matemático suizo Jakob Steiner (1896-1963), quien la descubrió en 1844, en un viaje a Roma), que se muestran, con dos puntos de vista distintos de cada una de ellas, en la siguiente imagen.

plano proyectivo realEl sombrero cruzado, la superficie romana de Steiner y la superficie de Boy, tres proyecciones del plano proyectivo real en el espacio tridimensional

 

Esculpiendo el plano proyectivo real

Nos encontramos ante una superficie geométrica compleja y crear una escultura con alguna de sus realizaciones tridimensionales no es una tarea sencilla, por lo que algunos de los trabajos artísticos sobre las mismas los desarrollan artistas con formación matemática o que colaboran con personas del ámbito de las matemáticas.

El primer artista que traemos a esta entrada es el escultor y matemático estadounidense Helaman Ferguson (1940), de quien ya explicamos su obra Toro umbilical (1988) en la entrada Arte Moebius (II). Ferguson es uno de esos artistas cuyo arte podríamos denominar “arte matemático”, ya que sus esculturas tienen una fuerte componente matemática. En particular, trabaja mucho con superficies topológicas, como las que nos ocupan en esta serie. Sobre la relación entre escultura y matemáticas Helaman Ferguson dice lo siguiente: “creo que la escultura es una forma muy poderosa de transmitir las matemáticas, y estas son un lenguaje de creación muy poderoso para la escultura”.

La escultura Torus with cross cap and vector field / Toro con gorra cruzada y campo de vectores (1989), realizada en bronce, no es una escultura de la realización tridimensional del plano proyectivo real denominada gorra cruzada, que acabamos de explicar más arriba, sino de una nueva superficie que está formada por la unión de la gorra cruzada con la superficie del toro.

Escultura Torus with cross cap and vector field / Toro con gorra cruzada y campo de vectores (1989), del artista y matemático Helaman Ferguson, realizada en bronce

Además, realizó una segunda versión en mármol blanco, que mostramos en la siguiente imagen.

Escultura Torus with cross cap and vector field / Toro con gorra cruzada y campo de vectores (1988), del artista y matemático Helaman Ferguson, realizada en mármol blanco

Nuestra siguiente artista también se ha formado en matemáticas, de hecho, tiene formación tanto en matemáticas, como en bellas artes. Se trata de la matemática y artista estadounidense Camila Friedman-Gerlicz. Ella ha realizado una curiosa instalación de la superficie de la gorra cruzada, titulada Cross Cap Surface Parametrization / Parametrización de la gorra cruzada (2018), que consiste en una escultura de madera muy especial, con la forma de la gorra cruzada, un dispositivo rectangular táctil en la base de la escultura, como se muestra en la siguiente imagen, y un sistema de luces dentro de la gorra cruzada de madera.

Cross Cap Surface Parametrization / Parametrización de la gorra cruzada (2018), de la matemática y artista estadounidense Camila Friedman-Gerlicz

¿Cómo funciona la instalación? Es lo que en matemáticas llamamos una parametrización de la superficie de la gorra cruzada, es decir, cada punto del rectángulo de la base se corresponde con un punto de la superficie. De hecho, en esta instalación cuando se coloca un dedo en un punto del rectángulo táctil de la base se ilumina el correspondiente punto de la superficie, y si vamos moviendo nuestro dedo por el rectángulo se va moviendo la luz por la superficie de madera, visualizando así la relación entre el rectángulo generador y la realización, denominada gorra cruzada, del plano proyectivo real.

Luces en la instalación Cross Cap Surface Parametrization / Parametrización de la gorra cruzada (2018), de la matemática y artista Camila Friedman-Gerlicz, que se mueven en función de la posición del dedo en la zona rectangular

Esta artista, cuyo arte está muy conectado con las matemáticas, también ha realizado una superficie de la gorra cruzada en cerámica, que es uno de los materiales con los que más trabaja. También en cerámica ha realizado otra de las realizaciones tridimensionales del plano proyectivo real, la superficie de Boy, que hemos mostrado más arriba.

Cerámica Projective layers / Capas proyectivas (2022), de la matemática y artista estadounidense Camila Friedman-Gerlicz

Además, ha creado una escultura colgante en papel, que consiste en una triangulación de la superficie de Boy, es decir, ha representado una superficie poliédrica creada por triángulos, los cuales forman la superficie topológica descubierta por Werner Boy.

Escultura colgante Project(ive) / Proyect(iv)o (2020), de la matemática y artista estadounidense Camila Friedman-Gerlicz

Esta artista matemática también tiene hermosas botellas de Klein realizadas en cerámica, que podéis encontrar en su cuenta de instagram.

Botella de Klein realizada en cerámica, de la matemática y artista estadounidense Camila Friedman-Gerlicz

 

Continuando con la superficie de Boy, una de las esculturas más conocidas de la misma dentro de la comunidad matemática, es la escultura que se encuentra en el exterior del Instituto de Investigación Matemática Oberwolfach, ubicado en la Selva Negra alemana (sobre el mismo escribí en la entrada Los institutos Isaac Newton y Oberwolfach, dos curiosas instituciones de investigación matemática). Esta escultura fue un regalo al instituto IMO de la empresa alemana Mercedes-Benz, que fue realizada en 1991 a partir de las computaciones realizadas por los matemáticos Hermann Karcher, Ulrich Pinkall e Ivan Sterling del Max Planck Institut für Mathematik en Bonn (Alemania).

Escultura de la superficie de Boy, de 1991, en el exterior del Instituto de Investigación Matemática Oberwolfach (Alemania)

 

El desarrollo de las impresoras 3D está permitiendo realizar hermosas esculturas de superficies matemáticas complejas de forma bastante sencilla. En particular, algunos artistas y artesanos están trabajando en esta línea y podemos encontrar, y comprar, curiosos y hermosos diseños en internet. Por ejemplo, el arquitecto, diseñador y matemático Rick Russell entre sus “Mathematical Creations” podemos encontrar esta Boy’ Surface Mesh / Malla de la superficie de Boy, cuyo tamaño es 6.25 x 6.38 x 4.72 cm, y está impresa en plástico metálico y acero bañado en oro.

Boy’ Surface Mesh / Malla de la superficie de Boy, fabricado por Mathematical Creations, es decir, Rick Russell

O esta otra pieza que representa también la superficie de Boy, pero con color y agujeros, realizada por el artista y fabricante Benjamin Berger, que es la persona que está detrás de Implicit Art.

Color Boy’s surface weave / Entramado de la superficie de Boy en color, fabricado por Implicit Art, es decir, Benjamin Berger

Si seguimos con objetos realizados con impresión 3D, también nos encontramos a la superficie romana de Steiner. Por ejemplo, el diseñador y fabricante Paul Summers, que es quien está detrás de los diseños de FluidDesigner, ha realizado el diseño de unos pendientes con forma de corazón, que realmente es la superficie de Steiner, que podéis admirar en la siguiente imagen.

Roman Surface Heart Earring / Pendientes corazón superficie romana, realizados por FluidDesigner, es decir, Paul Summers

Vamos a concluir esta entrada del Cuaderno de Cultura Científica con una escultura de la artista minimalista alemana-estadounidense Ruth Vollmer (1903-1982), relacionada con la escuela de la Bauhaus, con el título de Superficie de Steiner (1979), realizada en metacrilato, de la que también realizaría una versión con colores.

Superficie de Steiner (1979), de la artista alemana-estadounidense Ruth Vollmer

Bibliografía

1.- Raúl Ibáñez, Las matemáticas como herramienta de creación artística, colección Miradas matemáticas, Catarata, 2023.

2.- Clifford A. Pickover, La banda de Möbius, Almuzara, 2009.

3.- Martin Gardner, Festival mágico-matemático, Alianza editorial, 1984.

4.- Stephen Barr, Experiments in Topology, Dover, 1989.

5.- Martin Gardner, The Sixth Scientific American Book of Mathematical Puzzles and Diversions, Simon & Schuster, 1971.

6.- Raúl Ibáñez, La cuarta dimensión, RBA, 2010.

 

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El toro, la botella de Klein y el plano proyectivo real (III) se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¡Qué WAY! Más incertidumbre al principio de incertidumbre

mar, 2023/11/28 - 11:59
WAYFoto: Scott Umstattd / Unsplash

El principio de incertidumbre de Heisenberg es de sobra conocido. Una forma de expresarlo con palabras es la siguiente:

Es imposible medir la posición y el momento lineal de un corpúsculo subatómico en el mismo instante con una precisión ilimitada. Cuanto más precisa es la medición del momento lineal, menos precisa es la medición de la posición en ese instante, y viceversa.

Pero el principio no solo afecta al momento lineal y la posición, sino a cualquiera dos observables que no conmutan, como la energía y el tiempo. Esto de que no conmutan lo podemos entender si pensamos en los dos observables como operadores matemáticos que toman la forma de matrices, y sabemos que en álgebra matricial el producto A·B no tiene por qué ser igual a B·A.

Podemos decir, por tanto, que, de forma general, el principio de incertidumbre de Heisenberg limita la precisión con la que se pueden medir simultáneamente dos observables que no conmutan entre sí.

Pero la cosa no queda aquí. El teorema de Wigner-Araki-Yanase (WAY) va más allá. Si los observables A y B no conmutan, y si el observable A se conserva, el observable B no puede medirse con precisión arbitraria,ojo, incluso si A no se mide en absoluto. En su formulación original de 1960, el teorema WAY se aplicaba solo a observables cuyos valores posibles son discretos y están acotados, es decir, que solo pueden tomar un número finito de valores concretos, como el espín.

Y ahora es cuando lo de la incertidumbre cuántica se torna psicodelia. Dos investigadores acaban de presentar la demostración de que el teorema WAY también aplica a observables como la posición, esto es, observables que ¡son continuos y no están acotados!

Este resultado, además de resolver el problema de cómo abordar estos observables, probablemente encontrará aplicaciones prácticas en la óptica cuántica.

Cómo lo han hecho

La dificultad de extender el teorema WAY surge de cómo se representa un observable L no acotado, a saber, como una matriz de dimensión infinita con valores propios no acotados. Para solucionar el problema, los investigadores no usan L directamente, sino una función exponencial de L, que forma un grupo unitario de un solo parámetro. Aunque la función exponencial tampoco está acotada, su espectro de valores propios está contenido dentro del círculo unitario del plano complejo. Gracias a esa limitación, se pueden utilizar técnicas conocidas de la información cuántica para completar la prueba.

Y esto, ¿qué significa en términos de nuestras viejas conocidas posición y momento? Como el momento se conserva, el teorema extendido de WAY implica que la posición de una partícula no se puede medir con precisión arbitraria, incluso si su momento no se mide simultáneamente.

Pares similares de observables aparecen habitualmente en la óptica cuántica. Los investigadores apuntan a que su teorema podría ser útil para establecer límites a cuánto pueden superar a las clásicas las versiones cuánticas de los protocolos de transmisión.

Referencia:

Yui Kuramochi and Hiroyasu Tajima (2023) Wigner-Araki-Yanase Theorem for Continuous and Unbounded Conserved Observables Physical Review Letters doi: 10.1103/PhysRevLett.131.210201

Para saber más:

Serie Cuantos (introducción a los conceptos básicos de la mecánica cuántica)

Serie Incompletitud y medida en física cuántica

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo ¡Qué WAY! Más incertidumbre al principio de incertidumbre se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Glaciares de sal en Mercurio

lun, 2023/11/27 - 11:59

Cuando pensamos en glaciares creo que lo más inmediato que nos viene a la mente es un clima polar o de alta montaña, por eso es posible que el título de este artículo pueda ser algo desconcertante al mezclar el planeta Mercurio, el más cercano al Sol, y la palabra glaciares… aunque lo cierto es que incluso allí podemos encontrar hielo en los cráteres en sombra permanente, pero eso ya es harina de otro costal.

Los glaciares de sal son menos comunes que los de hielo, y quizás por eso pasan más desapercibidos para el público no especialista, pero no por ello dejan de ser un fenómeno verdaderamente fascinante y que toma su nombre precisamente por el increíble parecido con los otros glaciares que, por cierto, no solo los encontramos formados por hielo de agua, sino que también los hemos encontrado formados por hielo de nitrógeno, como ocurre en Plutón.

Pero, ¿qué son en realidad? Imaginemos un glaciar de hielo. Estos están formados por la nieve que al compactarse va transformándose lentamente en hielo y que, bajo la presión de su propio peso y la gravedad, provoca que estas masas de hielo vayan fluyendo lentamente, como si fuese un río viscoso. Pues bien, en los glaciares de sal ocurre algo parecido, solo que con sales en vez de hielo.

glaciaresFigura 1. Domo y glaciar de sal en los Zagros, Irán. Para que nos hagamos una idea de la escala, por el lado más largo -el que va del noroeste al sureste- hay unos quince quilómetros en los que podemos ver formas que nos recuerdan al flujo de hielo en un glaciar. Imagen del satélite Sentinel 2 cortesía del Programa Copernicus de la Unión Europea.

La sal puede comportarse de una manera similar a como lo hace el hielo bajo determinadas condiciones: Cuando los estratos de sal quedan enterrados bajo otras capas de roca, las inmensas presiones a las que se ve sometida, junto con la temperatura que hay en las profundidades de la Tierra, puede hacer que esta empiece a convertirse también en un fluido viscoso -a escala geológica- y empiece a fluir, muchas veces formando estructuras diapíricas, como si fuesen una gigantesca gota de sal que se ve forzada a subir a través de la corteza, similar a lo que vemos en las lámparas de lava cuando la parafina llega hasta el fondo, se calienta, y comienza a subir.

En nuestro planeta, los glaciares de sal aparecen donde existen grandes depósitos de estos compuestos y que, por su contexto geológico, obliga a estas capas a migrar hacia arriba, a veces fracturando los estratos de roca superiores. Cuando la sal llega a la superficie, puede empezar a fluir cubriendo el paisaje, a veces creando glaciares de varios kilómetros de longitud.

Las últimas misiones a Mercurio pusieron de manifiesto la existencia de algunas formas en el terreno que indicaban signos de sublimación -es decir, el paso de un sólido al estado gaseoso sin pasar por el líquido-, lo que demostraría la existencia de una gran cantidad de elementos volátiles en el planeta, algo que hasta hace unas décadas era escasamente considerado por la comunidad científica debido a su extrema proximidad al Sol.

Un nuevo estudio publicado en The Planetary Science Journal este mes de noviembre, aborda la presencia de estos glaciares centrándose en dos zonas, la cuenca de impacto de Raditladi y en Borealis Chaos, situado en las inmediaciones del polo norte de Mercurio… pero, ¿cómo se han formado en este planeta?

glaciaresFigura 2. Depresiones en el fondo de la cuenca de impacto de Raditladi observadas por la sonda MESSENGER. Estas son las zonas de color blanco y que se sopecha están formadas por la pérdida de elementos volátiles. Imagen cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington.

El estudio sugiere que estos glaciares se formaron cuando los impactos de asteroides fueron capaces de exponer capas ricas en volátiles (VRLs según la terminología en inglés) y que yacían bajo una capa superficial -por ejemplo, capas formadas por la lava de las erupciones volcánicas- que protegía a los elementos volátiles de la sublimación. Una vez liberada la presión, los materiales de estas capas podían fluir hacia afuera, moviéndose como los glaciares de sal de nuestro planeta en una escala temporal que dependería de las temperaturas que hubiese en ese momento en la superficie de Mercurio.

¿Cuál sería la composición de estos glaciares? Los científicos del estudio plantean que podrían estar compuestos principalmente por halita -el mineral que usamos para fabricar la sal común o de mesa- ya que sus propiedades y su reacción ante las distintas temperaturas condicionan su viscosidad y resistencia y podrían explicar las formas que se observan en Mercurio.

Otra de las cuestiones que se abordan y que es muy interesante es: ¿De dónde salen estas VRLs en Mercurio? ¿Podrían ser el relicto de una condensación completa de la atmósfera del planeta? Hablamos, claro, de la atmósfera original que ya no tiene, formada en esos primeros momentos tras el “nacimiento” -entiéndase nacimiento en sensu lato– del planeta en los que la actividad volcánica era tan fuerte que la degasificación a través de los volcanes permitía a Mercurio tener una atmósfera efímera, a lo que sumado a la colisión de cuerpos ricos en volátiles, podrían haber conseguido formar una atmósfera de cierta entidad.

glaciaresFigura 3. Otra perspectiva -ahora a color- de las depresiones o huecos dejadas por los volátiles una vez escaparon al espacio, también tomada por la sonda MESSENGER. Imagen cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington.

Esta atmósfera pudo empezar a condensarse sobre Mercurio durante las largas noches -hay que pensar que el día de Mercurio dura 176 días- provocando el depósito de los elementos volátiles sobre la superficie debido a las bajas temperaturas y que en algunos sitios serían cubiertos por nuevas coladas de lava o por la propia formación del regolito. Es importante reseñar que, aunque normalmente en nuestro planeta estemos acostumbrados a que la halita sea un mineral de origen sedimentario, los volcanes también pueden exhalar este mineral, y este sería el origen más probable de la halita presente en las VRLs de Mercurio.

Durante los periodos de condensación atmosférica, incluso es posible que sobre Mercurio existiesen lagos o mares poco profundos de agua en estado líquido o supercrítico, permitiendo que la sal formase estos depósitos, algo que puede resultarnos muy chocante si pensamos en la cercanía de Mercurio al Sol, pero que desde luego es una teoría interesante de cara a poder explicarnos lo que vemos.

Por último, los autores también remarcan el potencial astrobiológico de estas capas, ya que en nuestro planeta son capaces de crear zonas habitables incluso en los lugares más inhóspitos, debiendo de considerarse de interés este tipo de contextos geológicos e incluso estudiar su potencial de preservación de biomarcadores en nuestro Sistema Solar de cara a futuras misiones tanto en nuestro Sistema Solar.

Referencias:

Rodriguez, J. A., Domingue, D., Travis, B., Kargel, J. S., Abramov, O., Zarroca, M., Banks, M. E., Weirich, J., Lopez, A., Castle, N., Jianguo, Y., & Chuang, F. (2023). Mercury’s hidden past: Revealing a volatile-dominated layer through glacier-like features and chaotic terrains. The Planetary Science Journal, 4(11), 219. doi: 10.3847/psj/acf219

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Glaciares de sal en Mercurio se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

En busca del yo y otros fantasmas

dim, 2023/11/26 - 11:59

albedrío
Juan Ignacio Pérez Iglesias, lector

¿En qué consiste la consciencia? ¿Estamos predestinados a ser como somos y comportarnos como lo hacemos? ¿O tenemos capacidad real de incidir en nuestro destino? ¿Qué es el yo? ¿Qué soy?

Estas preguntas, formuladas de esta forma o de otras, se las han hecho los seres humanos al menos desde que hay constancia escrita de lo que llamamos filosofía. Últimamente, la neurociencia se ha sumado a las pesquisas y algunas de las ideas en boga proceden de ese campo.

El catedrático de filosofía (en la UNED) Jesús Zamora Bonilla ha abordado estas cuestiones en su En busca del yo, un libro que se ha editado en dos ocasiones, la segunda, con algunas adicciones a la original, por Shackleton Books (2022). Del autor había leído Contra apocalípticos: ecologismo, animalismo, poshumanismo, de la misma editorial, aunque más reciente (febrero de este mismo año).

albedrío

En busca del yo empieza tratando del dualismo, esa creencia en la existencia en la persona de dos entidades, una material, que está formada por órganos, huesos, músculos y demás. Ese es el cuerpo. La otra es la inmaterial o espiritual. El dualismo tiene su referencia intelectual histórica más conocida en Descartes, quien propusiera la existencia de la res cogitans y la res extensa. La primera, “la sustancia que conoce”, es la que nos caracteriza como seres humanos. Es la componente inmaterial a la que me he referido antes. La segunda, “la sustancia extensa”, es la material.

En el cristianismo, la religión en que me educaron, la entidad inmaterial es el alma. El dualismo, no obstante, no es patrimonio exclusivo de quienes profesan credos religiosos. Muchas personas que declaran no creer en una divinidad piensan que existe esa otra entidad, la inmaterial, que es la que gobierna nuestros actos y en la que, en definitiva, consiste el yo. Y son aún más las que, sin creer en su existencia, se expresan y actúan, de hecho, como si existiera.

No es extraño que así sea. Se hace muy difícil aceptar en la práctica que nuestra identidad se fundamenta en una miríada de corrientes eléctricas a uno y otro lado de las membranas neuronales y en el continuo trasiego de moléculas entre neuronas adyacentes. “¿Eso es todo?” Es la pregunta implícita en la negativa a aceptar que, como diría Steven Pinker (The Blank Slate, 2003), en la máquina (el cuerpo humano) no hay un fantasma (el alma o como quiera que lo queramos llamar).

¿No gozamos de libre albedrío?

Pensemos en lo que eso podría significar. Si no somos más que un conjunto más o menos bien ordenado de corrientes eléctricas, reacciones químicas y procesos físicos a media escala (movimientos musculares, circulación sanguínea, producción y eliminación de la orina, etc.), ¿no existimos como personas? ¿somos una mera máquina? ¿meros autómatas? ¿carecemos de voluntad real? ¿no gozamos de libre albedrío? ¿no somos, en el fondo, responsables de nuestros actos? Porque, ¿cómo vamos a ser responsables de algo acerca de lo que no tenemos verdadera capacidad de decisión?

Si la voluntad, la agencia consciente, la misma consciencia, el yo, no son más que ilusiones, ¿dónde queda la libertad? ¿dónde la responsabilidad? ¿dónde la culpa? Y por supuesto, ¿qué es el bien y el mal? En fin, podría seguir poniendo entre signos de interrogación muchas más nociones que son básicas para nosotros y sin las que –pensaríamos– no es fácil llevar una vida normal; no digamos ya una vida satisfactoria.

Zamora Bonilla no llega a plantearse en su libro todas esas cuestiones. Tras presentar el dualismo hace un recorrido por diferentes modelos o versiones de la mente o del yo, para llegar a los últimos capítulos en los que examina las ideas filosóficas que ha habido (o hay) acerca de la consciencia, el libre albedrío, la toma de decisiones y el yo. En ese recorrido, cuando es oportuno, también refiere los hallazgos neurobiológicos sobre esos temas.

Estos últimos capítulos son los que más me han interesado. Y en especial, lo que propone el autor acerca de la libertad de decisión. Resumiendo mucho, lo que viene a decir es que, estén nuestras decisiones más o menos determinadas, ello no exime de responsabilidad al sujeto que las toma porque en esa determinación también influye la conciencia (el juicio de los demás y el propio acerca de su moralidad) y las expectativas de recompensa o castigo.

Debo confesar que, aunque esta forma de ver el determinismo tiene indudable atractivo, no me acaba de convencer. Al fin y al cabo, la conciencia, en última instancia, no deja de ser un producto de la mente; esto es, un producto de un sistema biológico cuya naturaleza y funcionamiento nos remite a una secuencia previa de interacciones causales dentro del sistema o con el ambiente, sobre las que ningún yo ejerce, en realidad, el más mínimo control.

Concibo el yo como un actor en un escenario, que es la realidad en la que se desenvuelve y en el que ha de interpretar una función, que es su vida. En todo momento el actor ha de actuar “como si” lo que hace obedeciese a su voluntad y fuese fruto de su libertad. Como si las cosas fuesen como nos parecen que son, como las experimenta nuestra consciencia. Como si tuviéramos una mente (o alma) que está al cargo de nuestros actos y da cuenta de ellos. En mi concepción de la persona y de la realidad, el yo es una creación de la mente o, apurando un poco, de la máquina que es el encéfalo. Sería uno de tantos autoengaños mediante los que otorgamos –otorga la máquina– significado a la vida y propósito a nuestros actos. La máquina se engaña a sí misma porque no soporta su vacuidad esencial.

En cualquier caso, y al margen de mi opinión acerca de la tesis Zamora Bonilla, su libro me ha parecido muy interesante. Está, además, muy bien escrito. De Jesús no se puede decir que sea oscuro porque no puede ser profundo; todo lo contrario. A mí me ha servido para conceptualizar y ordenar muchas ideas e intuiciones que me cuesta formular de forma rigurosa. No coincido con el autor en la idea de que sin libre albedrío, seamos responsables de nuestras decisiones, con todo lo que ello comporta, pero su texto resulta muy útil para sistematizar ideas importantes. Y, por supuesto, es muy posible que él esté en lo cierto y servidor en el error.

Ficha:

Título: En busca del yo–El mito del sujeto y el libre albedrío

Autor: Jesús Zamora Bonilla

Editorial: Shackleton Books, 2022

 

En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.

Una versión de este texto apareció anteriormente en Lecturas y Conjeturas (Substack).

El artículo En busca del yo y otros fantasmas se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Variables facilitadoras del desarrollo de la comprensión lectora

sam, 2023/11/25 - 11:59

comprensión lectora

La jornada Las Pruebas de la Educación tuvo lugar con el objetivo de analizar la validez de las estrategias educativas puestas en marcha durante los últimos años. El enfoque STEAM o las clases virtuales fueron analizados desde la evidencia científica por un grupo de expertos y expertas que se reunió en la Facultad de Educación de Bilbao de la Universidad del País Vasco. La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la facultad de Educación de Bilbao, tuvo lugar el 27 de octubre pasado.

Esta sexta edición volvió a estar dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. Su objetivo ha sido reflexionar, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día. El seminario ha contado, una vez más, con la dirección académica de la vicedecana de Investigación y Transferencia de la Universidad Autónoma de Madrid, Marta Ferrero González.

En esta charla, Luis Ramos Soriano, licenciado en Psicología y doctor por la Universidad de Valencia, habla de los elementos que facilitan la comprensión lectora basándose en las evidencias científicas.

Edición realizada por César Tomé López

El artículo Variables facilitadoras del desarrollo de la comprensión lectora se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Posible estrategia terapéutica contra la esclerosis lateral amiotrófica

ven, 2023/11/24 - 11:59

La esclerosis lateral amiotrófica (ELA) es una enfermedad neurodegenerativa que afecta a las neuronas del cerebro y la médula espinal provocando la pérdida del control muscular. Un estudio liderado por la Universidad de Barcelona y el Centro de Física de Materiales (CFM, mixto CSIC-UPV/EHU) ha diseñado una potencial estrategia terapéutica para abordar esta patología que todavía no tiene cura. Se trata de una trampa molecular, que evita que uno de los compuestos peptídicos causantes de la ELA genética más común -el dipéptido polyGR- provoque sus efectos tóxicos en el organismo. Los resultados muestran que esta estrategia reduce la muerte de las neuronas de pacientes y en un modelo animal (moscas del vinagre) de la enfermedad.

esclerosis lateral amiotróficaLa figura ilustra 10 mecanismos propuestos para la esclerosis lateral amiotrófica y los genes asociados. Fuente: Philip Van Damme P, Robberecht W, Van Den Bosch L (2017) Modelling amyotrophic lateral sclerosis: progress and possibilities. Disease Models and Mechanisms. 10 (5): 537-549. doi: 10.1242/dmm.029058

Una de las causas genéticas más frecuentes de la ELA es la mutación en el gen C9orf72, ya que se encuentra en aproximadamente el 33% de las personas pacientes afectadas por la ELA familiar y el 5% de las afectadas por la ELA esporádica en España. En estos/as pacientes se generan unos dipéptidos con gran cantidad de cargas positivas que producen efectos altamente tóxicos en las neuronas motoras. En la primera parte del estudio, el equipo de investigación combinó técnicas computacionales y experimentales para mejorar la comprensión molecular de estos dipéptidos y cómo producen este proceso patológico.

Una unión tóxica para las neuronas

Los resultados mostraron que la toxicidad de estos compuestos se debe en parte a lo que se unen al ARN ribosomal (ARNr), una molécula que participa en el proceso de traducción de la información genética y la síntesis de proteínas en la célula. «Hemos visto que estos dipéptidos, especialmente los ricos en el aminoácido arginina (poli-glicina-arginina o polyGR), se unen a una región concreta del ARNr afectando a la biosíntesis de ribosomas (pequeñas estructuras que se encargan de sintetizar las proteínas de nuestro organismo) y la traducción de proteínas en neuronas motoras humanas, produciendo la muerte de éstas», explica el profesor Juan Alberto Ortega Cano. «Además – añade el investigador – esta interacción de los polyGR con el ARNr es mucho más fuerte que la interacción del polyGR con otras proteínas ribosomales que se habían descrito previamente en otros estudios, y explica por qué estos dipéptidos tienen gran afinidad en unirse a los ribosomas de las células».

Ante estos resultados, el equipo de investigación diseñó una innovadora estrategia para engañar a los dipéptidos polyGR y reducir su toxicidad. Crearon una trampa, una molécula que imitaba la secuencia específica del ARNr con la que se unen los polyGr durante el proceso patológico, con el objetivo de evitar así los efectos neurotóxicos de esta unión. La aplicación de esta estrategia en neuronas derivadas de tejido de pacientes in vitro y en modelos de la enfermedad (moscas del vinagre) in vivo muestran que «reduce los defectos en la biosíntesis de ribosomas en la traducción de proteínas y la toxicidad en cielo que expresan polyGR, así como la muerte en motoneuronas de pacientes de ELA con mutaciones en el gen C9orf72», detalla el investigador.

Aunque todavía queda mucha investigación por validar y comprender completamente el funcionamiento de esta innovadora estrategia, los/las autores/as señalan en el artículo que estos prometedores resultados refuerzan la idea de que el uso de trampas de ARN es útil «no sólo para estudiar las interacciones ARN-proteína, sino también para proteger a las neuronas de los efectos perjudiciales de proteínas anómalas que se generan en otras enfermedades neurodegenerativas».

Referencia:

Ortega, J.; Sasselli, I.; Boccitto, M.; Fleming, A.; Fortuna, T.; Li, Y.; Sato, K.; Clemons, T.; Daley, E.; Nguyễn, T.; Anderson, E.; Ichida, J.; Pandey, U.; Wolin, S.; Stupp, S.; Kiskinis, E. (2023) CLIP-Seq analysis enables the design of protective ribosomal RNA bait oligonucleotides against C9ORF72 ALS/FTD poly-GR pathophysiology Science Advances doi: 10.1126/sciadv.adf7997

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Posible estrategia terapéutica contra la esclerosis lateral amiotrófica se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Historias volcánicas de Islandia

jeu, 2023/11/23 - 11:59
IslandiaFoto: Jelle de Gier / Unsplash

Desde hace varios días, toda la comunidad geológica y varios medios de comunicación estamos pendientes de una posible erupción volcánica en Islandia. Aunque, en realidad, esto no sería una noticia novedosa, ya que en esta isla se están produciendo erupciones continuamente. Lo que nos tiene un poco en vilo es el tipo de vulcanismo que se podría generar en esta ocasión y, sobre todo, sus consecuencias. Y, para entenderlo, quiero que hagamos un pequeño viaje en el tiempo.

Mapa esquemático de Islandia en el que se muestra la disposición del límite de las placas tectónicas Norteamericana y Europea, señalando con flechas sus movimientos relativos, y algunos de los volcanes más importantes de la isla. Imagen elaborada por el Servicio Geológico de los Estados Unidos (USGS), tomada de Wunderman, R., Fela, J., Herrick, J. y Kuhn Sennert, S. (eds.) (2011) Bulletin of the Global Volcanism Network, 36 (4), Smithsonian National Museum of Natural History.

Pero antes quiero contextualizar un poco la situación. Islandia tiene una geología bastante particular que produce que sea una zona volcánicamente activa desde hace millones de años. Esta isla está situada en el límite de dos placas tectónicas, la Placa Norteamericana y la Placa Europea, que se están separando la una de la otra generando una fractura en la corteza terrestre que, en geología, denominados dorsal. En las dorsales la corteza está muy adelgazada, lo que permite el ascenso de material fundido, es decir, magma del manto que acaba saliendo al exterior a través de múltiples volcanes. Este vulcanismo generalmente se produce en los fondos oceánicos y es el motor que provoca el movimiento de separación de ambas placas tectónicas, fruto de la formación de nuevo fondo marino que “empuja” al más antiguo hacia las zonas continentales, donde es arrastrado por los movimientos de subducción de la placa tectónica con corteza oceánica por debajo de la placa tectónica con corteza continental. Pues la dorsal Atlántica atraviesa Islandia desde el suroeste hacia el noreste de la isla, con un ligero giro en su parte central.

Esquema de una erupción de tipo fisural. Imagen modificada de Encyclopaedia Britannica (2006)

 

En este contexto geológico, se producen un tipo de volcanes conocidos como fisurales. De manera resumida, consisten en la apertura de una fractura del terreno debido al ascenso de un cuerpo tabular de lava, denominado dique, que provoca erupciones a lo largo de varios puntos de la fractura. Son erupciones tranquilas, con lava de composición básica muy fluida que se desparrama rápidamente por el territorio circundante y con poca emisión de gases o fragmentos de rocas volcánicas a la atmósfera. Este tipo de erupción sólo tiene efectos negativos en las áreas circundantes a donde sucede, así que no resulta demasiado peligrosa.

Esquema simplificado del funcionamiento de un punto caliente o “hot spot” de acuerdo al modelo clásico de formación de las islas Hawái: existe una pluma mantélica o zona fija de ascenso de magma que se acumula por debajo de la placa tectónica, en este caso la Placa Pacífica, que, en momentos puntuales, provoca una erupción volcánica. Al moverse la placa por encima del punto caliente fijo, se van formando una serie de volcanes cada vez más antiguos según nos alejamos de dicho punto caliente. Imagen modificada a partir de un esquema original de Joel E. Robinson (USGS) / Wikimedia Commons

Sin embargo, como he dicho antes, Islandia tiene una geología particular. Y es que también se encuentra situada encima de un punto caliente. Un “hot spot” o punto caliente es una zona fija en la que se acumula magma en el manto que, de vez en cuando, asciende hacia la superficie hasta provocar una erupción volcánica. Si este magma tiene composición ácida y cierta cantidad de gases, la erupción será explosiva, más violenta cuantos más gases incluya, liberándolos a la atmósfera junto con fragmentos de rocas volcánicas. Y este tipo de erupción sí que es peligrosa y puede llegar a afectar a zonas muy alejadas de la misma.

La incertidumbre sobre el tipo de erupción ante la que nos podemos encontrar en esta ocasión es la que nos tiene en alerta, ya que ha habido erupciones explosivas en Islandia a lo largo de la historia que la han liado parda. Para sustentarlo, os voy a poner un par de ejemplos.

En el año 536 entró en erupción un volcán islandés de nombre desconocido. Fue una erupción muy explosiva que descargó toneladas de gases, polvo y ceniza que llegaron a cubrir la atmósfera de todo el hemisferio norte durante, al menos, año y medio, impidiendo la entrada de los rayos solares a la superficie terrestre, lo que produjo una bajada de la temperatura promedio de hasta 2 °C durante varios años. Por si fuera poco, en el año 539 o 540, el volcán Ilopango también erupcionó de manera muy explosiva, liberando más gases y ceniza a la atmósfera y disminuyendo otros 2 °C más las temperaturas en este hemisferio. De hecho, hasta el 545 las temperaturas promedio en Europa fueron las más bajas de los últimos 2000 años. Incluso, se está estudiando si entre 547 y 549 se pudo producir una tercera erupción, de nuevo en Islandia, que mantuvo las bajas temperaturas hasta mediados del siglo VI. Ese descenso de la temperatura provocó la pérdida de cosechas, que condujeron a hambrunas, enfermedades, muertes, migraciones de la población e, incluso, guerras que fueron los detonantes del declive y desaparición de grandes imperios por todo el mundo. En Europa, favoreció una gran plaga de peste bubónica, la denominada plaga de Justiniano, que mató a millones de personas, además de fomentar la migración de pueblos mongoles que vieron desaparecer la vegetación de las estepas. Ambos procesos provocaron la caída del Imperio Bizantino. En Asia, el Imperio Persa consiguió derrotar y ocupar los territorios del Imperio Neobabilónico, ya en caída debido a la pérdida de las cosechas. Y el empuje migratorio de los pueblos hunos acabó con el Imperio Gupta en la India. Incluso en América sufrieron las consecuencias de la bajada de las temperaturas debido al cambio en los regímenes climáticos y oceanográficos, que dieron lugar a la dispersión y guerras entre los pueblos, el aumento de los sacrificios humanos y el abandono de grandes ciudades que significaron el declive del Imperio Moche y golpeó muy duramente al Imperio Maya. Así comenzó la conocida como Época Oscura de la Edad Media.

Esquema simplificado de la distribución de la nube de polvo, cenizas y gases volcánicos emitida a comienzos de la erupción del Laki (mediados de 1783) y su colapso directo sobre Europa continental. Imagen tomada de Thordarson, T. y Self, S. (2003) Atmospheric and environmental effects of the 1783–1784 Laki eruption: A review and reassessment. Journal of Geophysical Research, 108 (D1), 4011.

Para el segundo ejemplo utilizaré la erupción del volcán Laki. Duró unos 8 meses, entre junio de 1783 y febrero de 1784 y se trató de un volcán fisural con pulsos eruptivos en los que se alternaban fases muy explosivas con fases más tranquilas. Durante los momentos explosivos, llegó a emitir toneladas de polvo, cenizas y gases volcánicos a la atmosfera, sobre todo óxidos de azufre. Esto provocó una enorme nube de ácido sulfúrico gaseoso que se expandió por toda Europa, provocando numerosos episodios de lluvia ácida y la generación de una niebla tóxica de azufre que cubrió el continente durante meses. Pero la zona más afectada por los efectos de esos gases tóxicos fue Francia. Aquí se produjo la pérdida de cosechas, la muerte del ganado y enfermedades respiratorias entre la población, sumada a una hambruna generalizada y muchas muertes entre la gente más humilde, situación que se alargó varios años. Esto llevó a la gente a pedir ayuda a las élites dominantes del país, que no se lo tomaron demasiado en serio, lo que provocó un descontento social, ciertas revueltas y, a la postre, un levantamiento del pueblo contra los gobernantes. Así comenzó la Revolución francesa, que terminó con la monarquía e instauró la república.

Como hemos visto, aunque parezca increíble, una simple erupción volcánica es capaz de alterar el delicado equilibrio entre atmósfera, hidrosfera, geosfera y biosfera durante varios años, llegando a provocar grandes cambios en poderosas civilizaciones y regímenes sociales. No quiero decir que la posible erupción actual vaya a generar todos estos procesos, pero no podemos dejar de mantener la guardia ante cualquier evento natural que podría llegar a desestabilizarnos. Espero que, si se produce una nueva erupción en Islandia, como mucho tengamos que suspender los vuelos por el norte de Europa durante unos cuantos días.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Historias volcánicas de Islandia se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Un juego de dados no transitivo

mer, 2023/11/22 - 11:59

Tenemos tres dados de seis caras cada uno de ellos y con sus caras completamente blancas. Disponemos también de dieciocho pegatinas (para pegar en las dieciocho caras que suman esos tres dados) en las que aparecen los números 1, 2, 3, 4, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17 y 18.

dadosFuente: Wikimedia Commons.

 

Antonio y Beatriz deciden jugar con esos tres dados del siguiente modo:

  1. Antonio coloca (como él decida) las 18 pegatinas en cada uno de los lados de los tres dados (una pegatina por lado),
  2. Beatriz elige uno de los tres dados (decide cual prefiere mirando la numeración de cada dado),
  3. Antonio escoge uno entre los dos dados restantes, y
  4. Antonio y Beatriz lanzan su dado.

Gana el juego quien obtiene el número más grande en la tirada.

Imaginemos, por ejemplo, que Antonio rellena un dado con las pegatinas 1, 2, 3, 4, 5 y 6, otro con las pegatinas 7, 8, 9, 10, 11 y 12 y el tercero con las pegatinas 13, 14, 15, 16, 17 y 18. Beatriz estará entonces segura de que va a ganar. ¿Por qué? Basta con que elija el tercer dado (cuyos lados contienen los números más grandes). Da lo mismo que dado seleccione Antonio después, porque obviamente la tirada de Beatriz ganará a la suya. Este ejemplo parece sugerir que elegir en primer lugar es una ventaja para Beatriz, es decir, que la probabilidad de que Beatriz gane es siempre mayor que ½.

Una estrategia ganadora para Antonio

Pero la anterior afirmación no es cierta. Antonio puede colocar las pegatinas de manera que, independientemente del dado que elija Beatriz, él tenga ventaja sobre ella, es decir, él tenga una probabilidad de ganar mayor que ½.

En el artículo de la referencia, Jean-Paul Delahaye sugiere una manera de actuar para que Antonio tenga más probabilidades que Beatriz de ganar.

Esta estrategia (ganadora) precisa que Antonio coloque las pegatinas del siguiente modo:

  1. en el dado 1 coloca los números 18, 10, 9, 8, 7 y 5,
  2. en el dado 2 pega los números 17, 16, 15, 4, 3 y 2,
  3. y en el dado 3 coloca las pegatinas restantes con los números 14, 13, 12, 11, 6 y 1.

La tabla de debajo muestra que se da una sorprendente situación cíclica al enfrentar los dados por parejas:

  1. el dado 1 gana en 21 tiradas (de las 36 posibles) al dado 2,
  2. el dado 2 gana en 21 tiradas (de las 36 posibles) al dado 3, y
  3. el dado 3 gana en 21 tiradas (de las 36 posibles) al dado 1.
dadosFuente: Marta Macho Stadler.

 

Este fenómeno “paradójico” se debe a la falta de transitividad de este juego. La falta de transitividad alude al hecho de que A gane a B y que B gane a C no implica que A gane a C.

Con esta elección en la numeración de los tres dados, Antonio tendrá siempre mayor probabilidad de ganar que Beatriz. Es suficiente con que siga la siguiente estrategia:

  1. si Beatriz elige el dado 1, Antonio deberá escoger el 3,
  2. si Beatriz elige el dado 2, Antonio optará por seleccionar el 1, y
  3. si Beatriz elige el dado 3, Antonio se quedará con el 2.

De este modo, según lo dicho anteriormente, Antonio tiene siempre una probabilidad de ganar de 21/36; es decir, tiene una probabilidad de ganar en el 58,3 % de los casos.

Bonus

Jean-Paul Delahaye comenta en su artículo otra situación paradójica. Si los tres dados se lanzan simultáneamente, sabemos que hay 216 resultados posibles y equiprobables. Se puede ver que el dado 2 tiene una probabilidad de ganar mayor que los otros dos. Efectivamente, ese dado gana en 90 de los 216 casos posibles, el dado 1 en 63 de los 216 y el dado 3 también en 63 de las 216 posibles tiradas. La equivalencia de los tres dados al enfrentarse dos a dos desaparece cuando se lanzan los tres al mismo tiempo. ¡Una de tantas sorpresas que nos proporcionan las probabilidades!

Nota

Otras situaciones de falta de transitividad se dan, por ejemplo, en el juego de piedra, papel o tijeras, en el juego de Penney o en la situación de ausencia de ganador en la paradoja del voto de Condorcet, por citar algunas.

Referencia

Jean-Paul Delahaye, Le dé le plus fort, Accromath 18, été-automne 2023

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Un juego de dados no transitivo se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Durante el embarazo una ‘infección’ falsa protege al feto

mar, 2023/11/21 - 11:59

Las células de la placenta tienen un truco inusual para activar defensas inmunes suaves y mantenerlas activas cuando no hay una infección presente. Implica crear e implementar un virus falso.

Un artículo de Annie Melchor. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

placentaKristina Armitage / Quanta Magazine

Cuando eras niño parecía un plan ingenioso: echarte agua caliente en la cara y entrar tambaleándote en la cocina dejando escapar un gemido que podría hacer llorar a los ángeles. Un toque en tu frente enrojecida convencería a tus padres de que te diagnosticaran fiebre y te dejaran en casa sin ir al colegio.

No importa lo elaboradamente planificada y ejecutada que estuviese, este teatro probablemente no era tan persuasivo como se esperaba. Pero una nueva investigación, publicada este verano en Cell Host & Microbe, sugiere que mucho antes del nacimiento, una táctica similar ayuda a los humanos en desarrollo y a otros mamíferos a ofrecer un espectáculo más convincente.

El estudio mostró cómo la placenta, el órgano embrionario que conecta a la descendencia y a la madre, utiliza un truco molecular para simular una enfermedad. Al fingir que está bajo un ataque viral, mantiene el sistema inmunológico funcionando a un ritmo suave y constante para proteger al feto que encierra de los virus que escapan de las defensas inmunitarias de la madre.

El descubrimiento sugiere que, antes de que exista una infección, algunas células podrían activar una respuesta inmune sutil que puede proporcionar una protección moderada en tejidos delicados.

La idea de que las células activen las defensas inmunitarias de forma preventiva «viola en gran medida una de las ideas que tienen los inmunólogos», comenta Jonathan Kagan, inmunobiólogo del Boston Children’s Hospital y de la Facultad de Medicina de Harvard, que no ha participado en el nuevo estudio.

Debido a que las armas inmunes antivirales pueden destruir tejidos, las células normalmente las activan solo cuando hay una amenaza activa como una infección, explica Kagan. Luego, una vez que la infección desaparece, esas armas se desactivan lo más rápido posible.

Pero la placenta rompe estas reglas según la nueva investigación. De alguna manera activa las defensas antes de que sean necesarias y luego las deja activadas sin dañarse a sí misma o al feto.

«Protege pero no daña», afirma Hana Totary-Jain, profesora asociada de farmacología molecular en la Universidad del Sur de Florida en Tampa y autora principal del nuevo artículo. «La evolución es muy inteligente».

La placenta finge estar enferma

Totary-Jain descubrió el truco de la placenta por accidente. Ella y su laboratorio estaban investigando un megagrupo de genes (“un monstruo”, dice) que se expresa en la placenta. Le sorprendió ver que, además de activar genes que guían el desarrollo placentario, el megagrupo había activado el gen del interferón lambda, una proteína de señalización inmunitaria. ¿Por qué estaba activo en células sanas y no infectadas?

Totary-Jain y su equipo tardaron años en encontrar una respuesta: las células placentarias habían creado una imitación de virus, utilizando ARN extraído de sus propios genomas, para engañar a sus sensores inmunológicos.

Nuestros genomas son museos moleculares de la historia evolutiva. Desde el comienzo de la vida en la Tierra los virus han insertado porciones de su material genético en el ADN de sus huéspedes. Escondidos entre genes que codifican proteínas se encuentran reliquias genómicas de antiguas invasiones microbianas.

placentaHana Totary-Jain, profesora asistente de farmacología molecular en la Universidad del Sur de Florida en Tampa, ha descubierto que las células de la placenta utilizan un virus falso para activar furtivamente las respuestas inmunes. Fuente: USF Health Morsani College of Medicine

Uno de los elementos virales más comunes que persisten en los genomas humanos es un trozo de ADN llamado secuencia Alu. Las secuencias Alu constituyen al menos el 13% del genoma humano; había más de 300 copias en el megagrupo de Totary-Jain. Sospechaba que esas secuencias Alu estaban activando el sistema inmunológico de la placenta. Pero sus colegas le advirtieron que no siguiera ese camino.

«El consejo que me dieron fue: ‘No toques las Alu, no trabajes con las Alu, olvídate de las Alu'», cuenta Totary-Jain. La multitud de Alu en el genoma hace que sea difícil desentrañar lo que puede estar haciendo un conjunto específico.

Pero los datos que implicaban a las secuencias Alu eran demasiado convincentes para ignorarlos. Después de años de cuidadosos experimentos, el equipo de Totary-Jain demostró que en la placenta las transcripciones de secuencias Alu forman fragmentos de ARN bicatenario, una estructura molecular que nuestras células reconocen como de origen viral. Al detectar el virus falso la célula responde produciendo interferón lambda.

«La célula se está disfrazando efectivamente de agente infeccioso», explica Kagan. «El resultado es que se convence a sí misma de que está infectada y luego actúa como tal».

Inmunidad a fuego lento

Las respuestas inmunes pueden ser destructivas, y especialmente las respuestas antivirales. Debido a que los virus son más peligrosos cuando ya están dentro de una célula, la mayoría de las estrategias inmunes que atacan a las infecciones virales funcionan en parte dañando y matando las células infectadas.

Por eso las células gritan “¡Virus!” bajo su propia responsabilidad. En la mayoría de los tejidos, las secuencias Alu están altamente suprimidas, por lo que nunca tienen la oportunidad de imitar un ataque viral. Y, sin embargo, ese es el escenario exacto que la placenta parece crear a propósito. ¿Cómo equilibra la salud del embrión en crecimiento con una respuesta inmune potencialmente peligrosa?

En experimentos con ratones, el equipo de Totary-Jain ha descubierto que los ARN bicatenarios de la placenta y la consiguiente respuesta inmune no parecen dañar a los embriones en desarrollo. En cambio parecen proteger a los embriones de la infección por el virus Zika. Las células placentarias pudieron hacer lo que se espera de ellas (dar protección a los embriones sin provocar una respuesta inmune autodestructiva) porque recurrieron a las defensas más suaves del interferón lambda.

Normalmente, los primeros en responder a los escapes de ARN Alu bicatenario habrían sido los interferones tipo I y tipo II, que reclutan rápidamente células inmunitarias destructivas en el sitio de una infección, lo que provoca daño tisular e incluso enfermedades autoinmunes. El interferón lambda, por otro lado, es un interferón de tipo III. Actúa localmente comunicándose sólo con las células dentro del tejido, generando una respuesta inmune más leve, que puede mantenerse a largo plazo en la placenta.

Sigue siendo un misterio cómo las células placentarias logran activar sólo el interferón lambda, manteniendo la respuesta inmune a fuego lento pero sin que hierva hasta desbordarse. Pero Totary-Jain tiene una idea de por qué las células placentarias desarrollaron este truco que otras células parecen evitar: dado que la placenta se descarta al nacer, tal vez pueda permitirse el lujo de asumir riesgos inmunológicos que otros tejidos no pueden.

Los hallazgos revelan una nueva estrategia que tiene la placenta para proteger al feto, adicional al sistema inmunológico de la madre. Dado que la respuesta inmune de la madre se debilita durante el embarazo para prevenir ataques a las células embrionarias genéticamente distintas, la placenta ha tenido que desarrollar defensas adicionales para el bebé en crecimiento al que sustenta.

Sin embargo, este truco (una respuesta inmune de bajo nivel generada por un virus falso) puede no limitarse a la placenta. Investigadores de la Universidad de Columbia han descrito recientemente un fenómeno similar en las neuronas. Observaron ARN de diferentes elementos genómicos unidos en dobles hebras para producir una respuesta inmune. En este caso, el sistema inmunológico llamó a un interferón tipo I más destructivo, pero se produjo a niveles bajos. Los autores supusieron que la inflamación crónica de bajo nivel en el encéfalo puede mantener las infecciones bajo control, previniendo una inflamación importante y la muerte neuronal.

Es posible, entonces, que este tipo de engaño inmunológico sea más común de lo que se pensaba. Al estudiar cómo el sistema inmunológico parece romper sus propias reglas, los científicos pueden definir mejor en primer lugar cuáles son las reglas.

 

El artículo original, During Pregnancy, a Fake ‘Infection’ Protects the Fetus, se publicó el 14 de noviembre de 2023 en Quanta Magazine.

Traducido por César Tomé López

El artículo Durante el embarazo una ‘infección’ falsa protege al feto se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Signo patognomónico: el «blanco y en botella» de la medicina

lun, 2023/11/20 - 11:59

patognomónico
Cada vez que un paciente acude a la consulta del médico se da un complejo proceso diagnóstico que se inicia con la entrevista clínica y puede incorporar exploraciones físicas y pruebas complementarias (análisis de sangre, radiografías, endoscopias, electrocardiogramas…). Tras estos pasos, en la mayoría de los casos el galeno podrá identificar sin problemas la dolencia y pautar el correspondiente tratamiento. Sin embargo, en muchas ocasiones no hay una certeza al 100 %. La medicina dista de ser una ciencia exacta, pues diagnosticar a un enfermo casi siempre cuenta con un grado variable de incertidumbre. Por esta y otras razones, legalmente, no se le pueden exigir resultados a los médicos (salvo en medicina estética), pero sí que actúen según los conocimientos científicos más actuales y apliquen las mejores prácticas.

El signo de Trousseau es uno de los signos de tetania observado en situaciones de hipocalcemia. Fuente: Wikimedia Commons

Como da a entender el conocido aforismo médico «No hay enfermedades, sino enfermos», las dolencias pueden manifestarse de maneras extremadamente variables en cada persona, lo que supone una dificultad de peso en el diagnóstico. Hay diversas afecciones que suelen ser de muy fáciles de identificar por su forma característica de presentarse como, por ejemplo, la diabetes tipo 1. Otras, en cambio, pueden resultar todo un desafío, incluso para los especialistas más veteranos porque los signos y síntomas que se presentan son muy atípicos o poco claros. Si, además, la enfermedad es rara o sin una causa conocida, llegar a un diagnóstico acertado puede resultar un proceso extremadamente complicado y lento.

Por suerte, también hay ciertas manifestaciones clínicas en diversas dolencias que son una enorme ayuda para el médico en el diagnóstico, son los denominados «signos patognomónicos». Cuando un signo patognomónico está presente, no hay lugar para la duda: con un 100 % de probabilidades ese signo identifica una enfermedad concreta, y no otra. Si todas las enfermedades contaran con algún signo patognomónico que apareciera siempre y de forma temprana, diagnosticar sería un juego de niños. Desafortunadamente, son raros los signos verdaderamente patognomónicos y no suelen estar presentes en todos los pacientes aquejados por una enfermedad.

Un signo patognomónico muy visual es el eritema migratorio: una erupción cutánea circular con forma de diana que aparece días o semanas después de la picadura de una garrapata infectada por bacterias del género Borrelia. Su presencia indica una enfermedad de Lyme en fase precoz y justifica acudir rápidamente a urgencias para un tratamiento antibiótico temprano. Entre el 70 y el 80 % de las personas infectadas muestran este particular signo, que se va agrandando 2-3 centímetros en la piel conforme pasan los días (de ahí lo de «migratorio»).

Eritema migratorio. Fuente: Wikimedia Commons

Otro signo patognomónico, muy típico, son las manchas de Koplik, que confirman al 100 % un sarampión. Se trata de pequeñas manchas blanquecinas, con forma de granos de arena, sobre un fondo rojo brillante que aparecen en la mucosa oral en las etapas iniciales de esta enfermedad infecciosa. Suelen aparecer 2 o 3 días antes de que se presenten las típicas lesiones cutáneas del sarampión. Antes de que la vacunación generalizada disminuyera drásticamente los casos de enfermedad infecciosa, estas lesiones eran muy útiles para aislar a los individuos afectados de los demás, en una fase temprana. No obstante: estas manchas de Koplik tienen dos grandes desventajas: solo se detectan en el 50 y el 70 % de las personas que sufren sarampión y suelen desaparecer a las 24 horas de su aparición, por lo que es muy fácil que pasen desapercibidas.

Manchas de Koplik. Fuente: Wikimedia Commons

Uno de los signos patognomónicos que más destacan por ser especialmente llamativo es el miedo al agua (hidrofobia) que padecen algunas personas afectadas por la rabia en una fase avanzada. Estos pacientes llegan a sentir verdadero pánico cuando se les da un vaso con cualquier líquido para beber. ¿La razón? El virus de la rabia ataca al sistema nervioso y provoca violentos espasmos de la laringe y la garganta. Estos espasmos pueden desencadenarse también cuando la persona infectada intenta beber algo, lo que le impide tragar cualquier gota de líquido, aunque esté extremadamente sedienta.

El paciente pronto se da cuenta de que tan solo acercarse a un vaso con agua o cualquier otro liquido puede generarle el reflejo de tragar y, con ello, empezar a sufrir espasmos intensos, lo que termina por generarle un gran pánico. Se trata de un mecanismo ideal para la transmisión del virus de la rabia: dado que la persona apenas puede tragar líquidos e incluso su propia saliva, el virus puede acumularse en las glándulas salivares, y así se aumentan las probabilidades para transmitirse si el paciente mordiera a alguien (algo que se ha documentado muy pocas veces, por suerte) .

https://upload.wikimedia.org/wikipedia/commons/c/cc/Hydrophobia_in_rabies.webm

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo Signo patognomónico: el «blanco y en botella» de la medicina se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Música para mis ojos, el clavecín ocular de Castel

dim, 2023/11/19 - 11:59

castel

Estos tres colores, el rojo, el azul y el violeta, me dieron el punto de apoyo, los otros fueron dispuestos en el sistema de asociaciones de colores de espectro y el círculo de tonalidades”. A. Scriabin

Cuando Louis ingresó en la escuela jesuita Saint Stanislas en Toulouse, corría el año 1703, tan solo tenía 15 años y la idea de estudiar literatura. Louis solo era un joven más de los que ingresaban en esas escuelas a instancias de sus progenitores, que al finalizar sus estudios empezó a impartir clases en diferentes escuelas del sur de Francia. Sin embargo, Louis empezó a desarrollar mucho interés por las matemáticas y la filosofía natural, es decir, lo que se podría entender como la precursora de lo que hoy se conoce como ciencias naturales y física. Esto, aderezado con cierta extravagancia e ideas osadas, lo llevó años más tarde a un periplo por las amistades y enemistades de los científicos más destacados de su época. Tan solo le bastó una idea que no pasó del cuaderno de dibujo y algunos modelos experimentales para forjar su fama, directamente proporcional a su fracaso.

Este joven inquieto intelectual era Louis Bertrand Castel, matemático y físico jesuita francés que durante un tiempo supo ser el centro de atención gracias a su intento de sistematizar el emparejamiento de dos vías sensoriales, el oído y la vista, a través de la música, una especie de sinestesia inducida mediante un instrumento que bautizó con el nombre de clavecín ocular. La primera descripción de un caso de sinestesia se realizó 55 años después de la muerte de Castel, aunque no hay que olvidar que la sinestesia es involuntaria, una activación de una vía sensorial o cognitiva adicional, cuando, por ejemplo, al escuchar música algunas personas “ven” colores. Nada sabía Castel de este fenómeno involuntario, lo cual no le impidió tratar de etiquetar los sonidos con un color concreto sirviéndose para ello de la física newtoniana. Esta especie de sinestesia inducida y unívoca que pretendía demostrar mediante un instrumento musical revolucionario resultó en el distanciamiento de varios colegas de la Academia de las Ciencias de Francia, aunque eso no le impidiera moverse en la alta sociedad del París de la época y conseguir financiación para su proyecto.

CastelChromasoul por la artista argentina María Inés Aguirre (Mia), sobre la base de un gran piano de concierto Steinway Model D. Fuente: World Piano News

El anuncio del invento de Castel se realizó en la revista “Mercure de France”, una de las revistas culturales más importantes de Francia, aunque él era editor científico de otra revista titulada “Mémories de Trevoux”. En 1725, año de la publicación del primer artículo sobre el clavecín, Louis no era un hombre desconocido ni discreto. Tanto el escritor y filósofo Bernard Le Bouyer de Fontenelle como el también filósofo René-Joseph de Tournemine (profesor y amigo de Voltaire) parecen estar involucrados en el hecho de que Castel consiguiera ser profesor en el Collège Louis-le-Grand de París. Allí enseñó varias materias, como matemáticas, mecánica, relojería, pirotecnia o arquitectura civil y militar. Gracias a que fue profesor del hijo de Montesquieu, éste influyó para que fuera admitido en la Royal Society (la sociedad científica más antigua del Reino Unido).

Quizá esta ayuda para llegar a París proviniera del hecho de que Castel no era amigo de la cada vez más asentada filosofía newtoniana. No en vano, Castel pensaba que Isaac Newton era un brillante matemático y que eso era lo que lo convertía en un mal físico1. Esta “alegre” afirmación dejaba claro que Louis no huía de las polémicas que siempre han rondado a la ciencia desde sus inicios. Tampoco era una opinión basada en una animadversión infundada, ya que había estudiado a fondo los “Principia” de Newton. En 1724 Castel publicaba su “Tratado de física sobre la gravedad universal de los cuerpos” donde daba cuenta de un estilo exuberante de escritura y de sus ideas con ciertas connotaciones religiosas. Toda esta polémica con un ya anciano Newton no le impidió usar su libro “Óptica: o un tratado de las reflexiones, refracciones, inflexiones y colores de la luz” para avalar su invento que apareció en forma de carta, titulada “Clavecín para los ojos, con el arte de pintar los sonidos y todo tipo de piezas de música”.

Música de colores

La idea de Castel no era otra que dar origen a una nueva forma de arte mediante analogías entre los fenómenos del sonido y la luz. Las teorías sobre la luz de Newton no fueron mencionadas en un primer momento, aludiendo, como buen jesuita, a Athanasius Kircher como su verdadero maestro. Realizó una serie de analogías “libres” entre el sonido y los colores apoyadas en los escritos de Kircher para fundamentar su hipótesis. Posteriormente también nombró a Newton y su libro para hablar de los siete colores del espectro. Siete, como las notas musicales, algo nada casual en la mente de Castel. Además, hubo otra coincidencia para que la mente de Louis volara precipitadamente hacia una escala-color. Las medidas que hizo Newton del espacio que cada color ocupaba en el espectro, sus anchos relativos, se ajustaban perfectamente a las diferencias en la longitud de una cuerda cuando emitía las sucesivas notas de la escala diatónica mayor (Do, Re, Mi, Fa…). Esto no podía ser casualidad, tenía que ser el resultado de un orden superior, una demostración más de la perfección del universo que casaba perfectamente con la religiosidad de Castel.

Supuso que tanto la luz como el sonido eran fenómenos vibratorios, apoyado en afirmaciones que aparecían en los textos de Kircher que “sorprendentemente” venían a confirmar sus hipótesis: “Si, cuando un instrumento musical suena, alguien percibiera los más finos movimientos del aire, ciertamente no vería más que una pintura con una extraordinaria variedad de colores”2. Nada importaron las reticencias de Newton a esta analogía. Tampoco importó que la analogía entre sonido y color tuviera importantes grietas, ya que el color es algo permanente y el sonido efímero, ni que los colores no se mezclaran en un todo en el arte pictórico como sí hacían los sonidos en la armonía. La solución estaba clara para este matemático excéntrico, si no era posible en el s. XVIII hacer que el sonido fuera permanente, tenía que ser posible que los colores aparecieran y desaparecieran al igual que los diferentes sonidos. La idea era que los sonidos provocaran la visión simultánea de su color análogo modificando el mecanismo de un clavecín de la época, capaz de proyectar y aunar el color y el sonido en un arte nuevo, la música de color. El cambio de impresiones de los diferentes colores en el tiempo, al igual que el cambio de los sonidos, provocaría una sensación mucho más placentera que la música ordinaria o la contemplación de un cuadro.
Para Castel, la combinación de la física de la luz y la del sonido darían como resultado un nuevo tipo de arte. La idea de que la suma de diferentes preceptos científicos haría avanzar al arte, es algo que ha sucedido en diversos momentos de nuestra historia, sin embargo, en este caso, el intento de buscar una conexión, un orden superior, estuvo basado en conjeturas y en una motivación que en la ciencia ha estado presente en ocasiones: la belleza. Más allá de las coincidencias, la hipótesis de Castel tenía que ser cierta porque era bella. La belleza como criterio de verdad se ha dado en algunos momentos en el mundo de la ciencia, con diferentes consecuencias.

Para demostrar esta hipótesis y crear un nuevo arte, Louis necesitaba fabricar el medio para conseguirlo. Había nacido, de momento de manera teórica, un nuevo instrumento.

El clavecín ocular

Antes de que el fortepiano y el piano posterior desbancaran al clavecín, éste gozaba de una gran popularidad. Era el instrumento de teclado por excelencia, en la Francia de Castel, al igual que en Alemania, tenía gran prestigio y difusión. Era la época dorada de François Couperin y Jean-Philippe Rameau y el mismo instrumento donde J. S. Bach compondría su Clave bien temperado o sus célebres Variaciones Goldberg. Posiblemente, la gran fama del clavecín hizo que Castel pensara en este instrumento para la demostración de sus teorías y, por consiguiente, la creación de un nuevo arte. Sin embargo, la construcción de un clavecín modificado para que proyectara colores y se mezclaran no parecía ser, en un primer momento, la principal preocupación del matemático, ya que en sus propias palabras “no es como artesano sino como filósofo que me propongo demostrarles este nuevo arte” y mucho tiempo después comentaría, más para justificarse que como confesión, “Era solo una idea, y no tenía intención de llevarla a cabo”3. A pesar de estas afirmaciones, el clavecín se intentó construir, dando lugar a algunos prototipos (gracias a varias inyecciones de dinero), pero para eso había que afinar la teoría, con algunas ideas de Newton y otras de cosecha propia.

Newton había distinguido siete colores en el espectro: rojo, naranja, amarillo, verde, azul, añil y violeta. Castel optó por el violeta como tono fundamental para construir su escala diatónica, aunque esto cambiaría cuando reanudó el proyecto de su construcción. Empezó a tener la necesidad de cargar de justificación teórica su nuevo arte, por lo que escribió un artículo posterior con un enfoque más geométrico que aludía a las proporciones de las cuerdas vibrantes de los sonidos. Siguiendo las proporciones de la octava (2:1) o la quinta (3:2) llegó a la conclusión de que así funcionaban el placer y el desagrado en todos nuestros sentidos, por supuesto también en la vista. Las vibraciones en proporción armónica era su orden superior y nada lo sacaría de esa convicción. Es más, también realizó el camino inverso, tratando al sonido como la luz e intentando (sin éxito) construir un “prisma auricular” que fuera capaz de separar las notas de un acorde.

Castel no se rendía fácilmente, así que empezó a darle vueltas a su escala de colores basada en Newton y a descartar el violeta como tono fundamental. Realizó varios experimentos sobre los colores con la ayuda de un amigo pintor y sus conclusiones se convirtieron en un artículo de 321 páginas en la revista «Mémoires de Trevoux». Nadie podrá decir que Louis no fuera prolífico ni que no se preocupara de intentar argumentar de manera sólida sus teorías, más allá de que la realidad le devolviera más de un jarro de agua fría. La escala de colores ya no fue diatónica sino cromática, puesto que se afanó en argumentar que entre los siete colores había colores intermedios, al igual que en la escala musical de 12 sonidos. Su escala ahora era azul, celadón, verde, oliva, amarillo, ocre, nacarado, rojo, carmesí, violeta, ágata y violáceo, representando un análogo directo con la escala cromática musical (Do, Do#, Re, Re#…). Sin embargo, renunció a poder coger cualquier sonido como tono fundamental de cualquier escala o tonalidad, él quería una tónica absoluta, que en los colores era el azul porque en la mente de Castel todos los colores de la naturaleza se ven contra el fondo del cielo azul. En la música hizo lo propio, aludiendo al sonido “Do” como tónica absoluta justificándola por el rango de la voz humana. De esta manera, las tres notas más importantes de la escala, primero (Do), tercero (Mi) y quinto (Sol) (con los que se forma el acorde) coincidían con los colores azul, rojo y amarillo. Es fácil imaginar el sudor de las manos de Castel al ver cómo estas “pruebas” demostraban su teoría y la frenética sensación de estar a orillas de un descubrimiento. No contento con esto, usó el claro-oscuro para resolver el problema de las diferentes octavas, dándole 12 octavas completas entre el negro y el blanco. El clavecín es un instrumento de uno o dos teclados (según modelo y época) con un número de teclas variable, los hay con 49 pero también con 61. En cualquier caso, Castel necesitaba construir uno con 144 o 145 teclas (para hacernos una idea del tamaño, el piano actual tiene 88 teclas). Había que fabricarlo.

Hay testimonios de que hizo algunos prototipos, como el del compositor más prolífico de la historia, Georg Philipp Telemann, quien alabó el invento del matemático después de una visita a París. Sin embargo, solo nos queda la especulación teórica y algunos prototipos que se realizaron posteriormente a la muerte de Castel. Existe un diseño del año 1743 fabricado por Johann Gottlob Kriiger y conservado en la biblioteca de la universidad de Ámsterdam:

Diseño de un clavecín ocular. En Miscellanea Berolinensia. Fuente: Franssen, 1991.

Posteriormente, alguien llamado Guyot había escrito un libro que contenía todo tipo de entretenimientos basados en experimentos científicos, titulado “Nouvelles recreations physiques et mathematiques”, donde aparece la teoría de Castel para realizar una versión simplificada con un cilindro de cartón y una vela en su interior. Tanta especulación y teorización reducida a un juguete, que afortunadamente Castel nunca conoció, puesto que el volumen se publicó 12 años después de su muerte. El diseño se conserva en la biblioteca de la universidad de Utrecht:

Clavecín ocular en su versión de juguete. En Nouvelles recreations physiques et mathematiques, Paris, 1769-1770. Fuente: Franssen, 1991.

Incluso fue objeto de burla, puesto que también existe una caricatura de Louis-Bertrand Castel hecha por Charles Germain de Saint Aubin. Esto da una idea de lo mucho que insistió en su teoría y las enemistades que cultivó en el mundo académico:

Caricatura de Castel con el clavecín ocular conservada en Waddesdon. Fuente: Wikimedia Commons.

Finalmente, Castel nunca consiguió su objetivo, algo obvio desde nuestra perspectiva actual, pero puso en pie un simbolismo que sí fue aceptado por escritores contemporáneos suyos como Goethe o posteriormente en músicos como Alexander Scriabin, aunque sin pretensiones científicas. Llegó, incluso, a la desesperación, sobre todo por un problema común a cualquier proyecto científico: el dinero. Trató de construirlo con linternas de la época, vidrios, cuernos, redes, etc., pero solo quedó un anciano entre restos de sus modelos y un resentimiento que volcaba su ineficacia en “su público”, que, según él, se tomaron demasiado en serio sus teorías y le hicieron creer que lo estaba consiguiendo. Nunca renunció a su idea, pero la culpa siempre fue de los demás.

Dentro de nuestra visión actual de la música y la ciencia, el invento de Castel no pasaría de ser una suerte de luces de discoteca provocadas por las teclas de un instrumento musical de forma arbitraria, sin embargo, en la época tuvo tantos detractores (entre los que destacan Newton, Rameau o el propio Montesquieu posteriormente) como defensores de sus teorías, aunque los primeros fueran aumentando con el tiempo. Desde la perspectiva del presente comprobamos como teorías e inventos científicos no pasan de ser intentos fallidos, absurdos o simplemente ingenuos. Sin embargo, la historia de la ciencia nos devuelve una constante en su principio dialéctico: intentar lo imposible es una tentación (o un deber) difícil de sortear.

Referencias:

1 Castel, L. B. (1743). Le vrai systême de physique generale de M. Isaac Newton, exposé et analysé en parallele avec celui de Descartes; à la portée du commun des physiciens.

2 Kircher, A. (1650). Musurgia Universalis, sive Ars Magna Consoni et Dissoni, vol. 2.

3 Franssen, M. (1991). The ocular harpsichord of louis-bertrand castel. Tractrix, 3, 15-77.

Sobre el autor: José Manuel González Gamarro es profesor de guitarra e investigador para la Asociación para el Estudio de la Guitarra del Real Conservatorio Superior de Música “Victoria Eugenia” de Granada.

El artículo Música para mis ojos, el clavecín ocular de Castel se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Qué puede aportar la investigación científica al trabajo docente en el aula?

sam, 2023/11/18 - 11:59

docente
docente

La jornada Las Pruebas de la Educación tuvo lugar con el objetivo de analizar la validez de las estrategias educativas puestas en marcha durante los últimos años. El enfoque STEAM o las clases virtuales fueron analizados desde la evidencia científica por un grupo de expertos y expertas que se reunió en la Facultad de Educación de Bilbao de la Universidad del País Vasco. La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la facultad de Educación de Bilbao, tuvo lugar el 27 de octubre pasado.

Esta sexta edición volvió a estar dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. Su objetivo ha sido reflexionar, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día. El seminario ha contado, una vez más, con la dirección académica de la vicedecana de Investigación y Transferencia de la Universidad Autónoma de Madrid, Marta Ferrero González.

La conferencia de apertura, ¿Qué puede aportar la investigación científica al trabajo de los y las docentes en el aula?, fue impartida por la propia Marta Ferrero González, experta en educación basada en la evidencia.

Edición realizada por César Tomé López

El artículo ¿Qué puede aportar la investigación científica al trabajo docente en el aula? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Mortalidad masiva de los pinos inducida por la sequía

ven, 2023/11/17 - 11:59

La sequía está afectando de forma masiva a los ecosistemas forestales en todo el mundo y es imprescindible comprender la vulnerabilidad individual de los árboles a la mortalidad por sequía. Según un estudio en el que ha participado la UPV/EHU, un desacoplamiento entre el crecimiento de los árboles y el clima puede provocar esa mortalidad, y el uso de la sensibilidad del crecimiento a la disponibilidad hídrica podría servir como una señal de alerta temprana de mortalidad. Ese tipo de indicadores puede ser de gran ayuda a la hora de diseñar medidas de mitigación y adaptación al cambio climático en ecosistemas forestales.

Fuente: Wikimedia Commons

Los eventos de mortalidad arbórea masiva asociados a la sequía han aumentado en todo el mundo en las últimas décadas, afectando a la estructura y al funcionamiento de los ecosistemas forestales. Sin embargo, el conocimiento existente sobre la vulnerabilidad individual a la mortalidad inducida por la sequía sigue siendo limitado. El nuevo trabajo trata de arrojar luz sobre ese problema. “El objetivo del estudio fue identificar los factores que desencadenaron un evento de mortalidad masiva en una extensa área forestal del centro de España dominada por Pinus sylvestris L., una especie de amplia distribución e importancia económica y ecológica”, comenta Asier Herrero, profesor ayudante doctor del Departamento Biología vegetal y Ecología de la Universidad del País Vasco en la Facultad de Farmacia.

Para ello, se compararon los patrones de crecimiento radial en parejas de individuos vivos y recientemente muertos que coocurrían en estrecha proximidad y presentaban edad y tamaño similares, aislando así los efectos del tamaño y el entorno del proceso de mortalidad. Se comparó la dinámica temporal del crecimiento, la sincronía del crecimiento (patrones anuales coincidentes entre individuos a lo largo del tiempo) y la sensibilidad del crecimiento a la disponibilidad de agua (estimada como la precipitación menos la evapotranspiración potencial) entre árboles vivos y muertos.

En los últimos 50 años, aunque no se detectaron diferencias significativas en el crecimiento entre árboles vivos y muertos, sí se observó un aumento de la sincronía del crecimiento y de la sensibilidad a la disponibilidad de agua (es decir, la pendiente del balance hídrico en el modelo de crecimiento) en todos los árboles a medida que aumentaba la intensidad de la sequía. “20 años antes de la mortalidad, los individuos muertos mostraron una menor sincronía de crecimiento y una menor sensibilidad del crecimiento a la disponibilidad de agua que los vivos”, destacan los investigadores.

La reducción registrada en la sincronía del crecimiento y en la sensibilidad del crecimiento a la disponibilidad de agua en los árboles muertos sugiere un desacoplamiento entre el crecimiento arbóreo y el clima, lo que podría aumentar el riesgo de fallo hidráulico y de inanición de carbono bajo condiciones cada vez más áridas. Así, el uso de la sensibilidad del crecimiento a la disponibilidad hídrica podría servir como una señal de alerta temprana de mortalidad arbórea, que merece ser estudiada en mayor profundidad en el futuro, particularmente en zonas con condiciones de sequía estacional. Ese tipo de indicadores de riesgo de mortalidad puede ser de gran ayuda a la hora de diseñar medidas de mitigación y adaptación al cambio climático en ecosistemas forestales.

Referencia:

Asier Herrero, Raquel González-Gascueña, Patricia González-Díaz, Paloma Ruiz-Benito, Enrique Andivia. (2023) Reduced growth sensitivity to water availability as potential indicator of drought-induced tree mortality risk in a Mediterranean Pinus sylvestris L. forest Frontiers in Forests and Global Change doi:10.3389/ffgc.2023.1249246

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Mortalidad masiva de los pinos inducida por la sequía se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La ciencia sí es cultura

jeu, 2023/11/16 - 11:59

cultura

Este mes de noviembre se celebra el mayor evento anual de divulgación y comunicación social de la ciencia en Europa: las semanas de la ciencia y la tecnología, que ofrecen cientos de actividades para acercar la investigación a la sociedad y, en particular, a la gente más joven.

La cultura nos representa, es el armazón de conocimientos, gustos y costumbres en el que nos reconocemos y con el que disfrutamos. La ciencia es parte de la gran aventura intelectual del ser humano, fruto de su curiosidad y del intento de representar y entender el mundo en el que vivimos. Y como producto del pensamiento humano, la ciencia es un componente esencial de la cultura. Porque la ciencia no es una actividad extraña a la vida y, por tanto, sus respuestas también son de carácter cultural.

Los avances científicos han impulsado el progreso y han moldeado nuestra cultura en términos de cómo vivimos, trabajamos y nos relacionamos. Más aún, las ideas científicas, a veces de modo velado, han condicionado profundamente las ideas sociales.

Es absurdo que el mejor conocimiento disponible sobre cómo funciona el mundo quede fuera del concepto de cultura. Es algo tan evidente que, en vez de explicarlo, parece más necesario analizar por qué esa consideración no está generalizada.

Una división inexplicable

La tradicional división de la educación en ciencias y humanidades (¡como si la ciencia no fuera humana!) puede sugerir que unas forman parte de la cultura y las otras son “otra cosa”. Pero la realidad es que el conocimiento detallado y disciplinar de la historia del arte, de la lingüística o de las lenguas clásicas, por ejemplo, es tan propio de los especialistas como el de la física, la geología o las neurociencias.

La ciencia no solo se limita a laboratorios y a gente del mundo académico, sino que está presente en todos los aspectos de nuestra vida. Y del mismo modo que una persona culta conoce y disfruta del arte o la literatura, conocerá y disfrutará de una visión panorámica de la historia del universo, de las peculiaridades del comportamiento animal o de cómo funciona una célula.

A nadie le parece extraño, más bien al contrario, saber quién fue Velázquez y admirar sus cuadros sin ser un especialista historiador del arte. Pues tampoco hay que ser una persona experta o erudita para conocer quienes fueron Darwin o Curie.

La naturaleza no tiene la culpa de los planes de estudio. La realidad no entiende de ciencias o de humanidades. El mundo se nos presenta para conocerlo, entenderlo y cambiarlo mediante todas las herramientas de que dispongamos.

Además, la ciencia no solo proporciona un conocimiento empírico, sino que también plantea preguntas éticas y filosóficas, debates que son parte integral de nuestra cultura y sociedad.

Quién difunde la cultura científica

La existencia de instalaciones de cultura científica como museos de ciencias o planetarios no es nueva. Desde el año 2007, la mayoría de los centros de investigación y universidades han promovido las Unidades de Cultura Científica que son hoy en día uno de los principales agentes en la difusión y divulgación de la cultura ciencia y la innovación.

Además, en la última década se ha hecho un considerable esfuerzo por añadir al panorama cultural una oferta científica cada vez más variada y, por qué no decirlo, alejada del estereotipo de seriedad y torre de marfil que tradicionalmente ha tenido. Programas de televisión como Órbita Laika, compañías de monólogos científicos humorísticos como Big Van Ciencia o espectáculos escénicos como Naukas son algunos ejemplos.

Este tipo de actividades culturales de divulgación científica permiten que el público en general se involucre en la exploración del mundo natural y comprenda cómo la ciencia contribuye a nuestro entendimiento del mundo.

Y la ciencia sirve también como fuente de inspiración para la creatividad artística.

Una semilla fecunda

Las personas que nos dedicamos a diario a tareas de divulgación científica vivimos convencidas de que “la ciencia es cultura” pero en la sociedad en general sigue sin ser algo suficientemente aceptado.

Por eso es tan urgente incrementar la cultura científica de la población. La información científica es una fecundísima semilla para el desarrollo social, económico y político de los pueblos. La complicidad entre los científicos y el resto de los ciudadanos es una excepcional celebración de la democracia.

Pero, además, esa nueva cultura contribuiría a frenar las supercherías disfrazadas de ciencia, aumentaría la capacidad crítica de los ciudadanos, derribaría miedos y supersticiones…

En definitiva, haría a los seres humanos menos manipulables, más libres y más audaces.

Los enemigos a batir por la ciencia son los mismos que los de la filosofía, el arte o la literatura. Esto es, la incultura, el oscurantismo, la barbarie, la miseria, la explotación humana.The Conversation

Sobre los autores: Ignacio López-Goñi, MIembro de la SEM (Sociedad Española de Microbiología) y Catedrático de Microbiología, Universidad de Navarra; Javier Armentia, Astrofísico y director del Planetario de Pamplona y Joaquín Sevilla, Catedrático de Tecnología Electrónica, Universidad Pública de Navarra

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo La ciencia sí es cultura se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El toro, la botella de Klein y el plano proyectivo real (II)

mer, 2023/11/15 - 11:59

En la entrada del Cuaderno de Cultura Científica El toro, la botella de Klein y el plano proyectivo real (I) iniciamos una serie sobre tres superficies relacionadas con la banda de Moebius, a saber, el toro, la botella de Klein y el plano proyectivo real.

botella de KleinToro de Villarceau, realizado en cartulina, por la matemática valenciana María García Monera. En la página web de María García Monera podéis encontrar las plantillas y un tutorial para construir este toro mediante las secciones de Villarceau

 

La botella de Klein

A partir de una tira de papel rectangular ABCD (véase la siguiente imagen) -en general, una superficie rectangular-, se pueden construir dos superficies abiertas, la superficie normal o cilindro (si se pegan dos extremos, por ejemplo, AB con DC), que tiene dos caras y dos bordes, y la banda de Moebius (si primero giramos uno de los extremos del papel media vuelta y después los juntamos, es decir, ahora AB se “pega” con CD), que tiene una sola cara y un solo borde (como ya hemos visto en la anterior entrada y otras relacionadas).

Además, se pueden construir tres superficies cerradas -es decir, que no tienen bordes-, que son las que nos ocupan en esta serie de entradas, el toro, la botella de Klein y el plano proyectivo real.

Si volvemos al rectángulo ABCD, como hemos comentado, pegando los lados AB con DC se obtiene un cilindro, pero en función de cómo se junten los otros dos lados generaremos dos nuevas e interesantes superficies. Si lo hacen de forma directa (AD con BC, como indican las flechas de la siguiente imagen) se obtiene una superficie cerrada con dos caras, denominada en matemáticas “toro”, que tiene forma de rosquilla o flotador, a la cual hemos dedicado la entrada anterior El toro, la botella de Klein y el plano proyectivo real (I) .

Construcción de la superficie del toro

Si los otros dos lados se pegan en el sentido contrario (AD con CB), girando media vuelta antes de pegarse, entonces se obtiene la superficie llamada “botella de Klein”, que es una superficie cerrada y solo tiene una cara. Como se muestra en la siguiente imagen, los extremos del cilindro no se pegan de forma directa, sino en sentido contrario, luego sería como si se pegaran “por detrás”. El problema es que para hacer esto tenemos que cruzar la propia superficie para poder unir esos dos extremos en la forma descrita. De esta manera, lo que se genera es una representación de la botella de Klein que se autointerseca, como se muestra en la imagen.

Construcción de la botella de Klein con autointersección

Sin embargo, la botella de Klein, tal cual la hemos definido, no debiera de tener autointersecciones. El problema está en que esta construcción geométrica “ideal” no genera una superficie que esté dentro de nuestro espacio tridimensional, sino que su espacio natural es el espacio de dimensión cuatro (sobre la cuarta dimensión puede leerse el libro La cuarta dimensión, que se incluye en la bibliografía o las entradas Hipercubo, visualizando la cuarta dimensión, Hipercubo, visualizando la cuarta dimensión (y 2) y ¿Entiendo la cuarta dimensión?), y aquí nos encontramos con un gran problema, ya que no somos capaces de visualizar la cuarta dimensión. Por este motivo, nos quedaremos con la anterior representación, que al menos habita en el espacio visual, en el espacio tridimensional.

Puede pensarse en la botella de Klein como una superficie formada por la unión de dos bandas de Moebius. O al revés, estas se obtienen si cortamos la botella de Klein por la mitad, como se muestra en la siguiente imagen, generando dos partes iguales, que son bandas de Moebius.

botella de KleinA la izquierda la imagen de una botella de Klein, donde las líneas de colores vienen de líneas horizontales y verticales pintadas en el rectángulo ABCD originario, mientras que en el centro y la derecha tenemos las dos mitades de la botella de Klein, al cortarla por la mitad, la parte inferior (centro) y la parte superior (derecha). Imagen del artículo From Möbius Bands to Klein-Knottles, del artista y experto en ciencias de la computación Carlo H. Séquin

Para terminar esta sección, traemos un clásico de las botellas de Klein, las realizaciones en cristal realizadas por el astrónomo y divulgador científico estadounidense Clifford (Cliff) Stoll (1950), que vende estas hermosas piezas a través de su página Acme Klein Bottle. Veamos algunas de estas realizaciones de la botella de Klein en cristal. La primera es una serie de botellas de Klein con diferentes formas, aunque topológicamente son la misma, ya que se puede “deformar” unas en otras (para una pequeña reflexión sobre lo que es la topología podéis leer la entrada La topología modifica la trayectoria de los peces).

botella de KleinBotellas de Klein de cristal con diferentes formas, pero topológicamente iguales, realizadas por Cliff Stoll. Imagen de Acme Klein Bottle

La siguiente imagen sería una botella de Klein realizada en cristal y las dos mitades, si la cortamos por la mitad, que son bandas de Moebius.

Botella de Klein de cristal y las bandas de moebius que se obtienen al cortar la superficie de la botella de Klein por la mitad, realizadas por Cliff Stoll. Imagen de Acme Klein BottleBotellas de Klein artísticas

A pesar de la complejidad que subyace a la botella de Klein, puesto que es una superficie con una sola cara, pero además su espacio natural para visualizarla sería un espacio de dimensión cuatro y tenemos que conformarnos con representarla con autointersecciones en nuestro espacio tridimensional, sí nos podemos encontrar artistas que han creado esculturas con la forma de esta superficie.

Empecemos con el artista mexicano Pedro Reyes (1972), un artista multidisciplinar que trabaja tanto la escultura, la arquitectura, el diseño, el video arte o la performance, y que está muy interesado en la topología. Como no podía ser de otra manera, trabaja en algunas de sus obras con el concepto de la banda de Moebius. Por ejemplo, crea una “silla de moebius” para que se sienten dos personas, cara a cara, al estilo de las sillas para dos personas del siglo xix, que se conocen con varios nombres, como “sillas tú y yo”, “sillas confidente” o incluso “sillas de los enamorados”. Una versión de la Silla moebius, del año 2005, es una silla realizada al estilo de las sillas acapulco (véase la entrada En busca de la banda de Moebius más corta posible), mientras que la versión de 2006, que vemos en la siguiente imagen, está realizada en fibra de vidrio y acero.

Silla de Moebius (2006), del artista mexicano Pedro Reyes

 

Y tiene una tercera versión en mármol, de 2018, llamada Silla infinita.

Silla infinita (2018), del artista mexicano Pedro Reyes. Imagen de la Lisson Gallery

También en el siglo xix se crearon sillas de los enamorados con tres asientos, dos para la pareja de enamorados y una más para la persona que hacía de acompañante. Siguiendo esta idea, el artista mexicano realizó en 2007 una silla triple, llamada Nudo gordiano, que sería una continuación de la Silla Moebius, aunque ahora la superficie nos es una banda de Moebius, sino una banda normal retorcida, con dos caras.

Silla nudo gordiano (2007), del artista mexicano Pedro Reyes. Imagen de la página web del artista Pedro Reyes

Pero, como comentábamos, este artista mexicano también se ha inspirado en la botella de Klein para crear alguna de sus obras, en particular, la obra Capula Klein’s Bottle / Cápula botella de Klein (2007), que es una escultura colgante, a la que además se puede acceder, como vemos en una de las siguientes imágenes.

Vista de la sala “topologías” de la exposición Pedro Reyes: Escultura Social, en el Museo de Arte Contemporáneo de Monterrey (MARCO), en 2022, en la que puede verse la escultura colgante Cápula botella de Klein o un cuadro sobre los puentes de KönigsbergFotografía de la escultura Cápula botella de Klein con dos personas en su interior. Imagen de Design Boom

A continuación, vamos a mostrar una interesante y hermosa escultura de la artista parisina Bettina Samson (1978), cuyo título Three loops in a fourth dimensión / Tres bucles en una cuarta dimensión (2012-2013), hace mención a la idea de que el espacio natural de esta superficie es la cuarta dimensión.

Imagen de la obra Tres bucles en una cuarta dimensión (2012-2013), de la artista francesa Bettina Samson, en la Galerie Sultura

Aunque no es la única obra de la artista parisina en la que trabaja con la botella de Klein. La serie Mètis & Metiista (2013) es una serie de cinco esculturas “de vidrio borosilicato transparente, deformado y soplado a continuación”, que está inspirada en las variaciones sobre la botella Klein que creó el científico y soplador de vidrio británico Alan Bennett, en 1995, y que está expuestas en el Museo de la Ciencia de Londres (pueden verse en la página web de la colección del Museo de la Ciencia de Londres).

Mètis & Metiista II (2013) , de la artista francesa Bettina Samson, que consiste en tres botellas de Klein, una dentro de otra, que a su vez está dentro de otra. Imagen de la página web documentsdartistesMètis & Metiista V (2013) , de la artista francesa Bettina Samson, que consiste en una botella de Klein, con tubo enrollado o bobina en su interior. Imagen de la página web documentsdartistes.

Mientras preparaba esta entrada he descubierto una interesante exposición que tuvo lugar la pasada primavera (del año 2023), en el Simons Center for Geometry and Physics de la Universidad Stony Brook de Nueva York, de la matemática y artista argentina que trabaja en la Universidad Stony Brook, Moira Chas, titulada Moira Chas, Projections of the Klein Bottle (proyecciones de la Botella de Klein), cuyo cartel se muestra a continuación.

Cartel de la exposición Moira Chas, Projections of the Klein Bottle, que tuvo lugar en la galería del Simons Center for Geometry and Physics de la Universidad Stony Brook de Nueva York, entre abril y junio de 2023, en el que aparece una botella de Klein realizada con una malla de alambre.

Aquí os dejo un par de imágenes de la exposición, cuyas hermosas obras me recuerdan mucho a las esculturas de la artista estadounidense, de origen japonés, Ruth Asawa (1926-2013).

Dos esculturas, realizadas con mallas de alambre, de la exposición Moira Chas, Projections of the Klein Bottle (2023), organizada en la Universidad Stony Brook de Nueva YorkVista general de la exposición Moira Chas, Projections of the Klein Bottle (2023), organizada en la Universidad Stony Brook de Nueva York

La escultora estadounidense Bathsheba Grossman (1966), cuyas esculturas están profundamente conectadas con las matemáticas, utilizó la representación tridimensional de la botella de Klein para diseñar un abrebotellas para frikis.

Abrebotellas con forma de botella de Klein diseñado por la escultora Bathsheba Grossman

 

Vamos a cerrar esta entrada con un par de ilustraciones. La primera del matemático ruso Anatoly T. Fomenko (1945), de cuyas ilustraciones matemáticas ya hemos hablado en la entrada Ilustraciones artísticas de un matemático. En alguna de sus oscuras y expresionistas ilustraciones nos encontramos a la botella de Klein, como en la siguiente ilustración perteneciente a uno de los libros de geometría.

Ilustración “Un toroide de doble hoja que cubre una botella de Klein”, del matemático ruso Anatoly Fomenko

 

La siguiente ilustración es del sicólogo estadounidense Roger N. Shepard, quien realizó algunas ilustraciones sobre figuras imposibles, como el famoso elefante con un número indeterminado de patas. Su ilustración Impossible Three Wheeled Machine / Máquiina imposible de tres ruedas incluye una botella de Klein, en la parte donde va el motor.

Ilustración Impossible Three Wheeled Machine / Máquiina imposible de tres ruedas, del sicólogo estadounidense, conocido por sus figuras imposibles, Roger N. Shepard

Aunque he anunciado que terminaba con las anteriores ilustraciones, no puedo dejar pasar la oportunidad de mostrar la aparición de botellas de Klein en la serie Futurama, de los creadores de Los Simpson. En uno de sus capítulos, titulado La ruta de todo mal, Fry y Bender entran a comprar cerveza a un supermercado y nos encontramos con una serie de cervezas con referencias científicas, una de ellas la Cerveza de Klein, cuya botella no es otra que nuestra botella de Klein.

Cervezas que aparecen en el supermercado al que entran los protagonistas, Fry y Bender, en la serie Futurama

Bibliografía

1.- Raúl Ibáñez, Las matemáticas como herramienta de creación artística, colección Miradas matemáticas, Catarata, 2023.

2.- Clifford A. Pickover, La banda de Möbius, Almuzara, 2009.

3.- Martin Gardner, Festival mágico-matemático, Alianza editorial, 1984.

4.- Stephen Barr, Experiments in Topology, Dover, 1989.

5.- Martin Gardner, The Sixth Scientific American Book of Mathematical Puzzles and Diversions, Simon & Schuster, 1971.

6.- Raúl Ibáñez, La cuarta dimensión, RBA, 2010.

 

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El toro, la botella de Klein y el plano proyectivo real (II) se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El origen de la espuma del mar

mar, 2023/11/14 - 11:59

Las burbujas de aire que aparecen cuando se agita una masa de agua pura se fusionan entre sí fácilmente. La fusión es mucho más lenta en el agua de mar o en otros líquidos que contienen sales disueltas, razón por la que estos líquidos suelen generar espumas duraderas. Pero, ¿por qué ocurre esto?

Ahora un equipo de ingenieros cree haber identificado la causa fundamental de esta diferencia: fuerzas sutiles creadas por los electrolitos, los iones móviles en los que las sustancias se disocian cuando se disuelven en un líquido. Cuando dos burbujas colisionan estas fuerzas reducen notablemente la velocidad a la que el líquido que las separa puede fluir. Según los investigadores, este hecho explicaría por qué las espumas surgen tan fácilmente en el agua de mar. Este hallazgo podría ser útil en muchas aplicaciones industriales.

espumaFoto: Jens Aber / Unsplash

Las disoluciones con altas concentraciones de electrolitos suelen producir espumas persistentes, por lo que se ha sospechado durante décadas que los electrolitos disueltos retardan de algún modo la fusión de las burbujas. Por otra parte, muchos modelos llegan a sugerir que los electrolitos deberían acelerar las fusiones, por lo que el efecto seguía siendo un misterio.

Los investigadores han llevado a cabo una serie de experimentos para medir con mayor precisión cómo la presencia de electrolitos afecta a las fusiones de burbujas. Sumergiendo el extremo de un capilar de vidrio debajo de la superficie de un líquido podían crear burbujas de aire en la punta. Luego forzaban cada burbuja hacia abajo a una velocidad de 3 mm/s hasta que se fusionaba con otra burbuja que estaba adherida a una superficie de sílice. Por interferometría el equipo pudo medir el espesor de la película líquida que separaba las burbujas con precisión nanométrica y controlar la evolución de este espesor hasta que se hacía cero.

En agua pura, las burbujas actuan como esferas rígidas, acercándose sin cambiar de forma y luego fusionándose nada más contactar. Sin embargo, en una variedad de soluciones de electrolitos los investigadores observaron un proceso de fusión de dos etapas sorprendentemente diferente. Al principio, las superficies de las burbujas se acercan, como en el agua pura. Pero una vez que la separación disminuye a aproximadamente 40 nanómetros (nm), los «bordes de ataque» de las superficies que se acercan se aplanan como si hubiera alguna fuerza repulsiva. Este aplanamiento retrasa la fusión de las burbujas entre 2 y 14 milisegundos, dependiendo del electrolito y del tamaño de las burbujas.

Estos experimentos son los primeros en mostrar tan claramente que la presencia de electrolitos ralentiza la fusión de las burbujas en la etapa final, cuando la película líquida entre las burbujas se vuelve muy fina. Pero explicar este efecto teóricamente no es precisamente trivial. Ningún modelo conocido daba una explicación satisfactoria.

Sin embargo, al estudiar los resultados de experimentos realizados por otros, los investigadores notaron diferencias significativas en las mediciones de la tensión superficial en varias soluciones de electrolitos en comparación con el agua pura. Estas observaciones les animaron a desarrollar un modelo matemático detallado del transporte de electrolitos en la fina película entre las burbujas que se fusionan. Utilizando ecuaciones de dinámica de fluidos pudieron describir cómo el flujo de electrolitos podría influir en la tensión superficial de la película.

Los investigadores descubrieron que cuando el espesor de la película cae a 30-50 nm, hay una diferencia en la concentración de electrolitos entre la película y el resto del fluido. Esta diferencia genera un pequeño gradiente de tensión superficial y una fuerza asociada que ralentiza el flujo de salida de líquido de la película.

En simulaciones de las ecuaciones de transporte, los investigadores descubrieron que este efecto ralentiza el drenaje de la película lo suficiente como para retrasar la ruptura de la película (y la fusión final de las burbujas), en concordancia precisa con los experimentos. Es decir, la presencia de electrolitos retrasa enormemente la coalescencia de las burbujas al prolongar la vida útil de la película líquida.

Este modelo explica por qué se forman las crestas blancas tan fácilmente en las olas de los mares y océanos de agua salada, que contienen muchos electrolitos, pero son menos comunes en ríos y lagos de agua dulce.

Este descubrimiento también puede encontrar algunas aplicaciones industriales futuras, por ejemplo, en la electrólisis de moléculas de agua para la producción de hidrógeno. En este proceso la forma en que se forman y fusionan las burbujas en una solución tiene un impacto fundamental en la energía consumida y en la eficiencia de la producción.

Referencia:

B. Liu et al. (2023) Nanoscale transport during liquid film thinning inhibits bubble coalescing behavior in electrolyte solutions Phys. Rev. Lett. doi: 10.1103/PhysRevLett.131.104003

 

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El origen de la espuma del mar se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Un trocito de planeta dentro de otro planeta

lun, 2023/11/13 - 11:59

manto

Imaginemos nuestro Sistema Solar durante su infancia, hace aproximadamente 4.500 millones de años. A mí me gusta pensar en estos momentos como si nuestro sistema planetario se tratase de una gigantesca pista de patinaje como las que vemos en algunas películas norteamericanas -a los más mayores les sonará por el Xanadú de Olivia Newton-John y a los más jóvenes quizás por la serie Stranger Things-, de esas en las que los patinadores van girando alrededor de un centro -en nuestro caso, el Sol- en una coreografía que debe ser perfecta para que los patinadores no choquen unos contra otros.

Y es que la pista de nuestro Sistema Solar se encontraba en esos primeros momentos abarrotada de cuerpos de distintos tamaños que se cruzaban los unos con los otros, en ocasiones colisionando. A veces, como consecuencia de estos impactos se formarían simples cráteres, pero en otras, los impactos serían tan violentos que probablemente tendrían la capacidad de cambiar la historia geológica de los planetas.

En algún momento de esta primera etapa de nuestro Sistema Solar, un cuerpo de un tamaño aproximado al que tiene Marte -al que llamamos Tea o Theia- chocó con nuestro planeta, resultando de esta colisión la formación de nuestra Luna, y los consiguientes cambios en la Tierra. Hasta el momento, esta es la teoría más aceptada para explicar la formación de nuestro satélite.

mantoSimulación de la colisión entre nuestro planeta y Tea. Imagen cortesía de la NASA y SVS.

Probar esta teoría y resolver algunas de las dudas que todavía plantea es un asunto muy complejo, que requiere de muchos enfoques distintos: desde seguir recogiendo muestras lunares al diseño de simulaciones numéricas. Simulaciones que cada vez son capaces de lograr un mayor nivel de detalle no solo en lo físico sino también en lo químico -que nos explique el reparto de los elementos- y que nos permitan reconstruir de una manera más fiel que fue lo que ocurrió.

El manto de la Tierra no es homogéneo

Pero, ¿y si hubiese más pruebas de esta colisión de las que podríamos haber imaginado anteriormente? Durante décadas, los científicos, gracias a los datos obtenidos por las redes de sismómetros distribuidas por nuestro planeta y que nos permiten obtener una radiografía -en el sentido laxo de la palabra- de nuestro interior, han observado unas estructuras que conocemos como Large Low-Velocity Provinces (LLVPs a partir de ahora) o grandes provincias de baja velocidad.

Cuando vemos un esquema del interior de nuestro planeta como los que aparecen en los libros de texto, lo normal es que el manto se vea como una zona homogénea, pero lo cierto es que la realidad es más compleja y heterogénea. En la base del manto -en lo que sería la zona próxima al límite entre el manto y el núcleo- es el lugar donde se encontrarían estas provincias, y de ahí se extenderían hacia arriba a través del manto.

Pensemos en un vaso de agua sobre el que echamos un chorro de miel. Esta caerá hasta el fondo y además podremos verla claramente porque sus propiedades -como la densidad, el color o su transparencia- son bien distintas a las del agua en las que está sumergida. Pues así podríamos imaginarnos un poco a las LLVPs, solo que sobre nuestro manto y en vez de verlas las detectamos a través del cambio de propiedades de las ondas sísmicas que las atraviesan.

El nombre de LLVPs nombre se le da porque cuando las ondas sísmicas las atraviesan, estas se ven ralentizadas y de ahí el apellido de baja velocidad. Las más importantes son las que existen bajo el continente africano y bajo el Pacífico. Y el nombre de grandes provincias se debe a su extensión, ya que ocupan prácticamente un 6% del volumen de nuestro planeta.

Pero hay novedades importantes sobre las LLVPs: Un nuevo artículo publicado en la revista Nature apuntan como responsable del origen de estas al impacto que formó de nuestra Luna de la siguiente manera: la colisión fue tan violenta que partes del manto de Tea se incorporaron a nuestro planeta.

Modelo simplificado de la colisión de Tea. Cortesía de Yuan et al. (2023)

Como los elementos que formaban este manto de Tea eran más densos que el propio manto terrestre -los autores estiman que entre un 2% y un 3.5% más denso-, lentamente fueron hundiéndose hasta llegar a la frontera entre el manto y el núcleo, donde ya no podían descender más, como si fuese el fondo del vaso donde dejamos caer nuestra miel. Y probablemente estos no solo tenían una mayor densidad, sino que tenían una temperatura mayor que el manto.

Lo más complicado de explicar por ahora es si las LLVPs realmente tienen este origen, como es posible que hayan aguantado hasta nuestros días de una manera tan evidente y marcada, sin haber acabado mezclándose y homogeneizándose con el manto, como cuando echamos un tinte al agua y al caer lo vemos muy concentrado, pero poco a poco va dispersándose en todo el volumen de agua.

Pero todavía hay más. Los autores del estudio sugieren que podrían ser como una verdadera cápsula del tiempo capaz de guardar otro regalo escondido de la historia de nuestro Sistema Solar: Y es que la LLVPs podrían haberse llevado consigo elementos volátiles representativos de la composición original del disco protoplanetario.

Estos gases quedarían reflejados en la firma geoquímica de algunas rocas volcánicas, como en los basaltos de isla oceánica (OIB por sus siglas en inglés), que son similares a las de algunas rocas lunares, un detalle que quedaría explicado por la inclusión de estos volátiles procedentes de Tea.

Desde luego, esta teoría nos abre un escenario apasionante, pero por supuesto, no está exenta de críticas y algunos científicos apuntan a que no sabemos si realmente las LLVPs son algo tan antiguo -tanto como para remontarlo al origen del Sistema Solar- o si son una característica formada en un periodo más reciente de la historia de nuestro planeta, por lo que se necesitarán más datos para afirmar o descartar esta teoría.

Así que de momento tendremos que esperar a saber si realmente nuestro planeta esconde un trocito de otro planeta en su interior.

Referencias:

Yuan, Q., Li, M., Desch, S. J., Ko, B., Deng, H., Garnero, E. J., Gabriel, T. S., Kegerreis, J. A., Miyazaki, Y., Eke, V., & Asimow, P. D. (2023). Moon-forming Impactor as a source of earth’s basal mantle anomalies. Nature, 623(7985), 95–99. doi: 10.1038/s41586-023-06589-1

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Un trocito de planeta dentro de otro planeta se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Pages