Aulas virtuales o LMS en la educación presencial
La jornada Las Pruebas de la Educación tuvo lugar con el objetivo de analizar la validez de las estrategias educativas puestas en marcha durante los últimos años. El enfoque STEAM o las clases virtuales fueron analizados desde la evidencia científica por un grupo de expertos y expertas que se reunió en la Facultad de Educación de Bilbao de la Universidad del País Vasco. La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la facultad de Educación de Bilbao, tuvo lugar el 27 de octubre pasado.
Esta sexta edición volvió a estar dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. Su objetivo ha sido reflexionar, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día. El seminario ha contado, una vez más, con la dirección académica de la vicedecana de Investigación y Transferencia de la Universidad Autónoma de Madrid, Marta Ferrero González.
La decana de la facultad de Educación de Bilbao de la UPV/EHU, Urtza Garay Ruiz, doctora en psicodidáctica e investigadora en tecnología educativa, habla en esta charla de cómo usar de forma responsable y eficaz las aulas virtuales cuando la educación es presencial.
Edición realizada por César Tomé López
El artículo Aulas virtuales o LMS en la educación presencial se ha escrito en Cuaderno de Cultura Científica.
¿Las tecnologías digitales están corrompiendo la educación obligatoria?
Desde que el mundo es mundo, la tecnología ha estado presente en nuestro día a día. En el paleolítico inferior el Homo habilis empezó a utilizar herramientas de piedra: a partir de ahí, la humanidad no ha parado de generar nuevos objetos a base de los elementos que iba encontrando en su entorno más cercano. No debemos olvidar que la tecnología es todo aquello creado por el hombre, que no se puede encontrar por sí mismo en la naturaleza.
Esos elementos han supuesto un cambio en la manera en que hacemos las cosas, mejorando notablemente nuestra calidad de vida. Pero no todo ha sido de color de rosa. Toda innovación tecnológica ha tenido detractores. La época actual no iba a ser diferente y existe una corriente, cada vez más generalizada, dispuesta a achacar a los avances tecnológicos todos los males de esta sociedad. En el terreno educativo, el foco del debate se ha puesto en la siguiente pregunta dicotómica, a mi juicio, tendenciosa: ¿debemos usar los ordenadores en el aula?
Toda tecnología tiene implícitas unas ventajas y unos inconvenientes. En Educación, se traducen en ayudas y en riesgos para enseñar, para aprender y para la salud. No existe estudio que niegue rotundamente esa cuestión, ni lo habrá. Por lo tanto, la pregunta inicial no debiera ser esa. El debate no gira en usar o no usar tecnología digital en las aulas.
Foto: Tianyi Ma / UnsplashLas tecnologías no van a desaparecerLos avances tecnológicos vienen para quedarse y posicionarnos a favor o en contra no aporta nada a la educación. Además, algunas personas lo plantean como un versus entre lo digital y lo analógico, una pelea en la que debe ganar una de las dos tecnologías. Olvidan que el libro de texto impreso también es una tecnología, sujeta a ventajas e inconvenientes, igual que esos ordenadores, pantallas, móviles y demás aparatos digitales que demonizan.
Vivimos tiempos convulsos, un periodo de grandes transformaciones sociales que influyen constantemente en las nuevas políticas educativas. Eso genera confusión, tanto en los docentes como en los estudiantes y las familias, respecto a la formación del ciudadano del siglo XXI que deseamos fomentar en nuestras escuelas. Sin embargo, la importancia de desarrollar la competencia digital en nuestro alumnado sigue siendo una constante inalterable.
En España, desde la promulgación de la Ley Orgánica de Educación en 2006 hasta la más reciente Ley Orgánica de Mejora de la Ley Orgánica de Educación en 2020, el foco de la formación en la etapa obligatoria ha sido promover un alumnado “multialfabetizado”.
Esa visión implica que, además de adquirir habilidades en lectoescritura, matemáticas y un conocimiento básico en áreas como idiomas, ciencias sociales, naturales, artísticas y culturales, los estudiantes deben ser capaces de enfrentarse a los retos de la sociedad de la información y la comunicación.
Cinco áreas claveLa iniciativa DigComp (Digital Competence Framework), impulsada por la Comisión Europea en 2013 y actualizada de forma continua desde entonces, ha obligado a los sistemas educativos a nivel nacional y autonómico a tomar diversas medidas para asegurar, entre su alumnado, múltiples competencias en cinco áreas clave.
Se busca que el ciudadano que salga de la escuela sea capaz de:
- Buscar, evaluar y organizar información.
- Comunicarse, colaborar y participar en entornos digitales.
- Crear, editar y publicar contenido digital.
- Protegerse de los riesgos asociados al uso de la tecnología y garantizar su privacidad.
- Identificar, analizar y resolver problemas típicos relacionados con el uso de las herramientas tecnológicas.
Lamentablemente, la práctica común de algunos sistemas educativos ha sido tomar medidas para la consecución de la multialfabetización de su alumnado mediante una implementación irreflexiva e indiscriminada de tecnología en las escuelas. En ese modo de actuar subyace una idea errónea basada en las bondades per se de la tecnología digital en los procesos educativos, no respaldada por evidencia alguna.
La literatura científica no ha aceptado la hipótesis de que a más tecnología en el aula se produzcan mejores resultados académicos. Por lo tanto, no se puede afirmar que exista una relación directa, lineal y automática entre esas dos variables, más allá del efecto causal hacia la mejora de la competencia digital del alumnado.
En el campo de la tecnología educativa destinada a estudiar el uso de diferentes herramientas y recursos tecnológicos para mejorar los procesos de enseñanza-aprendizaje existe una máxima que todos los investigadores asumen: la cuestión no es tecnológica, sino pedagógica. Cualquier herramienta o recurso que integrar en educación debe ser analizado desde el prisma del objetivo a lograr. Por lo tanto, la pregunta que nos tenemos que hacer es qué queremos conseguir.
El discente medio no existeSi hablamos de la educación obligatoria, debemos tener en cuenta la necesidad de responder a la diversidad del alumnado existente en nuestras aulas. Los últimos avances en neurociencias derivados por estudios científicos nos informan de esa variabilidad en la manera de aprender.
No obstante, se puede simplificar el aprendizaje a través de un modelo denominado Diseño Universal para el Aprendizaje basado en tres redes neuronales interdependientes:
- Una red afectiva que regula la implicación del alumnado en su aprendizaje.
- Una red de reconocimiento que permite procesar la información que se requiere.
- Una red estratégica que garantiza la acción y la expresión de lo aprendido.
Ese modelo propugna la utilización de diferentes opciones, estrategias y recursos. Y es en esa diversidad de soportes donde podemos encontrar la respuesta a nuestro dilema. Las pantallas, los ordenadores e internet tienen cabida junto a una gran diversidad de otras herramientas sobre la base de una reflexión previa y un diseño que acepte la variabilidad de nuestro alumnado y no intente buscar lo imposible, una planificación para un discente medio que no existe.
Lo importante en nuestras escuelas de educación obligatoria es programar actividades que utilicen una selección variada de herramientas, incluidas las digitales, que garantice a todo el alumnado, sin excepción e independientemente de sus características individuales, su motivación y compromiso, un procesamiento propio de la información y una puesta en práctica de lo aprendido.
A modo de conclusión, es importante subrayar que las tecnologías digitales no están corrompiendo la educación, pero tampoco podemos decir que la estén mejorando por el simple hecho de que se hayan naturalizado en nuestras aulas. Solo con una planificación sosegada hacia una escuela para todos nos puede llevar a un desenlace positivo en su integración.
Sobre el autor : Daniel Losada es Profesor Titular de Universidad en el Departamento de Didáctica y Organización Escolar. Facultad de Educación, Filosofía y Antropología, UPV/EHU
Una versión de este texto apareció originalmente en campusa.
El artículo ¿Las tecnologías digitales están corrompiendo la educación obligatoria? se ha escrito en Cuaderno de Cultura Científica.
I lava (que no magma) you
Aunque parece que, de momento, no vamos a tener una nueva erupción en Islandia, voy a aprovechar que sigue siendo noticia para traer, una semana más, algunas curiosidades volcánicas.
Una de las cosas que más nos llama la atención de los volcanes, hasta quedarnos mirándolos de manera hipnótica, es ver salir la lava del cráter y deslizarse como si fuese un enorme río de fuego por el terreno, arrasando todo lo que se pone en su camino. Pero, ¿qué es la lava?
Para responder a esta pregunta tenemos que viajar al interior de la Tierra. En concreto, al manto superior y la base de la corteza. Es ahí donde se forma el magma, un material compuesto por rocas fundidas muy calientes y gases. Pero, al contrario de lo que podemos pensar, el magma de nuestro planeta es muy escaso, menos de un 6% de las rocas del manto están fundidas, ya que para que pierdan su componente sólida y los minerales que las forman alcancen el punto de fusión tiene o bien que aumentar la temperatura, o que bajar la presión a la que están sometidas o hay que incorporar agua y/o gases disueltos a la ecuación, y esto solo sucede en contextos geológicos muy concretos, como los límites de las placas tectónicas.
De acuerdo a su composición, los magmas se pueden clasificar en dos grandes grupos. Los magmas ácidos, que son muy ricos en sílice (SiO2) y pobres en ferromagnesianos (minerales que incluyen hierro y magnesio en su composición), tienen una temperatura relativamente baja que permite que cristalicen algunos minerales y son muy viscosos. Y los magmas básicos, pobres en sílice y ricos en ferromagnesianos, de temperatura más elevada y menos viscosidad, por lo que son más fluidos.
¿Y qué tiene que ver todo esto con la lava? Pues muy sencillo. Cuando el magma asciende hacia la superficie y consigue salir al exterior a través de un volcán, pierde los gases. A ese material fundido desgasificado es a lo que denominamos lava y sus propiedades van a depender de las características del magma del que procede.
Cuando la lava discurre por el terreno forma lo que se conoce como colada de lava, una acumulación de materiales volcánicos que cubren la superficie como una especie de costra que ha crecido sobre el suelo. Y, de acuerdo al aspecto exterior y la morfología que adquieren, podemos diferenciar tres tipos de coladas de lava, cuyos nombres son una chuleta que nos permiten acordarnos fácilmente de sus características y propiedades:
Por una lado tenemos las coladas de tipo aa (del hawaiano ‘A’ā, que significa áspero), que tienen una superficie irregular, rugosa y afilada. Se forman a partir de lavas viscosas y de temperaturas no demasiado elevadas (inferiores a 900-1000°C) que avanzan lentamente (a escalas de metros por minuto) formando frentes de coladas que alcanzan decenas y cientos de metros de altura. Es habitual que la parte externa de estas coladas se enfríe rápidamente y empiece a solidificarse, lo que provoca que el avance de la lava aún fundida de su interior genere la caída de bloques volcánicos en el frente, dando lugar a un característico sonido de cristales rotos. Por este motivo también se las denomina coladas en bloques. Y en Canarias se las conoce con el nombre de malpaís porque es difícil caminar sobre ellas una vez enfriadas, además de que es muy costoso trabajar estos terrenos.
Lavas aa o en bloques del volcán Kilauea, en la isla de Hawaii. Fotografía del Servicio Geológico de Estados Unidos (USGS) / Wikimedia CommonsPor el otro lado nos encontramos las lavas pahoehoe (también procedente del hawaiano, pāhoehoe, y que significa suave), que son todo lo contrario a las anteriores, ya que adquieren una superficie exterior mucho más lisa. En este caso son producidas por lavas más fluidas y calientes (con temperaturas por encima de los 1000°C) que avanzan con rapidez (en velocidades de metros por segundo). Incluso pueden adoptar unas morfologías similares a cuerdas o cordones entrelazados a las que se llama lavas cordadas.
Lavas pahoehoe del volcán Kilauea, en la isla de Hawaii. Fotografía de J.D. Griggs (Servicio Geológico de Estados Unidos, USGS) / Wikimedia CommonsY el tercer tipo son las lavas almohadilladas, o pillow lavas en inglés. Estas son particulares, ya que se forman en erupciones submarinas donde la lava se enfría rápidamente al entrar en contacto con el agua dando lugar a formas redondeadas ligeramente cilíndricas que recuerdan a las almohadas.
Lavas almohadilladas (pillow lavas) recogidas en Enekuri (Bizkaia) y expuestas en el paseo geológico del Arboretum del Campus de Leioa de la Universidad del País Vasco (UPV-EHU). Se formaron a finales del Cretácico Inferior (hace unos 100 millones de años) debido al vulcanismo submarino provocado durante la apertura del Golfo de Bizkaia. Fotografía de Ane García Artola (Departamento de Geología, Facultad de Ciencia y Tecnología, Universidad del País Vasco UPV-EHU).Ya veis que, en Geología, no nos comemos mucho la cabeza a la hora de darle nombre a las cosas y siempre buscamos denominaciones muy sencillas, directas, gráficas y, sobre todo, fáciles de recordar, que bastantes cosas tenemos ya en la cabeza como para aprender nombres raros de más. Pero lo que tampoco espero que olvidéis es la diferencia entre magma, un fundido gaseoso depositado en el interior de la Tierra, y lava, el fundido que ha perdido los gases al salir a superficie. Por eso, por mucho que estudiemos las rocas volcánicas y cojamos muestras de lava tras una erupción, nunca podremos reconstruir por completo las características originales del magma del que procede, ya que hemos perdido los gases. Aunque lo que nunca perderemos será la infantil admiración ante una erupción volcánica.
Para saber más:
Montañas y mitos
La Geología según Heracles
Los volcanes submarinos de Bizkaia y Gipuzkoa
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo I lava (que no magma) you se ha escrito en Cuaderno de Cultura Científica.
Herta Taussig Freitag: «Quiero convertirme en una buena profesora de matemáticas»
Por fin he encontrado una materia en la que no necesito memorizar, sino que puedo pensar por mí misma: las matemáticas. (1921).
Quiero ser profesora de matemáticas. No sé si seré suficientemente buena (Poco tiempo más tarde).
No quiero ser simplemente profesora de matemáticas. Quiero convertirme en una buena profesora de matemáticas. (Seis años más tarde).
Diario de Herta Taussig
Herta Taussig Freitag. Fuente: Hollins Digital Commons.Herta Taussig nació el 6 de diciembre de 1908 en Viena, Austria. Era hija de Paula Caroline Sara Taussig y Josef Heinrich Israel Taussig. Herta tenía un hermano mayor, Walter Adolf Taussig, nacido también en 1908, el 9 de febrero. La pasión de Walter era la música; se dedicó a ella profesionalmente llegando a ser director de varias orquestas, al principio en Europa y posteriormente en Canadá y Estados Unidos.
Persiguiendo su sueño de convertirse en profesora de matemáticas (que plasmó en varias ocasiones en su diario), Herta ingresó en la Universidad de Viena con la intención de recibir formación para dedicarse después a la docencia en un gymnasium (centro de enseñanza secundaria).
Recibió el título de Magister Rerum Naturalium en matemáticas y física en la Universidad de Viena en 1934. Allí se cruzó con Kurt Gödel (1906-1978), quien había defendido su tesis en 1930 y trabajaba como Privatdozent desde 1933.
Taussig consiguió enseñar en la Universidad de Viena como Gymnasium Professor entre 1934 y 1938.
Huyendo a Reino UnidoSu vida cambió drásticamente a principios de marzo de 1938, cuando las tropas de la Alemania nazi invadieron Austria. Su padre era el editor del periódico Die Neue Frei Presse y había escrito varios artículos advirtiendo sobre los peligros del nazismo. Perdió su trabajo. Walter estaba de gira por Estados Unidos, allí no corría peligro. El resto de la familia se refugió en una casa de verano en las montañas intentando planificar sus desplazamientos posteriores para huir de la amenaza nazi.
Solicitaron refugio en Reino Unido. Pero este país no deseaba una inmigración a gran escala de profesionales que podían poner en peligro los empleos de los ciudadanos británicos. Aunque necesitaban empleadas domésticas, así que Herta solicitó uno de esos empleos para atender a dos mujeres mayores en Sussex. Unos meses más tarde, sus padres se pudieron reunir con ella. Herta pasó seis años en Inglaterra esperando poder emigrar con sus padres a Estados Unidos; trabajó como empleada doméstica, institutriz, camarera y finalmente como profesora de matemáticas. Su padre falleció en 1943. Herta y su madre obtuvieron finalmente un visado para entrar en Estados Unidos; en abril de 1944 se reunieron finalmente con Walter.
Estados Unidos como destino finalHerta consiguió trabajo en el Greer School, una escuela privada en el norte del estado de Nueva York. Allí enseño entre 1944 y 1948 y conoció al profesor de matemáticas Arthur Henry Freitag (1898-1978) con quien se casó en 1950.
En 1948 Herta comenzó a enseñar en una universidad privada para mujeres, el Hollins College en Roanoke, Virginia. Consiguió crear un Departamento de Matemáticas, alternando la docencia en el centro con su trabajo preparando su tesis doctoral en la Universidad de Columbia. Allí estuvo particularmente influenciada por los matemáticos Edward Kasner (1878-1956) y Howard Eves (1911-2004). Defendió su tesis doctoral en 1953 con la memoria titulada The Use of the History of Mathematics in its Teaching and Learning on the Secondary Level (El uso de la historia de las matemáticas en su enseñanza y aprendizaje en secundaria).
Junto a su marido, Arthur Freitag, escribió varios artículos conjuntos y la monografía The Number Story (National Council of Teachers of Mathematics, 1960).
Herta se jubiló anticipadamente en 1971 para cuidar de Arthur que había caído enfermo; él falleció siete años más tarde. Y, al quedarse sola, volvió a dar clases, a impartir conferencias en escuelas locales y a publicar numerosos artículos en revistas de educación matemática. De hecho, la mayor parte de su trabajo sobre los números de Fibonacci lo realizó tras su jubilación.
Publicó más de treinta artículos en Fibonacci Quarterly a partir de 1985. Esta revista matemática le dedicó su número de noviembre de 1996, cuando Herta cumplía 89 años, “en reconocimiento a sus años de destacado servicio y logros en la comunidad matemática a través de la excelencia en la enseñanza, la resolución de problemas, la docencia y la investigación”. La elección de la fecha no se decidió al azar: recordemos que 89 es el decimosegundo elemento de la sucesión de Fibonacci (0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, …).
Uno de sus colegas, recordando las palabras de Carl Friedrich Gauss (“Las matemáticas son la reina de las ciencias y la teoría de números es la reina de las matemáticas”), proclamó a Herta Freitag como la “reina de The Fibonacci Association”. Este “nombramiento” agradecía la constancia de esta matemática, que había presentado una ponencia en todas las conferencias internacionales de la Asociación desde la primera realizada en 1984, y había contribuido con numerosos artículos en la revista Fibonacci Quarterly.
Herta Taussig Freitag falleció el 25 de enero de 2000, tenía 91 años. Consiguió, sin duda, cumplir esos deseos que, de niña, anotó reiteradamente en su diario.
Referencias
-
Caren Diefenderfer, Herta Taussig Freitag. A personal reflection, Biographies of Women Mathematicians
-
John J. O’Connor and Edmund F. Robertson, Herta Taussig Freitag, MacTutor History of Mathematics Archive, University of St Andrews
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Herta Taussig Freitag: «Quiero convertirme en una buena profesora de matemáticas» se ha escrito en Cuaderno de Cultura Científica.
La nueva búsqueda para controlar la evolución
Los científicos modernos no se contentan con predecir la evolución de la vida. Quieren darle forma.
Un artículo de C. Brandon Ogbunu. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
James O’Brien para Quanta MagazineLa evolución es algo complicado. Gran parte de la biología evolutiva moderna busca reconciliar la aparente aleatoriedad de las fuerzas tras el proceso (cómo ocurren las mutaciones, por ejemplo) con los principios fundamentales que aplican a toda la biosfera. Generaciones de biólogos han albergado la esperanza de comprender lo suficiente la lógica de la evolución como para poder predecir cómo sucede.
Pero si bien la predicción sigue siendo un objetivo relevante, los científicos ahora se están centrando en otro mucho más ambicioso: el control sobre cómo sucede.
Esto puede parecer ciencia ficción, pero los mejores ejemplos de este esfuerzo están en nuestro pasado. Consideremos el proceso de selección artificial, término acuñado por Charles Darwin: hace miles de años, los humanos comenzaron a identificar plantas y animales con rasgos preferibles y a criarlos selectivamente, lo que amplificó esos rasgos en su descendencia. Este enfoque nos dio la agricultura, uno de los inventos culturales más transformadores de la historia de la humanidad. Posteriormente, la selección artificial en animales y plantas nos ayudó a comprender la genética y cómo evolucionan los genes en las poblaciones. Pero a pesar de lo eficaz que ha sido, la selección artificial sigue estando bastante limitada.
Esto es diferente de la selección natural, la fuerza que impulsa la evolución adaptativa en la Tierra, donde no hay ningún actor intencional que realice la selección. El actor seleccionador no es un criador humano, sino la naturaleza misma, que selecciona las variantes con mayor “aptitud”: aquellas con mayor probabilidad de sobrevivir y producir descendencia sana. Y cuando la naturaleza es la que selecciona, los resultados pueden ser difíciles de predecir.
Ahora los biólogos esperan establecer cómo ocurre la evolución a nivel molecular y ejercer tanto control directo sobre el proceso reproductivo como el que tenemos en los cultivos agrícolas. ¿Podemos orquestar la evolución, mutación a mutación, hacia el resultado que prefiramos?
Sorprendentemente, ya estamos a mitad de camino. El Premio Nobel de Química de 2018 reconoció el trabajo sobre un método llamado evolución dirigida, que permite a los científicos diseñar nuevas biomoléculas. Una de las ganadoras, Frances Arnold, fue pionera en una forma de mutar proteínas en el laboratorio y luego medir su funcionalidad (por ejemplo, lo bien que una enzima metaboliza el azúcar). Es entonces posible aislar las proteínas candidatas de interés, mutarlas y seleccionarlas más, hasta que generemos una proteína con función mejorada (en este caso, una enzima que metabolice el azúcar de manera muy eficiente). En este sentido, los químicos actúan como los criadores de perros, pero sin depender de la reproducción sexual para generar la descendencia proteica. Más bien, generan una población diversa de proteínas y miden sus propiedades en cuestión de horas. Y al seleccionar lo que quieren, controlan cómo ocurre la evolución.
A partir de este ejemplo queda claro que controlar la evolución (dirigirla hacia ciertos resultados) requiere el conocimiento de cómo ocurrirá la evolución junto con la tecnología para intervenir. Así que podemos pensar en el problema a través de la lente de una ecuación simple: Control = predicción + ingeniería.
Este control puede ser más sutil que el enfoque de Arnold. Un estudio de 2015 sugirió el uso de antibióticos en un orden determinado para evitar que la evolución cree patógenos resistentes a los antibióticos. Y algo similar está sucediendo con el tratamiento del cáncer: los oncólogos están tratando de aprovechar nuestra comprensión molecular del cáncer para dirigir las células cancerosas hacia la susceptibilidad a ciertos medicamentos. Esto es posible porque sabemos que cuando una célula cancerosa desarrolla resistencia a un fármaco puede volverse más susceptible a otros. Este concepto de “sensibilidad colateral” se basa en los principios fundamentales de las compensaciones en los sistemas biológicos: en general, no hay “almuerzos gratis” en la evolución, y la adaptación a menudo conlleva costes.
En trabajos más recientes, los científicos han generalizado estos enfoques. Utilizando ideas de la física cuántica, un equipo multidisciplinar (que incluye médicos, informáticos y físicos) ha aplicado un método llamado conducción contradiabática para llevar a una población hacia objetivos predeterminados. Por ejemplo, las infecciones causadas por algunas cepas de parásitos de la malaria son más fáciles de tratar que otras. Los investigadores podrían intentar «dirigir» las poblaciones de parásitos hacia cepas más fáciles de tratar.
Se están aplicando ideas similares a otros sistemas, como el microbioma, donde los biólogos evolutivos ahora utilizan la evolución dirigida para controlar comunidades microbianas como las que viven en nuestra piel y en nuestro intestino. Para ello, están utilizando el conocimiento de cómo ciertos microbios interactúan entre sí junto con nuevas técnicas microbianas que nos permiten introducir ciertos microbios en una población de otros microbios. La esperanza es que podamos utilizar este conocimiento para algún día dirigir la composición del microbioma hacia una que se asocie con mejores resultados de salud.
Estos avances demuestran que, de alguna forma, el control evolutivo es una cosa del presente, no del futuro. Pero los ejemplos de más éxito han tenido lugar en un pequeño número de entornos: microbios, comunidades microbianas y proteínas. Y lo que es más, los esfuerzos existentes se centran en el control durante períodos de tiempo cortos: ningún científico razonable pretende ser capaz de controlar la evolución molecular que actuando durante décadas o siglos (aparte de la selección artificial que ha tenido lugar durante milenios). El verdadero control sobre el proceso evolutivo sigue estando estrictamente limitado por nuestro conocimiento y herramientas actuales.
Si bien los desafíos técnicos del control evolutivo siguen siendo sustanciales, las barreras éticas también son notables. Los problemas se superponen con los relacionados con los organismos genéticamente modificados. Cuando diseñamos una mutación en una variedad de maíz que le confiere la capacidad de crecer incluso en ambientes estresantes, influimos en las generaciones futuras de esa variedad de maíz. Además, la selección de embriones en humanos puede parecerse a la selección artificial, dándonos la capacidad de controlar la aparición de rasgos humanos en poblaciones futuras. En general, las aplicaciones demasiado entusiastas de estas tecnologías pueden estar impulsadas por una especie de determinismo genético: la visión ingenua de que las diferencias significativas entre organismos dentro de una población pueden explicarse (principalmente) por su composición genética.
Si alguna vez intentáramos ingenuamente dirigir la evolución de los humanos y otros organismos en una escala temporal más larga, seríamos víctimas de una especie de determinismo evolutivo, que sostiene que podemos y debemos tener control total sobre cómo evoluciona la vida en el futuro. En última instancia, estas ambiciones están fuera de lugar. Subestiman el capricho de la evolución biológica: la dificultad de considerar todas las fuerzas que dan forma a cómo funciona y florece de la vida. Algunos podrían concebir que la inteligencia artificial puede ayudar a resolver estas incertidumbres. Pero la IA no es una panacea para la ignorancia. Es más eficaz cuando ya comprendemos las sutilezas del sistema que intentamos modelar y predecir. La biología evolutiva no cumple del todo con este estándar, al menos no todavía.
Podemos (y debemos) al mismo tiempo entusiasmarnos con la ambición de la biología moderna y tener la presencia de ánimo para reconocer nuestros límites. Por ejemplo, el movimiento eugenésico sugirió que la raza humana podría mejorarse utilizando el tipo de métodos que nos dieron animales y cultivos domesticados. Ahora entendemos que fue intolerante y se basó en una mala biología. Ejemplos como estos son advertencias y deberían enseñarnos que los intentos descuidados de controlar fuerzas tempestuosas como la evolución están destinados a fracasar.
El artículo original, The New Quest to Control Evolution, se publicó el 29 de noviembre de 2023 en Quanta Magazine.
Traducido por César Tomé López
El artículo La nueva búsqueda para controlar la evolución se ha escrito en Cuaderno de Cultura Científica.
El microbioma da pistas sobre el riesgo de sufrir cáncer anal
El virus del papiloma humano (VPH) es un patógeno muy común en el ser humano que se transmite principalmente por contacto sexual o piel con piel. Tan frecuente es que se calcula que entre el 80 y el 90 % de la población sexualmente activa se infecta por el VPH alguna vez en su vida. En muchos casos, esta infección desaparece por sí misma y pasa desapercibida. Sin embargo, en otras ocasiones esta puede provocar verrugas y, en el peor de los casos, cáncer.
Imagen: Ally White / PixabayAlgunos tipos del VPH (hay más de 200 identificados) tienen la capacidad de transformar las células que infectan, que comienzan a proliferar de forma descontrolada originando, con el tiempo, tumores. El principal cáncer que provoca este conjunto de virus es el de cuello uterino, pero también puede causar cáncer genital, de boca, garganta o anal, entre otros. Para prevenir este desenlace, en España se incluye desde 2007 la vacuna contra el VPH en el calendario vacunal. Primero su administración se dirigió a niñas y ciertos grupos de riesgo y, con el tiempo, se ha extendido su aplicación a niños.
El colectivo de hombres que tienen sexo con hombres con el virus de la inmunodeficiencia humana (VIH) son un colectivo con especial riesgo de sufrir cáncer anal desencadenado por el VPH, pues tienen hasta 300 veces más riesgo de padecerlo que la población general. En la actualidad, la detección temprana de las lesiones en la región anal, provocadas por el virus del papiloma, que tienen una elevada probabilidad de convertirse en cáncer (conocidas como lesiones escamosas intraepiteliales de alto grado o HSIL) resulta un desafío. Normalmente, este tipo de neoplasia se detecta en una etapa tardía, tanto por su localización, como por sus síntomas y signos poco claros y específicos, lo que lleva a un peor pronóstico. Además, el método actual que se utiliza para el cribado de este tipo de lesiones, la citología anal, es poco específica (50 %): da con frecuencia muchos falsos positivos (casos detectados como de alto riesgo de cáncer que realmente no tienen este riesgo).
Detectar mejor el cáncer analHace unos meses, un equipo internacional de investigadores, entre los que se incluyen científicos españoles, mostraron al mundo un enfoque innovador para detectar el cáncer anal de forma temprana y con más precisión que con la citología actual: la detección de dos biomarcadores asociados al microbioma de la región anal: la cobalamina (vitamina B12) y el succinil-CoA. Este hallazgo se ha publicado en la revista Nature Medicine.
Para el estudio, se seleccionaron a 213 participantes con VIH, principalmente (94 %) hombres cis que tenían sexo con hombres, a los que se les realizaron endoscopias anales y biopsias (toma de muestras de las lesiones sospechosas de poder convertirse en tumores). Los voluntarios se dividieron, a su vez, en dos grupos: 167 pacientes para investigar qué biomarcadores asociados al microbioma podían indicar alto riesgo de cáncer (HSIL) y 46 pacientes para validar los resultados.
Los investigadores comprobaron que no había ninguna composición particular del microbioma que se asociara claramente con un elevado riesgo de cáncer. Sin embargo, sí que detectaron que aquellos pacientes con HSIL tenían en la región anal bacterias que producían más cobalamina y succinil-CoA que en circunstancias normales. Es decir, existía algún tipo de interacción entre las células precancerosas, con alto riesgo de provocar cáncer y las bacterias, que modificaban su nivel de síntesis de ambas moléculas. De hecho, cuanto mayor era el riesgo de que la lesión se convirtiera en un tumor maligno, más altas eran las concentraciones de ambos biomarcadores. Otras investigaciones han encontrado también interrelaciones entre ciertos tipos de cáncer y cambios en la microbiota, como la asociación de cierta composición de la microbiota vaginal con un mayor riesgo de cáncer de cérvix uterino o con una mayor probabilidad de detectar la presencia del VPH.
El paso siguiente de la investigación fue comprobar cuál era la capacidad para detectar HSIL si se consideraban los niveles de dichas moléculas en los 46 pacientes del grupo de validación. Los científicos descubrieron que el cribado mediante el análisis de la cobalamina y el succinil-CoA ofrecía resultados mucho mejores que la citología convencional. En concreto, la sensibilidad (la probabilidad para detectar como positivo un caso de HSIL) de este método era de un 96,6 % frente al 91,2 % que aportaba la citología. Además, la mejora era mucho más notoria en la especificidad: la detección de los niveles de ambas moléculas arrojaba una especificidad (la probabilidad de que una persona sin HSIL arroje un valor negativo en la prueba) del 81,8 %, en comparación con el 34,1 % de la citología.
En otras palabras, el análisis de la cobalamina y el succinil-CoA en muestras anales ofrecía muchos menos falsos positivos de pacientes con lesiones anales con un alto riesgo de transformarse en cáncer. Ante estos resultados, los autores proponen usar ambos biomarcadores derivados del microbioma para mejorar la actual estrategia de screening de cáncer anal mediante citología (un método que podría hacerse sin problemas en muchos entornos clínicos). Con este enfoque habría muchos menos falsos positivos y, por tanto, una menor necesidad de biopsias para descartarlos, lo que supondría menos riesgos para los pacientes y un uso más racional de los recursos sanitarios. En todo caso, serán necesarios más estudios para validar este enfoque de cribado y confirmar su utilidad. De ser así, el screening actual solo mediante citología anal podría combinarse o sustituirse con este método en los próximos años.
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo El microbioma da pistas sobre el riesgo de sufrir cáncer anal se ha escrito en Cuaderno de Cultura Científica.
Cómo decidir la mejor opción ante un dilema moral
Quizás haya oído hablar o haya leído acerca del dilema del tranvía. Este es un dilema moral en el que se plantean dos alternativas: provocar la muerte de una persona para salvar la vida de varias o no hacerlo. Hasta ahora se ha asumido que quienes renuncian a provocar la muerte de una persona, aunque ello conlleve la pérdida de más vidas humanas, actúan guiados por el principio deontológico de no hacer daño de forma deliberada. Y que quienes, por el contrario, optan por sacrificar una vida para que se salven más, actúan en virtud de principios utilitaristas, pues buscan maximizar el número de vidas salvadas.
Source: Bethesda Game Studios / Fallout 4Las respuestas al dilema del tranvía se han interpretado en virtud del denominado “modelo de procesamiento dual”. De acuerdo con tal modelo, en la decisión participan dos sistemas cognitivos. El sistema 1 se compone de emociones, heurísticos e inferencias que producen intuiciones morales, mientras que el sistema 2 realiza un razonamiento deliberativo. La mayoría de especialistas asume que los cálculos del sistema 1 son automáticos, no conscientes, sin esfuerzo y rápidos, mientras que los cálculos del sistema 2 son controlados, conscientes, requieren esfuerzo y son lentos.
Joshua Greene –uno de los autores más influyentes en el campo de la psicología de las opciones morales y proponente destacado del sistema de procesamiento dual– ha propuesto, además, que las emociones producen respuestas inflexibles, que la flexibilidad (responder al contexto considerando múltiples factores) requiere razonamiento deliberativo, y que los juicios utilitarios se producen mediante el razonamiento, mientras que los juicios deónticos se producen mediante las emociones.
No todo es blanco o negroHay, sin embargo, quienes no comparten ese punto de vista. Cuando las intuiciones morales chocan, generalmente son posibles soluciones que logren un equilibrio entre valores morales en conflicto. Pero los estudios anteriores no pueden encontrar esas soluciones porque utilizan dilemas morales que obligan a realizar juicios extremos: aquellos que satisfacen plenamente un valor moral mientras descartan otros por completo.
Consideremos, por el contrario, un dilema que, aunque comparte muchas propiedades con los dilemas del tranvía, no conduce necesariamente a formular un juicio extremo. Es el siguiente:
Dos países, A y B, han estado en guerra durante años. La guerra la empezaron los gobernantes de B contra la voluntad de su población civil. Recientemente, el equilibrio militar se ha roto y es seguro que A ganará. La pregunta es cómo, cuándo y con qué costes.
El país A dispone de dos estrategias: (1) atacar al ejército contrario con armas convencionales o (2) bombardear a la población civil. Podrían usar una, la otra o una combinación de ambas. Los bombardeos desmoralizarían al país B: cuantos más civiles mueran, antes se rendirá B y menos soldados morirán: aproximadamente la mitad de ambos lados, todos reclutados por la fuerza. Los combates convencionales minimizarán las bajas. Es más, si el país A decide no bombardear al país B, entonces morirán 6 millones de soldados, pero casi ningún civil. Si 4 millones de civiles son sacrificados en los bombardeos, B se rendirá inmediatamente y casi ningún soldado morirá. Y, si A elige una solución intermedia, por cada cuatro civiles sacrificados, morirán aproximadamente seis soldados menos.
¿Cómo debería A poner fin a la guerra? ¿Qué cree que es moralmente correcto?
El modelo de procesamiento dual no le sería de aplicación a este dilema y, por tanto, no solo a este, sino al conjunto de los dilemas morales.
Un modelo alternativo, el sistema de compensación moralUn grupo de investigación liderado por Leda Cosmides, de la Universidad de California en Santa Barbara, ha formulado un modelo alternativo. Lo denominan modelo de sistema de compensación moral (moral trade-off system) y debería poder producir todo el espectro de juicios posibles: extremos y consistentes en soluciones intermedias, de compromiso.
En ese modelo, los sistemas cognitivos implicados en la vida social que son activados por un dilema determinan qué variables son moralmente relevantes para su resolución. El sistema de compensación debe poder sopesar los valores morales en conflicto y elegir la solución más correcta, presentándola como un juicio moral intuitivo. Además, el sistema de compensación moral debe cumplir varios requisitos. Así, los juicios deben poder cambiar en función de incentivos y de variables moralmente relevantes, como la voluntad, la justicia, la reciprocidad, el derecho, el mérito y la honradez.
Los autores proponen que el sistema (mental) de compensación moral está compuesto por tres subsistemas: el de los “valores morales”, el del “conjunto factible” y el que “maximiza la bondad” (o corrección o adecuación) de la opción.
El subsistema de los valores morales evalúa diferentes soluciones al dilema y establece cuál es la mejor o más correcta. Este subsistema y los sistemas cognitivos que le proporcionan la información son universales, pero están calibrados por las experiencias del individuo. De ahí que, ante una misma situación, diferentes personas asignen valoraciones morales diferentes y, en consecuencia, sus juicios morales pueden diferir.
Por otro lado, hay ciertas variables o condiciones que determinan qué soluciones al dilema son factibles y, por lo tanto, de qué soluciones dispone el sistema para elegir. La representación mental de esas posibles soluciones es el “conjunto factible”. El correspondiente subsistema trabaja en paralelo al de valores morales.
Finalmente, está el subsistema que determina cuál es la solución más correcta a partir de las soluciones disponibles. Es el que establece que “la solución X es la mejor” (por ser, de entre las disponibles, la más correcta).
Esos tres subsistemas operan de manera inconsciente: sus cálculos no se realizan mediante razonamiento deliberativo. El sistema de compensación moral opera como el sistema visual: sus productos finales son objetos de la consciencia, pero la computación para producirlos no lo es. Del mismo modo que “vemos” objetos, “sentimos” que algunas opciones son más correctas que otras. Al igual que la visión de un objeto, la sensación de que “la solución X es la mejor” es una representación que pueden leer otros sistemas mentales, incluidos aquellos que han de decidir cómo comportarse. Además, aunque el sistema de compensación moral opera de manera inconsciente, las deliberaciones conscientes pueden desempeñar un papel en el juicio.
Juicios de compromisoUn sistema cognitivo con esta arquitectura puede producir juicios de compromiso; responde a incentivos y variables moralmente relevantes; y asigna ponderaciones a bienes morales en conflicto, lo que le permite elegir la solución factible que sea más correcta.
El equipo de investigación sometió a contraste su modelo testando el cumplimiento de una serie de predicciones emanadas de aquel. Para ello, plantearon a más de 1700 personas un dilema semejante al del tranvía, que oponía las vidas de los civiles a las vidas de los soldados en un supuesto de conflicto bélico similar al descrito antes. El dilema se les planteaba en diferentes escenarios, caracterizados por incentivos tales como el número de soldados salvados por cada civil sacrificado y por variables relevantes en términos morales, como si la población civil había sido partidaria de la guerra o no, o si los soldados habían sido reclutados de forma voluntaria o forzosa. En este caso, y a diferencia de otros dilemas, los sujetos podían elegir opciones intermedias, que sacrifican a algunos (pero no a todos) los civiles para salvar a más (pero no a la mayoría) de los soldados.
Los resultados respaldaron las predicciones del modelo ensayado. Pero, a juicio de los autores, la evidencia más decisiva es que la gran mayoría de los sujetos actuaron de forma racional. Lo hicieron con independencia de cuál era la combinación de juicios extremos y de compromiso que hicieran, y se mantuvieron racionales en todos los escenarios, incluso cuando sus juicios cambiaron con la voluntad (de participar o apoyar la guerra) de los soldados o civiles. Según los autores eso es una prueba muy sólida de que el proceso maximiza la corrección.
En conclusión, el razonamiento deliberativo, sin más, no puede explicar los resultados obtenidos en este trabajo, ni tampoco una competición entre emoción y razón. Los resultados fueron los que cabe esperar de un sistema cognitivo que sopesa consideraciones morales en competencia y elige la solución que maximiza la corrección, la mejor solución.
Fuente:
Guzmán R.A., Barbato M.T., Sznycer D., Cosmides L., A moral trade-off system produces intuitive judgments that are rational and coherent and strike a balance between conflicting moral values. Proc Natl Acad Sci U S A. 2022 Oct 18; 119 (42): e2214005119. doi: 10.1073/pnas.2214005119.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Cómo decidir la mejor opción ante un dilema moral se ha escrito en Cuaderno de Cultura Científica.
STEAM e indagación en el aprendizaje de Ciencias Experimentales
La jornada Las Pruebas de la Educación tuvo lugar con el objetivo de analizar la validez de las estrategias educativas puestas en marcha durante los últimos años. El enfoque STEAM o las clases virtuales fueron analizados desde la evidencia científica por un grupo de expertos y expertas que se reunió en la Facultad de Educación de Bilbao de la Universidad del País Vasco. La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la facultad de Educación de Bilbao, tuvo lugar el 27 de octubre pasado.
Esta sexta edición volvió a estar dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. Su objetivo ha sido reflexionar, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día. El seminario ha contado, una vez más, con la dirección académica de la vicedecana de Investigación y Transferencia de la Universidad Autónoma de Madrid, Marta Ferrero González.
Beatriz Baro Torija es doctora en Didáctica de las Ciencias Experimentales y licenciada en Biología por la Universidad de Santiago de Compostela. Actualmente es Profesora Titular de Universidad del Departamento de Didácticas Específicas (área de Didáctica de las Ciencias Experimentales) en la Universidad Autónoma de Madrid. Ella es la encargada de analizar en esta charla los resultados del enfoque STEAM implantado durante los últimos años.
Edición realizada por César Tomé López
El artículo STEAM e indagación en el aprendizaje de Ciencias Experimentales se ha escrito en Cuaderno de Cultura Científica.
Los robotaxis hacen trampas: la conducción autónoma podría no serlo tanto
Los vehículos autónomos han sufrido un verano muy intenso, particularmente las empresas Waymo y Cruise, propiedades de los gigantes Google y General Motors, respectivamente. Se trata de dos de las startups más adelantadas en la carrera por dominar esta tecnología que, sin embargo, han tenido que frenar en seco en los últimos meses.
El 11 de agosto de 2023 ambas compañías obtuvieron la aprobación del estado de California para comenzar a ofrecer servicios de taxis autónomos 24 horas al día, los 7 días a la semana, y cobrando (hasta entonces, su actividad estaba restringida a unos horarios de poca densidad de tráfico). La ciudad de San Francisco se abría por primera vez a estos servicios.
(Comenzar el vídeo en 1:40.)Poco les duró la alegría. Unos días más tarde, el 19 de agosto, las autoridades estatales penalizaron a Cruise por varios fallos graves ocurridos la noche anterior. Primero, un robotaxi se empotró contra un camión de bomberos que acudía una emergencia. En otro incidente, unas horas más tarde, fue un coche normal, pilotado por un humano, el que se saltó un semáforo y arrolló a uno de estos robotaxis.
En total, Cruise tuvo que reducir los 300 vehículos que tenía circulando por la ciudad a la mitad. Sin embargo, aún le faltaba la puntilla a la startup de General Motors, y ésta llegó hace unos días, cuando saltó la noticia de que el estado de California le retiraba la licencia de vehículos autónomos después de que uno de sus modelos no detectara que tenía a una persona atropellada debajo. Tras ello, Cruise anunció que cancelaba todas sus operaciones en Estados Unidos. Waymo ha optado por frenar su ritmo de expansión.
La cruda realidad es que una startup que no circula es una startup que no genera beneficios. Esto es un problema cuando estás inmerso en una carrera empresarial y tecnológica por quemar dinero, demostrar resultados, y seguir quemando dinero de inversores, todo ello hasta que a estos se les agote la paciencia o una de las empresas se erija vencedora.
¿Cuál es la situación de los robotaxis ahora?Tecnológicamente, el hecho de que hayan estado circulando por ciudad cientos de vehículos autónomos es una gran hazaña. Waymo y Cruise han recorrido un total de casi 13 millones de kilómetros sin conductor, incluidos más de 6,4 millones de kilómetros en San Francisco desde principios de 2023. Debido a que la ley de California exige que las empresas de vehículos autónomos informen de cada accidente importante de forma pública, sabemos mucho sobre su desempeño.
En total, las dos empresas han informado de algo más de 100 accidentes con vehículos sin conductor. Puede parecer mucho, pero ocurrieron en unos 10 millones de kilómetros de conducción. Eso equivale a un accidente cada 100 000 kilómetros, unos cinco años de conducción para un automovilista habitual.
Sin embargo, en estas estadísticas no se cuentan otros incidentes también importantes, como atropellos a perros, golpes de chapa en los que el robotaxi huye, o que el vehículo autónomo arda espontáneamente.
Si echamos la vista atrás, lo que las grandes tecnológicas nos prometían eran transportes en ciudad más baratos, rápidos y seguros. Uno de los mayores críticos de esta tecnología es el investigador Filip Piekniewski, quien ya advirtió que, después de 100 000 millones de dólares invertidos en esta tecnología, seis empresas han quebrado, tres están intentando sobrevivir y solo a dos parece irles bien.
Probablemente, la actitud de Piekniewski sea demasiado radical. En mi caso, estoy convencido de que la conducción autónoma se logrará, aunque quizás necesitemos cambios más profundos.
En muchos medios se puede encontrar el dato de que entre el 90 y 94 % de los accidentes en carretera se deben a errores humanos. La historia de esta cifra se remonta nada menos que a 1979. Posteriormente, la autoridad en seguridad vial de EE UU, la NHTSA, publicó en 2015 un documento de dos páginas que decía que “la razón crítica, que es el último evento en la cadena causal del accidente, fue asignada al conductor en el 94 % de los accidentes”. Un poco más adelante, el organismo subrayaba que, “aunque la razón crítica es una parte importante de la descripción de los eventos que condujeron al accidente, no debe interpretarse como la causa del accidente”.
El argumento de sustituir al conductor por un algoritmo para reducir ese 94 % de causas humanas es, por lo tanto, falso. Numerosas voces autorizadas en seguridad vial han levantado la voz sobre este uso tramposo de las estadísticas.
Quizás, por lo tanto, los vehículos autónomos no deban reflejar como métrica principal el número de accidentes, sino que debieran tener sus propias métricas. Y probablemente también sea importante recordar que cada vehículo autónomo en la vía pública tiene un conductor humano de seguridad a bordo o en algún lugar observando y controlando de forma remota.
Los vehículos autónomos podrían no serlo tantoPrecisamente hace unos días, el New York Times publicó un artículo que saca los colores a Cruise y a estos conductores de seguridad.
Según los periodistas del New York Times, la empresa de vehículos autónomos empleaba una media de 1,5 conductores de seguridad por vehículo, y tenían que intervenir en la conducción muy frecuentemente. Si esto fuera cierto, sería lógico cuestionarse si el resto de startup de robotaxis están haciendo las mismas trampas. Siendo así, estaríamos aún muy lejos de la conducción autónoma del imaginario popular.
Quizás la conducción autónoma no sea la solución a nuestros problemas de tráfico. Tal vez haya que pensar en una conducción tecnológicamente asistida, que complemente al humano y que le ayude a no fallar. Al fin y al cabo, puede que la viabilidad técnica de vehículos tan complejos que rocen la inteligencia e intuición humana sea imposible en los marcos de movilidad urbana de nuestras ciudades.
Probablemente, también sea importante entender que los robotaxis no son solo un invento tecnológico, sino uno en gran medida socioeconómico.
Sobre el autor: Julián Estévez Sanz, Profesor e investigador en Robótica e Inteligencia Artificial, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Los robotaxis hacen trampas: la conducción autónoma podría no serlo tanto se ha escrito en Cuaderno de Cultura Científica.
Al borde de la extinción en el Pleistoceno
José María Bermúdez de Castro, codirector de los yacimientos de Atapuerca, reflexiona en este texto sobre la repercusión de un inquietante estudio sobre lo cerca que estuvo la humanidad de la extinción durante el Pleistoceno.
Cráneo de neandertal (a la izquierda) y de Homo sapiens (a la derecha). Fuente: The Trustees of the Natural History MuseumUn prestigioso equipo de investigadores de varias instituciones científicas de China, formado, entre otros, por Hu Wangjie, Ha Zigian, Pan Y-Huan y Li Haipeng, publicó hace poco un trabajo en la revista Science, cuyas conclusiones resultan inquietantes. Estos científicos han estudiado el ADN de una muestra de más de 3.000 individuos actuales procedentes de diferentes regiones del planeta y han desarrollado un nuevo modelo genético (FitCoal), extremadamente complejo para la comprensión de quienes no somos genetistas y matemáticos.
Este modelo posibilita proyectar la variación genética actual hacia el pasado y estimar el tamaño de las poblaciones pretéritas. Los resultados del estudio sugieren que hace entre 813.000 y 930.000 años la humanidad experimentó un cuello de botella y quedó reducida a poco menos de 1.300 individuos reproductores. Ese cuello de botella, quizá causado por las severas condiciones climáticas de finales del Pleistoceno inferior, duró nada menos que 117.000 años y habría dejado al linaje humano al borde de su desaparición.
Esta conclusión nos deja con un nudo en el estómago, pero también con algo de escepticismo en relación con los titulares que el propio editorial de la revista Science ha propiciado. Sabemos que en aquella época existían varias especies del género Homo distribuidas por África y Eurasia: Homo antecessor, Homo erectus, Homo ergaster, Homo floresiensis y tal vez alguna más. Con esta diversidad, parece seguro que nuestra genealogía habría tenido, en conjunto, una respuesta adaptativa suficiente como para salir del cualquier atolladero.
Tras meditar sobre las conclusiones del artículo de nuestros colegas, hemos intentado poner un poco de orden en nuestra mente, sin dejarnos llevar por la autoridad de los trabajos de investigación publicados por una revista de tanto prestigio como Science y por un modelo tan complejo, cuya comprensión está al alcance de pocos.
Un “agujero negro” en la evolución humanaEs cierto que el registro fósil de hace aproximadamente un millón de años es limitado. Tanto es así que desde siempre se ha comentado entre los expertos la existencia de un verdadero “agujero negro” en la evolución de los homininos. Esa falta de yacimientos con fósiles humanos podría explicarse por causas geológicas. Además, el territorio inexplorado por arqueólogos y paleontólogos hasta la fecha por razones económicas, políticas y sociales es inmenso.
Poco a poco, ese agujero negro se ha ido llenando de contenido y ya han empezado a contabilizarse un cierto número de yacimientos de esa época tanto en África como en Eurasia. No olvidemos, por ejemplo, que el nivel TD6 del yacimiento de la cueva de la Gran Dolina, en la sierra de Atapuerca (Burgos), se ha datado en aproximadamente 850.000 años, precisamente en los límites temporales de ese cuello de botella sugerido por los resultados del modelo de los científicos chinos.
El yacimiento de la Gran Dolina y otros yacimientos europeos de la misma época sugieren que el sur de Europa estuvo habitado hacia finales del Pleistoceno inferior por una población humana relativamente numerosa y viable. Ciertamente, cada vez tenemos mayor constancia de la existencia de homininos de esa época en el este de África o China. ¿Entonces?, ¿qué significado tienen los resultados del equipo de científicos chinos?, ¿se trata solo de un modelo, que puede estar equivocado? No necesariamente.
Pienso que el propio resumen realizado por el editorial de la revista Science nos ha confundido a todos. Los medios de comunicación de todo el mundo han publicado titulares llamativos acordes con ese resumen, que no se ajustan a la realidad de lo que pudo haber sucedido hace 900.000 años.
En ese tiempo, una de las poblaciones de homininos, todavía por determinar, pudo ser el origen de los neandertales, los denisovanos y los humanos modernos. Hasta el momento, nadie ha sido capaz de identificar con seguridad esa población enigmática que, en mi opinión, vivió en Oriente Próximo. Mientras tanto, en varias de regiones de África y Eurasia prosperaban otras poblaciones de diferentes especies: Homo antecessor, Homo erectus, Homo ergaster, Homo floresiensis…
¿Cómo lograron sobrevivir tan pocos tanto tiempo?Mi interpretación de los resultados de los científicos chinos es que el modelo FitCoal conduce únicamente a esa población misteriosa de la que surgió finalmente la humanidad actual, junto a los neandertales y los denisovanos.
Si lo que pienso es correcto, no sería de extrañar que esa población enigmática se hubiera originado como resultado de ese cuello de botella que sugiere el modelo FitCoal. Siendo una población de tamaño tan exiguo, es normal que las excavaciones arqueológicas y paleontológicas no hayan dado todavía con algún yacimiento de esa población. Pero todavía quedaría una pregunta por responder: ¿cómo es posible que una población tan pequeña pudiera sobrevivir durante más de 100.000 años?
Si el cuello de botella hubiera persistido durante tanto tiempo, las posibilidades de supervivencia de la población habrían sido casi nulas. Los autores de la investigación son plenamente conscientes de ese problema y plantean la misma pregunta en el último párrafo de su artículo en Science.
Los modelos son eso precisamente: modelos, que no tienen por qué ajustarse necesariamente a la realidad. La hipótesis de que sapiens, neandertales y denisovanos comparten un mismo ancestro común, cuyo origen puede situarse en algún lugar de África o Eurasia hace unos 900.000 años, es ampliamente aceptada por la comunidad científica. El modelo FitCoal seguramente ha podido llegar en sus estimaciones hasta esa población “misteriosa”, pero habría obviado esas otras poblaciones que medraban por buena parte de África y Eurasia a finales del Pleistoceno inferior.
Si esta interpretación es correcta, la población originaria del linaje que condujo finalmente hasta nosotros estuvo pendiente de un hilo. Caso de que esa población enigmática hubiera fracasado por falta de efectivos, otras especies humanas habrían prosperado. ¿Imaginan los lectores un planeta habitado por los descendientes de Homo erectus?
Para saber más:
La humanidad ante su propia extinción
Quince virus que han cambiado la historia de la Humanidad
Sobre el autor: José María Bermúdez de Castro. Investigador ad Honorem. Centro Nacional de Investigación sobre la Evolución Humana (CENIEH), Burgos.
Este texto apareció originalmente en SINC.
El artículo Al borde de la extinción en el Pleistoceno se ha escrito en Cuaderno de Cultura Científica.
El toro, la botella de Klein y el plano proyectivo real (III)
Con esta entrada del Cuaderno de Cultura Científica cerramos una serie dedicada a tres curiosas superficies relacionadas con la banda de Moebius, a saber, el toro, la botella de Klein y el plano proyectivo real, y a cómo algunos artistas contemporáneos han representado estas superficies en sus obras de arte. La primera entrada, titulada El toro, la botella de Klein y el plano proyectivo real (I), estaba dedicada a la superficie del toro y se mostraban esculturas del artista japonés Keizo Ushio, del escultor minimalista estadounidense Richard Serra o del artista británico Jack Eagan, entre otros. Mientras que la segunda entrada, titulada El toro, la botella de Klein y el plano proyectivo real (II), se centraba en la superficie conocida con el nombre de botella de Klein y en obras de artistas como el mexicano Pedro Reyes, la parisina Bettina Samson o la matemática y artista argentina Moira Chas. Y la serie se cierra, en esta entrada, con el plano proyectivo real.
Down Force / Fuerza hacia abajo (2015), del escultor estadounidense Harry Pollitt, es una escultura en madera de una larga banda de MoebiusTodo empieza con una superficie rectangularAntes de introducir la extraña superficie conocida con el nombre de plano proyectivo real, vamos a repasar cómo se construían el toro y la botella de Klein. Se empieza con una tira de papel rectangular ABCD (véase la siguiente imagen), en general, una superficie “topológica” rectangular, es decir, que nos permitiremos estirarla si fuese necesario, ya que estamos interesados en la creación de superficies topológicas, en este caso, el toro, la botella de Klein y el plano proyectivo real.
Tira de papel ABCD
Dada esa superficie rectangular ABCD, si se pegan los lados AB con DC se obtiene un cilindro, pero en función de cómo se junten los otros dos lados se generan dos nuevas e interesantes superficies. Si lo hacen de forma directa (AD con BC, como indican las flechas de la siguiente imagen) será la superficie cerrada con dos caras, denominada en matemáticas “toro”, que tiene forma de rosquilla o flotador.
Construcción de la superficie del toroSi los otros dos lados se pegan en el sentido contrario (AD con CB), girando media vuelta antes de pegarse, entonces se construye la superficie topológica llamada “botella de Klein”, que es una superficie cerrada que solo tiene una cara. Como se explicaba en la anterior entrada y se muestra en la siguiente imagen, los extremos del cilindro no se pegan de forma directa, sino en sentido contrario, luego sería como si se pegaran “por detrás”. El problema es que para hacer esto tenemos que cruzar la propia superficie para poder unir esos dos extremos en la forma descrita. De esta manera, lo que se genera es una “representación” de la botella de Klein que se autointerseca, como se muestra en la imagen.
Construcción de la botella de Klein con autointersecciónTambién explicábamos en la anterior entrada, que la botella de Klein, tal cual la hemos definido, no debiera de tener autointersecciones. El problema está en que esta construcción geométrica “ideal” no genera una superficie que esté dentro de nuestro espacio tridimensional, sino que su espacio natural es el espacio de dimensión cuatro, y aquí nos encontramos con un gran problema, ya que no somos capaces de visualizar la cuarta dimensión. Por este motivo, nos quedábamos en la anterior entrada con esta representación, que al menos habita en el espacio visual, el espacio de dimensión tres.
Un material muy interesante para observar y entender bien la botella de Klein, en particular, su realización en el espacio tridimensional, es el cristal. En la siguiente imagen podéis disfrutar de una botella de Klein realizada en cristal. Aquí os presento mi botella de Klein construida en cristal, que me ha regalado la junta directiva de la Sociedad Madrileña de Profesores de Matemáticas (SMPM) Emma Castelnuovo, por mi participación en las jornadas formativas de enseñanza y aprendizaje de las matemáticas, de este año 2023. ¡Muchísimas gracias por tan hermoso presente!
Botella de Klein construida en cristal
Por otra parte, mi amiga Mariel García, la conocida “Mariel Mates”, que tiene hermosas creaciones textiles relacionadas con las matemáticas, como las geniales y coloridas bufandas “pi-bufanda” y “fibo-bufanda”, ha tejido recientemente una interesante y hermosa botella de Klein, que podéis ver en la siguiente imagen.
Fibobufanda (2023), de la matemática y artista Mariel MatesEl plano proyectivo realLa superficie que nos ocupa para cerrar esta serie, el plano proyectivo real, es una interesante superficie desde el punto de vista matemático, pero también complicada de entender, aunque vamos a intentar definirla siguiendo la línea constructiva que hemos trazado en esta serie.
Volviendo a nuestra tira rectangular ABCD, si se pegan los dos extremos opuestos, pero girando media vuelta uno de los extremos, por ejemplo, en el rectángulo de la siguiente imagen se pega AD con CB, se forma la banda de Moebius, como ya hemos explicado en muchas entradas anteriores y mostramos en la siguiente imagen.
Construcción de la banda de Moebius, pegando los extremos AD con CB de una tira rectangular ABCDPero, si ahora, dada esa banda de Moebius, pegamos los otros dos extremos del rectángulo, girando media vuelta de nuevo a uno de ellos, es decir, se pega AB con CD, se obtiene la conocida superficie denominada “el plano proyectivo real”, que resulta ser otra superficie cerrada (sin borde) con una sola cara. Para intentar realizar una “imagen” de esta superficie, tenemos que darnos cuenta de que las dos parejas de lados opuestos del rectángulo ABCD se pegan en sentido contrario, DA con BC y AB con CD. Esta forma de pegar los lados opuestos es como si pegáramos DAB con BCD, como se muestra en la siguiente imagen. El problema está, de nuevo, que no hay forma de pegar DAB con BCD sin pasar a través de la propia superficie, por lo que la imagen que se muestra a continuación es una realización tridimensional, con autointersecciones, del plano proyectivo real (que se conoce con el nombre de “gorra cruzada”, del inglés “cross cap”). Al igual que ocurría con la botella de Klein, el plano proyectivo real tampoco está, de forma natural, en el espacio tridimensional, sino que habita de forma natural en el espacio de dimensión cuatro. Por lo tanto, lo que nosotros podemos ver son proyecciones del plano proyectivo real, que existe en el espacio de dimensión cuatro, sobre el espacio tridimensional. Luego no vemos toda su realidad, sino proyecciones del mismo.
Representación tridimensional, luego con auto-intersecciones, de la construcción del plano proyectivo real, a partir de una tira rectangular ABCD, pegando los extremos DA con BC y AB con CD, o lo que es lo mismo, pegando DAB con BCD. A esta representación del plano proyectivo real se la conoce con el nombre gorra cruzadaComo acabamos de comentar, el plano proyectivo real es una superficie que, por su construcción, no se puede representar en el espacio tridimensional (nuestro espacio visual y mental), sino que vive en el espacio de dimensión cuatro. Por este motivo, al proyectarlo en el espacio tridimensional se producen auto-intersecciones, como en la representación anterior. Aunque no vamos a explicar su origen, existen otras formas de representar/proyectar el plano proyectivo real en el espacio tridimensional. Tres representaciones clásicas del plano proyectivo real son el sombrero cruzado, que ya hemos mostrado, la superficie de Boy (que recibe su nombre del matemático alemán Werner Boy (1879-1914), quien descubrió esta superficie en 1901, cuando su director de tesis, el matemático alemán David Hilbert (1862-1943) le pidió que demostrase que era imposible realizar una “inmersión” del plano proyectivo real en el espacio tridimensional) y la superficie romana de Steiner (que recibe su nombre del matemático suizo Jakob Steiner (1896-1963), quien la descubrió en 1844, en un viaje a Roma), que se muestran, con dos puntos de vista distintos de cada una de ellas, en la siguiente imagen.
El sombrero cruzado, la superficie romana de Steiner y la superficie de Boy, tres proyecciones del plano proyectivo real en el espacio tridimensionalEsculpiendo el plano proyectivo real
Nos encontramos ante una superficie geométrica compleja y crear una escultura con alguna de sus realizaciones tridimensionales no es una tarea sencilla, por lo que algunos de los trabajos artísticos sobre las mismas los desarrollan artistas con formación matemática o que colaboran con personas del ámbito de las matemáticas.
El primer artista que traemos a esta entrada es el escultor y matemático estadounidense Helaman Ferguson (1940), de quien ya explicamos su obra Toro umbilical (1988) en la entrada Arte Moebius (II). Ferguson es uno de esos artistas cuyo arte podríamos denominar “arte matemático”, ya que sus esculturas tienen una fuerte componente matemática. En particular, trabaja mucho con superficies topológicas, como las que nos ocupan en esta serie. Sobre la relación entre escultura y matemáticas Helaman Ferguson dice lo siguiente: “creo que la escultura es una forma muy poderosa de transmitir las matemáticas, y estas son un lenguaje de creación muy poderoso para la escultura”.
La escultura Torus with cross cap and vector field / Toro con gorra cruzada y campo de vectores (1989), realizada en bronce, no es una escultura de la realización tridimensional del plano proyectivo real denominada gorra cruzada, que acabamos de explicar más arriba, sino de una nueva superficie que está formada por la unión de la gorra cruzada con la superficie del toro.
Escultura Torus with cross cap and vector field / Toro con gorra cruzada y campo de vectores (1989), del artista y matemático Helaman Ferguson, realizada en bronceAdemás, realizó una segunda versión en mármol blanco, que mostramos en la siguiente imagen.
Escultura Torus with cross cap and vector field / Toro con gorra cruzada y campo de vectores (1988), del artista y matemático Helaman Ferguson, realizada en mármol blancoNuestra siguiente artista también se ha formado en matemáticas, de hecho, tiene formación tanto en matemáticas, como en bellas artes. Se trata de la matemática y artista estadounidense Camila Friedman-Gerlicz. Ella ha realizado una curiosa instalación de la superficie de la gorra cruzada, titulada Cross Cap Surface Parametrization / Parametrización de la gorra cruzada (2018), que consiste en una escultura de madera muy especial, con la forma de la gorra cruzada, un dispositivo rectangular táctil en la base de la escultura, como se muestra en la siguiente imagen, y un sistema de luces dentro de la gorra cruzada de madera.
Cross Cap Surface Parametrization / Parametrización de la gorra cruzada (2018), de la matemática y artista estadounidense Camila Friedman-Gerlicz¿Cómo funciona la instalación? Es lo que en matemáticas llamamos una parametrización de la superficie de la gorra cruzada, es decir, cada punto del rectángulo de la base se corresponde con un punto de la superficie. De hecho, en esta instalación cuando se coloca un dedo en un punto del rectángulo táctil de la base se ilumina el correspondiente punto de la superficie, y si vamos moviendo nuestro dedo por el rectángulo se va moviendo la luz por la superficie de madera, visualizando así la relación entre el rectángulo generador y la realización, denominada gorra cruzada, del plano proyectivo real.
Luces en la instalación Cross Cap Surface Parametrization / Parametrización de la gorra cruzada (2018), de la matemática y artista Camila Friedman-Gerlicz, que se mueven en función de la posición del dedo en la zona rectangularEsta artista, cuyo arte está muy conectado con las matemáticas, también ha realizado una superficie de la gorra cruzada en cerámica, que es uno de los materiales con los que más trabaja. También en cerámica ha realizado otra de las realizaciones tridimensionales del plano proyectivo real, la superficie de Boy, que hemos mostrado más arriba.
Cerámica Projective layers / Capas proyectivas (2022), de la matemática y artista estadounidense Camila Friedman-GerliczAdemás, ha creado una escultura colgante en papel, que consiste en una triangulación de la superficie de Boy, es decir, ha representado una superficie poliédrica creada por triángulos, los cuales forman la superficie topológica descubierta por Werner Boy.
Escultura colgante Project(ive) / Proyect(iv)o (2020), de la matemática y artista estadounidense Camila Friedman-GerliczEsta artista matemática también tiene hermosas botellas de Klein realizadas en cerámica, que podéis encontrar en su cuenta de instagram.
Botella de Klein realizada en cerámica, de la matemática y artista estadounidense Camila Friedman-Gerlicz
Continuando con la superficie de Boy, una de las esculturas más conocidas de la misma dentro de la comunidad matemática, es la escultura que se encuentra en el exterior del Instituto de Investigación Matemática Oberwolfach, ubicado en la Selva Negra alemana (sobre el mismo escribí en la entrada Los institutos Isaac Newton y Oberwolfach, dos curiosas instituciones de investigación matemática). Esta escultura fue un regalo al instituto IMO de la empresa alemana Mercedes-Benz, que fue realizada en 1991 a partir de las computaciones realizadas por los matemáticos Hermann Karcher, Ulrich Pinkall e Ivan Sterling del Max Planck Institut für Mathematik en Bonn (Alemania).
Escultura de la superficie de Boy, de 1991, en el exterior del Instituto de Investigación Matemática Oberwolfach (Alemania)
El desarrollo de las impresoras 3D está permitiendo realizar hermosas esculturas de superficies matemáticas complejas de forma bastante sencilla. En particular, algunos artistas y artesanos están trabajando en esta línea y podemos encontrar, y comprar, curiosos y hermosos diseños en internet. Por ejemplo, el arquitecto, diseñador y matemático Rick Russell entre sus “Mathematical Creations” podemos encontrar esta Boy’ Surface Mesh / Malla de la superficie de Boy, cuyo tamaño es 6.25 x 6.38 x 4.72 cm, y está impresa en plástico metálico y acero bañado en oro.
Boy’ Surface Mesh / Malla de la superficie de Boy, fabricado por Mathematical Creations, es decir, Rick RussellO esta otra pieza que representa también la superficie de Boy, pero con color y agujeros, realizada por el artista y fabricante Benjamin Berger, que es la persona que está detrás de Implicit Art.
Color Boy’s surface weave / Entramado de la superficie de Boy en color, fabricado por Implicit Art, es decir, Benjamin BergerSi seguimos con objetos realizados con impresión 3D, también nos encontramos a la superficie romana de Steiner. Por ejemplo, el diseñador y fabricante Paul Summers, que es quien está detrás de los diseños de FluidDesigner, ha realizado el diseño de unos pendientes con forma de corazón, que realmente es la superficie de Steiner, que podéis admirar en la siguiente imagen.
Roman Surface Heart Earring / Pendientes corazón superficie romana, realizados por FluidDesigner, es decir, Paul SummersVamos a concluir esta entrada del Cuaderno de Cultura Científica con una escultura de la artista minimalista alemana-estadounidense Ruth Vollmer (1903-1982), relacionada con la escuela de la Bauhaus, con el título de Superficie de Steiner (1979), realizada en metacrilato, de la que también realizaría una versión con colores.
Superficie de Steiner (1979), de la artista alemana-estadounidense Ruth VollmerBibliografía
1.- Raúl Ibáñez, Las matemáticas como herramienta de creación artística, colección Miradas matemáticas, Catarata, 2023.
2.- Clifford A. Pickover, La banda de Möbius, Almuzara, 2009.
3.- Martin Gardner, Festival mágico-matemático, Alianza editorial, 1984.
4.- Stephen Barr, Experiments in Topology, Dover, 1989.
5.- Martin Gardner, The Sixth Scientific American Book of Mathematical Puzzles and Diversions, Simon & Schuster, 1971.
6.- Raúl Ibáñez, La cuarta dimensión, RBA, 2010.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El toro, la botella de Klein y el plano proyectivo real (III) se ha escrito en Cuaderno de Cultura Científica.
¡Qué WAY! Más incertidumbre al principio de incertidumbre
El principio de incertidumbre de Heisenberg es de sobra conocido. Una forma de expresarlo con palabras es la siguiente:
Es imposible medir la posición y el momento lineal de un corpúsculo subatómico en el mismo instante con una precisión ilimitada. Cuanto más precisa es la medición del momento lineal, menos precisa es la medición de la posición en ese instante, y viceversa.
Pero el principio no solo afecta al momento lineal y la posición, sino a cualquiera dos observables que no conmutan, como la energía y el tiempo. Esto de que no conmutan lo podemos entender si pensamos en los dos observables como operadores matemáticos que toman la forma de matrices, y sabemos que en álgebra matricial el producto A·B no tiene por qué ser igual a B·A.
Podemos decir, por tanto, que, de forma general, el principio de incertidumbre de Heisenberg limita la precisión con la que se pueden medir simultáneamente dos observables que no conmutan entre sí.
Pero la cosa no queda aquí. El teorema de Wigner-Araki-Yanase (WAY) va más allá. Si los observables A y B no conmutan, y si el observable A se conserva, el observable B no puede medirse con precisión arbitraria,ojo, incluso si A no se mide en absoluto. En su formulación original de 1960, el teorema WAY se aplicaba solo a observables cuyos valores posibles son discretos y están acotados, es decir, que solo pueden tomar un número finito de valores concretos, como el espín.
Y ahora es cuando lo de la incertidumbre cuántica se torna psicodelia. Dos investigadores acaban de presentar la demostración de que el teorema WAY también aplica a observables como la posición, esto es, observables que ¡son continuos y no están acotados!
Este resultado, además de resolver el problema de cómo abordar estos observables, probablemente encontrará aplicaciones prácticas en la óptica cuántica.
Cómo lo han hecho
La dificultad de extender el teorema WAY surge de cómo se representa un observable L no acotado, a saber, como una matriz de dimensión infinita con valores propios no acotados. Para solucionar el problema, los investigadores no usan L directamente, sino una función exponencial de L, que forma un grupo unitario de un solo parámetro. Aunque la función exponencial tampoco está acotada, su espectro de valores propios está contenido dentro del círculo unitario del plano complejo. Gracias a esa limitación, se pueden utilizar técnicas conocidas de la información cuántica para completar la prueba.
Y esto, ¿qué significa en términos de nuestras viejas conocidas posición y momento? Como el momento se conserva, el teorema extendido de WAY implica que la posición de una partícula no se puede medir con precisión arbitraria, incluso si su momento no se mide simultáneamente.
Pares similares de observables aparecen habitualmente en la óptica cuántica. Los investigadores apuntan a que su teorema podría ser útil para establecer límites a cuánto pueden superar a las clásicas las versiones cuánticas de los protocolos de transmisión.
Referencia:
Yui Kuramochi and Hiroyasu Tajima (2023) Wigner-Araki-Yanase Theorem for Continuous and Unbounded Conserved Observables Physical Review Letters doi: 10.1103/PhysRevLett.131.210201
Para saber más:
Serie Cuantos (introducción a los conceptos básicos de la mecánica cuántica)
Serie Incompletitud y medida en física cuántica
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo ¡Qué WAY! Más incertidumbre al principio de incertidumbre se ha escrito en Cuaderno de Cultura Científica.
Glaciares de sal en Mercurio
Cuando pensamos en glaciares creo que lo más inmediato que nos viene a la mente es un clima polar o de alta montaña, por eso es posible que el título de este artículo pueda ser algo desconcertante al mezclar el planeta Mercurio, el más cercano al Sol, y la palabra glaciares… aunque lo cierto es que incluso allí podemos encontrar hielo en los cráteres en sombra permanente, pero eso ya es harina de otro costal.
Los glaciares de sal son menos comunes que los de hielo, y quizás por eso pasan más desapercibidos para el público no especialista, pero no por ello dejan de ser un fenómeno verdaderamente fascinante y que toma su nombre precisamente por el increíble parecido con los otros glaciares que, por cierto, no solo los encontramos formados por hielo de agua, sino que también los hemos encontrado formados por hielo de nitrógeno, como ocurre en Plutón.
Pero, ¿qué son en realidad? Imaginemos un glaciar de hielo. Estos están formados por la nieve que al compactarse va transformándose lentamente en hielo y que, bajo la presión de su propio peso y la gravedad, provoca que estas masas de hielo vayan fluyendo lentamente, como si fuese un río viscoso. Pues bien, en los glaciares de sal ocurre algo parecido, solo que con sales en vez de hielo.
Figura 1. Domo y glaciar de sal en los Zagros, Irán. Para que nos hagamos una idea de la escala, por el lado más largo -el que va del noroeste al sureste- hay unos quince quilómetros en los que podemos ver formas que nos recuerdan al flujo de hielo en un glaciar. Imagen del satélite Sentinel 2 cortesía del Programa Copernicus de la Unión Europea.La sal puede comportarse de una manera similar a como lo hace el hielo bajo determinadas condiciones: Cuando los estratos de sal quedan enterrados bajo otras capas de roca, las inmensas presiones a las que se ve sometida, junto con la temperatura que hay en las profundidades de la Tierra, puede hacer que esta empiece a convertirse también en un fluido viscoso -a escala geológica- y empiece a fluir, muchas veces formando estructuras diapíricas, como si fuesen una gigantesca gota de sal que se ve forzada a subir a través de la corteza, similar a lo que vemos en las lámparas de lava cuando la parafina llega hasta el fondo, se calienta, y comienza a subir.
En nuestro planeta, los glaciares de sal aparecen donde existen grandes depósitos de estos compuestos y que, por su contexto geológico, obliga a estas capas a migrar hacia arriba, a veces fracturando los estratos de roca superiores. Cuando la sal llega a la superficie, puede empezar a fluir cubriendo el paisaje, a veces creando glaciares de varios kilómetros de longitud.
Las últimas misiones a Mercurio pusieron de manifiesto la existencia de algunas formas en el terreno que indicaban signos de sublimación -es decir, el paso de un sólido al estado gaseoso sin pasar por el líquido-, lo que demostraría la existencia de una gran cantidad de elementos volátiles en el planeta, algo que hasta hace unas décadas era escasamente considerado por la comunidad científica debido a su extrema proximidad al Sol.
Un nuevo estudio publicado en The Planetary Science Journal este mes de noviembre, aborda la presencia de estos glaciares centrándose en dos zonas, la cuenca de impacto de Raditladi y en Borealis Chaos, situado en las inmediaciones del polo norte de Mercurio… pero, ¿cómo se han formado en este planeta?
Figura 2. Depresiones en el fondo de la cuenca de impacto de Raditladi observadas por la sonda MESSENGER. Estas son las zonas de color blanco y que se sopecha están formadas por la pérdida de elementos volátiles. Imagen cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington.El estudio sugiere que estos glaciares se formaron cuando los impactos de asteroides fueron capaces de exponer capas ricas en volátiles (VRLs según la terminología en inglés) y que yacían bajo una capa superficial -por ejemplo, capas formadas por la lava de las erupciones volcánicas- que protegía a los elementos volátiles de la sublimación. Una vez liberada la presión, los materiales de estas capas podían fluir hacia afuera, moviéndose como los glaciares de sal de nuestro planeta en una escala temporal que dependería de las temperaturas que hubiese en ese momento en la superficie de Mercurio.
¿Cuál sería la composición de estos glaciares? Los científicos del estudio plantean que podrían estar compuestos principalmente por halita -el mineral que usamos para fabricar la sal común o de mesa- ya que sus propiedades y su reacción ante las distintas temperaturas condicionan su viscosidad y resistencia y podrían explicar las formas que se observan en Mercurio.
Otra de las cuestiones que se abordan y que es muy interesante es: ¿De dónde salen estas VRLs en Mercurio? ¿Podrían ser el relicto de una condensación completa de la atmósfera del planeta? Hablamos, claro, de la atmósfera original que ya no tiene, formada en esos primeros momentos tras el “nacimiento” -entiéndase nacimiento en sensu lato– del planeta en los que la actividad volcánica era tan fuerte que la degasificación a través de los volcanes permitía a Mercurio tener una atmósfera efímera, a lo que sumado a la colisión de cuerpos ricos en volátiles, podrían haber conseguido formar una atmósfera de cierta entidad.
Figura 3. Otra perspectiva -ahora a color- de las depresiones o huecos dejadas por los volátiles una vez escaparon al espacio, también tomada por la sonda MESSENGER. Imagen cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington.Esta atmósfera pudo empezar a condensarse sobre Mercurio durante las largas noches -hay que pensar que el día de Mercurio dura 176 días- provocando el depósito de los elementos volátiles sobre la superficie debido a las bajas temperaturas y que en algunos sitios serían cubiertos por nuevas coladas de lava o por la propia formación del regolito. Es importante reseñar que, aunque normalmente en nuestro planeta estemos acostumbrados a que la halita sea un mineral de origen sedimentario, los volcanes también pueden exhalar este mineral, y este sería el origen más probable de la halita presente en las VRLs de Mercurio.
Durante los periodos de condensación atmosférica, incluso es posible que sobre Mercurio existiesen lagos o mares poco profundos de agua en estado líquido o supercrítico, permitiendo que la sal formase estos depósitos, algo que puede resultarnos muy chocante si pensamos en la cercanía de Mercurio al Sol, pero que desde luego es una teoría interesante de cara a poder explicarnos lo que vemos.
Por último, los autores también remarcan el potencial astrobiológico de estas capas, ya que en nuestro planeta son capaces de crear zonas habitables incluso en los lugares más inhóspitos, debiendo de considerarse de interés este tipo de contextos geológicos e incluso estudiar su potencial de preservación de biomarcadores en nuestro Sistema Solar de cara a futuras misiones tanto en nuestro Sistema Solar.
Referencias:
Rodriguez, J. A., Domingue, D., Travis, B., Kargel, J. S., Abramov, O., Zarroca, M., Banks, M. E., Weirich, J., Lopez, A., Castle, N., Jianguo, Y., & Chuang, F. (2023). Mercury’s hidden past: Revealing a volatile-dominated layer through glacier-like features and chaotic terrains. The Planetary Science Journal, 4(11), 219. doi: 10.3847/psj/acf219
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Glaciares de sal en Mercurio se ha escrito en Cuaderno de Cultura Científica.
En busca del yo y otros fantasmas
albedrío
Juan Ignacio Pérez Iglesias, lector
¿En qué consiste la consciencia? ¿Estamos predestinados a ser como somos y comportarnos como lo hacemos? ¿O tenemos capacidad real de incidir en nuestro destino? ¿Qué es el yo? ¿Qué soy?
Estas preguntas, formuladas de esta forma o de otras, se las han hecho los seres humanos al menos desde que hay constancia escrita de lo que llamamos filosofía. Últimamente, la neurociencia se ha sumado a las pesquisas y algunas de las ideas en boga proceden de ese campo.
El catedrático de filosofía (en la UNED) Jesús Zamora Bonilla ha abordado estas cuestiones en su En busca del yo, un libro que se ha editado en dos ocasiones, la segunda, con algunas adicciones a la original, por Shackleton Books (2022). Del autor había leído Contra apocalípticos: ecologismo, animalismo, poshumanismo, de la misma editorial, aunque más reciente (febrero de este mismo año).
En busca del yo empieza tratando del dualismo, esa creencia en la existencia en la persona de dos entidades, una material, que está formada por órganos, huesos, músculos y demás. Ese es el cuerpo. La otra es la inmaterial o espiritual. El dualismo tiene su referencia intelectual histórica más conocida en Descartes, quien propusiera la existencia de la res cogitans y la res extensa. La primera, “la sustancia que conoce”, es la que nos caracteriza como seres humanos. Es la componente inmaterial a la que me he referido antes. La segunda, “la sustancia extensa”, es la material.
En el cristianismo, la religión en que me educaron, la entidad inmaterial es el alma. El dualismo, no obstante, no es patrimonio exclusivo de quienes profesan credos religiosos. Muchas personas que declaran no creer en una divinidad piensan que existe esa otra entidad, la inmaterial, que es la que gobierna nuestros actos y en la que, en definitiva, consiste el yo. Y son aún más las que, sin creer en su existencia, se expresan y actúan, de hecho, como si existiera.
No es extraño que así sea. Se hace muy difícil aceptar en la práctica que nuestra identidad se fundamenta en una miríada de corrientes eléctricas a uno y otro lado de las membranas neuronales y en el continuo trasiego de moléculas entre neuronas adyacentes. “¿Eso es todo?” Es la pregunta implícita en la negativa a aceptar que, como diría Steven Pinker (The Blank Slate, 2003), en la máquina (el cuerpo humano) no hay un fantasma (el alma o como quiera que lo queramos llamar).
¿No gozamos de libre albedrío?Pensemos en lo que eso podría significar. Si no somos más que un conjunto más o menos bien ordenado de corrientes eléctricas, reacciones químicas y procesos físicos a media escala (movimientos musculares, circulación sanguínea, producción y eliminación de la orina, etc.), ¿no existimos como personas? ¿somos una mera máquina? ¿meros autómatas? ¿carecemos de voluntad real? ¿no gozamos de libre albedrío? ¿no somos, en el fondo, responsables de nuestros actos? Porque, ¿cómo vamos a ser responsables de algo acerca de lo que no tenemos verdadera capacidad de decisión?
Si la voluntad, la agencia consciente, la misma consciencia, el yo, no son más que ilusiones, ¿dónde queda la libertad? ¿dónde la responsabilidad? ¿dónde la culpa? Y por supuesto, ¿qué es el bien y el mal? En fin, podría seguir poniendo entre signos de interrogación muchas más nociones que son básicas para nosotros y sin las que –pensaríamos– no es fácil llevar una vida normal; no digamos ya una vida satisfactoria.
Zamora Bonilla no llega a plantearse en su libro todas esas cuestiones. Tras presentar el dualismo hace un recorrido por diferentes modelos o versiones de la mente o del yo, para llegar a los últimos capítulos en los que examina las ideas filosóficas que ha habido (o hay) acerca de la consciencia, el libre albedrío, la toma de decisiones y el yo. En ese recorrido, cuando es oportuno, también refiere los hallazgos neurobiológicos sobre esos temas.
Estos últimos capítulos son los que más me han interesado. Y en especial, lo que propone el autor acerca de la libertad de decisión. Resumiendo mucho, lo que viene a decir es que, estén nuestras decisiones más o menos determinadas, ello no exime de responsabilidad al sujeto que las toma porque en esa determinación también influye la conciencia (el juicio de los demás y el propio acerca de su moralidad) y las expectativas de recompensa o castigo.
Debo confesar que, aunque esta forma de ver el determinismo tiene indudable atractivo, no me acaba de convencer. Al fin y al cabo, la conciencia, en última instancia, no deja de ser un producto de la mente; esto es, un producto de un sistema biológico cuya naturaleza y funcionamiento nos remite a una secuencia previa de interacciones causales dentro del sistema o con el ambiente, sobre las que ningún yo ejerce, en realidad, el más mínimo control.
Concibo el yo como un actor en un escenario, que es la realidad en la que se desenvuelve y en el que ha de interpretar una función, que es su vida. En todo momento el actor ha de actuar “como si” lo que hace obedeciese a su voluntad y fuese fruto de su libertad. Como si las cosas fuesen como nos parecen que son, como las experimenta nuestra consciencia. Como si tuviéramos una mente (o alma) que está al cargo de nuestros actos y da cuenta de ellos. En mi concepción de la persona y de la realidad, el yo es una creación de la mente o, apurando un poco, de la máquina que es el encéfalo. Sería uno de tantos autoengaños mediante los que otorgamos –otorga la máquina– significado a la vida y propósito a nuestros actos. La máquina se engaña a sí misma porque no soporta su vacuidad esencial.
En cualquier caso, y al margen de mi opinión acerca de la tesis Zamora Bonilla, su libro me ha parecido muy interesante. Está, además, muy bien escrito. De Jesús no se puede decir que sea oscuro porque no puede ser profundo; todo lo contrario. A mí me ha servido para conceptualizar y ordenar muchas ideas e intuiciones que me cuesta formular de forma rigurosa. No coincido con el autor en la idea de que sin libre albedrío, seamos responsables de nuestras decisiones, con todo lo que ello comporta, pero su texto resulta muy útil para sistematizar ideas importantes. Y, por supuesto, es muy posible que él esté en lo cierto y servidor en el error.
Ficha:
Título: En busca del yo–El mito del sujeto y el libre albedrío
Autor: Jesús Zamora Bonilla
Editorial: Shackleton Books, 2022
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
Una versión de este texto apareció anteriormente en Lecturas y Conjeturas (Substack).
El artículo En busca del yo y otros fantasmas se ha escrito en Cuaderno de Cultura Científica.
Variables facilitadoras del desarrollo de la comprensión lectora
La jornada Las Pruebas de la Educación tuvo lugar con el objetivo de analizar la validez de las estrategias educativas puestas en marcha durante los últimos años. El enfoque STEAM o las clases virtuales fueron analizados desde la evidencia científica por un grupo de expertos y expertas que se reunió en la Facultad de Educación de Bilbao de la Universidad del País Vasco. La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la facultad de Educación de Bilbao, tuvo lugar el 27 de octubre pasado.
Esta sexta edición volvió a estar dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. Su objetivo ha sido reflexionar, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día. El seminario ha contado, una vez más, con la dirección académica de la vicedecana de Investigación y Transferencia de la Universidad Autónoma de Madrid, Marta Ferrero González.
En esta charla, Luis Ramos Soriano, licenciado en Psicología y doctor por la Universidad de Valencia, habla de los elementos que facilitan la comprensión lectora basándose en las evidencias científicas.
Edición realizada por César Tomé López
El artículo Variables facilitadoras del desarrollo de la comprensión lectora se ha escrito en Cuaderno de Cultura Científica.
Posible estrategia terapéutica contra la esclerosis lateral amiotrófica
La esclerosis lateral amiotrófica (ELA) es una enfermedad neurodegenerativa que afecta a las neuronas del cerebro y la médula espinal provocando la pérdida del control muscular. Un estudio liderado por la Universidad de Barcelona y el Centro de Física de Materiales (CFM, mixto CSIC-UPV/EHU) ha diseñado una potencial estrategia terapéutica para abordar esta patología que todavía no tiene cura. Se trata de una trampa molecular, que evita que uno de los compuestos peptídicos causantes de la ELA genética más común -el dipéptido polyGR- provoque sus efectos tóxicos en el organismo. Los resultados muestran que esta estrategia reduce la muerte de las neuronas de pacientes y en un modelo animal (moscas del vinagre) de la enfermedad.
La figura ilustra 10 mecanismos propuestos para la esclerosis lateral amiotrófica y los genes asociados. Fuente: Philip Van Damme P, Robberecht W, Van Den Bosch L (2017) Modelling amyotrophic lateral sclerosis: progress and possibilities. Disease Models and Mechanisms. 10 (5): 537-549. doi: 10.1242/dmm.029058Una de las causas genéticas más frecuentes de la ELA es la mutación en el gen C9orf72, ya que se encuentra en aproximadamente el 33% de las personas pacientes afectadas por la ELA familiar y el 5% de las afectadas por la ELA esporádica en España. En estos/as pacientes se generan unos dipéptidos con gran cantidad de cargas positivas que producen efectos altamente tóxicos en las neuronas motoras. En la primera parte del estudio, el equipo de investigación combinó técnicas computacionales y experimentales para mejorar la comprensión molecular de estos dipéptidos y cómo producen este proceso patológico.
Una unión tóxica para las neuronasLos resultados mostraron que la toxicidad de estos compuestos se debe en parte a lo que se unen al ARN ribosomal (ARNr), una molécula que participa en el proceso de traducción de la información genética y la síntesis de proteínas en la célula. «Hemos visto que estos dipéptidos, especialmente los ricos en el aminoácido arginina (poli-glicina-arginina o polyGR), se unen a una región concreta del ARNr afectando a la biosíntesis de ribosomas (pequeñas estructuras que se encargan de sintetizar las proteínas de nuestro organismo) y la traducción de proteínas en neuronas motoras humanas, produciendo la muerte de éstas», explica el profesor Juan Alberto Ortega Cano. «Además – añade el investigador – esta interacción de los polyGR con el ARNr es mucho más fuerte que la interacción del polyGR con otras proteínas ribosomales que se habían descrito previamente en otros estudios, y explica por qué estos dipéptidos tienen gran afinidad en unirse a los ribosomas de las células».
Ante estos resultados, el equipo de investigación diseñó una innovadora estrategia para engañar a los dipéptidos polyGR y reducir su toxicidad. Crearon una trampa, una molécula que imitaba la secuencia específica del ARNr con la que se unen los polyGr durante el proceso patológico, con el objetivo de evitar así los efectos neurotóxicos de esta unión. La aplicación de esta estrategia en neuronas derivadas de tejido de pacientes in vitro y en modelos de la enfermedad (moscas del vinagre) in vivo muestran que «reduce los defectos en la biosíntesis de ribosomas en la traducción de proteínas y la toxicidad en cielo que expresan polyGR, así como la muerte en motoneuronas de pacientes de ELA con mutaciones en el gen C9orf72», detalla el investigador.
Aunque todavía queda mucha investigación por validar y comprender completamente el funcionamiento de esta innovadora estrategia, los/las autores/as señalan en el artículo que estos prometedores resultados refuerzan la idea de que el uso de trampas de ARN es útil «no sólo para estudiar las interacciones ARN-proteína, sino también para proteger a las neuronas de los efectos perjudiciales de proteínas anómalas que se generan en otras enfermedades neurodegenerativas».
Referencia:
Ortega, J.; Sasselli, I.; Boccitto, M.; Fleming, A.; Fortuna, T.; Li, Y.; Sato, K.; Clemons, T.; Daley, E.; Nguyễn, T.; Anderson, E.; Ichida, J.; Pandey, U.; Wolin, S.; Stupp, S.; Kiskinis, E. (2023) CLIP-Seq analysis enables the design of protective ribosomal RNA bait oligonucleotides against C9ORF72 ALS/FTD poly-GR pathophysiology Science Advances doi: 10.1126/sciadv.adf7997
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Posible estrategia terapéutica contra la esclerosis lateral amiotrófica se ha escrito en Cuaderno de Cultura Científica.
Historias volcánicas de Islandia
Desde hace varios días, toda la comunidad geológica y varios medios de comunicación estamos pendientes de una posible erupción volcánica en Islandia. Aunque, en realidad, esto no sería una noticia novedosa, ya que en esta isla se están produciendo erupciones continuamente. Lo que nos tiene un poco en vilo es el tipo de vulcanismo que se podría generar en esta ocasión y, sobre todo, sus consecuencias. Y, para entenderlo, quiero que hagamos un pequeño viaje en el tiempo.
Mapa esquemático de Islandia en el que se muestra la disposición del límite de las placas tectónicas Norteamericana y Europea, señalando con flechas sus movimientos relativos, y algunos de los volcanes más importantes de la isla. Imagen elaborada por el Servicio Geológico de los Estados Unidos (USGS), tomada de Wunderman, R., Fela, J., Herrick, J. y Kuhn Sennert, S. (eds.) (2011) Bulletin of the Global Volcanism Network, 36 (4), Smithsonian National Museum of Natural History.Pero antes quiero contextualizar un poco la situación. Islandia tiene una geología bastante particular que produce que sea una zona volcánicamente activa desde hace millones de años. Esta isla está situada en el límite de dos placas tectónicas, la Placa Norteamericana y la Placa Europea, que se están separando la una de la otra generando una fractura en la corteza terrestre que, en geología, denominados dorsal. En las dorsales la corteza está muy adelgazada, lo que permite el ascenso de material fundido, es decir, magma del manto que acaba saliendo al exterior a través de múltiples volcanes. Este vulcanismo generalmente se produce en los fondos oceánicos y es el motor que provoca el movimiento de separación de ambas placas tectónicas, fruto de la formación de nuevo fondo marino que “empuja” al más antiguo hacia las zonas continentales, donde es arrastrado por los movimientos de subducción de la placa tectónica con corteza oceánica por debajo de la placa tectónica con corteza continental. Pues la dorsal Atlántica atraviesa Islandia desde el suroeste hacia el noreste de la isla, con un ligero giro en su parte central.
Esquema de una erupción de tipo fisural. Imagen modificada de Encyclopaedia Britannica (2006)
En este contexto geológico, se producen un tipo de volcanes conocidos como fisurales. De manera resumida, consisten en la apertura de una fractura del terreno debido al ascenso de un cuerpo tabular de lava, denominado dique, que provoca erupciones a lo largo de varios puntos de la fractura. Son erupciones tranquilas, con lava de composición básica muy fluida que se desparrama rápidamente por el territorio circundante y con poca emisión de gases o fragmentos de rocas volcánicas a la atmósfera. Este tipo de erupción sólo tiene efectos negativos en las áreas circundantes a donde sucede, así que no resulta demasiado peligrosa.
Esquema simplificado del funcionamiento de un punto caliente o “hot spot” de acuerdo al modelo clásico de formación de las islas Hawái: existe una pluma mantélica o zona fija de ascenso de magma que se acumula por debajo de la placa tectónica, en este caso la Placa Pacífica, que, en momentos puntuales, provoca una erupción volcánica. Al moverse la placa por encima del punto caliente fijo, se van formando una serie de volcanes cada vez más antiguos según nos alejamos de dicho punto caliente. Imagen modificada a partir de un esquema original de Joel E. Robinson (USGS) / Wikimedia CommonsSin embargo, como he dicho antes, Islandia tiene una geología particular. Y es que también se encuentra situada encima de un punto caliente. Un “hot spot” o punto caliente es una zona fija en la que se acumula magma en el manto que, de vez en cuando, asciende hacia la superficie hasta provocar una erupción volcánica. Si este magma tiene composición ácida y cierta cantidad de gases, la erupción será explosiva, más violenta cuantos más gases incluya, liberándolos a la atmósfera junto con fragmentos de rocas volcánicas. Y este tipo de erupción sí que es peligrosa y puede llegar a afectar a zonas muy alejadas de la misma.
La incertidumbre sobre el tipo de erupción ante la que nos podemos encontrar en esta ocasión es la que nos tiene en alerta, ya que ha habido erupciones explosivas en Islandia a lo largo de la historia que la han liado parda. Para sustentarlo, os voy a poner un par de ejemplos.
En el año 536 entró en erupción un volcán islandés de nombre desconocido. Fue una erupción muy explosiva que descargó toneladas de gases, polvo y ceniza que llegaron a cubrir la atmósfera de todo el hemisferio norte durante, al menos, año y medio, impidiendo la entrada de los rayos solares a la superficie terrestre, lo que produjo una bajada de la temperatura promedio de hasta 2 °C durante varios años. Por si fuera poco, en el año 539 o 540, el volcán Ilopango también erupcionó de manera muy explosiva, liberando más gases y ceniza a la atmósfera y disminuyendo otros 2 °C más las temperaturas en este hemisferio. De hecho, hasta el 545 las temperaturas promedio en Europa fueron las más bajas de los últimos 2000 años. Incluso, se está estudiando si entre 547 y 549 se pudo producir una tercera erupción, de nuevo en Islandia, que mantuvo las bajas temperaturas hasta mediados del siglo VI. Ese descenso de la temperatura provocó la pérdida de cosechas, que condujeron a hambrunas, enfermedades, muertes, migraciones de la población e, incluso, guerras que fueron los detonantes del declive y desaparición de grandes imperios por todo el mundo. En Europa, favoreció una gran plaga de peste bubónica, la denominada plaga de Justiniano, que mató a millones de personas, además de fomentar la migración de pueblos mongoles que vieron desaparecer la vegetación de las estepas. Ambos procesos provocaron la caída del Imperio Bizantino. En Asia, el Imperio Persa consiguió derrotar y ocupar los territorios del Imperio Neobabilónico, ya en caída debido a la pérdida de las cosechas. Y el empuje migratorio de los pueblos hunos acabó con el Imperio Gupta en la India. Incluso en América sufrieron las consecuencias de la bajada de las temperaturas debido al cambio en los regímenes climáticos y oceanográficos, que dieron lugar a la dispersión y guerras entre los pueblos, el aumento de los sacrificios humanos y el abandono de grandes ciudades que significaron el declive del Imperio Moche y golpeó muy duramente al Imperio Maya. Así comenzó la conocida como Época Oscura de la Edad Media.
Esquema simplificado de la distribución de la nube de polvo, cenizas y gases volcánicos emitida a comienzos de la erupción del Laki (mediados de 1783) y su colapso directo sobre Europa continental. Imagen tomada de Thordarson, T. y Self, S. (2003) Atmospheric and environmental effects of the 1783–1784 Laki eruption: A review and reassessment. Journal of Geophysical Research, 108 (D1), 4011.Para el segundo ejemplo utilizaré la erupción del volcán Laki. Duró unos 8 meses, entre junio de 1783 y febrero de 1784 y se trató de un volcán fisural con pulsos eruptivos en los que se alternaban fases muy explosivas con fases más tranquilas. Durante los momentos explosivos, llegó a emitir toneladas de polvo, cenizas y gases volcánicos a la atmosfera, sobre todo óxidos de azufre. Esto provocó una enorme nube de ácido sulfúrico gaseoso que se expandió por toda Europa, provocando numerosos episodios de lluvia ácida y la generación de una niebla tóxica de azufre que cubrió el continente durante meses. Pero la zona más afectada por los efectos de esos gases tóxicos fue Francia. Aquí se produjo la pérdida de cosechas, la muerte del ganado y enfermedades respiratorias entre la población, sumada a una hambruna generalizada y muchas muertes entre la gente más humilde, situación que se alargó varios años. Esto llevó a la gente a pedir ayuda a las élites dominantes del país, que no se lo tomaron demasiado en serio, lo que provocó un descontento social, ciertas revueltas y, a la postre, un levantamiento del pueblo contra los gobernantes. Así comenzó la Revolución francesa, que terminó con la monarquía e instauró la república.
Como hemos visto, aunque parezca increíble, una simple erupción volcánica es capaz de alterar el delicado equilibrio entre atmósfera, hidrosfera, geosfera y biosfera durante varios años, llegando a provocar grandes cambios en poderosas civilizaciones y regímenes sociales. No quiero decir que la posible erupción actual vaya a generar todos estos procesos, pero no podemos dejar de mantener la guardia ante cualquier evento natural que podría llegar a desestabilizarnos. Espero que, si se produce una nueva erupción en Islandia, como mucho tengamos que suspender los vuelos por el norte de Europa durante unos cuantos días.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Historias volcánicas de Islandia se ha escrito en Cuaderno de Cultura Científica.
Un juego de dados no transitivo
Tenemos tres dados de seis caras cada uno de ellos y con sus caras completamente blancas. Disponemos también de dieciocho pegatinas (para pegar en las dieciocho caras que suman esos tres dados) en las que aparecen los números 1, 2, 3, 4, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17 y 18.
Fuente: Wikimedia Commons.
Antonio y Beatriz deciden jugar con esos tres dados del siguiente modo:
- Antonio coloca (como él decida) las 18 pegatinas en cada uno de los lados de los tres dados (una pegatina por lado),
- Beatriz elige uno de los tres dados (decide cual prefiere mirando la numeración de cada dado),
- Antonio escoge uno entre los dos dados restantes, y
- Antonio y Beatriz lanzan su dado.
Gana el juego quien obtiene el número más grande en la tirada.
Imaginemos, por ejemplo, que Antonio rellena un dado con las pegatinas 1, 2, 3, 4, 5 y 6, otro con las pegatinas 7, 8, 9, 10, 11 y 12 y el tercero con las pegatinas 13, 14, 15, 16, 17 y 18. Beatriz estará entonces segura de que va a ganar. ¿Por qué? Basta con que elija el tercer dado (cuyos lados contienen los números más grandes). Da lo mismo que dado seleccione Antonio después, porque obviamente la tirada de Beatriz ganará a la suya. Este ejemplo parece sugerir que elegir en primer lugar es una ventaja para Beatriz, es decir, que la probabilidad de que Beatriz gane es siempre mayor que ½.
Una estrategia ganadora para AntonioPero la anterior afirmación no es cierta. Antonio puede colocar las pegatinas de manera que, independientemente del dado que elija Beatriz, él tenga ventaja sobre ella, es decir, él tenga una probabilidad de ganar mayor que ½.
En el artículo de la referencia, Jean-Paul Delahaye sugiere una manera de actuar para que Antonio tenga más probabilidades que Beatriz de ganar.
Esta estrategia (ganadora) precisa que Antonio coloque las pegatinas del siguiente modo:
- en el dado 1 coloca los números 18, 10, 9, 8, 7 y 5,
- en el dado 2 pega los números 17, 16, 15, 4, 3 y 2,
- y en el dado 3 coloca las pegatinas restantes con los números 14, 13, 12, 11, 6 y 1.
La tabla de debajo muestra que se da una sorprendente situación cíclica al enfrentar los dados por parejas:
- el dado 1 gana en 21 tiradas (de las 36 posibles) al dado 2,
- el dado 2 gana en 21 tiradas (de las 36 posibles) al dado 3, y
- el dado 3 gana en 21 tiradas (de las 36 posibles) al dado 1.
Este fenómeno “paradójico” se debe a la falta de transitividad de este juego. La falta de transitividad alude al hecho de que A gane a B y que B gane a C no implica que A gane a C.
Con esta elección en la numeración de los tres dados, Antonio tendrá siempre mayor probabilidad de ganar que Beatriz. Es suficiente con que siga la siguiente estrategia:
- si Beatriz elige el dado 1, Antonio deberá escoger el 3,
- si Beatriz elige el dado 2, Antonio optará por seleccionar el 1, y
- si Beatriz elige el dado 3, Antonio se quedará con el 2.
De este modo, según lo dicho anteriormente, Antonio tiene siempre una probabilidad de ganar de 21/36; es decir, tiene una probabilidad de ganar en el 58,3 % de los casos.
BonusJean-Paul Delahaye comenta en su artículo otra situación paradójica. Si los tres dados se lanzan simultáneamente, sabemos que hay 216 resultados posibles y equiprobables. Se puede ver que el dado 2 tiene una probabilidad de ganar mayor que los otros dos. Efectivamente, ese dado gana en 90 de los 216 casos posibles, el dado 1 en 63 de los 216 y el dado 3 también en 63 de las 216 posibles tiradas. La equivalencia de los tres dados al enfrentarse dos a dos desaparece cuando se lanzan los tres al mismo tiempo. ¡Una de tantas sorpresas que nos proporcionan las probabilidades!
Nota
Otras situaciones de falta de transitividad se dan, por ejemplo, en el juego de piedra, papel o tijeras, en el juego de Penney o en la situación de ausencia de ganador en la paradoja del voto de Condorcet, por citar algunas.
Referencia
Jean-Paul Delahaye, Le dé le plus fort, Accromath 18, été-automne 2023
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Un juego de dados no transitivo se ha escrito en Cuaderno de Cultura Científica.
Durante el embarazo una ‘infección’ falsa protege al feto
Las células de la placenta tienen un truco inusual para activar defensas inmunes suaves y mantenerlas activas cuando no hay una infección presente. Implica crear e implementar un virus falso.
Un artículo de Annie Melchor. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Kristina Armitage / Quanta MagazineCuando eras niño parecía un plan ingenioso: echarte agua caliente en la cara y entrar tambaleándote en la cocina dejando escapar un gemido que podría hacer llorar a los ángeles. Un toque en tu frente enrojecida convencería a tus padres de que te diagnosticaran fiebre y te dejaran en casa sin ir al colegio.
No importa lo elaboradamente planificada y ejecutada que estuviese, este teatro probablemente no era tan persuasivo como se esperaba. Pero una nueva investigación, publicada este verano en Cell Host & Microbe, sugiere que mucho antes del nacimiento, una táctica similar ayuda a los humanos en desarrollo y a otros mamíferos a ofrecer un espectáculo más convincente.
El estudio mostró cómo la placenta, el órgano embrionario que conecta a la descendencia y a la madre, utiliza un truco molecular para simular una enfermedad. Al fingir que está bajo un ataque viral, mantiene el sistema inmunológico funcionando a un ritmo suave y constante para proteger al feto que encierra de los virus que escapan de las defensas inmunitarias de la madre.
El descubrimiento sugiere que, antes de que exista una infección, algunas células podrían activar una respuesta inmune sutil que puede proporcionar una protección moderada en tejidos delicados.
La idea de que las células activen las defensas inmunitarias de forma preventiva «viola en gran medida una de las ideas que tienen los inmunólogos», comenta Jonathan Kagan, inmunobiólogo del Boston Children’s Hospital y de la Facultad de Medicina de Harvard, que no ha participado en el nuevo estudio.
Debido a que las armas inmunes antivirales pueden destruir tejidos, las células normalmente las activan solo cuando hay una amenaza activa como una infección, explica Kagan. Luego, una vez que la infección desaparece, esas armas se desactivan lo más rápido posible.
Pero la placenta rompe estas reglas según la nueva investigación. De alguna manera activa las defensas antes de que sean necesarias y luego las deja activadas sin dañarse a sí misma o al feto.
«Protege pero no daña», afirma Hana Totary-Jain, profesora asociada de farmacología molecular en la Universidad del Sur de Florida en Tampa y autora principal del nuevo artículo. «La evolución es muy inteligente».
La placenta finge estar enfermaTotary-Jain descubrió el truco de la placenta por accidente. Ella y su laboratorio estaban investigando un megagrupo de genes (“un monstruo”, dice) que se expresa en la placenta. Le sorprendió ver que, además de activar genes que guían el desarrollo placentario, el megagrupo había activado el gen del interferón lambda, una proteína de señalización inmunitaria. ¿Por qué estaba activo en células sanas y no infectadas?
Totary-Jain y su equipo tardaron años en encontrar una respuesta: las células placentarias habían creado una imitación de virus, utilizando ARN extraído de sus propios genomas, para engañar a sus sensores inmunológicos.
Nuestros genomas son museos moleculares de la historia evolutiva. Desde el comienzo de la vida en la Tierra los virus han insertado porciones de su material genético en el ADN de sus huéspedes. Escondidos entre genes que codifican proteínas se encuentran reliquias genómicas de antiguas invasiones microbianas.
Hana Totary-Jain, profesora asistente de farmacología molecular en la Universidad del Sur de Florida en Tampa, ha descubierto que las células de la placenta utilizan un virus falso para activar furtivamente las respuestas inmunes. Fuente: USF Health Morsani College of MedicineUno de los elementos virales más comunes que persisten en los genomas humanos es un trozo de ADN llamado secuencia Alu. Las secuencias Alu constituyen al menos el 13% del genoma humano; había más de 300 copias en el megagrupo de Totary-Jain. Sospechaba que esas secuencias Alu estaban activando el sistema inmunológico de la placenta. Pero sus colegas le advirtieron que no siguiera ese camino.
«El consejo que me dieron fue: ‘No toques las Alu, no trabajes con las Alu, olvídate de las Alu'», cuenta Totary-Jain. La multitud de Alu en el genoma hace que sea difícil desentrañar lo que puede estar haciendo un conjunto específico.
Pero los datos que implicaban a las secuencias Alu eran demasiado convincentes para ignorarlos. Después de años de cuidadosos experimentos, el equipo de Totary-Jain demostró que en la placenta las transcripciones de secuencias Alu forman fragmentos de ARN bicatenario, una estructura molecular que nuestras células reconocen como de origen viral. Al detectar el virus falso la célula responde produciendo interferón lambda.
«La célula se está disfrazando efectivamente de agente infeccioso», explica Kagan. «El resultado es que se convence a sí misma de que está infectada y luego actúa como tal».
Inmunidad a fuego lentoLas respuestas inmunes pueden ser destructivas, y especialmente las respuestas antivirales. Debido a que los virus son más peligrosos cuando ya están dentro de una célula, la mayoría de las estrategias inmunes que atacan a las infecciones virales funcionan en parte dañando y matando las células infectadas.
Por eso las células gritan “¡Virus!” bajo su propia responsabilidad. En la mayoría de los tejidos, las secuencias Alu están altamente suprimidas, por lo que nunca tienen la oportunidad de imitar un ataque viral. Y, sin embargo, ese es el escenario exacto que la placenta parece crear a propósito. ¿Cómo equilibra la salud del embrión en crecimiento con una respuesta inmune potencialmente peligrosa?
En experimentos con ratones, el equipo de Totary-Jain ha descubierto que los ARN bicatenarios de la placenta y la consiguiente respuesta inmune no parecen dañar a los embriones en desarrollo. En cambio parecen proteger a los embriones de la infección por el virus Zika. Las células placentarias pudieron hacer lo que se espera de ellas (dar protección a los embriones sin provocar una respuesta inmune autodestructiva) porque recurrieron a las defensas más suaves del interferón lambda.
Normalmente, los primeros en responder a los escapes de ARN Alu bicatenario habrían sido los interferones tipo I y tipo II, que reclutan rápidamente células inmunitarias destructivas en el sitio de una infección, lo que provoca daño tisular e incluso enfermedades autoinmunes. El interferón lambda, por otro lado, es un interferón de tipo III. Actúa localmente comunicándose sólo con las células dentro del tejido, generando una respuesta inmune más leve, que puede mantenerse a largo plazo en la placenta.
Sigue siendo un misterio cómo las células placentarias logran activar sólo el interferón lambda, manteniendo la respuesta inmune a fuego lento pero sin que hierva hasta desbordarse. Pero Totary-Jain tiene una idea de por qué las células placentarias desarrollaron este truco que otras células parecen evitar: dado que la placenta se descarta al nacer, tal vez pueda permitirse el lujo de asumir riesgos inmunológicos que otros tejidos no pueden.
Los hallazgos revelan una nueva estrategia que tiene la placenta para proteger al feto, adicional al sistema inmunológico de la madre. Dado que la respuesta inmune de la madre se debilita durante el embarazo para prevenir ataques a las células embrionarias genéticamente distintas, la placenta ha tenido que desarrollar defensas adicionales para el bebé en crecimiento al que sustenta.
Sin embargo, este truco (una respuesta inmune de bajo nivel generada por un virus falso) puede no limitarse a la placenta. Investigadores de la Universidad de Columbia han descrito recientemente un fenómeno similar en las neuronas. Observaron ARN de diferentes elementos genómicos unidos en dobles hebras para producir una respuesta inmune. En este caso, el sistema inmunológico llamó a un interferón tipo I más destructivo, pero se produjo a niveles bajos. Los autores supusieron que la inflamación crónica de bajo nivel en el encéfalo puede mantener las infecciones bajo control, previniendo una inflamación importante y la muerte neuronal.
Es posible, entonces, que este tipo de engaño inmunológico sea más común de lo que se pensaba. Al estudiar cómo el sistema inmunológico parece romper sus propias reglas, los científicos pueden definir mejor en primer lugar cuáles son las reglas.
El artículo original, During Pregnancy, a Fake ‘Infection’ Protects the Fetus, se publicó el 14 de noviembre de 2023 en Quanta Magazine.
Traducido por César Tomé López
El artículo Durante el embarazo una ‘infección’ falsa protege al feto se ha escrito en Cuaderno de Cultura Científica.
Signo patognomónico: el «blanco y en botella» de la medicina
patognomónico
Cada vez que un paciente acude a la consulta del médico se da un complejo proceso diagnóstico que se inicia con la entrevista clínica y puede incorporar exploraciones físicas y pruebas complementarias (análisis de sangre, radiografías, endoscopias, electrocardiogramas…). Tras estos pasos, en la mayoría de los casos el galeno podrá identificar sin problemas la dolencia y pautar el correspondiente tratamiento. Sin embargo, en muchas ocasiones no hay una certeza al 100 %. La medicina dista de ser una ciencia exacta, pues diagnosticar a un enfermo casi siempre cuenta con un grado variable de incertidumbre. Por esta y otras razones, legalmente, no se le pueden exigir resultados a los médicos (salvo en medicina estética), pero sí que actúen según los conocimientos científicos más actuales y apliquen las mejores prácticas.
Como da a entender el conocido aforismo médico «No hay enfermedades, sino enfermos», las dolencias pueden manifestarse de maneras extremadamente variables en cada persona, lo que supone una dificultad de peso en el diagnóstico. Hay diversas afecciones que suelen ser de muy fáciles de identificar por su forma característica de presentarse como, por ejemplo, la diabetes tipo 1. Otras, en cambio, pueden resultar todo un desafío, incluso para los especialistas más veteranos porque los signos y síntomas que se presentan son muy atípicos o poco claros. Si, además, la enfermedad es rara o sin una causa conocida, llegar a un diagnóstico acertado puede resultar un proceso extremadamente complicado y lento.
Por suerte, también hay ciertas manifestaciones clínicas en diversas dolencias que son una enorme ayuda para el médico en el diagnóstico, son los denominados «signos patognomónicos». Cuando un signo patognomónico está presente, no hay lugar para la duda: con un 100 % de probabilidades ese signo identifica una enfermedad concreta, y no otra. Si todas las enfermedades contaran con algún signo patognomónico que apareciera siempre y de forma temprana, diagnosticar sería un juego de niños. Desafortunadamente, son raros los signos verdaderamente patognomónicos y no suelen estar presentes en todos los pacientes aquejados por una enfermedad.
Un signo patognomónico muy visual es el eritema migratorio: una erupción cutánea circular con forma de diana que aparece días o semanas después de la picadura de una garrapata infectada por bacterias del género Borrelia. Su presencia indica una enfermedad de Lyme en fase precoz y justifica acudir rápidamente a urgencias para un tratamiento antibiótico temprano. Entre el 70 y el 80 % de las personas infectadas muestran este particular signo, que se va agrandando 2-3 centímetros en la piel conforme pasan los días (de ahí lo de «migratorio»).
Eritema migratorio. Fuente: Wikimedia CommonsOtro signo patognomónico, muy típico, son las manchas de Koplik, que confirman al 100 % un sarampión. Se trata de pequeñas manchas blanquecinas, con forma de granos de arena, sobre un fondo rojo brillante que aparecen en la mucosa oral en las etapas iniciales de esta enfermedad infecciosa. Suelen aparecer 2 o 3 días antes de que se presenten las típicas lesiones cutáneas del sarampión. Antes de que la vacunación generalizada disminuyera drásticamente los casos de enfermedad infecciosa, estas lesiones eran muy útiles para aislar a los individuos afectados de los demás, en una fase temprana. No obstante: estas manchas de Koplik tienen dos grandes desventajas: solo se detectan en el 50 y el 70 % de las personas que sufren sarampión y suelen desaparecer a las 24 horas de su aparición, por lo que es muy fácil que pasen desapercibidas.
Manchas de Koplik. Fuente: Wikimedia CommonsUno de los signos patognomónicos que más destacan por ser especialmente llamativo es el miedo al agua (hidrofobia) que padecen algunas personas afectadas por la rabia en una fase avanzada. Estos pacientes llegan a sentir verdadero pánico cuando se les da un vaso con cualquier líquido para beber. ¿La razón? El virus de la rabia ataca al sistema nervioso y provoca violentos espasmos de la laringe y la garganta. Estos espasmos pueden desencadenarse también cuando la persona infectada intenta beber algo, lo que le impide tragar cualquier gota de líquido, aunque esté extremadamente sedienta.
El paciente pronto se da cuenta de que tan solo acercarse a un vaso con agua o cualquier otro liquido puede generarle el reflejo de tragar y, con ello, empezar a sufrir espasmos intensos, lo que termina por generarle un gran pánico. Se trata de un mecanismo ideal para la transmisión del virus de la rabia: dado que la persona apenas puede tragar líquidos e incluso su propia saliva, el virus puede acumularse en las glándulas salivares, y así se aumentan las probabilidades para transmitirse si el paciente mordiera a alguien (algo que se ha documentado muy pocas veces, por suerte) .
https://upload.wikimedia.org/wikipedia/commons/c/cc/Hydrophobia_in_rabies.webmSobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo Signo patognomónico: el «blanco y en botella» de la medicina se ha escrito en Cuaderno de Cultura Científica.