Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 39 mins 31 segs

Día de pi 2024: El tamaño importa… ¿o no?

Sáb, 2024/07/20 - 11:59

tamaño

El número Pi, representado por la letra griega π, es una de las constantes matemáticas más famosas e importantes que existen en el mundo. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.

La fascinación que ha suscitado durante siglos es tal, que se viene estudiando desde hace más de 4.000 años e, incluso, cuenta con su propio día en el calendario: el 14 de marzo. Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien en 1988 lanzó la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.

Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU nos sumamos a la celebración, organizando la quinta edición del evento BCAM NAUKAS, que se desarrolló a lo largo del 14 de marzo en el Bizkaia Aretoa de UPV/EHU.

En esta charla, Raquel Villacampa parte del hecho de que, desde la antigüedad, se ha querido cuantificar la belleza, incluida y especialmente la del cuerpo humano. Incluso hoy día se entrena a las máquinas para ello.

Raquel Villacampa Gutiérrez es profesora del Departamento de Matemáticas de la facultad de Ciencias de la Universidad de Zaragoza. Es miembro del Instituto Universitario de Matemáticas y Aplicaciones de la Universidad de Zaragoza (IUMA). Es una conocida divulgadora de las matemáticas.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Día de pi 2024: El tamaño importa… ¿o no? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Lo que nunca nos contaron en el colegio sobre el ciclo del agua

Vie, 2024/07/19 - 11:59

El ciclo del agua es uno de los contenidos cruciales para conocer el funcionamiento básico de la hidrosfera en el currículo de la educación obligatoria. ¿Quién no lo recuerda? Precipitaciones que en la superficie continental conforman la escorrentía, o que se infiltran en el suelo y alimentan las aguas subterráneas. La evaporación devuelve este elemento en forma gaseosa a la atmósfera que, tras la condensación, forma las nubes que darán lugar de nuevo a las precipitaciones.

ciclo del aguaEl ciclo hidrológico o ciclo del agua es el proceso de circulación del agua entre los distintos compartimentos que forman la hidrósfera.
Servicio Geológico de Estados Unidos / Wikimedia Commons

Menor atención se ha prestado a procesos geofísicos de gran importancia como la evapotranspiración asociada a los seres vivos o la interconexión entre los diferentes componentes del ciclo, fundamentalmente los del suelo, el gran olvidado.

Lo cierto es que lo que aprendimos en el colegio resulta incompleto para comprender el complejo funcionamiento de la hidrosfera. Sobre todo, si no se consideran otros procesos que interfieren directa o indirectamente. En especial, la dominación humana del ciclo del agua está ausente de representaciones y percepciones, a pesar de que las personas dependemos absolutamente del agua para nuestra supervivencia: la ingesta directa, la higiene, la producción de alimentos, los procesos industriales o el ocio y bienestar.

Saqueo en las masas de agua

Las causas centrales de la actual crisis mundial del agua intervienen en el ciclo junto con los procesos geofísicos y comienzan con la sobreexplotación de este recurso. El 70 % de los acuíferos españoles se encuentran sometidos a extracciones superiores a sus recargas. Esto genera sequías de gran magnitud en zonas tan relevantes como los parques nacionales de Doñana o las Tablas de Daimiel.

Asimismo, el excesivo consumo de agua ha transformado nuestros ríos en meros canales, repletos de embalses y trasvases. De este modo, su estado ecológico se ha visto notablemente afectado, lo que pone en riesgo los numerosos servicios ecosistémicos que nos prestan.

La sobreexplotación está relacionada con nuestro modelo socioeconómico, que abarca aspectos como el consumo de alimentos que requieren enormes cantidades de agua para su producción y modelos agroganaderos intensivos con superficies de riego que siguen incrementándose cada día.

Los nuevos regadíos permiten el cultivo superintensivo de los olivos, una especie tradicionalmente de secano.
Michelangelo-36 / Wikimedia Commons, CC BY

Los nuevos regadíos se asocian al cultivo de todo tipo de productos, como frutas tropicales (aguacate, mango…), cultivos con altos requerimientos de agua (maíz, alfalfa…) para alimentar al ganado, o el aumento de producción de cultivos tradicionalmente de secano como almendros, olivo o vid.

Turismo, ropa y pesticidas

Completan la ecuación otras actividades económicas, como el turismo (el consumo de agua por turista llega a quintuplicar el consumo per cápita local, asociado a piscinas, saunas, parques temáticos, mantenimiento de zonas ajardinadas o golf) y la moda (un kilo de algodón necesita 10 000 litros de agua para producirse y su cultivo genera problemas de sobreexplotación en numerosos ecosistemas acuáticos del planeta).

De media, se estima que el consumo de agua para un campo de golf oscila entre los 200 y los 300.000 m3/año.
Lilrizz / Wikimedia Commons, CC BY

Otro factor a tener en cuenta es la contaminación de las masas de agua, que degrada los ecosistemas hídricos y, con ello, los servicios ecosistémicos que ríos, lagos y acuíferos aportan a la biosfera y al ser humano.

Por ejemplo, los nitratos de origen agroganadero provocan que casi el 30 % de las aguas subterráneas y el 50% de las superficiales presenten una mala calidad. Este hecho impide el acceso a agua potable a una buena parte de la población del país. Otro caso alarmante es la presencia de pesticidas en las diferentes masas de agua, especialmente tóxicos para la salud humana.

A ello se suman las alteraciones del medio físico: la intensa ocupación de diferentes zonas de la cuenca mediante cultivos o urbanizaciones modifica aspectos cruciales del ciclo del agua, como la evapotranspiración, la infiltración o la escorrentía. No solo comprometen la disponibilidad del recurso a nivel local, sino que aumentan los riesgos asociados a fenómenos climáticos extremos como las inundaciones.

Injusticia hídrica

Por último, la subida de las temperaturas asociada al cambio climático provocado por la acción humana afecta directamente a diferentes procesos del ciclo del agua: aumento de la fusión de glaciares, de las tasas de evaporación y de evapotranspiración y modificación del régimen de precipitaciones.

El embalse de Barrios de Luna (provincia de León) tras la sequía de 2017 en la Península ibérica. A principios de octubre de 2017 se encontraba en una situación crítica al 5 % de su capacidad.
Pablox / Wikimedia Commons, CC BY

Como consecuencia, la disponibilidad de agua dulce va en descenso, especialmente en zonas geográficas como la mediterránea. Sin embargo, su uso no hace sino incrementarse, mostrando la nula adaptación de la población a la realidad climática actual y poniendo en mayor riesgo, si cabe, el estado ecológico de nuestras masas de agua y ecosistemas.

Por tanto, la exclusión de actividad humana de las representaciones del ciclo del agua camufla algunas de las crisis socioecológicas más acuciantes, incluidas la seguridad y la justicia hídrica. Urge solventar estas carencias y activar recursos y métodos educativos como primer paso hacia la formación de las personas y hacia una gobernanza equitativa de este recurso esencial desde una visión planetaria, pero con el foco puesto en lo cotidiano.The Conversation

Sobre los autores: Rubén Ladrera Fernández, Profesor de Enseñanza Secundaria y Profesor Asociado del Área de Didáctica de las Ciencias Experimentales, Universidad de La Rioja y José Ramón Díez López, Profesor de Didáctica de Ciencias Experimentales, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Lo que nunca nos contaron en el colegio sobre el ciclo del agua se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¡Es una trampa (paleontológica)!

Jue, 2024/07/18 - 11:59

Cuando encontramos un yacimiento fósil, una de las primeras preguntas que nos hacemos es ¿por qué esos restos están ahí? ¿Los organismos que los produjeron vivían en ese lugar, estaban de paso o alguna otra entidad los arrastró hasta esa zona? Responder a esta pregunta no siempre es fácil, incluso, a veces, resulta imposible. Pero encontrar la solución nos permite contar fantásticas historias ocurridas hace millones de años. Y si no damos con la respuesta correcta, al menos generaremos hipótesis que, en muchas ocasiones, resultan apasionantes. Lo que sí es seguro es que, en todo ese proceso, las personas profesionales de la paleontología nos convertimos en detectives del pasado, al más puro estilo de miss Marple o monsieur Poirot y, al igual que estos inmortales personajes de Agatha Christie, muchas veces nos encontramos con trampas en nuestra búsqueda de la verdad.

trampaFotografía aérea del enorme socavón producido en mayo de 2021 en la ciudad de Puebla, México, por un colapso del terreno, posiblemente provocado por un cambio en la compactación del suelo, fruto de variaciones en su humedad relativa. Imagen: Juan Carlos Sánchez Díaz / poblanerias.com / Wikimedia Commons

En ocasiones nos topamos con noticias sorprendentes de que, de repente, el suelo se ha abierto bajo nuestros pies, quedando como testigo un enorme agujero que se traga todo lo que se encuentra sobre la superficie. La explicación a este evento, como no podía ser de otra manera, se encuentra en la Geología. La subsidencia es un término geológico con el que se define el hundimiento progresivo y relativamente lento del terreno. Aunque este hundimiento también se puede producir de manera súbita, provocando lo que se conoce como un colapso, que son los que abren los telediarios por su espectacularidad y peligro cuando suceden en zonas urbanizadas. Estos hundimientos generalmente están provocados por procesos naturales, tales como la compactación del sedimento superficial, el hundimiento del techo de una cavidad subterránea o un deslizamiento de tierra producido tras un terremoto. Pero también pueden ser inducidos o, al menos, acelerados por las acciones del ser humano: la extracción desmesurada del agua de los acuíferos desencadena una pérdida de la compactación de los materiales porosos subterráneos, que da lugar al desmoronamiento de los que tienen por encima; o una minería de interior mal planificada puede acabar con derrumbes de los techos de las galerías.

Os estaréis preguntando que a qué viene un cambio tan radical de tema entre el primer párrafo y el segundo. Pues aquí es donde os he puesto la trampa. Una trampa natural y muy geológica, por supuesto. Porque resulta que, en paleontología, denominamos trampa a hendiduras, socavones o fosas generadas por el hundimiento del terreno que actúan como grandes tumbas de animales, terminando, si todo va como esperamos, por dar lugar a un yacimiento fósil en el que se acumulan abundantes restos de organismos.

El proceso es el siguiente. De repente, y por motivos naturales, se produce un colapso del terreno generando un gran socavón o una amplia hendidura en el suelo. En el momento del hundimiento, algunos animales podían encontrarse justo encima de la porción de terreno que colapsó, siendo literalmente tragados por la tierra. Esta cavidad también se convertirá en un depósito de agua, acumulando tanto la de la lluvia como el agua de las avenidas de arroyos y riachuelos, atrayendo a sus profundidades a animales sedientos. O simplemente actuará como un agujero en el camino al que caerán aquellos animales que pasen despistados junto a él. Sea como fuere, todos aquellos animales, grandes y pequeños, que se precipiten en el socavón, quedarán atrapados en su interior, sin posibilidad de salir. Y esta acumulación de presas indefensas se convertirá en un imán para depredadores hambrientos, que no durarán en precipitarse al agujero para darse un festín, sin saber que será su última comida. Incluidos los carroñeros, atraídos en este caso por el olor de la carne en descomposición, también desconocedores de que correrán la misma suerte que sus presas, caerán de cabeza en la trampa. Con el paso del tiempo, todos estos restos quedarán enterrados por la acumulación de los sedimentos que, poco a poco, rellenan el socavón. Y, miles o millones de años después, acabarán preservados en forma de fósiles. Vamos, que el nombre de trampas naturales les viene que ni pintado a estos agujeros del terreno en los que se produce el depósito de multitud de animales.

Identificar si el yacimiento fósil que hemos encontrado es una trampa o no es relativamente fácil. El estudio geológico nos da muchas pistas, ya que se trata de zonas de acumulación de sedimentos con unos límites bien definidos y que se encuentran rodeados por rocas sólidas. Además, en ambientes naturales, hay una mayor presencia de microorganismos frente a organismos de mayor tamaño y un mayor porcentaje de herbívoros que de carnívoros. Sin embargo, en las trampas se encuentran grandes acumulaciones de animales macroscópicos y están invertidas las proporciones, apareciendo una gran abundancia de carnívoros (el anhelo de una presa fácil atrae a muchos depredadores, pero terminan convirtiéndose en el cazador cazado). Incluso el estado de conservación de los restos es casi excepcional en la mayoría de los casos, apareciendo esqueletos muy completos y con los huesos en conexión anatómica (muchos de los animales morían al caer al agujero y cuando llegaban los depredadores no les daba tiempo a desperdigar los restos porque terminaban corriendo la misma suerte que sus presas).

Recreación de la trampa natural del yacimiento paleontológico del Cerro de los Batallones, Madrid, con los animales atrapados en su interior. Ilustración: David Zurita Gómez /behance.net

Los yacimientos paleontológicos de tipo trampa natural son más comunes de lo que pensamos. Un ejemplo son los yacimientos paleontológicos del Cerro de los Batallones, en Madrid, donde aparecen abundantes fósiles de macrovertebrados de finales del Periodo Mioceno que permiten conocer la fauna que hábito en el centro peninsular hace entre unos 11 y 9 millones de años. O el yacimiento del Complejo Galería, en la Sierra de Atapuerca, una trampa natural que aprovechaban las poblaciones de preneandertales para aprovisionarse de la carne de los animales que caían en ella.

Aunque la naturaleza hace trampas, también nos da una herramienta para evitarlas, la Geología. No es necesario esperar a ver como se abre la tierra y se traga un coche o una casa para saber que el terreno se puede hundir y engullir lo que se encuentre en su camino. Mientras paseamos por el campo, si miramos alrededor, las rocas, el paisaje, el tipo de sedimento e, incluso, los cambios de vegetación nos están dando pistas sobre la posibilidad de encontrarnos con socavones o hendiduras en donde podríamos caernos si damos un mal paso. Así que, si no queremos terminar formando parte de un yacimiento paleontológico muy particular en unos miles de años, más nos vale mirar bien donde pisamos para no caer en la trampa.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo ¡Es una trampa (paleontológica)! se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Warren Weaver, de la física matemática a la traducción automática

Mié, 2024/07/17 - 11:59

 

No sobreestiméis la ciencia, no penséis que la ciencia es todo lo que hay, no os concentréis tanto en la ciencia que acabéis viviendo una vida deformada. La ciencia no es todo lo que hay, y la ciencia no es capaz de resolver todos los problemas de la vida. También hay muchos otros problemas muy importantes que la ciencia no puede resolver. Así que espero que no haya nadie en esta sala que vaya a pasar los próximos siete días sin leer algo de poesía. Espero que no haya nadie en esta sala que vaya a pasar los próximos siete días sin escuchar algo de música, algo de buena música, algo de música moderna, algo de música. Espero de verdad que no haya nadie aquí que no esté interesado en las artes creativas, interesado en el teatro, interesado en la danza. Espero que os intereséis seriamente por la religión, porque si no abrís vuestras mentes y vuestras actividades a esta gama de cosas, vais a llevar una vida demasiado estrecha.

Warren Weaver, Four Pieces of Advice to Young People, 1966.

traducción automáticaWarren Weaver (1940). Fuente: Wikimedia Commons.

 

Warren Weaver nació el 17 de julio de 1894 en la ciudad de Reedsburg (Wisconsin, Estados Unidos). Era el pequeño de los dos hijos de Kittie Belle Stupfel e Isaiah Weaver, un farmacéutico. La familia se mudó a Madison en 1904. Allí Weaver asistió a la escuela secundaria e inició sus estudios superiores en la Universidad de Wisconsin.

Cuando era solo un niño, se divertía montando aparatos mecánicos y eléctricos, por ello, cuando ingresó en la universidad, deseaba convertirse en ingeniero. Pero algunos de sus profesores, en particular los matemáticos Max Mason (1877-1961) y Charles Slichter (1864-1946), le animaron para que se formara en física matemática.

Weaver se licenció en 1916 y comenzó a preparar su doctorado, que completó en 1921. Con Mason colaboró al principio de su carrera. De hecho, publicaron conjuntamente el libro The Electromagnetic Field en 1929.

En 1919 contrajo matrimonio con Mary Hemenway, una compañera de estudios, que fue profesora de latín e historia antigua y después ama de casa tras el nacimiento de su hijo Warren Jr. y su hija Helen.

De las matemáticas a la biología molecular

Warren Weaver comenzó su carrera como profesor de matemáticas en varios centros universitarios, en particular en la Universidad de Wisconsin.

En 1931, Mason presidía la Fundación Rockefeller e invitó a Weaver a unirse a su equipo como responsable de la División de Ciencias Naturales. En ese momento, en muchas universidades del mundo se hablaba de la necesidad de un enfoque interdisciplinar en la investigación en ciencias biológicas.

Tras muchas dudas, entre otros motivos porque lamentaba dejar el mundo de la docencia y de la investigación, aceptó el puesto. Y sugirió que el programa científico de la fundación abandonara su anterior preocupación por las ciencias físicas hacia un «interés en estimular y ayudar a la aplicación a problemas biológicos básicos, de las técnicas, procedimientos experimentales y métodos de análisis tan eficazmente desarrollados en las ciencias físicas». La Fundación aceptó esta propuesta y, desde ese nuevo puesto, Weaver ejerció una profunda influencia en el desarrollo de la biología a nivel mundial.

Años más tarde, en una carta dirigida a J. M. H. Carson en junio de 1949, Warren Weaver expresaba su confianza en la relevancia de la investigación en biología molecular:

El siglo de la biología en el que estamos embarcados ahora ya no es cuestión de trivialidades. Es un movimiento de dimensiones realmente heroicas, uno de los grandes episodios de la historia intelectual del hombre. Los científicos que impulsan este movimiento hablan en términos de nucleoproteínas, de ultracentrifugadoras, de genética bioquímica, de electroforesis, de microscopía electrónica, de morfología molecular, de isótopos radiactivos. Pero no hay que confundirse por estos terribles términos y, sobre todo, no hay que dejar engañarse pensando que esto es mero artilugio. Ésta es la manera fiable de buscar una solución a los problemas del cáncer y la polio, los problemas del reumatismo y del corazón. Este es el conocimiento en el que debemos basar nuestra solución de los problemas de la población y alimentarios. Esto es el conocimiento de la vida.

Weaver también se desempeñó como asesor científico (1947-1951), administrador (1954) y vicepresidente (desde 1958) del Instituto Sloan-Kettering para la Investigación del Cáncer.

Incursiones en la teoría de la comunicación

A Weaver le entusiasmaban la teoría de la probabilidad y la estadística. En 1963 publicó Lady Luck. The Theory of Probability, un pequeño libro sobre probabilidad dirigido a un público no experto. Aunque tenía una enorme habilidad con las palabras, estimaba que su aportación matemática durante su etapa universitaria se reducía a soluciones rutinarias de algunos problemas, pero que no eran contribuciones imaginativas reales al avance del conocimiento matemático.

Sin embargo, escribió una introducción expositiva a la teoría matemática de la comunicación en un artículo aparecido en The Mathematical Theory of Communication (1949) en el que Weaver sugería que había tres niveles de problemas en la comunicación:

  1. Un problema técnico: ¿con qué precisión se pueden transmitir los símbolos de la comunicación?
  2. Un problema semántico: ¿con qué precisión los símbolos emitidos transmiten el significado deseado?
  3. Un problema de efectividad: ¿en qué medida el significado recibido afecta la conducta de la manera deseada?

El primer artículo de este libro (que ocupa prácticamente dos tercios de la obra) tiene como autor al matemático y criptógrafo Claude E Shannon (1916-2001) recordado como «el padre de la teoría de la información».

La pasión por la traducción automática

También en 1949 promovió la investigación para el desarrollo de sistemas de traducción automática tras un informe para la Fundación Rockefeller en el que señalaba que existía una analogía entre la decodificación mecánica y la traducción.

Naturalmente, uno se pregunta si el problema de la traducción podría ser tratado como un problema de criptografía. Cuando veo un artículo en ruso, digo: «Esto está escrito en inglés, pero ha sido codificado con algunos símbolos extraños. Ahora procederé a descifrarlo».

Carta de Warren Weaver a Norbert Wiener, 1947

En este sentido, y fascinado por Las aventuras de Alicia en el país de las maravillas de Lewis Carroll (1832-1898), Weaver acumuló 160 versiones del libro en 42 idiomas. En 1964, escribió el libro Alice in many tongues; the translations of Alice in Wonderland, sobre la historia de las diferentes traducciones de esta obra, y diseñó una manera de evaluar la calidad de diferentes versiones, estudiando las bromas y giros de Una merienda de locos.

traducción automáticaPáginas 108 y 109 de Alice in many tongues; the translations of Alice in Wonderland. Fuente: Captura de pantalla de Internet Archive.

 

Gracias a sus numerosos contactos, para llevar a cabo esta tarea consiguió la colaboración de un importante grupo de colaboradores en el ejercicio de evaluación. Entre estas personas destacamos a la antropóloga Margaret Mead (para valorar la traducción a la lengua pidgin del Pacífico Sur), el alcalde de Jerusalén Teddy Kollek o el bioquímico y Premio Nobel Hugo Theorell (para la traducción al sueco).

Aunque Wiener falleció el 24 de noviembre de 1978, el proyecto Alice in a World of Wonderlands: the Translations of Lewis Carroll’s Masterpiece (2015) continuó con el análisis de las traducciones de Alicia… en 174 idiomas, en una línea similar a la del matemático y administrador científico.

Referencias

 

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia

El artículo Warren Weaver, de la física matemática a la traducción automática se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿Qué es el aprendizaje automático?

Mar, 2024/07/16 - 11:59

Las redes neuronales y otras formas de aprendizaje automático aprenden en última instancia mediante prueba y error, una mejora cada vez.

Un artículo de John Pavlus. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

aprendizaje automáticoIlustración: Son of Alan / Quanta Magazine

A estas alturas, muchas personas creen que saben qué es el aprendizaje automático: se “alimentan” los ordenadores con un montón de “datos de entrenamiento” para que “aprendan” a hacer cosas sin que tengamos que especificar exactamente cómo. Pero los ordenadores no son perros, los datos no son chuches y la oración anterior tiene demasiadas comillas. ¿Qué significa realmente todo esto?

El aprendizaje automático es un subcampo de la inteligencia artificial que explora cómo simular (o superar) computacionalmente la inteligencia humana. Si bien algunas técnicas de IA (como los sistemas expertos) utilizan otros enfoques, el aprendizaje automático impulsa la mayor parte del progreso actual en el campo al centrarse en una cosa: usar algoritmos para mejorar automáticamente el rendimiento de otros algoritmos.

Así es como esto puede funcionar en la práctica, para un tipo común de aprendizaje automático llamado aprendizaje supervisado. El proceso comienza con una tarea, por ejemplo, «reconocer gatos en fotografías». El objetivo es encontrar una función matemática que pueda realizar la tarea. Esta función, llamada modelo, tomará un tipo de números como entrada (en este caso, fotografías digitalizadas) y los transformará en más números como salida, que podrían representar etiquetas que digan «gato» o «no gato». El modelo tiene una expresión matemática básica, o forma, que proporciona cierta estructura para la tarea, pero no es probable que produzca resultados precisos al principio.

Ahora es el momento de entrenar el modelo, que es donde otro tipo de algoritmo toma el relevo. Primero, una función matemática diferente (llamada la objetivo) calcula un número que representa la «distancia» actual entre los resultados del modelo y el resultado deseado. Luego, el algoritmo de entrenamiento utiliza la medición de la distancia al objetivo para ajustar la forma del modelo original. No es necesario “saber” nada sobre lo que representa el modelo; simplemente empuja partes del modelo (llamadas parámetros) en ciertas direcciones matemáticas que minimizan esa distancia entre la salida real y la deseada.

Una vez realizados estos ajustes, el proceso se reinicia. El modelo actualizado transforma las entradas de los ejemplos de entrenamiento en resultados (ligeramente mejores), luego la función objetivo indica otro ajuste (ligeramente mejor) del modelo. Y así sucesivamente, adelante y atrás, adelante y atrás. Después de suficientes iteraciones, el modelo entrenado debería poder producir resultados precisos para la mayoría de sus ejemplos de entrenamiento. Y aquí está el verdadero truco: también debe mantener ese desempeño en nuevos ejemplos de la tarea, siempre y cuando no sean muy diferentes de los de entrenamiento.

Usar una función para modificar repetidamente otra función puede parecer más un trabajo intenso que un “aprendizaje automático”. Pero ese es todo el quid de la cuestión. Poner en marcha este proceso mecánico permite que surja automáticamente una aproximación matemática de la tarea, sin que los seres humanos tengan que especificar qué detalles importan. Con algoritmos eficientes, funciones bien elegidas y suficientes ejemplos, el aprendizaje automático puede crear potentes modelos computacionales que hacen cosas que no tenemos idea de cómo programar.

Las tareas de clasificación y predicción, como identificar gatos en fotografías o spam en correos electrónicos, generalmente dependen del aprendizaje automático supervisado, lo que significa que los datos de entrenamiento ya están ordenados de antemano: las fotos que contienen gatos, por ejemplo, están etiquetadas como «gato». El proceso de entrenamiento da forma a una función que puede asignar la mayor cantidad posible de entradas a sus salidas (conocidas) correspondientes. Después de eso, el modelo entrenado etiqueta ejemplos desconocidos.

Mientras tanto, el aprendizaje no supervisado encuentra estructura dentro de ejemplos sin etiquetar, agrupándolos en grupos que no están especificados de antemano. Los sistemas de recomendación de contenido que aprenden del comportamiento pasado de un usuario, así como algunas tareas de reconocimiento de objetos en visión por ordenador, pueden depender del aprendizaje no supervisado. Algunas tareas, como el modelado del lenguaje realizado por sistemas como GPT-4, utilizan combinaciones inteligentes de técnicas supervisadas y no supervisadas conocidas como aprendizajes auto- y semi-supervisado.

Finalmente, el aprendizaje por refuerzo da forma a una función mediante el uso de una señal de recompensa en lugar de ejemplos de resultados deseados. Al maximizar esta recompensa mediante prueba y error, un modelo puede mejorar su desempeño en tareas dinámicas y secuenciales como jugar juegos (como ajedrez y Go) o controlar el comportamiento de agentes reales y virtuales (como los coches sin conductor o los bots conversacionales).

Para poner estos enfoques en práctica, los investigadores utilizan una variedad de algoritmos que suenan exóticos, desde máquinas kernel hasta Q-learning. Pero desde la década de 2010, las redes neuronales artificiales han pasado a ocupar un lugar central. Estos algoritmos, llamados así porque su forma básica está inspirada en las conexiones entre las células cerebrales, han tenido éxito en muchas tareas complejas que antes se consideraban poco prácticas. Los modelos de lenguaje extenso, que utilizan el aprendizaje automático para predecir la siguiente palabra (o fragmento de palabra) en una cadena de texto, se construyen con redes neuronales «profundas» con miles de millones o incluso billones de parámetros.

Pero incluso estos gigantes, como todos los modelos de aprendizaje automático, son solo funciones en el fondo: formas matemáticas. En el contexto adecuado, pueden ser herramientas extremadamente poderosas, pero también tienen debilidades conocidas. Un modelo «sobreajustado» se ajusta tan perfectamente a sus ejemplos de entrenamiento que no puede generalizar de manera fiable, como un sistema de reconocimiento de gatos que falla cuando se pone una foto al revés. Los sesgos en los datos pueden verse amplificados por el proceso de capacitación, lo que lleva a resultados distorsionados, o incluso injustos. E incluso cuando un modelo funciona, no siempre está claro por qué. (Los algoritmos de aprendizaje profundo están particularmente afectados por este problema de «interpretabilidad»).

Aún así, el proceso en sí es fácil de reconocer. En el fondo, todas estas máquinas aprenden de la misma manera: adelante y atrás, adelante y atrás.

 

 

El artículo original, What Is Machine Learning?, se publicó el 8 de julio de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo ¿Qué es el aprendizaje automático? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La dieta del padre influye en la salud metabólica del hijo

Lun, 2024/07/15 - 11:59
Foto: Kelly SikkemaUnsplash

 

Los genes del espermatozoide contribuyen de forma decisiva al individuo que se formará tras la fecundación del óvulo. En el caso de los humanos, los 23 cromosomas paternos se combinan con el mismo número de cromosomas maternos para originar un nuevo ser. ¿Existe alguna contribución paterna al margen de la cromosómica? Se suele afirmar que las mitocondrias, que también contienen su propio conjunto de genes, no se transmiten por vía paterna, y que la herencia mitocondrial es exclusivamente materna. Esto es algo inexacto, ya que sí hay mitocondrias del espermatozoide que acceden al óvulo, pero tanto ellas como su ADN terminan siendo eliminados por diversos mecanismos.

Desde hace relativamente poco tiempo sabemos que hay otra aportación del espermatozoide cuya importancia empezamos a conocer. Se trata de las moléculas conocidas como sncRNAs (por small non-coding RNA, pequeñas secuencias de ácido ribonucleico no codificante). Tienen una longitud inferior a los 200 nucleótidos y derivan de fragmentos de ARN de transferencia y ribosómico. Estos ARN se encargan, respectivamente, del transporte de aminoácidos para ensamblar el polipéptido y de organizar el ribosoma en el que se produce dicho ensamblaje.

El conjunto de sncRNAs que el espermatozoide entrega al óvulo junto con su núcleo es complejo, dinámico y sensible a influencias ambientales. También sabemos que influye tanto en el desarrollo embrionario como en las características del adulto (su fenotipo). Aquí pueden encontrar una reciente revisión sobre el tema. Esta influencia de los sncRNAs sobre el fenotipo adulto se produce a nivel epigenético, es decir, sin implicar cambios en la secuencia del ADN. Los sncRNAs transferidos desde el espermatozoide pueden modular la expresión de los genes del descendiente provocando cambios fenotípicos. Hablamos por tanto de una herencia epigenética influida por factores ambientales.

Un artículo recién publicado en Nature por un grupo de investigadores alemanes y austríacos ha mostrado que, en ratones, la dieta del padre en el momento del apareamiento tiene influencia en la salud metabólica de los descendientes masculinos, y que esta influencia se produce a nivel epigenético mediante la aportación espermática de sncRNAs.

Un primer experimento consistió en alimentar a ratones macho con una dieta rica en grasa durante dos semanas. Estos ratones se aparearon con hembras y se comprobó que alrededor del 30% de los descendientes masculinos desarrollaban resistencia a la insulina e intolerancia a la glucosa, signos característicos de la diabetes de tipo II. En un segundo ensayo, tras las dos semanas de dieta grasa, los ratones volvieron a recibir una dieta normal durante un mes. Tras el apareamiento, los descendientes no desarrollaron ningún problema metabólico. Los investigadores concluyeron que la influencia de la dieta se ejercía durante el periodo de maduración de los espermatozoides en el epidídimo. Vamos a explicar esto más despacio.

dietaFigura 1. A la izquierda se muestra la posición del epidídimo sobre el testículo con sus diferentes partes. De KDS444, CC BY-SA 3.0. A la derecha vemos como el epitelio del epidídimo libera epididimosomas, vesículas extracelulares que transportan proteínas, ADN y ARN hasta los espermatozoides en maduración. De ER James et al. Int. J. Mol. Sci. 2020, CC BY 4.0

Los espermatozoides se forman en el testículo a partir de las células germinales, unos precursores con gran capacidad proliferativa. Una vez formados, atraviesan una larga estructura tubular llamada epidídimo1. Los espermatozoides del ratón emplean alrededor de una semana en recorrer este tubo de un metro de longitud. Durante el recorrido los espermatozoides incorporan epididimosomas, vesículas cargadas de moléculas procedentes del epitelio del epidídimo, entre ellas los sncRNAs que luego transferirán al óvulo (Figura 1).

El estudio de Nature mostró que si la dieta grasa se suspendía antes del ingreso de los espermatozoides en el epidídimo, no se producían consecuencias en la descendencia. Es decir, la (mala) influencia de la dieta grasa se producía durante el paso por el epidídimo. Y los responsables de esto eran los sncRNAs transferidos. De hecho, la dieta grasa provocaba un aumento precisamente en los niveles de sncRNA de origen mitocondrial en todos los tejidos, epidídimo incluido, un cambio que revertía tras el regreso a la dieta normal.

De forma independiente, los investigadores estudiaron las consecuencias de las mutaciones en dos genes, Mrpl23 y Ndufb8, que causaban aumento de los fragmentos no codificantes de ARN mitocondrial. Los descendientes de los portadores masculinos de estas mutaciones mostraban las mismas alteraciones metabólicas que los descendientes de machos alimentados con dieta grasa.

Los autores de esta investigación indagaron si los resultados obtenidos en ratones podrían tener alguna implicación clínica. Comprobaron que los niveles de fragmentos de ARN de transferencia y de origen mitocondrial estaban correlacionados con el índice de masa corporal de los varones. Al mismo tiempo mostraron que el sobrepeso paterno en el momento de la concepción duplica el riesgo de obesidad de los hijos y compromete su salud metabólica. La carga de sncRNAs en el esperma podría ser el nexo entre estas dos observaciones.

dietaFigura 2. Modelo propuesto por Tomar et al. para explicar la influencia epigenética de la dieta grasa del padre. El daño mitocondrial provocaría un aumento de la transcripción de los genes mitocondriales y de la carga de sncRNAs en los epididimosomas. La transferencia de estos ARNs al espermatozoide y luego al ovocito modificaría la expresión génica durante el desarrollo aumentando el riesgo metabólico del descendiente

Un escenario apuntado en el artículo de Nature propone que la exposición a una dieta rica en grasas perjudicaría la función mitocondrial y que esto se intentaría compensar con una mayor transcripción de los genes mitocondriales (Figura 2). El consecuente aumento del contenido celular en ARN produciría un exceso de fragmentos de sncRNAs que, transportados por los espermatozoides, acabarían en el ovocito. Lo que todavía no sabemos es cómo estos fragmentos modulan la expresión de los genes embrionarios, cómo esta modulación epigenética acaba provocando consecuencias en el metabolismo de los descendientes, y por qué los hijos tienen más riesgo metabólico que las hijas.

En resumen, si es aconsejable siempre seguir una dieta saludable y mantener el peso corporal en niveles adecuados, podría serlo de forma especial para los hombres en el momento de la concepción.

Referencias:

Cai, C., Chen, Q. (2024) Father’s diet influences son’s metabolic health through sperm RNA. Nature. doi: 10.1038/d41586-024-01502-w

Tomar, A., Gómez-Velázquez, M., Gerlini, R. et al. (2024) Epigenetic inheritance of diet-induced and sperm-borne mitochondrial RNAs. Nature. doi: 10.1038/s41586-024-07472-3

Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga

Nota:

1 Como curiosidad el epidídimo humano, situado sobre el testículo, mide unos 4-5 centímetros, pero si se desenrollase alcanzaría los seis metros de longitud.

El artículo La dieta del padre influye en la salud metabólica del hijo se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El ciclo de la sal en los océanos y su impacto en el colapso de la AMOC

Dom, 2024/07/14 - 11:59
salFoto: Kinø / Unsplash

 

El bucle de circulación Atlántico (conocido como AMOC, por sus siglas en inglés) transporta eficazmente calor y sal a través del océano global y modula fuertemente el clima de la Tierra. Si colapsara daría lugar a un enfriamiento brusco (a escala de décadas) del clima europeo. Y el ciclo de la sal en los océanos está en el epicentro de ese posible colapso.

La salinidad de los océanos en la historia de la Tierra

En promedio, un kilogramo de agua de mar contiene aproximadamente 35 gramos de sales disueltas. Pero no siempre ha sido así: desde la formación de los océanos, hace 3 800 millones de años, la salinidad de los océanos no ha dejado de cambiar.

Concretamente, el océano primitivo tenía entre 1,5 y 2 veces más salinidad que el actual, que hoy oscila entre 32 y 37 gramos de sales por kilogramo de agua.

Quién echa sal al mar

Hay varias maneras indirectas (las llamamos ‘proxies’) de estimar qué salinidad tenía el océano prehistórico. Gran parte de la información la obtenemos del estudio de evaporitas, rocas sedimentarias que se forman por cristalización de sales disueltas. También aporta información útil el estudio de las relaciones isotópicas. Ambos estudios nos llevan a la misma conclusión: que el océano primitivo era más salino que en la actualidad.

A escalas de cientos a miles de millones de años, hay distintos procesos que han añadido o retirado sales del medio. Empezando por los volcanes, principalmente los de los fondos abisales de las dorsales medio-oceánicas, unas elevaciones submarinas situadas en la parte media de los océanos. El magma de estos volcanes es muy rico en sales.

Por otro lado, a lo largo de estos miles de millones de años, cuando la sal sedimenta la concentración global en el océano disminuye. Pero cuando las rocas son erosionadas aumenta de nuevo la concentración salina global.

En nuestros días, la salinidad se mide con una alta resolución espacio-temporal gracias a los satélites y a una pléyade de boyas profundas de deriva.

La sal y el clima

La lluvia, los aportes continentales (escorrentías o fusión de glaciares) y la evaporación son agentes que afectan a la salinidad a escalas climáticas (de cientos-miles de años). De hecho, son las tres componentes del ciclo hidrológico en la Tierra.

La salinidad superficial está relacionada con el balance final resultante de si hay más o menos evaporación, más o menos precipitación, y más o menos aportes continentales: la magnitud de ese balance determina en buena medida la salinidad de cada zona.

En las zonas subtropicales, en las que hay mucha evaporación, la concentración de sal es máxima, mientras que en las zonas ecuatoriales-tropicales es mucho menor. En los mares polares el agua salada se diluye con el agua dulce de los casquetes polares, así que la concentración de sal es baja.

El extraño caso de la cuenca atlántica

La cuenca atlántica es, con mucho, la más salina. Esto parece contraintuitivo, ya que al Atlántico fluyen los tres ríos más caudalosos: Amazonas, Congo y Orinoco. Su salinidad, a priori, debería ser más baja.

La principal explicación a esta paradoja es que la cuenca atlántica exporta netamente al resto de cuencas a través de los vientos la humedad atmosférica procedente de su evaporación. Es decir, lo que se evapora en el Atlántico no acaba lloviendo sobre el propio Atlántico.

Además, el Atlántico está conectado con el mar Mediterráneo, cuenca fuertemente evaporativa. Y el Mediterráneo le aporta un importante flujo de sal neto a través del estrecho de Gibraltar.

El agua que se hunde: la circulación AMOC

La salinidad afecta a la densidad del agua y juega un papel clave en las corrientes oceánicas, que a su vez influyen en el clima mundial.

El Atlántico tiene un circulación general muy singular, que contribuye a su salinización.

La corriente del Golfo transporta un extra de agua muy salina hacia el norte. Al llegar a los mares nórdicos, aumenta su densidad por enfriamiento y literalmente se hunde. Se forma así en el Atlántico una especie de cinta rodante, la circulación de vuelco meridional del Atlántico (conocida como AMOC, siglas en inglés de Atlantic meridional overturning circulation), que funciona de forma continua. Su rodillo impulsor se encuentra en los mares nórdicos y en el mar de Labrador (sur de Groenlandia), que son muy salinos.

El hundimiento de esta agua con alta concentración de sal hace que las aguas abisales del Atlántico sean también muy salinas, porque provienen de las aguas superficiales. Y así se cierra el circuito de la sal.

Su implicación con el cambio climático

La salinidad es sensible a cambios en las precipitaciones, los aportes de agua de los ríos, la evaporación… Y estos cambios en el ciclo hidrológico de la Tierra se están produciendo debido al cambio climático.

En un planeta más cálido, la capacidad de la atmósfera para retener la humedad es mayor (termodinámicamente, un 6,5 % mayor por cada grado centígrado de aumento del clima).

Por ello, se está verificando que en las zonas subtropicales la evaporación se está reforzando, aumentando la aridez continental y la salinidad superficial, y en los trópicos está lloviendo aún más, y más torrencialmente, disminuyendo la salinidad superficial.

El desequilibrio crítico en los océanos

En el océano, estos procesos son aún más críticos que en los continentes. La evaporación y las precipitaciones generan flujos verticales (el agua que asciende del mar y la que regresa por las lluvias). Estos flujos son mayores respecto a lo que corresponde por el área global del océano (que es el 71 % del total): en los océanos se evapora el 85 % y precipita el 77 % del total.

Los cambios de salinidad causan impactos sobre la circulación global de los océanos. La salinización afecta a la densidad del agua, y son los cambios de densidad los motores de la circulación profunda. Además, afecta al incremento del nivel del mar. Si la densidad del agua es menor, el volumen del agua total aumenta.

El calentamiento global también está provocando la fusión de los glaciares continentales de Groenlandia y esto significa agua dulce extra que vierte en los mares noratlánticos. Esto está provocando la desalinización, el agua se va haciendo menos densa y el hundimiento invernal de la columna de agua se está ralentizando (con posible colapso durante este siglo).

Luego en sus cavidades
la sal gema,

montaña de una luz enterrada,

catedral transparente,

cristal del mar,

olvido de las olas.

Oda a la sal, Pablo Neruda.The Conversation

Sobre el autor: Gabriel Rosón Porto, Catedrático de Oceanografía Física Facultad de Ciencias del Mar Departamento de Física Aplicada, Universidade de Vigo

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo El ciclo de la sal en los océanos y su impacto en el colapso de la AMOC se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Día de pi 2024: La música de los números primos

Sáb, 2024/07/13 - 11:59

números primos

El número Pi, representado por la letra griega π, es una de las constantes matemáticas más famosas e importantes que existen en el mundo. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.

La fascinación que ha suscitado durante siglos es tal, que se viene estudiando desde hace más de 4.000 años e, incluso, cuenta con su propio día en el calendario: el 14 de marzo. Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien en 1988 lanzó la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.

Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU nos sumamos a la celebración, organizando la quinta edición del evento BCAM NAUKAS, que se desarrolló a lo largo del 14 de marzo en el Bizkaia Aretoa de UPV/EHU.

En esta charla Francisco R. Villatoro nos habla de la hipótesis de Riemann es la partitura de la música de los números primos. Probablemente uno de los problemas de más difícil resolución.

Francisco R. Villatoro es profesor en la Escuela de Ingeniería Informática de la Universidad de Málaga. Muy conocido como divulgador de la física, no hay que olvidar que, además de licenciado en física, primero es licenciado en informática y doctor en matemáticas, e investiga en matemáticas computacionales.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Día de pi 2024: La música de los números primos se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Cómo migran las células

Vie, 2024/07/12 - 11:59

Un exhaustivo análisis de las trayectorias de movimiento de 700 células individuales indica que sus desplazamientos dependen de una actuación conjunta y autoorganizada de prácticamente todos los procesos fisiológicos que componen la célula.

Esta investigación multidisciplinar en el que han participado diferentes departamentos de la UPV/EHU ha demostrado por primera vez que el movimiento de las células está dirigido y regulado por un proceso autoorganizado fundamental que se origina de forma espontánea en todas las células vivientes.

Amoeba proteus desplazándose. Una de las especies analizadas. Fuente: Wikimedia Commons

Según Ildefonso Martínez de la Fuente, investigador del departamento de Matemáticas de la Universidad del País Vasco, “estos mecanismos moleculares autoorganizados hacen que los diferentes procesos bioquímico-metabólicos que existen en la célula conformen una unidad funcional, totalmente integrada como un todo único, convirtiendo a miles de procesos fisiológicos en una sola entidad”. “Se trata de una fuerza fundamental que hace emerger en la célula un comportamiento integrado —sostiene Martínez de la Fuente—, y se puede comparar con el movimiento autoorganizado de los miles de estorninos que conforman estructuras altamente ordenadas y coordinadas cuando migran o incluso con la capacidad que tienen las hormigas de estructurar un hormiguero a través de comportamientos colectivos autoorganizados”.

Análisis de los desplazamientos de las especies Amoeba proteus, Metamoeba leningradensis, y Amoeba borokensis. Fuente: Referencia

El autor de la investigación destaca que nunca hasta ahora había sido reconocido científicamente que los movimientos de desplazamiento de las células están gobernados por procesos autorregulados de carácter sistémico que operan a nivel global en la célula. “Este hallazgo científico añade una nueva perspectiva al concepto que se tiene de la propia célula y sus capacidades funcionales”, comenta. Además, “la combinación de estudios de migración celular, desde un punto de vista sistémico, junto con los clásicos estudios moleculares, puede ser crucial para el desarrollo de una nueva generación de terapias eficientes para las patologías relacionadas con las enfermedades originadas por una deficiente migración celular”, indica Martínez de la Fuente.

El movimiento celular es un proceso clave y fundamental para el desarrollo y el óptimo funcionamiento del cuerpo humano. Las células se mueven cuando un organismo se está desarrollando embrionariamente, cuando se produce la cicatrización de una herida o durante la metástasis, por ejemplo. Los errores durante un mal control del movimiento celular pueden tener consecuencias serias en importantes enfermedades, como en la enfermedad Crohn, determinados desórdenes congénitos del cerebro, y diferentes patologías inmunológicas o vasculares, por ejemplo.

Combinación de datos experimentales y análisis cuantitativos

Durante décadas, los trabajos científicos han permitido identificar diferentes mecanismos locales implicados en el movimiento celular, pero a pesar de los esfuerzos realizados, no se ha podido dilucidar la cuestión esencial: cómo las células controlan y gobiernan sus movimientos.

“Descubrir las fuerzas moleculares que dirigen la migración celular representa un desafío científico de enorme dificultad —señala el investigador de la UPV/EHU—, ya que además de confeccionar unos complejos dispositivos especiales de laboratorio creado exprofeso para esta investigación, ha sido necesario utilizar técnicas multidisciplinares que permitan compaginar estudios experimentales con métodos cuantitativos avanzados”.

“Hemos estudiado las características del movimiento de 700 células, y para ello hemos utilizado técnicas que se emplean habitualmente en la mecánica estadística, que es una parte fundamental de la Física. Dos de los métodos que hemos aplicado fueron desarrollados por el premio nobel Albert Einstein. Asimismo, en este trabajo hemos empleado los principios de autoorganización disipativa —estructuras organizadas coherentemente— desarrollados por el premio nobel Ilya Prigogine”, comenta Ildefonso Martínez de la Fuente.

 

Referencia:

Ildefonso M De la Fuente, Jose Carrasco-Pujante, Borja Camino-Pontes, Maria Fedetz, Carlos Bringas, Alberto Pérez-Samartín, Gorka Pérez-Yarza, José I López, Iker Malaina, Jesus M Cortes (2024) Systemic cellular migration: The forces driving the directed locomotion movement of cells PNAS Nexus doi: 10.1093/pnasnexus/pgae171

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Cómo migran las células se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Inteligencia artificial hasta en la sopa

Jue, 2024/07/11 - 11:59
El trabajo de Andy Warhol contribuyó a que la marca de sopas enlatadas Campbell se convirtiera en todo un icono pop durante los años sesenta. Fuente: Robert Couse-Baker (CC BY 2.0)

¿Qué tiene que ver la sopa enlatada con la inteligencia artificial? Pese a lo peculiar de esta asociación, lo cierto es que mucho, al menos en una de las historias más curiosas de la historia de esta tecnología.

Aunque el interés por la inteligencia artificial ha experimentado un auténtico boom desde que, en noviembre de 2022, OpenAI presentara ChatGPT, lo cierto es que su desarrollo a un nivel práctico se remonta, al menos, hasta los años cuarenta y cincuenta del siglo XX. Incluso antes, si tenemos en cuenta los intentos pioneros del ingeniero español Leonardo Torres Quevedo. Es más, la historia de la inteligencia artificial se puede resumir en una serie de épocas cíclicas de apogeo y declive desde entonces, con «veranos» de hype desmedidos e «inviernos» de consecuente decepción.

Ahora nos encontramos en el tercero de esos veranos, el de los sistemas generativos, que comenzó en 2011, y solo el tiempo dirá si conseguiremos evitar un nuevo invierno o si, en esta ocasión, la inteligencia artificial iniciará esa transformación social profunda sobre la que se lleva debatiendo tanto tiempo. La diferencia con épocas anteriores es que estos sistemas están, por primera vez, al alcance del usuario doméstico. El primer verano de la inteligencia artificial fue el de los sistemas simbólicos, entre mediados de los años cincuenta y mediados de los setenta del siglo XX, y estuvo más adscrito al mundo académico. El segundo, el de los sistemas expertos, tuvo lugar alrededor de los años ochenta, y en él la inteligencia llegó hasta el mundo profesional y empresarial… y se aplicó incluso en las tareas más inesperadas.

Sistemas expertos

Un sistema experto es, básicamente, un programa pensado para emular el desempeño y conocimiento humanos en un dominio muy específico, por ejemplo, el diagnóstico médico, el análisis financiero, asistir al soporte técnico de un producto en concreto… y funcionan muy bien para muchas cosas. Tanto es así que se han seguido desarrollando, mejorando y adaptando a la tecnología disponible a lo largo de las últimas décadas y están más presentes en nuestras vidas de lo que pensamos. El popular AlphaFold de DeepMind para la predicción de la estructura de las proteínas podría ser un ejemplo.

En los años ochenta, cuando los sistemas expertos estuvieron en todo su apogeo, no eran, ni mucho menos, tan avanzados como los actuales. El desarrollo de redes neuronales y algoritmos de aprendizaje automático era muy incipiente, pero eso no impedía que ejercieran entonces una fascinación similar a la que la IA generativa causa hoy en nosotros. Al menos, los miedos que suscitaban parecían muy familiares: ¿nos sustituirían este tipo de algoritmos?, ¿nos robarían el trabajo?, ¿dónde quedaría el factor humano en las labores que hacemos?

Algunos de los primeros sistemas expertos que se crearon fueron DENDRAL, en los años sesenta, para el análisis de moléculas en química orgánica; MYCIN, en los setenta, para el diagnóstico y tratamiento de enfermedades infecciosas, y R1/XCON, de finales de la misma década, un sistema de la compañía DEC que usaban los técnicos y comerciales para asesorar al cliente en cuanto a la configuración más apropiada de sus computadores de la serie VAX.

Los sistemas expertos demostraron ser muy útiles para la resolución de problemas muy concretos, sin embargo, una de las grandes limitaciones que tenían, sobre todo cuando empezaron a llegar a las empresas, es que, como se trataba de algoritmos basados en reglas e inferencias que obtenían la información de una base de datos que había que introducir a mano, era muy engorroso programarlos y, más aún, mantenerlos actualizados. Aun así, se les encontró una aplicación muy valiosa.

En los tiempos anteriores a internet y al acceso masivo a los datos y la información, el conocimiento muy especializado y cualificado se encontraba solo en la mente de personas que tenían años y años de experiencia en su campo. Contar con sistemas en los que ese conocimiento se pudiera guardar, sistematizar y hacerlo accesible podía llegar a suponer una enorme ventaja.

Computadora VAX 11-750. La compañía DEC creó un sistema experto para que sus comerciales pudieran asesorar a los clientes sobre la configuración más adecuada. Fuente: Donostiako Informatika Fakultatea / Eduardo Mena (CC-BY-SA) La jubilación de los expertos humanos

Eso mismo fue lo que sucedió alrededor de 1985 en Sopas Campbell cuando Aldo Cimino, el responsable de mantenimiento de las máquinas de esterilización de los productos de la marca, se encontraba cerca de su jubilación. Tras cuarenta y seis años trabajando allí, sustituirlo no iba a resultar una labor fácil, así que sus superiores se plantearon crear un sistema experto que recogiera todos los años de experiencia y el saber que el empleado había acumulado durante todas aquellas décadas al servicio de la compañía. Un equipo dirigido por Richard Herrods, experto en inteligencia artificial de Texas Instruments, se encargaría de desarrollarlo.

El primer pensamiento de Cimino cuando la compañía le informó de sus intenciones de volcar toda su experiencia en una máquina fue el de que le iban a despedir, «Pero entonces me di cuenta de que tenía sesenta y cuatro años y me iba a jubilar de todas formas. Solo querían salvar parte de lo que yo sabía». El equipo de Herrods tardó siete meses en hacerlo: «Ahora, cuando algo va mal con uno de los esterilizadores, el personal de mantenimiento puede introducir un diskette en un ordenador IBM, arrancar el sistema experto e interaccionar con él de una forma muy parecida a como lo haría con Aldo al teléfono», diría. Aquel programa fue un éxito y Aldo Cimino se jubilaría muy poco tiempo después.

Sopas Campbell no fue la única compañía que había tomado ese camino, General Electric también lo hizo con su sistema DELTA (diesel locomotive troubleshootng aid), creado para la detección y diagnóstico de averías en locomotoras eléctricas, que se basaba en el conocimiento y experiencia de un ingeniero histórico de la compañía a punto de jubilarse: David Smith.

Captura de pantalla de la primera página del artículo de Piero P. Bonissone y Harold E. Johnson donde se describe el sistema DELTA. Se puede consultar aquí.

Esto que sucedió con los sistemas expertos tal vez nos dé también pistas acerca de lo que podría suceder con la inteligencia artificial generativa y responda a algunas de las preguntas que se plantearon al principio. ¿Nos sustituirán este tipo de algoritmos? En algunos casos, sí. ¿Nos robarán el trabajo? Probablemente no, pero sí transformará la forma en que lo hacemos o abordamos nuestras tareas. ¿Dónde quedaría el factor humano en las labores que hacemos? Dejemos que Aldo Cimino responda a esto último: «He recopilado muchísima información a lo largo de los años. Hay determinadas cosas que jamás han ido mal en la cocina y que [si surgen] la computadora no sabrá arreglar. Siempre existirá el factor humano»… Pero ha llegado el momento de valorar cómo ese factor humano y nuestro papel en el nuevo mundo que estamos creando también se transforman.

Bibliografía

United Press International/L. A. Times Archives (7 de noviembre de 1989). ‘Expert System’ Picks Key Workers’ Brains : Computers: From airport gate-scheduling to trouble-shooting, technology allows companies to store key employees’ know-how on floppy disks. Los Angeles Times. https://www.latimes.com/archives/la-xpm-1989-11-07-fi-1112-story.html

Baños, G. (2024). El sueño de la inteligencia artificial. Shackleton Books.

Oravec, J. A. (2014). Expert systems and knowledge-based engineering (1984-1991): implicactions for instructional systems research. International Journal of Desings for Learning, 5(2), 66-75.

Sancho Azcoitia, S. (10 de abril de 2019). IA en el mundo de la mecánica: Delta. Telefónica Tech. https://telefonicatech.com/blog/delta-sistemas-expertos-en-el-mundo-de-html

Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo Inteligencia artificial hasta en la sopa se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Una elegante demostración del teorema de Morley

Mié, 2024/07/10 - 11:59

El teorema de las trisectrices de Morley es un interesante y atractivo resultado de la geometría del plano, que ha cautivado a muchas personas, en particular, del ámbito de las matemáticas, a lo largo del siglo XX (no es un teorema antiguo) y del que se han desarrollado una cantidad importante de diferentes demostraciones, geométricas, trigonométricas o algebraicas, algunas bastante técnicas, otras de ideas más sencillas y algunas otras de una gran belleza. La entrada del Cuaderno de Cultura Científica titulada El teorema de Morley está dedicada a explicar el significado de este teorema, a acercarnos su historia y a darnos una idea de una de sus demostraciones geométricas. Por otra parte, en esta entrada vamos a mostrar una de las demostraciones más elegantes y sugerentes del teorema de Morley, la demostración que propuso el matemático británico John H. Conway.

ConwayFotografía del matemático británico John H. Conway, en 2009. Imagen de la Universidad de PrincetonEl teorema de las trisectrices de Morley

Empecemos recordado la versión simple del teorema de Morley, que no olvidemos que debe su nombre al matemático británico, que vivió gran parte de su vida en Estados Unidos, Frank Morley (1860-1937).

Teorema de Morley (1899): Los puntos de intersección de las trisectrices adyacentes de los ángulos de un triángulo cualquiera, son los vértices de un triángulo equilátero.

Esto es, dado un triángulo ABC cualquiera, como el de la siguiente imagen, se trazan las trisectrices, es decir, las dos rectas que dividen al ángulo en tres ángulos iguales, de cada uno de los tres ángulos (interiores) del triángulo ABC, se toman los tres puntos que son la intersección de las trisectrices adyacentes, que en la imagen hemos denominado E, F y G, y entonces el teorema de las trisectrices de Morley afirma que el triángulo EFG es un triangulo equilátero (llamado triángulo de Morley), independientemente de la forma del triángulo inicial ABC.

Conway

Esta es la versión simple, y más famosa, del teorema, que en su versión completa afirma que existen 18 configuraciones asociadas al triángulo inicial que son también triángulos equiláteros. Por ejemplo, un resultado análogo al anterior se obtiene para las trisectrices de los ángulos exteriores del triángulo.

Dado un triángulo ABC, el triángulo EFG, formado por los puntos de intersección de las trisectrices adyacentes de los ángulos interiores de ABC, y el triángulo IJK, formado por los puntos de intersección de las trisectrices adyacentes de los ángulos exteriores de ABC, son equiláterosLa demostración de Conway

El matemático británico John Horton Conway (1937-2020), fue un prolífico e imaginativo matemático que trabajó en muchas áreas de las matemáticas, entre ellas la teoría de grupos algebraicos, las matemáticas de los juegos, la teoría de nudos, la teoría de números, la geometría o la teoría de códigos, que escribió interesantes libros, como la trilogía Winning Ways for your Mathematical Plays (Estrategias ganadoras para tus juegos matemáticos), junto a Richard K. Guy y Elwyn Berlekamp, o The Book of Numbers (El libro de los números), con Richard K. Guy, y que es conocido por temas como el autómata celular denominado el juego de la vida, los números surreales o la regla del fin del mundo, entre muchos otros. Os dejo con dos interesantes y profundas opiniones de Conway sobre jugar y educar:

Solía sentirme culpable en Cambridge por pasarme el día jugando a juegos, mientras se suponía que estaba haciendo matemáticas. Luego, cuando descubrí los números surrealistas, me di cuenta de que jugar ES matemáticas.

No se educa a la gente contándole cosas útiles, sino contándoles cosas interesantes.

ConwayEl matemático John H. Conway en su despacho de la Universidad de Princeton en 1993. Fotografía de Dith Pran/The New York Times

Pero vayamos con la demostración de Conway del teorema de las trisectrices de Morley. Empecemos con un poco de notación. Dado un triángulo ABC cualquiera, como el de la siguiente imagen, del que queremos demostrar que los puntos de intersección de las trisectrices adyacentes de los ángulos (interiores) forman un triángulo equilátero, denotamos por alfa, beta y gama los ángulos que son igual a la tercera parte de los ángulos interiores del triángulo ABC, como aparece en la imagen. Como la suma de los ángulos (interiores) de un triángulo plano suman 180 grados, entonces la suma de alfa, beta y gama es igual a 60 grados.

La demostración de Conway se basa en la creación de un rompecabezas con siete piezas triángulares, una de ellas un triángulo equilátero, de un cierto tamaño, que unidas correctamente forman el triángulo ABC y la pieza del triángulo equilátero es precisamente el triángulo de Morley.

La primera parte de la demostración consiste en la construcción de las siete piezas triángulares. Para empezar, se consideran siete triángulos cuyos ángulos interiores son los siguientes siete triples

donde el símbolo “+” añadido a un ángulo quiere decir que sumamos 60 grados al ángulo, luego si añadimos dos símbolos “++” querrá decir que se suman 120 grados. Como la suma de alfa, beta y gama es igual a 60 grados, la suma de cada uno de los siete triples de ángulos, de la tabla anterior, es igual a 180 grados, como corresponde a cualquier triángulo. Observemos que uno de los triángulos es equilátero, sus ángulos (interiores) son de 60 grados.

Al determinar los ángulos (interiores) de cada triángulo estamos determinando completamente la forma de dichos triángulos (como se muestra en la anterior imagen), y solo faltaría determinar el tamaño para que puedan encajar convenientemente.

Ahora para decidir el tamaño de las piezas triangulares vamos a proceder de la siguiente manera. Primero fijamos el tamaño del triángulo equilátero, que puede ser de cualquier tamaño, y después iremos adaptando el tamaño del resto de triángulos al de este primero. Para los tres triángulos tales que uno de sus lados se debería apoyar en uno de los lados del triángulo equilátero, que son los tres triángulos agudos (sus tres ángulos son menores de 90 grados), tomamos el tamaño de esos tres triángulos de forma que ese lado sea de la misma longitud que el lado del triángulo equilátero (en la siguiente imagen hemos agrandado y oscurecido esas lados que tienen que tener la misma longitud).

Por otra parte, para determinar el tamaño de los tres triángulos obtusos, es decir, triángulos con un ángulo que mide más de 90 grados, vamos a realizar el procedimiento para el triángulo de la derecha (en el ejemplo que estamos trabajando), el triángulo obtuso verde, procedimiento que se repetirá para los otros dos triángulos obtusos. Se introducen dos segmentos que van del vértice de la izquierda (vértice que se apoyará en uno de los vértices del triángulo equilátero) al lado opuesto, de manera que el ángulo entre estos segmentos y el lado opuesto sea alfa+ (es decir, alfa + 60 grados). Entonces se elige el tamaño del triángulo verde de manera que la longitud de esos dos segmentos (que es la misma, ya que forman un pequeño triángulo isósceles) sea igual al lado del triángulo equilátero.

[Observación: Una pequeña aclaración para los más interesados. Si el ángulo en uno de los vértices A, B o C, fuese mayor que un recto, 90 grados, es decir, que uno de los ángulos alfa, beta o gama fuese mayor que 30 grados, entonces al construir ese pequeño triángulo isósceles, el ángulo considerado entre los segmentos y el lado opuesto será el exterior y no el interior]

Por lo tanto, ya tenemos construidos los siete triángulos, con su forma, determinada por los ángulos, y su tamaño, que hemos dispuesto a partir del tamaño del triángulo equilátero central.

El siguiente paso de la demostración consiste en probar que podemos ensamblar bien las siete piezas. Al triángulo equilátero le podemos juntar los tres triángulos agudos, ya que hemos elegido el tamaño de estos para que tengan un lado del mismo tamaño que el lado del triángulo equilátero. Ahora tenemos que comprobar si podemos juntarles además los tres triángulos obtusos, para lo cual tenemos que comprobar que coinciden las longitudes de los lados adyacentes de los triángulos obtusos y agudos. Veamos uno de los lados en cuestión, en concreto, el lado que compartirán el triángulo obtuso verde y el triángulo agudo marrón (arriba a la derecha), los otros cinco se razonan de manera similar.

Por la construcción realizada, de ángulos y tamaños, los dos triángulos rayados en la imagen anterior son iguales, sus ángulos son alfa, beta+ y gama+ y tienen un lado de la misma longitud (de hecho, un triángulo rayado es la imagen especular del otro), por lo tanto, los lados adyacentes de ambos son iguales. En consecuencia, el triángulo obtuso verde encaja bien con el triángulo agudo marrón.

La segunda parte de la demostración queda así concluida al probar que las siete piezas triangulares encajan bien las unas con las otras formando un triángulo más grande entre las siete.

La tercera, y última, parte consiste en comprobar que efectivamente hemos probado el teorema de Morley. Para empezar, el triángulo construido con las siete piezas triángulares tiene ángulos iguales a tres veces alfa, tres veces beta y tres veces gama, como el triángulo ABC, luego ambos tienen la misma forma. Aunque es suficiente, para nuestro propósito, que tengan la misma forma, podemos reescalar el triángulo construido para que coincida, no solo en forma, sino también en tamaño, con nuestro triángulo ABC, basta reescalarlo para que la base tenga la longitud AB.

Por lo tanto, hemos demostrado el teorema de Morley para el triángulo ABC, ya que por la construcción de los triángulos alrededor del triángulo equilátero, los vértices de este son la intersección de las trisectrices adyacentes de los ángulos del triángulo, luego el triángulo que determinan es precisamente nuestra pieza que es un triángulo equilátero. Como decían los matemáticos griegos y seguimos diciendo en la actualidad, QED, es decir, “quod erat demonstrandum” (“lo que se quería demostrar”, literalmente “lo que se iba a mostrar”).

Morley’s Theorem, del artista Eugent Jost, que aparece recogido en su libro, junto a Eli Maor, Beautiful Geometry (Princeton University Press, 2014). En la pintura aparecen cinco triángulos diferentes con sus respectivos triángulos de Morley asociados, así como tres fechas importantes, nacimiento y muerte del matemático Frank Morley, así como el año del descubrimiento de su resultado geométrico

Bibliografía

1.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.

2.- Martin Gardner, Nuevos pasatiempos matemáticos, Alianza editorial, 2018.

3.- H. S. M. Coxeter and S. L. Greitzer, Geometry Revisited, Mathematical Association of America, 1967.

4.- C. O. Oakley, J. C. Baker, The Morley Trisector Theorem, American Mathematical Monthly 85, pp. 737-745, 1978.

5.- Pedro Alegría, Fernando Blasco, John Conway, el genio mágico, Gaceta de la RSME, vol. 23, n. 3, pp. 463–486, 2020.

6.- John Conway, On Morley’s Trisector Theorem, The Mathematical Intelligencer, vol. 36, n. 3, pp. 3, 2014.

7.- John Conway, The Power of Mathematics, publicado en el libro Power (Alan Blackwell, David MacKay, editores), Cambridge University Press, 2006.

 

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Una elegante demostración del teorema de Morley se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Un valor más preciso para la masa del cuark cima

Mar, 2024/07/09 - 11:59

Un equipo del CERN ha aumentado significativamente la precisión del valor medido de la masa del cuark cima (también conocido por su nombre en inglés top quark, símbolo t), un dato clave para realizar cálculos empleando del modelo estándar.

cuark cimaEl modelo estándar antes de estos resultados.

En 1995, cuando los científicos descubrieron el cuark cima, estimaron que la masa de la partícula estaba entre 151 y 197 GeV/c2, lo que la convertía en la partícula elemental más pesada conocida. Desde entonces, los científicos han trabajado para afinar el valor de la masa del cuark cima acumulando más datos. Ahora, las colaboraciones CMS y ATLAS en el Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) han combinado 15 mediciones diferentes para obtener el valor más preciso de la masa hasta la fecha: 172,52 ± 0,33 GeV/c2 (compárese con el valor que aparece en la ilustración del modelo estándar).

La masa de una partícula del modelo estándar es un dato clave para el modelo estándar de física de partículas para predecir parámetros relacionados con procesos poco frecuentes. Por lo tanto, la nueva medición de la masa del cuark cima permitirá mejorar los cálculos y comprender mejor cuestiones como las correcciones cuánticas de las propiedades del bosón de Higgs.

cuark cimaLa colisión de un protón (p) y un antiprotón (p barrada) da lugar a un cuark cima (t) y un anticima (t barrada). Fuente: Wikimedia Commons

La primera determinación de la masa del cuark cima se realizó utilizando mediciones de los pares de cima y anticima producidos en colisiones protón-antiprotón en el Tevatron, un acelerador de partículas que estuvo activo hasta 2011. La determinación del nuevo valor también ha implicado mediciones de dichos pares cima-anticima, junto con mediciones de eventos de un solo cuark cima menos comunes. En estos eventos, un cuark emite un bosón W y se desintegra en un cuark abajo (en inglés down quark, símbolo d) en menos de 10-25 segundos, lo que da como resultado una corriente de partículas estables. La masa del cuark cima se puede reconstruir a partir de las características de estas partículas.

En el nuevo estudio, las colaboraciones CMS y ATLAS consideraron las incertidumbres estadísticas que surgen de tener datos de colisiones limitados. También consideraron 25 clases de incertidumbres sistemáticas que ocurren en los cálculos que relacionan la masa del cuark cima con las propiedades de las partículas observadas en los detectores del LHC. Este esfuerzo combinado ha dado como resultado un valor de masa que es un 31% más preciso que la más precisa de las 15 mediciones de entrada.

Referencias:

A. Hayrapetyan et al. (CMS Collaboration, ATLAS Collaboration) (2024) Combination of Measurements of the Top Quark Mass from Data Collected by the ATLAS and CMS Experiments at √s =7 and 8 TeV Phys. Rev. Lett. doi: 10.1103/PhysRevLett.132.261902

N. Karthik (2024) The Most Precise Value of the Top-Quark Mass to Date Physics 17, s57

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Un valor más preciso para la masa del cuark cima se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿Lagos subglaciales en Marte?

Lun, 2024/07/08 - 11:59

El agua en estado líquido es uno de los fenómenos más preciados en la búsqueda de ambientes habitables actuales en nuestro sistema solar. Después de todo, para nuestra forma de entender la vida -ahora mismo no sabemos si hay otra- es un ingrediente indispensable: sirve para disolver y transportar un gran número de sustancias, permite crear cierta estabilidad térmica e incluso participa en muchas reacciones bioquímicas… y seguro que me dejo alguna que otra propiedad que la hacen de una molécula esencial para la vida.

Si, además, el agua es capaz de existir de una manera estable -hablamos de escalas temporales a nivel geológico- el mero hecho de la existencia del agua tiene mucha más relevancia, ya que se convierte en un objetivo más interesante para la astrobiología porque, después de todo, probablemente la vida necesite un tiempo para aparecer y desarrollarse, pero también para mantenerse, si es que alguna vez apareció y muy probablemente unas condiciones ambientales mayormente estables sean indispensables para la vida.

Uno de los lugares candidatos de nuestro sistema solar a albergar agua en estado líquido, al menos pequeñas masas de agua, es bajo el hielo del polo sur de Marte. Fueron Orosei et al. (2018) quienes a través del estudio de distintos perfiles de radar tomados con la sonda Mars Express entre los años 2012 y 2015 descubrieron un par de zonas las cuales aparecían fuertes reflejos de radar, cuya primera interpretación era la existencia de materiales (geológicos) empapados en agua bajo el casquete polar del hemisferio sur de Marte.

 subglaciales El polo sur de Marte, visto a través de las cámaras de la misión europea Mars Express. Cortesía de ESA/DLR/FU Berlin/Bill Dunford.

Estas pequeñas masas de agua se encontrarían a unos 1500 metros de profundidad bajo el hielo, en la interfaz entre la roca y el casquete polar. Eso sí, muy probablemente el agua no estaría sola, sino que sería más bien algo parecido a una salmuera para que el punto de congelación fuese más bajo gracias a las sales en disolución. Esta agua salada permitiría que no se necesitasen otros mecanismos que permitiesen al agua permanecer en estado líquido, ya que gracias a las sales disminuiría la temperatura de congelación del agua. Si este no fuese el caso, por ejemplo, se necesitaría de un gradiente geotérmico más elevado en esa zona que hiciese que el suelo tuviese una temperatura más alta y que con este efecto pudiese mantener al agua en estado líquido.

Un estudio posterior, el de Lauro et al. (2021), logró ampliar el estudio anterior, centrándose en la región de Ultimi Scopuli, también en el polo sur de Marte. Uno de los aspectos más interesantes fue la aplicación de las técnicas que usamos en estudios realizados en la Antártida o Groenlandia y que permiten discriminar entre capas secas y húmedas en la interfaz entre el hielo y la roca, ayudando a localizar masas de agua subglaciales.

En este estudio se explica el hecho de que Marte ha sufrido cambios climáticos muy importantes a lo largo del tiempo -obviamente a escala geológica- y que tienen una fuerte repercusión sobre las temperaturas globales y el depósito de hielo en los polos. Esto es muy importante porque se sugiere que en momentos más cálidos pudieron existir etapas donde el hielo en la interfaz con la roca alcanzaría una temperatura suficientemente alta para lograr su fusión y formar masas de agua subglaciales, aunque también se menciona la posibilidad de la existencia de un gradiente geotérmico alto que pudiese contribuir al calor necesario para facilitar la fusión.

 subglaciales En estas tres imágenes podemos ver, a la izquierda, el contexto geográfico del descubrimiento de algunos de los posibles lagos subglaciales, en el centro, las zonas con mayor reflectividad al radar (en azul) y a la derecha el perfil del radar donde se muestra la interfaz hielo-roca donde se encontrarían los posibles lagos subglaciales. Cortesía de Mapa de contexto: NASA/Viking/NASA/JPL-Caltech/Arizona State University; Datos de MARSIS: ESA/NASA/JPL/ASI/Univ. Rome; R. Orosei et al 2018.

Pero este estudio esconde una joya más: no solo se detecta una posible masa de agua, sino que además aparecen varias zonas a su alrededor donde también podría existir masas más pequeñas o sedimentos empapados en agua, sugiriendo que la presencia de estos lagos subglaciales o al menos sedimentos empapados de agua podría ser algo más común en esta zona.

Uno de los problemas que nos encontramos para poder demostrar la existencia de esta agua bajo el polo sur es que no podemos verlas de manera directa -mucho menos acceder a estas masas de agua- pero, además del radar, pueden existir otro tipo de evidencias indirectas que nos ayuden a interpretar de mejor manera los datos y ver si todos los datos apuntan en la misma dirección.

Por ello, Arnold et al. (2022) plantea otra manera de detectar los lagos: Mediante el estudio de anomalías en el relieve sobre las zonas donde se encontrarían estos posibles lagos, al igual que ocurre en nuestro planeta sobre los lagos subglaciales en la Antártida o Groenlandia.

Pues bien, en este artículo usaron la topografía derivada del instrumento MOLA (por sus siglas en inglés, Mars Orbiter Laser Altimeter) para buscar anomalías en el relieve en el entorno de Ultimi Scopuli. Sus resultados: si que hay una anomalía, indicando una reducida fricción basal del hielo por la presencia de agua líquida, que actuaría como un lubricante del movimiento. Eso si, en este artículo se menciona que si se necesita un gradiente geotérmico anómalo para que el agua pueda mantenerse en estado líquido.

 subglaciales Dos lagos subglaciales descubiertos en la Antártida gracias a las imágenes de satélite debido a la formación de depresiones topográficas sobre estos. En este caso, los lagos se encontrarían a más de 3 kilómetros de profundidad. Imagen cortesía de la NASA.

Un año después, en el artículo de Sulcanese et al. (2023), llegan a una conclusión similar: Localizaron una zona relativamente llana justo sobre donde deberían encontrarse las masas de agua líquida, interpretando este cambio de relieve como la respuesta a un equilibrio hidrostático que también ocurre en presencia de lagos subglaciales en la Tierra, como, por ejemplo, el lago Vostok de la Antártida.

A pesar de todas estas pruebas que apuntan a favor de la existencia de posibles masas de agua subglaciales, hace unas semanas caía un posible jarro de agua fría en forma de artículo científico. En Lalich et al. (2024) interpretan los reflejos más intensos del radar como un fenómeno de interferencia constructiva generado entre las capas de polvo y de hielo más que por la presencia de agua líquida en la interfaz entre el hielo y la roca.

Para llegar a esta conclusión, realizaron unas 10.000 simulaciones de como sería el reflejo del radar dependiendo de la estratigrafía que se encontraran las ondas al atravesar las capas de hielo, por lo que tuvieron que crear miles de escenarios diferentes. De todos estos, en 216 casos los reflejos simulados eran similares a los observados por el radar MARSIS de la sonda Mars Express.

Para estos autores, la estratigrafía sería suficiente para generar los reflejos de radar observados en las zonas donde los autores sugieren la presencia de lagos subglaciales, sin necesidad de tener que introducir una capa de agua debajo del hielo para explicarlo, eliminando de un plumazo su existencia.

¿Cuál de los estudios estará en lo cierto? La verdad es que, al menos ahora mismo, parece imposible dar una respuesta certera que sea capaz de acabar con el debate y que, probablemente, necesitemos de futuras misiones con radares más avanzados y de mayor resolución para poder saber si estos lagos existen o no pero, sin duda alguna, estos hallazgos nos hacen soñar con la posible existencia de ambientes habitables en el planeta Marte.

Referencias:

Sulcanese, Davide, Giuseppe Mitri, Antonio Genova, Flavio Petricca, Simone Andolfo, and Gianluca Chiarolanza. “Topographical Analysis of a Candidate Subglacial Water Region in Ultimi Scopuli, Mars.” Icarus 392, no. December 2022 (2023). https://doi.org/10.1016/j.icarus.2022.115394.

Lauro, Sebastian Emanuel, Elena Pettinelli, Graziella Caprarelli, Luca Guallini, Angelo Pio Rossi, Elisabetta Mattei, Barbara Cosciotti, et al. “Multiple Subglacial Water Bodies below the South Pole of Mars Unveiled by New MARSIS Data.” Nature Astronomy 5, no. 1 (2021): 63–70. https://doi.org/10.1038/s41550-020-1200-6.

Arnold, N. S., F. E.G. Butcher, S. J. Conway, C. Gallagher, and M. R. Balme. “Surface Topographic Impact of Subglacial Water beneath the South Polar Ice Cap of Mars.” Nature Astronomy 6, no. November (2022). https://doi.org/10.1038/s41550-022-01782-0.

Orosei, R., S. E. Lauro, E. Pettinelli, A. Cicchetti, M. Coradini, B. Cosciotti, F. Di Paolo, et al. “Radar Evidence of Subglacial Liquid Water on Mars.” Science 361, no. 6401 (August 3, 2018): 490–93. https://doi.org/10.1126/science.aar7268.

Lalich, Daniel E., Alexander G. Hayes, and Valerio Poggiali (2024) Small Variations in Ice Composition and Layer Thickness Explain Bright Reflections below Martian Polar Cap without Liquid Water. Science Advances 10, no. 23 (2024): eadj9546. doi: 10.1126/sciadv.adj9546.

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo ¿Lagos subglaciales en Marte? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Microorganismos para la producción de queso

Dom, 2024/07/07 - 11:59

Hacer un buen queso es un fascinante experimento de bioquímica o microbiología. Un buen número de microorganismos que viven y se reproducen muy a gusto en la leche participan de forma fundamental en la transformación de dicha materia prima. Si bien la leche es un alimento perecedero y que no todo el mundo puede digerir, ciertos microbios son capaces de convertirlo en una excelente alternativa como el queso: apetitoso, nutritivo, fácil de asimilar y bien preservado.

Foto: Towfiqu barbhuiya / Unsplash

Las bacterias que fermentan la leche son las primeras que comienzan en el proceso de generar un buen queso, pero existen varios tipos importantes de otros microorganismos que pueden intervenir. Unas cuantas variedades de levaduras (hongos unicelulares) y de mohos (hongos pluricelulares) son también protagonistas esenciales en la modificación radical de muchas variedades de quesos.

Las bacterias tienen múltiples funciones importantes. La primera de ellas es generar ácido láctico a partir de la lactosa. Se trata de una predigestión beneficiosa para las personas, pero esta acidez moderada además protege al queso para que no se estropee y pueda madurarse durante meses. Sorprendentemente, una segunda función importante de las bacterias en el queso es morir, una vez acidificada la leche. Sus células muertas liberan un buen número de moléculas como las enzimas lipolíticas y proteolíticas que durante la maduración catalizan la producción de suculentos aromas, sabores y texturas que caracterizan al queso.

Las levaduras y mohos son organismos muy importantes. Fundamentalmente crean superficies y texturas extraordinarias que dan aspecto olor y sabor únicos a diferentes variedades de quesos. Así, podemos decir que las bacterias anaerobias fabrican y maduran el interior del queso, mientras que los hongos afinan su superficie y maduran la corteza desde el exterior hacia el interior. Varias técnicas de fabricación de quesos nos permiten crear variedades muy diferentes: el lavado de la corteza usando levaduras similares a la famosa levadura de la cerveza Saccharomyces cerevisiae, el agujereado de la masa de queso para permitir el paso de oxígeno o el empleo de diferentes mohos del conocido género Penicillium.

Existen muchas decenas de tipos de bacterias para quesería. Muchas se encuentran en la leche cruda de las vacas, ovejas o cabras, pero otras veces, sea por pasteurización o para controlar con precisión el proceso de acidificación, se añaden varios tipos al cultivo láctico, en el comienzo de la fabricación del queso. Dependiendo de sus propiedades o por la temperatura en la que mejor se desarrollan, las bacterias se suelen clasificar de forma inicial como mesófilas o termófilas, aunque pueden clasificarse mediante otros muchos criterios.

Las mesófilas son las más utilizadas. Suelen reproducirse de forma óptima entre 25 y 30 grados centígrados y no deben superar los 40ºC. La especie Lactococcus lactis es la bacteria más utilizada en quesería, y las subespecies lactis y cremoris generan ácido láctico muy eficientemente. La biovariante diacetylactis cometaboliza la lactosa y el citrato que también contiene la leche, lo cual expulsa CO2 y libera en el queso diacetilo y acetoína, compuestos que confieren sabor mantequilloso característico, deseable en específicos quesos madurados. Este metabolismo mixto de la lactosa y el citrato también lo realiza la especie Leuconostoc mesenteroides subespecie cremoris, muy utilizada también en quesería.

Las bacterias termófilas suelen reproducirse de forma óptima entre 40-45 grados centígrados y no suelen actuar mucho más arriba de los 55ºC. Muchos menos quesos tradicionales se elaboran a estas altas temperaturas, pero algunos importantes nombres suizos o italianos, como el Emmental o el Parmesano utilizan las especies termófilas más convenientes, como la Streptococcus thermophilus, Lactobacillus delbrueckii o Lactobacillus helveticus.

Los quesos de pasta blanda como el camembert o el roquefort adquieren algunas de sus características más apreciadas a través del uso de mohos que crecen en ámbito húmedo en su corteza (como el Penicillium camemberti típico blanco del camembert) o en su interior agujereado (como el Penicillium roqueforti característico de los quesos azules).

Aunque las bacterias anaerobias mesófilas o termófilas que hemos mencionado fermentan el interior del queso, algunas bacterias aerobias mesófilas fermentan la corteza. Son muy utilizadas en quesería la Brevibacterium aurantiacum o linens, o la Arthrobacter nicotianae, que soportan bien el ambiente ácido y pueden modificar radicalmente el aroma, sabor y textura de dicha corteza.

La técnica de lavado de la corteza es un tratamiento muy útil para producir quesos de fuerte aroma y sabor, combinando un lavado entre las bacterias aerobias que acabamos de mencionar y levaduras capaces de descomponer la superficie, como la Debaryomyces hansenii, la Saccharomyces de la cerveza o la Geotrichum candidum. Algunos quesos muy olorosos como el famoso Epoisses de Borgoña, o el Stinking Bishop utilizan una combinación de estas bacterias y levaduras.

Los microorganismos (bacterias, levaduras y mohos) son los protagonistas que nos permiten transformar las leches en cientos o miles de variedades de quesos. Los pocos géneros que hemos citado son solamente los principales implicados en quesos históricos, artesanales o tradicionales. La quesería es una ciencia floreciente y un ámbito de investigación multidisciplinar de gran importancia para la tecnología de alimentos.

Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)

El artículo Microorganismos para la producción de queso se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Evolución del cerebro y la crianza

Sáb, 2024/07/06 - 11:59

crianza

Los cambios del cerebro durante el embarazo y la maternidad, cómo el estrés ha pasado de ser un mecanismo de supervivencia a un eventual elemento de riesgo para nuestra salud o cuál ha sido el papel que ha jugado el suicidio en la evolución del ser humano fueron algunos de los temas que se tratarán en la VI Jornada Nacional sobre Evolución y Neurociencias.

La jornada tuvo lugar el Bizkaia Aretoa de la UPV/EHU los pasados 25 y 26 de abril y estuvo dirigida por Eva Garnica y Pablo Malo, de la Red de Salud Mental de Bizkaia, institución que organizó la jornada junto a la Cátedra de Cultura Científica de la UPV/EHU.

El encuentro, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolutivo y divulgar de un modo accesible para todos los públicos.

Los cambios fisiológicos y neuronales asociados al embarazo y crianza de los hijos transforman a la persona. En la evolución de la especie también han jugado un papel. Rebeca García González aporta la visión sobre este tema desde el punto de vista de la paleoantropología.

Rebeca García González, es paleoantropóloga y pertenece al Laboratorio de Evolución Humana de la Universidad de Burgos.



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Evolución del cerebro y la crianza se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Neandertales arcaicos en el yacimiento de la Sima I de la cueva de El Polvorín

Vie, 2024/07/05 - 11:59

Asier Gómez Olivencia et al.*

Los neandertales habitaron Europa y parte de Asia desde hace unos 200.000 años hasta se extinguieron, hace 40.000 años. A nivel esquelético, las diferencias que podemos encontrar entre neandertales y nuestra especie, Homo sapiens, son muchas, y ambos grupos se pueden distinguir incluso con el hueso más pequeño del esqueleto: el estribo del oído medio. Por ello, los neandertales podrían considerarse como una especie paleontológica. Sin embargo, somos parientes cercanos y compartimos con los neandertales un antepasado común con una antigüedad de entre hace un millón a 500.000 años del que descendemos las dos especies. De hecho, el estudio del genoma neandertal ha permitido demostrar que hubo hibridación entre este grupo humano y las poblaciones de nuestra propia especieque habían salido de África. Debido a ello, una parte de las poblaciones de Homo sapiens actuales preservan entre un 2 y un 4% de ADN neandertal.

El origen de los neandertales hay que buscarlo en las poblaciones humanas del Pleistoceno medio. Por ejemplo, la población de la Sima de los Huesos, que tiene una cronología entre 430.000 y 300.000 años, presenta rasgos anatómicos considerados claramente neandertales mezclados con otros más primitivos. Es decir, la población de la Sima de los Huesos muestra algunos, pero no todos los rasgos anatómicos típicos de los neandertales del Pleistoceno superior. La mayor parte del registro neandertal que se conoce tiene una cronología posterior a 135.000 años de antigüedad y suele consistir, mayoritariamente, en dientes u otros restos aislados. Hasta la fecha se han recuperado alrededor de 40-50 esqueletos parciales o completos, en algunos casos en conexión anatómica, es decir, con los huesos colocados en la posición en la que estarían en vida. Muchos de estos casos han sido interpretados como enterramientos intencionales. Además, algunos conjuntos de restos neandertales muestran marcas de corte y huesos fracturados intencionalmente, que son interpretados como evidencia de la práctica de canibalismo. Sin embargo, a excepción de la Sima de los Huesos, los restos del linaje neandertal de más de 135.000 años son muy escasos y, aunque conocemos la evolución de este grupo a grandes rasgos, todavía existen muchos interrogantes.

Desfiladero del río Karrantza (Bizkaia). Foto: Javier Trueba (Madrid Scientific Films).

En el País Vasco se conocen varios yacimientos arqueológicos con evidencias de ocupaciones neandertales entre hace unos 200.000 y 40.000 años, como, por ejemplo, Axlor (Dima), Aranbaltza (Barrika), Arlanpe (Lemoa), Lezetxiki (Arrasate), y Amalda (Zestoa). Sin embargo, el número de yacimientos con restos humanos es mucho más escaso: Axlor ha proporcionado un resto craneal, un premolar perteneciente a un adulto y cuatro dientes de leche; en Arrillor (Zigoitia, Araba) se ha recuperado un único diente de leche y Lezetxiki ha proporcionado restos de distintas cronologías. Por un lado, un húmero recuperado en los niveles inferiores del yacimiento, que presenta ciertos rasgos similares a los húmeros de la Sima de los Huesos, y que fue datado mediante la técnica de las series del uranio, arrojando una edad mínima de 164.000 ± 9.000 años Por otro lado, los niveles superiores de Lezetxiki han proporcionado dos restos dentales, recientemente re-estudiados. Los recientes descubrimientos de la Sima I de El Polvorín incrementan notablemente el registro fósil de este linaje en el País Vasco.

La cueva y el yacimiento Entrada de la cueva de El Polvorín. Foto: Javier Trueba (Madrid Scientific Films).

La cueva de El Polvorín (Karrantza, Bizkaia) se encuentra situada en la ladera SE de la Peña de Ranero, en las estribaciones montañosas de acceso al desfiladero del río Karrantza. La boca de la cueva presenta una forma redondeada (6 x 6 m) y se sitúa a 180 m sobre el nivel del mar. Su desarrollo interno es bastante complejo y se compone de tres pisos de galerías intercomunicadas. Esta cueva es conocida por albergar una importante secuencia arqueológica, especialmente en su entrada, que fue excavada por J.M. de Barandiarán y T. Aranzadi en 1931, y por R. Ruiz Idarraga y F. d’Errico entre los años 2005 y 2010.

Muela carnicera de hiena (Crocuta spelaea) de la Sima I de la cueva de El Polvorín. Créditos de la fotografía: Javier Trueba (Madrid Scientific Films).

El yacimiento paleontológico de la Sima I de la cueva de El Polvorín se descubrió con posterioridad a la secuencia arqueológica de la entrada, en las exploraciones realizadas entre noviembre y diciembre de 1982 por el Speleo Talde (grupo espeleológico) Illuntasunaren Lagunak. El yacimiento se sitúa en una galería inferior y el acceso al mismo se realiza a través de una galería lateral a 50 m de la entrada, para posteriormente descender una sima vertical de 7 m y después una rampa de otros 25 m. Este descenso implica utilizar un equipo y conocimientos de espeleología. En 1983 se realizó una primera extracción de fósiles, principalmente osos de las cavernas y hienas. En el año 2000 el mismo grupo realizó una segunda recogida superficial de fósiles, que también depositaron en el museo. A mediados de 2020, en una revisión de estos materiales en el Arkeologia Museoa, nuestro equipo identificó un resto humano entre los restos de fauna de la Sima I. En una posterior búsqueda sistemática, en noviembre del 2020, se identificaron nuevos restos humanos y se pudo observar que dichos restos presentaban rasgos morfológicos presentes en el linaje neandertal. En el año 2021 se inicia un proyecto de investigación, todavía en marcha, cuyo objetivo es estudiar los restos humanos y faunísticos de la Sima I de El Polvorín, así como su origen, acumulación y cronología. Además de estudiar los restos depositados en el Arkeologia Museoa, también se están realizando nuevas campañas de excavación en el propio yacimiento.

Proceso de excavación de la Sima I de la cueva de El Polvorín (diciembre de 2021). Foto: Equipo de Investigación de la Sima I de El Polvorín.Los restos humanos Izquierda: Fragmento de hueso frontal de la Sima I de la cueva de El Polvorín recuperado en 2022. Foto: Javier Trueba (Madrid Scientific Films). Derecha: Vista del fragmento de hueso frontal de la Sima I de la cueva de El Polvorín sobre el cráneo del neandertal de La Quina H5. Imagen: Antoine Balzeau (Muséum National d’Histoire Naturelle, Paris).

Entre los fósiles del museo y las que se han excavado en las campañas de 2021 y 2022, actualmente se contabilizan 18 restos humanos pertenecientes a distintas regiones anatómicas del esqueleto, tanto del cráneo como del postcráneo. No hay elementos duplicados, y los fósiles presentan compatibilidad en cuanto al tamaño y el estado del desarrollo. Por tanto, podrían pertenecer a un mismo individuo. Las características gráciles del cráneo y del radio hacen pensar que se podría tratar de un individuo femenino, al que se ha denominado “Andere” (mujer en euskera).

Radio derecho de El Polvorín recuperado en 1983. Foto: Javier Trueba (Madrid Scientific Films).

Curiosamente, su radio presenta una morfología más similar a la de la población de la Sima de los Huesos (de entre 430.000 y 300.000 años) que a la de los neandertales más recientes (de entre 135.000 y 40.000 años). Estas características sugieren que los restos de El Polvorín podrían ser los más antiguos de Bizkaia e, incluso, igual de antiguos (o más) que el húmero de Lezetxiki. Además, en el caso de la Sima I de El Polvorín, por primera vez se han descubierto restos de diferentes partes del esqueleto parcialmente conservado, lo cual aumenta la información que podemos obtener a partir de ellos. Varios restos humanos neandertales de este yacimiento se expondrán en una exposición sobre los neandertales en el País Vasco que tendrá lugar próximamente en el Arkeologia Museoa (Bilbao).

Contexto de los restos paleontológicos

El estudio de la cavidad ha puesto de manifiesto la complejidad de los procesos geológicos que han ocurrido en el interior de la misma, con varios eventos de sedimentación y de erosión. De momento no se han podido datar los restos humanos, ya que derivan de sedimentos en posición secundaria. Sin embargo, las investigaciones en la cueva han descubierto fósiles de fauna en su posición estratigráfica original (sin desplazamiento) de distintos momentos cronológicos. Uno de los objetivos de la excavación que se está llevando a cabo es encontrar contextos sin alterar en los que se recuperen nuevos restos humanos.

Cráneo parcial de oso de las cavernas (Ursus spelaeus) de la Sima I de la cueva de El Polvorín, recuperado en 1983. Foto: Javier Trueba (Madrid Scientific Films).

Recientemente se ha publicado el primer estudio tafonómico de los restos de osos recuperados en los años 1983 y 2000 en la Sima I de El Polvorín. Los osos no fueron acumulados por la acción de las hienas o por la acción del ser humano. Su acumulación se debe a mortandad natural durante la hibernación, a la caída desde una galería superior, o a una combinación de ambas razones. Además, se han identificado osos pertenecen a dos cronologías distintas: la mayor parte corresponden a osos de las cavernas (Ursus spelaeus), mientras que una pequeña parte de la colección restos se ha atribuido a su antepasado, el oso de Deninger (Ursus deningeri). Cabe mencionar que, a poca distancia de Polvorín, en la cueva de Santa Isabel de Ranero, Trinidad de Torres excavó en los años 90 la mayor acumulación de restos de oso de Deninger de Bizkaia, con una cronología aproximada de 300.000 años.

Referencias:

Arsuaga, J.L., Carretero, J.-M., Lorenzo, C., Gómez-Olivencia, A., Pablos, A., Rodríguez, L., García-González, R., Bonmatí, A., Quam, R.M., Pantoja-Pérez, A., Martínez, I., Aranburu, A., Gracia-Téllez, A., Poza-Rey, E., Sala, N., García, N., Alcázar de Velasco, A., Cuenca-Bescós, G., Bermúdez de Castro, J.M., Carbonell, E., (2015) Postcranial morphology of the middle Pleistocene humans from Sima de los Huesos, Spain. Proceedings of the National Academy of Sciences of the United States of America 112, 11524–11529.

Arsuaga, J.L., Martínez, I., Arnold, L.J., Aranburu, A., Gracia-Téllez, A., Sharp, W.D., Quam, R.M., Falguères, C., Pantoja-Pérez, A., Bischoff, J., Poza-Rey, E., Parés, J.M., Carretero, J.M., Demuro, M., Lorenzo, C., Sala, N., Martinón-Torres, M., García, N., Alcázar de Velasco, A., Cuenca-Bescós, G., Gómez-Olivencia, A., Moreno, D., Pablos, A., Shen, C.-C., Rodríguez, L., Ortega, A.I., García, R., Bonmatí, A., Bermúdez de Castro, J.M., Carbonell, E. (2014) Neandertal roots: Cranial and chronological evidence from Sima de los Huesos. Science 344, 1358–1363.

Bailey, S.E., Davies, T.W., Imbrasas, M.D., Lazuen, T., Hublin, J.-J., González-Urquijo, J., (2024) New Neanderthal remains from Axlor cave (Dima, Biscay, northern Iberian Peninsula). Journal of Human Evolution 187, 103483. doi: 10.1016/j.jhevol.2023.103483

Basabe, J.M., (1966) El húmero premusteriense de Lezetxiki (Guipúzcoa). Munibe XVIII, 13-32.

Basabe, J.M. (1970) Dientes humanos del paleolítico de Lezetxiki (Mondragón). Munibe XXII, 113-124.

Bermúdez de Castro, J.M., Sáenz de Buruaga, A. (1999) Étude Préliminaire du site Pléistocène Supérieur à hominidé d’Arrillor (Pays Basque, Espagne). L’Anthropologie 103, 633-639.

de-la-Rúa, C., Altuna, J., Hervella, M., Kinsley, L., Grün, R. (2016) Direct U-series analysis of the Lezetxiki humerus reveals a Middle Pleistocene age for human remains in the Basque Country (northern Iberia). Journal of Human Evolution 93, 109-119. http://dx.doi.org/10.1016/j.jhevol.2016.02.001

Gómez-Olivencia, A., López-Onaindia, D., Sala, N., Balzeau, A., Pantoja-Pérez, A., Arganda-Carreras, I., Arlegi, M., Rios-Garaizar, J., Gómez-Robles, A. (2020) The human remains from Axlor (Dima, Biscay, northern Iberian Peninsula). American Journal of Physical Anthropology 172, 475-491. https://doi.org/10.1002/ajpa.23989

López-Onaindia, D., Lozano, M., Gómez-Robles, A., Arrizabalaga, A., Subirà, M.E. (2023) Neanderthal teeth from Lezetxiki (Arrasate, Iberian Peninsula): New insights and reassessment. American Journal of Biological Anthropology 180 745-760. doi: 10.1002/ajpa.24694

Pettitt, P.B. (2011) The Paleolithic origins of human burial. Routledge, London.

Rodríguez-Almagro, M., Gómez-Olivencia, A., Villalba de Alvarado, M., Arsuaga, J.L., Sala, N. (2024) Taphonomic study of the cave bears (Ursus cf. deningeri and U. spelaeus) from the Sima I of the El Polvorín cave (Northern Iberian Peninsula). Quaternary Science Advances 13, 100171 doi: 10.1016/j.qsa.2024.100171

Torres, T., Nestares, T., Cobo, R., Ortiz, J. E., Cantero, M. A., Ortiz, J., Vidal, R. & Prieto, J. O. (2001) Análisis morfológico y métrico de la dentición y metapodios del oso de Deninger (Ursus deningeri Von Reichenau) de la Cueva Sta. Isabel de Ranero. Aminocronología (Valle de Carranza – Bizkaia – País Vasco). Munibe (Ciencias Naturales – Natur Zientziak) 51, 107–141.

Torres, T., Ortiz, J. E., Fernández, E., Arroyo–Pardo, E., Grün, R. & Pérez–González, A. (2014) Aspartic acid racemization as a dating tool for dentine: A reality. Quaternary Geochronology 22, 43–56. https://doi.org/10.1016/j.quageo.2014.02.004

 

*Autoras: Asier Gómez Olivencia, Julia Aramendi, Mikel Arlegi, Martin Arriolabengoa, Antoine Balzeau, Isabelle Crevecoeur, Julia Galán, Aurore Issartel, Diego López Onaindia, Lucía López-Polín, Marina Lozano, Virginia Martínez Pillado, Javier Moreno, Adrián Pablos, Ana Pantoja Pérez, Manuel Rodríguez Almagro, Nohemi Sala, Mónica Villalba de Alvarado.

 

Agradecimientos: Las autoras desean expresar su agradecimiento al Arkeologia Museoa, y a todo su personal por facilitar este estudio. Este proyecto ha contado con la inestimable ayuda de los grupos espeleológicos ADES espeleología Elkartea, Grupo Espeleológico Esparta, Haitzulo Espeleo Taldea y de miembros de C.D. Eibar/Antxieta Arkeologi Elkartea. Gracias también a Ane, Josu y Nazan por su ayuda en diversas labores de campo y laboratorio.

El artículo Neandertales arcaicos en el yacimiento de la Sima I de la cueva de El Polvorín se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Jugando la Eurocopa de fútbol en una mina

Jue, 2024/07/04 - 11:59

En estos días estamos viviendo uno de los numerosos eventos deportivos que nos deparará el verano, la Eurocopa de Naciones de Fútbol en categoría masculina de 2024, que se celebra en Alemania. Y uno de los estadios que está levantando mayor expectación entre los medios de comunicación y las personas aficionadas que disfrutan de los partidos, tanto de manera presencial en el campo como virtual a través de las retransmisiones televisadas, es el del equipo Schalke 04. Llamado antiguamente Arena auf Schalke, renombrado recientemente como Veltins-Arena, lo que hace tan especial a este estadio es que el túnel que atraviesan los jugadores de los dos equipos que van a disputar el partido para salir al campo imita el túnel de entrada a una mina. Y esto no es casualidad.

minaAspecto del túnel de acceso al terreno de juego del estadio Veltins-Arena del equipo Schalke 04 de la localidad alemana de Gelsenkirchen.

El Schalke 04 es el equipo de la localidad de Gelsenkirchen, que se encuentra en el estado federal de Renania del Norte-Westfalia, situado en el sector noroccidental de Alemania. Geológicamente hablando, en esta zona afloran materiales de finales del Carbonífero, en concreto de hace entre unos 315 y 307 millones de años. En aquellos momentos, en este lugar se desarrollaron grandes pantanos completamente bordeados por gigantescos helechos arborescentes y coníferas que superaban los 20m de altura. Era tal la cantidad de vegetación que, cuando morían y caían al agua, los organismos descomponedores no fueron capaces de eliminar toda la materia orgánica generada, que se fue enterrando en diversas capas una sobre otra en los fondos arcillosos de las masas de agua pantanosas. Con el paso del tiempo, fruto de la presión y el aumento de la temperatura debido a la compactación y el enterramiento cada vez a mayor profundidad en el subsuelo, esta materia orgánica sufrió una transformación mineral, acabando por convertirse en carbón.

Es tal la cantidad de yacimientos de carbón que encontramos en este estado alemán, que se llegó a definir un Piso geológico de la subdivisión clásica europea del Periodo Carbonífero nombrado en su honor: el Westfaliense. Nomenclatura ya obsoleta en las cronologías mundiales estándares de la Tabla Cronoestratigráfica Internacional, pero ampliamente utilizada todavía en la actualidad en muchas zonas centroeuropeas e, incluso, en la Península Ibérica.

minaMapa geológico de Alemania a escala 1:2.000.000, donde los materiales geológicos del Westfaliense aparecen representados de color marrón en el sector occidental del país. Fuente:l Bundesanstalt für Geowissenschaften und Rohstoffe (Instituto Federal de Geociencias y Recursos Naturales de Alemania)

Además, y como no podía ser de otra manera, el descubrimiento de estos abundantes yacimientos de carbón supuso un enorme motor económico para toda la zona occidental alemana durante la Revolución Industrial. Así, a mediados del siglo XIX, la localidad de Gelsenkirchen pasó de ser una pequeña ciudad post-medieval prusiana a convertirse en uno de los centros neurálgicos de la industrialización alemana. Actividad minera que prácticamente se mantuvo activa hasta los últimos estertores del siglo XX.

Esta importancia de la minería del carbón aún queda latente en la localidad. En su escudo heráldico podemos encontrar un cuadrante con una maza y un martillo cruzados, símbolo minero por excelencia, ambos de color blanco destacando sobre un fondo negro. Negro carbón, por supuesto. Y por toda la localidad se pueden encontrar antiguas explotaciones, fábricas, maquinaria y chimeneas de tratamiento del carbón que permanecen en pie como testigos mudos de todo este proceso industrial. Pero lo más llamativo lo encontramos en el aspecto deportivo, en concreto, en ese túnel de acceso de los jugadores al campo de fútbol.

Una vez más, os puedo mostrar un ejemplo de cómo la Geología condiciona todo el desarrollo social de un entorno, hasta el punto de caracterizar su ambiente deportivo. Lo mejor es cuando esta interacción supera las fronteras locales, pasando a obtener fama mundial gracias a un evento del que millones de personas, más allá de Europa, está pendiente. Sobre todo, porque el personal que comenta los partidos se centra en destacar, continuamente, esta particularidad tan geológica.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Jugando la Eurocopa de fútbol en una mina se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La historia de Mobius, un ejercicio topológico

Mié, 2024/07/03 - 11:59

Mobius the Stripper es una de las historias contenidas en la antología del mismo título, Mobius the Stripper. Stories and short plays, del escritor británico Gabriel Josipovici (1940).

La breve historia Mobius the Stripper lleva como subtítulo A Topological Exercise (Un ejercicio topológico). Las veinte páginas que componen este texto comparten la misma estructura: una línea horizontal las separa en dos trozos en los que se narran dos relatos distintos, pero entrelazados.

Las tres primeras páginas de Mobius the Stripper colocadas consecutivamente formando una tira.

 

Encima y debajo de la línea horizontal se narran dos historias distintas, pero relacionadas de alguna manera en cada una de las páginas. Puede pensarse que cada uno de esos dos relatos está escrito por un único lado de una larga tira de papel.

En la primera de esas tiras se cuenta la historia de Mobius (el nombre aparece escrito de este modo, no como Möbius o Moebius), un hombre que siente una “necesidad metafísica” (según sus propias palabras) de desnudarse, “de quitarme lo que la sociedad me ha puesto”, para poder descubrir su verdadero yo. Trabaja como stripper en un club nocturno de Londres, en el que, mientras actúa, habla. Lo que desnuda mientras se exhibe de este modo es su alma, no su cuerpo.

La segunda tira, formada yuxtaponiendo los textos situados en la segunda mitad de cada hoja (la situada bajo la línea horizontal), relata la historia de un joven escritor que se enfrenta a una crisis creativa. Ansía escribir algo diferente, pero, intimidado por los grandes escritores del pasado, está bloqueado. Su amiga Jenny le anima a ir a ver el espectáculo del stripper Mobius, sugiriéndole que sería un medio para distraerse, cambiar sus ideas y encontrar la inspiración.

El ejercicio topológico comienza al tomar estas dos historias, estas dos largas tiras de papel, y pegarlas: la segunda tira se gira 180 grados (esta operación se precisa para, tras terminar el “ejercicio topológico”, poder leer correctamente) y se encola en el reverso de la primera tira. Se consigue de este modo una nueva tira de papel, en la que la historia de Mobius está escrita en el anverso y la del joven escritor en el reverso. Si se pegan los dos extremos estrechos de esta tira para formar una banda de Möbius, se obtiene un relato escrito sobre una única cara. Tras leer la historia del stripper, comienza la del escritor, íntimamente ligada a la de Mobius. ¿Es Mobius una creación del escritor o su inspiración? ¿Cuál de las dos historias es realmente la primera? ¿La del stripper o la del escritor? ¿Quién ha creado a quién? ¿Mobius es quien inspira y libera al escritor, o es el autor quien imagina y da vida a este extraño stripper? ¿Cuál es el principio? ¿Cuál es el final?

La historia principal, la de Mobius, finaliza cuando el stripper se suicida, pegándose un tiro frente a un espejo, sonriendo. Crea de este modo una página en blanco ante la que el escritor reacciona. Y empieza entonces a escribir una historia (¿la historia?) sobre Mobius, el stripper a quien nunca ha visto: «Quizás era solo una historia, arbitraria, incompleta, pero de repente supe que crearía su propia necesidad y en el proceso me devolvería mi yo perdido».

Bonus: Diario de un mal año

Diary of a Bad Year (Text Publishing, 2007, traducido al castellano como Diario de un mal año en Mondadori) del Premio Nobel John Maxwell Coetzee (1940) también utiliza la línea horizontal como recurso para contar al mismo tiempo hasta tres historias entrelazadas.

Los primeros cinco capítulos del libro constan de páginas divididas en dos trozos por una línea horizontal. El texto principal, sobre la línea, contiene las anotaciones del diario de un hombre, el Señor C, un reconocido autor que escribe sobre temas políticos. En la parte de debajo se cuenta la historia del autor de este diario. A partir del capítulo 6 (hasta el último capítulo, el 24) se introduce una segunda línea horizontal, con lo que cada página se descompone en tres partes. Las dos primeras continúan del mismo modo que en los primeros capítulos y, en el tercer nivel del texto, se introduce a Anya, que vive en el mismo edificio del Señor C y que mecanografía los textos del escritor.

Como en el caso de Mobius the Stripper, las tres narraciones simultáneas (que conviven en la misma página) están relacionadas, y cada una revela diferentes aspectos del mismo relato: el diario (los pensamientos) del Señor C, la crónica del enamoramiento del escritor por Anya, y finalmente los esfuerzos de la mujer que debe mantener a raya a su novio Alan que siente celos del autor. Son diferentes textos que se complementan, se cruzan y crean finalmente un relato completo y único.

La geometría de las páginas de Diario de un mal año no obedece a un ejercicio topológico como en Mobius the Stripper, pero la herramienta narrativa sigue la misma estructura.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia

El artículo La historia de Mobius, un ejercicio topológico se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La cuestión de la equidad ilumina la cuestión de qué es difícil

Mar, 2024/07/02 - 11:59

Teóricos de la complejidad computacional han descubierto una nueva y sorprendente forma de comprender qué hace difíciles ciertos problemas.

Un artículo de Lakshmi Chandrasekaran. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

Ilustración: Nash Weerasekera para Quanta Magazine

Los informáticos teóricos se ocupan de ideas complicadas. Pero siempre que sea posible, preferirán trabajar con otras más simples. Una herramienta de 2009 conocida como lema de la regularidad les ofrece una excelente manera de hacerlo. De hecho, les permite dividir un problema o función computacional determinado en partes más simples.

Para los teóricos de la complejidad computacional, que estudian la dificultad relativa de diferentes problemas, esta capacidad de simplificar les ha ayudado durante mucho tiempo a comprender funciones matemáticas difíciles de manejar. Pero ciertos problemas con partes complejas todavía desafían el análisis.

Ahora, un nuevo trabajo proporciona una manera de analizar esos problemas difíciles de entender. El avance proviene de un área inesperada de la informática: la equidad algorítmica, donde algoritmos como los utilizados por bancos y compañías de seguros se examinan para asegurar que tratan a las personas de manera justa. Los nuevos resultados muestran que las herramientas de equidad pueden mapear efectivamente las diferentes partes de un problema difícil y aislar las regiones precisas del problema que dificultan su solución.

“Es realmente un trabajo fantástico. Creo que es muy emocionante”, afirma Michael Kim, científico informático de la Universidad de Cornell que ayudó a crear una de las herramientas de equidad que se ha reutilizado en el nuevo trabajo. «Como teórico que trabaja en estos espacios, es un resultado ideal que alguien tome tu trabajo de un área y lo aplique a otra».

Pronósticos de precisión

A medida que las instituciones se sienten más cómodas usando algoritmos para decidir quién obtiene un préstamo bancario, por ejemplo, o quién debe recibir libertad condicional, se ha vuelto más importante tener una manera formal de verificar que los prejuicios humanos no se están infiltrando en los cálculos. Pero hay más de una forma de medir lo que es justo.

Comencemos con el problema general de medir la precisión de una predicción. Digamos que se te ocurre un programa de ordenador que predice si va a llover en tu ciudad y quieres medir su precisión. Digamos también que tiende a llover alrededor del 40% de los días del año. Si utilizas una herramienta de equidad llamada multiprecisión, tu algoritmo podría considerarse preciso si realiza una predicción promedio cercana al 40%. Esto podría lograrse si el algoritmo predice un 40% de probabilidad de lluvia todos los días del año, o si predice un 100% de lluvia solo el 40% de los días (ya que el promedio sería el mismo). Sin embargo, si le pides que sea más específico: ¿lloverá el martes? – y el mismo algoritmo puede no ser preciso.

Consideremos ahora un algoritmo que predice si es probable que los solicitantes de préstamos realicen todos sus pagos. No es suficiente tener un algoritmo que prediga la tasa general correcta: el 40% de probabilidad de lluvia en nuestro ejemplo anterior. Necesita predecir la tasa de individuos específicos en diferentes grupos de población de una manera que sea tan precisa como justa.

Las predicciones precisas generalmente disminuyen a medida que se agregan capas de complejidad, como una fecha específica para el pronóstico del tiempo o una persona específica que solicita un préstamo. Las situaciones de la vida real rápidamente se vuelven demasiado complejas para que la precisión múltiple sea la mejor forma de medirlas.

En 2018, Kim y otros investigadores en equidad idearon un paradigma de equidad nuevo y más sólido llamado multicalibración, que tiene en cuenta estos niveles de complejidades. Este enfoque impone predicciones “calibradas”; básicamente, cada capa de complicación se tiene en cuenta en el sistema. La multicalibración significa que las predicciones de un algoritmo son precisas, ya sea que se miren todos los días o solo el martes. O si estás haciendo predicciones de préstamos para todas las personas o solo para ciertos tipos de personas. La multicalibración debería garantizar la equidad en todos los ámbitos.

Pero su utilidad no termina aquí.

Más allá de la equidad

El año pasado un equipo de informáticos teóricos vio la oportunidad de llevar estas herramientas a un campo diferente. Mostraron cómo la multiprecisión y la multicalibración eran equivalentes a los teoremas existentes en la teoría de grafos, una disciplina matemática que estudia las relaciones entre objetos. Esto hizo que Salil Vadhan, un científico informático de la Universidad de Harvard, se preguntara dónde más podría ser útil la herramienta.

«Vimos que estaban obteniendo resultados [usando] la multicalibración en teoría de grafos», cuenta Vadhan, uno de los autores del lema de la regularidad de 2009, así como del trabajo más reciente. «Ahora intentemos hacerlo también con la teoría de la complejidad». Formó equipo con su colega de Harvard Cynthia Dwork, quien también fue una de las autoras del artículo sobre teoría de grafos, y su estudiante de grado Sílvia Casacuberta (que ahora es estudiante de posgrado en la Universidad de Oxford).

Desde la izquierda: Cynthia Dwork, Salil Vadhan, y Sílvia Casacuberta adaptaron una herramienta del campo de la equidad algorítmica para mejorar nuestra comprensión de ciertos problemas difíciles. Fuentes: (desde la izquierda) Cynthia Dwork; Eliza Grinnell/Harvard SEAS; Allison Olivia Choat/Harvard University

El trío terminó estableciendo una especie de diccionario que traducía entre herramientas de equidad e ideas en la teoría de la complejidad. Demostraron que cualquier población (ya sean días por pronosticar o solicitantes en espera de préstamos) podría traducirse en un panorama de posibles entradas para un problema computacional.

Una vez establecidas las conexiones, los investigadores demostraron que la multiprecisión, la herramienta de equidad más débil, es equivalente al lema de la regularidad: una función simple, como la predicción promedio de las precipitaciones, puede aproximarse a una compleja, como el promedio verdadero (calculado usando la ocurrencia real de lluvia). «La conexión con la multiprecisión y la regularidad es solo un cambio de terminología», afirma Vadean.

Después de demostrar esto, los investigadores naturalmente se preguntaron si la multicalibración, la herramienta de equidad más poderosa, podría aplicarse para demostrar algo más sólido. Se podía: descubrieron que la capacidad de un algoritmo de equidad para mantener predicciones precisas dentro de subpoblaciones podría aplicarse para fortalecer otro lema, conocido como el lema fundamental de Impagliazzo. El lema nos ayuda a comprender la estructura de un problema difícil, observando todas sus posibles entradas (inputs) y preguntándonos cuáles serían las más difíciles de resolver.

Para imaginar un problema que solo es difícil con ciertos inputs, volvamos a la lluvia. Consideremos una región con una estación lluviosa, en la que llueve casi todos los días, y una estación seca, en la que casi nunca llueve. Gracias a esto, podemos predecir correctamente si lloverá el 90% del tiempo. El 10% restante (presumiblemente días en el límite entre las dos estaciones, en los que la lluvia y los cielos despejados son igualmente probables) son inputs difíciles. Las predicciones para esos días no pueden ser mucho mejores que las conjeturas aleatorias.

«¿Qué inputs de un problema computacional [descrito por una función difícil] son más fáciles y cuáles son más difíciles?» se preguntó el fallecido Luca Trevisan, científico informático teórico de la Universidad Bocconi en Italia y uno de los autores del lema de la regularidad de 2009. Impagliazzo demostró que, para cualquier problema difícil, siempre hay un conjunto común de puntos difíciles que son difíciles para cualquier algoritmo eficiente.

Los autores del nuevo trabajo han demostrado que la aplicación de los estrictos requisitos de la multicalibración mejoran el lema, generalizándolo para aplicarlo a más problemas. Los intentos anteriores de identificar los inputs concretos de un problema, en lugar de simplemente demostrar que existen, implicaban dividir los inputs en fragmentos más pequeños y buscar una función de aproximación que siguiera funcionando. Finalmente, después de suficientes divisiones, era posible identificar los inputs que no podían aproximarse. El único problema era que la división daba como resultado un número exponencial de fragmentos a procesar, por lo que el enfoque no era factible. Pero al aplicar la multicalibración, los investigadores han podido reducir el número total de divisiones, simplificando así el enfoque para aproximar la función difícil.

«Me gusta mucho su resultado», comenta Huijia (Rachel) Lin, científica informática teórica de la Universidad de Washington y una de las autoras del artículo sobre teoría de grafos del año pasado. «Realmente se trata de volver al clásico [lema fundamental] y darle un nuevo giro».

«Es realmente genial ver que tenemos este enfoque de predicción inspirado en la complejidad que ha promovido nuevas ideas chulas en equidad, [y] es guay verlas volver a la complejidad y cerrar el círculo», comenta Kim. «Creo que tienes esperanza en [que] este tipo de cosas [ocurran]».

 

El artículo original, The Question of What’s Fair Illuminates the Question of What’s Hard, se publicó el 24 de junio de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo La cuestión de la equidad ilumina la cuestión de qué es difícil se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Una nueva (e inesperada) función de los sacos aéreos

Lun, 2024/07/01 - 11:59

Desde el punto de vista energético el vuelo de las aves es prodigioso. Los músculos de las aves, y de forma especial los pectorales, requieren un ingente aporte de energía para cumplir su función. El esfuerzo muscular y el mantenimiento de una temperatura constante hacen que las aves consuman una gran cantidad de alimento, generalmente entre el 10 y el 20% de su masa corporal cada día. El caso extremo es el de los colibríes, los animales endotérmicos con mayor tasa metabólica, que pueden consumir diariamente hasta cinco veces su masa corporal.

El alimento no es el único condicionante del metabolismo aviar. Ese alimento debe ser oxidado para producir energía, por lo que el sistema respiratorio debe suministrar oxígeno en grandes cantidades. Esta es la razón por la que el sistema respiratorio de las aves es completamente diferente al de cualquier otro grupo de vertebrados, incluyendo a los mamíferos. Y un componente esencial de este particular sistema son los sacos aéreos.

Los sacos aéreos son divertículos de los pulmones que se distribuyen por el cuerpo del animal. Un grupo se localiza en la parte anterior del tronco y otro en la región posterior del tórax y en el abdomen. Se les atribuyen funciones tales como regular la temperatura interna, reducir la fricción entre los músculos o disminuir la densidad corporal. Pero su función principal está relacionada con el sofisticado sistema de ventilación pulmonar de las aves.

Los pulmones de las aves no se hinchan y deshinchan como los nuestros. Esto no sería suficientemente eficaz, ya que en los pulmones de los mamíferos el contenido en oxígeno se va empobreciendo tras la inspiración, al ir pasando a la sangre. Al final del ciclo el aire enrarecido es exhalado y se renueva en la siguiente inspiración.

Figura 1. Ciclo de ventilación pulmonar en las aves. Durante la inhalación, el aire llena los sacos aéreos posteriores y circula por los parabronquios. El aire empobrecido en oxígeno se acumula en los sacos aéreos anteriores. En la exhalación, la contracción de los sacos aéreos posteriores mantiene una corriente de aire fresco a través de los parabronquios, mientras que se expulsa el aire de los sacos anteriores. Un sistema de válvulas (en rojo) regula los flujos. Se muestra la posición del divertículo subpectoral

Los pulmones de las aves (Figura 1) están formados por una compleja red de tubos finos y muy vascularizados llamados parabronquios. Por estos parabronquios circula una corriente continua de aire fresco, lo que mantiene siempre altos los niveles de oxígeno para su captación por la sangre. Los sacos aéreos posteriores, funcionando como el fuelle de la gaita gallega, almacenan el aire de entrada y lo dirigen hacia los parabronquios durante la espiración. El aire empobrecido en oxígeno se almacena en los sacos anteriores hasta su expulsión. Así, aunque el ave inspire y espire de forma cíclica, el flujo de aire en los parabronquios es continuo, unidireccional y rico en oxígeno.

El llenado y vaciado rítmico de los sacos aéreos se logra por acción de los músculos torácicos y abdominales. Es decir, la acción muscular contribuye a la ventilación pulmonar, de una forma análoga a lo que hace nuestro diafragma. Por eso ha resultado tan sorprendente el descubrimiento de que, a la inversa, los sacos aéreos tienen una función importante en la mecánica del vuelo, en concreto del vuelo planeado.

Figura 2. El alimoche (Neophron percnopterus) es un ave planeadora que utiliza el mecanismo de los divertículos subpectorales para reducir el esfuerzo de sus músculos pectorales. Fuente: lifegyptianvulture.it

Las aves planeadoras mantienen las alas desplegadas para generar su sustentación (Figura 2). Sus músculos pectorales tienen que trabajar menos que los encargados de batir las alas, pero así y todo deben realizar un esfuerzo sustancial para mantener el despliegue de las alas. Curiosamente, las aves planeadoras generalmente tienen unos pequeños divertículos de los sacos aéreos anteriores, localizados bajo los músculos pectorales y de función hasta ahora desconocida. Se denominan divertículos subpectorales, y no aparecen en aves con vuelo batido.

Un reciente artículo publicado en Nature ha mostrado que este divertículo apareció al menos siete veces de forma independiente en la evolución de las aves, siempre coincidiendo con el desarrollo del vuelo planeado. Tienen divertículos subpectorales las gaviotas, grullas, albatros, cormoranes, pelícanos, águilas y otras rapaces planeadoras. La propuesta de los autores de este estudio es que el inflado del divertículo subpectoral disminuye el esfuerzo necesario para mantener el despliegue de las alas durante el vuelo planeado.

Figura 3. Cuando sostenemos un peso con el brazo en ángulo recto a una distancia determinada del codo, dicha distancia multiplicada por el peso debe ser igual a la fuerza ejercida por el bíceps multiplicada por el brazo de momento muscular

Para comprender esto tenemos que explicar el concepto de brazo de momento, la distancia perpendicular entre la línea de acción de una fuerza y un eje de rotación. La figura 3 ilustra esta idea. Si ponemos el brazo en ángulo recto y sostenemos un peso, la fuerza que tenemos que hacer será tanto mayor cuando más cerca del codo esté el eje del bíceps y viceversa. Esta distancia perpendicular entre línea de fuerza muscular y articulación del codo es el brazo de momento muscular.

Figura 4. La disminución del esfuerzo necesario para mantener el ala desplegada en las aves planeadoras se produce por el inflado del divertículo subpectoral, que cambia el ángulo de inserción de los músculos pectorales sobre el húmero. De esta forma, aumenta el brazo de momento muscular

La figura 4 ayudará a entender la insospechada función de los divertículos subpectorales. Los músculos pectorales se insertan en el húmero y en el esternón, pasando por encima de otros huesos de la cintura pectoral (coracoides y clavícula). Para mantener el planeo, la fuerza desplegada por los músculos debe compensar la fuerza ascensional generada por la presión del aire sobre las alas. Para ser más preciso, el brazo de momento muscular de los pectorales (BMM) multiplicado por la fuerza muscular (FM) debe igualar al brazo de momento del ala (BMA) multiplicado por la fuerza ascensional (FA):

BMM x FM = BMA x FA

La clave está en que el inflado del divertículo subpectoral aumenta el brazo de momento muscular, y disminuye proporcionalmente el esfuerzo muscular necesario para equilibrar la fuerza ascensional. Se trata de una nueva e inesperada función de los sacos aéreos, una innovación adquirida al menos por siete linajes de aves de forma concomitante al desarrollo del vuelo planeado. Y otro fascinante ejemplo de bricolaje evolutivo.

Referencias:

Schachner, E.R., Moore, A.J., Martinez, A. et al. (2024) The respiratory system influences flight mechanics in soaring birds. Nature. doi:10.1038/s41586-024-07485-y

Tobalske BW. (2024) Air sacs reduce energy costs for soaring birds. Nature. doi: 10.1038/d41586-024-01508-4.

 

Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga

 

El artículo Una nueva (e inesperada) función de los sacos aéreos se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Páginas