Europa entreabre la puerta a la edición genética en plantas
edición genética
Campo de algodón en Estados Unidos. Foto: Jordan Whitfield / UnsplashHace unos pocos meses publicaba un artículo en el que lamentaba el bloqueo que, en mi opinión y en la de muchos otros profesionales del sector, estaban sufriendo las nuevas técnicas genómicas (NGT en sus siglas en inglés) para su posible aplicación en las plantas. Las técnicas NGT incluyen los nuevos procedimientos de edición genética, en particular las herramientas de edición genética CRISPR, las más recientes, versátiles y poderosas, que han revolucionado la biología, la biomedicina y también la biotecnología tanto en animales como en plantas.
Una inexplicable sentencia del tribunal de justicia de la Unión Europea de julio de 2018 había equiparado los riesgos potenciales de las plantas modificadas genéticamente por la adición de un nuevo gen o fragmento de ADN (transgénicas) con los de las plantas editadas genéticamente con CRISPR. Sin embargo, en estas últimas no se suele añadir ningún transgén, sino que se inactivan o modifican genes con pequeñas variaciones genéticas (inserciones, deleciones o substituciones), similares o idénticas a las existentes en otras variedades naturales de esa misma planta.
La sentencia indicaba, sin aportar justificación científica, que toda planta editada genéticamente debía ser evaluada frente a los riesgos potenciales contra la salud humana y el medio ambiente. Eso implica la preparación de complejos y caros dossieres, tal y como recoge la Directiva 2001/18. Esta directiva se ha venido aplicando sobre todos los organismos modificados genéticamente (OMG) y ha provocado, de facto, la no aprobación para el cultivo de ninguna nueva variedad OMG desde entonces.
Este despropósito aisló Europa –y a Nueva Zelanda, aunque últimamente están reconsiderando su postura– del resto del mundo, que ha optado mayoritariamente por no regular a las plantas editadas genéticamente como OMG. Eso les permite favorecer la innovación tecnológica y aprovecharse de las ventajas productivas de incorporar estos métodos NGT en la agricultura.
Una nueva propuesta de la Comisión Europea para cambiar las cosasSin embargo, algo parece estar moviéndose en Europa en este tema. El pasado 5 de julio, la Comisión Europea publicó una propuesta para modificar la regulación de las plantas obtenidas mediante edición genética usando alguno de los métodos NGT, como las herramientas CRISPR.
El resumen de esta propuesta subraya varios aspectos. En primer lugar reconoce que las técnicas NGT no existían en 2001, cuando se adoptó la legislación actual europea que aplica sobre los OMG. Ciertamente parece cuando menos extraño que se intente aplicar los dictados de una directiva que se aprobó 12 años antes que apareciera la tecnología CRISPR (en 2013).
En segundo lugar, la propuesta incorpora una modificación largamente esperada por el sector: aquellas plantas obtenidas mediante alguna técnica NGT que podrían haberse también obtenido de forma natural o mediante cruces tradicionales serían sometidas a un proceso de verificación.
Aquellas que superaran este proceso serían tratadas como plantas convencionales y, por ello, estarían exentas de cumplir la Directiva 2001/18 de OMG. De hecho, no tendrían que ser identificadas como tales, aunque naturalmente deberían cumplir las normas de seguridad alimentaria, como cualquier otro producto destinado a la alimentación.
¿Y qué pasaría con las plantas NGT que no superen dicha verificación? Que seguirían considerándose OMG y seguirían teniendo que afrontar la citada directiva, aunque de una forma distinta, menos exhaustiva. Y esta es la tercera de las novedades importantes de la propuesta: no se les realizarán los mismos análisis que actualmente se aplican a las plantas transgénicas. La evaluación de riesgo debería estar justificada por una hipótesis de riesgo que se pudiera testar. O lo que es lo mismo, solamente se evaluarían aquellos riesgos para los que hubiera una hipótesis plausible.
No es lo mismo edición genética al azar que hacerla mediante CRISPRIncluir un proceso de verificación a las plantas obtenidas mediante NGT incorpora la flexibilidad que la comunidad científica venía reclamando desde hacía muchos años. No pueden tratarse todas las modificaciones o ediciones genéticas por igual.
Ese fue el error de la sentencia de julio de 2018: que equiparaba insertar al azar un gen de otro organismo (por ejemplo de una bacteria) en el genoma de una planta para generar una planta transgénica resistente a una plaga de insectos, a modificar mediante CRISPR, con precisión, algunas letras del ADN de una planta de forma que un gen deje de funcionar o adquiera una variante genética distinta, existente ya en la naturaleza, que le proporcione alguna característica distintiva aprovechable agroeconómicamente. Por ejemplo distinto sabor, mayor resistencia a la sequía, cambio en el contenido de compuestos metabólicos, resistencia a plagas, etcétera.
El nuevo (y gran) paso de la Comisión Europea acercaría el destino de la biotecnología vegetal en Europa al del resto del mundo, y terminaría con nuestro aislamiento. Algo que ya hizo en EE. UU. el Ministerio de Agricultura hace cinco años.
Aires de cambio que invitan al optimismoLa EPSO(la Organización Europea para la Ciencia de las Plantas) ya ha reconocido públicamente la voluntad de la Comisión Europea para modificar la legislación sobre OMG en la dirección adecuada. Y también ha dado la bienvenida a la propuesta el consejo científico asesor de ARRIGE, la Asociación para la Investigación Responsable e Innovación en Edición Genética.
Naturalmente esta propuesta no suscita el acuerdo de todos, y tanto los partidos Verdes europeos como Alemania y Austria ya se han posicionado en contra de la misma, reclamando mantener el principio de precaución que ha lastrado el progreso en Europa en este campo en los últimos años.
Algunos sinsentidosEn toda iniciativa, el diablo está en los detalles, y este caso no es una excepción. El procedimiento de verificación de las plantas NGT permite eximirlas de cumplir la Directiva 2001/18 solamente en determinadas situaciones, descritas en los anexos de la propuesta.
Concretamente, se propone que una planta obtenida por NGT se considerará equivalente a una planta convencional si el número de substituciones o inserciones de letras del genoma afectadas por la modificación es menor o igual a 20. Pero si se trata de eliminar letras (deleciones) o de invertir la dirección de un fragmento del ADN, este número es ilimitado. ¿Por qué diferenciamos entre inserciones/substituciones y deleciones/inversiones? ¿Por qué limitamos las primeras precisamente a 20 y no a 18, o a 25, o a 30? En plantas, de forma natural,existen inserciones y deleciones mucho mayores.
Son razones arbitrarias en las que, de nuevo, parece faltar la justificación científica correspondiente y pueden dejar fuera de esta propuesta a muchas plantas NGT que no cumplan con estas limitaciones.
Finalmente, las plantas NGT que se consideren equivalentes a las plantas convencionales no podrán, sin embargo, ser usadas en agricultura ecológica/orgánica. Otra contradicción.
Sea como fuere, esta propuesta de la Comisión Europea deberá ser debatida en el Parlamento Europeo y por el Consejo Europeo antes de su aprobación. Es posible que afronte nuevas modificaciones durante la negociación. Pero hay esperanza y algo se mueve –¡por fin!– en Europa.
Y por eso es tan importante contarlo, para que la sociedad europea conozca la existencia de esta propuesta y su previsible impacto en la biotecnología y en nuestra economía.
Sobre el autor: Lluís Montoliu, Investigador científico del CSIC, Centro Nacional de Biotecnología (CNB – CSIC)
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Europa entreabre la puerta a la edición genética en plantas se ha escrito en Cuaderno de Cultura Científica.
Los reptiles geométricos
Se acaba de anunciar que el lema del Día Internacional de las Matemáticas 2024 será Jugando con las matemáticas. Por este motivo, me ha parecido una buena idea dedicar esta entrada estival del Cuaderno de Cultura Científica a un curioso rompecabezas geométrico, el de las figuras geométricas conocidas como “rep-tiles”, bueno realmente su nombre es el de “repiteselas”, pero tiene su gracia utilizar en el título de esta entrada el término en inglés, “reptiles”.
El lema del Día Internacional de las Matemáticas 2024 será Playing with Math (inglés US), Playing with Maths (inglés UK), Jouons avec les maths (francés), Spiele mit Mathematik (alemán), Brincando com a matemática (portugués), Jugando con las matemáticas (español), Oyunla Matematik (turco)Un rompecabezas geométricoEl matemático escocés Charles Dudley Langford (1905-1969), a quien se le ocurrió también el conocido problema de los emparejamientos de Langford (véase la entrada Teselaciones rítmicas perfectas o el libro Del ajedrez a los grafos, la seriedad matemática de los juegos), en un artículo titulado Uses of a Geometric Puzzle (Usos de un rompecabezas geométrico) y publicado en la revista The Mathematical Gazette (La gaceta matemática) en 1940, se planteó la siguiente cuentión.
Problema: ¿Qué formas geométricas (formas poligonales) pueden ser diseccionadas en copias idénticas de ellas mismas?
Aunque Langford lo plantea al revés, de la siguiente forma. Es trivial que, si tomamos cuatro cuadrados, triángulos o rectángulos, estos pueden juntarse para formar de nuevo un cuadrado, un triángulo o un rectángulo, es decir, la misma forma, pero de mayor tamaño.
Langford propone buscar otras figuras geométricas que cumplan esta propiedad, algunas de las cuales, como las dos que aparecen en la siguiente imagen, ya eran conocidas por los creadores de rompecabezas geométricos.
Aunque el matemático ofrece algunos otros ejemplos, tres con forma de trapecio y otro con forma de L (los dos anteriores son también de este tipo). Los tres con forma de trapecio son los siguientes.
Mientras que el de la forma de L es esta sencilla forma.
Las repiteselas, o rep-tiles geométricosEn 1962 el matemático e ingeniero estadounidense Solomon W. Golomb (1932-2016), creador de los poliominós (véanse las entradas Embaldosando con L-triominós (Un ejemplo de demostración por inducción) y Tetris, embaldosados y demostraciones), recuperó la idea de los rompecabezas de Langford, a los que denominó “rep-tiles” (repiteselas), que venía de la expresión “self-replicating tiles” (teselas o baldosas auto-replicantes), haciendo un gracioso juego de palabras con el grupo de animales que reciben el nombre de reptiles. Las repiteselas fueron popularizadas por el divulgador de las matemáticas estadounidense Martin Gardner (1914-2010) en su columna Juegos matemáticos, de mayo de 1963, de la revista Scientific American.
Por lo tanto, una repitesela (o un rep-tile geométrico, si queremos seguir el juego de palabras de Golomb) es una forma geométrica (poligonal) que puede ser diseccionada en copias idénticas de ella misma, como las formas que hemos mostrado más arriba o la figura “esfinge” introducida por Golomb y que mostramos a continuación.
La figura “esfinge” es un hexadiamante (es decir, un polidiamante -figura geométrica plana formada conectando dos o más triángulos equiláteros por alguno de sus lados; los triángulos se conectan lado con lado, pero no se pueden conectar ni por sus vértices, ni juntando solo parte de un lado de un triángulo con parte de un lado de otro- formado por seis triángulos equiláteros) que forma un pentágono irregular y que recuerda a la gran esfinge de Guiza (Egipto), motivo por el cual recibe su nombre.
La repitesela “esfinge”, que es un hexadiamante pentagonal, que puede ser diseccionada en cuatro copias de sí mismaPero se puede afinar un poco más la definición teniendo en cuenta el número de copias en las que se descompone la figura geométrica. Se dice que una figura geométrica es una repitesela (o un reptil geométrico) de orden k si puede ser diseccionada en k copias idénticas de ella misma. Todos los ejemplos que han sido mostrados en esta entrada hasta el momento son repiteselas de orden 4.
Veamos ejemplos de repiteselas de otros órdenes. Empecemos por el orden 2. Un ejemplo de reptil geométrico de orden 2 lo encontramos muy cerca de nosotros, de hecho, en las hojas de papel sobre las que escribimos, que tienen el formato denominado DINA (véase la entrada Visitad los museos, también en clave matemática). Si juntamos dos hojas de papel DIN A4 se obtiene una hoja de papel DIN A3 y ambas tienen la misma forma (el cociente entre el largo y el ancho en ambas es igual, la raíz de 2), es decir, se puede dividir la hoja DIN A3 en dos hojas DINA4, que tienen la misma forma que la hoja original (DIN A3). Por lo tanto, el rectángulo raíz cuadrada de dos, es decir, el rectángulo cuya proporción entre la altura y la base es la raíz cuadrada de 2, es una repitesela de orden 2.
El rectángulo raíz cuadrada de 2 es una repitesela de orden 2
El triángulo rectángulo isósceles es también un ejemplo de reptil geométrico de orden 2.
El triángulo rectángulo isósceles es una repitesela de orden 2
El ejemplo del rectángulo anterior nos sirve para poder afirmar que para todo orden k existe siempre un reptil geométrico de ese orden, ya que el rectángulo cuya proporción entre la base y la altura es la raíz cuadrada de k, es una repitesela de orden k.
El rectángulo raíz cuadrada de 5 es una repitesela de orden 5
Todos los ejemplos de repiteselas que hemos mostrado son figuras convexas, sin embargo, Langford consideró también figuras no convexas. Recordemos que, en matemáticas, un conjunto es convexo si, dados dos puntos cualesquiera del conjunto, se verifica que los puntos del segmento que une esos dos puntos están también dentro del conjunto. El conjunto no convexo, mostrado por Langford en su artículo, que es una repitesela es la unión de dos cuadrados por su vértice, que se muestra en la siguiente imagen.
Repitesela (no convexa) de orden 4 y su disección en cuatro copias, más pequeñas, de ella mismaLos órdenes de un reptil geométricoTeniendo en cuenta que una repitesela de orden k es una figura geométrica que puede ser diseccionada en k copias idénticas de ella misma, y que cada una de estas copias puede ser, a su vez, diseccionada en k pequeñas copias de sí misma, entonces la figura original quedará diseccionada en k2 copias, es decir, la figura geométrica es también una repitesela de orden k2. Y como este proceso de puede continuar hasta el infinito, se puede deducir el siguiente resultado.
Proposición: Una figura geométrica que es un reptil geométrico de orden k, es también un reptil geométrico de orden kn, para cualquier número natural n.
La esfinge es una repitesela de orden 4, pero también de orden 16, como se muestra en esta imagen
Pero los reptiles geométricos de un cierto orden k, es decir, que pueden ser diseccionados en k copias idénticas de ellos mismos, también pueden ser diseccionados en otras cantidades, distintas de k (o sus potencias), de copias de ellas mismas. Por ejemplo, el propio Langford muestra como dos de las repiteselas de orden 4 que ya hemos mostrado, también tienen orden 9, como queda de manifiesto en la siguiente imagen.
El triominó en forma de L y el segundo trapecio de los mostrados arriba son reptiles geométricos de orden 4, pero también de orden 9
Existen diferentes investigaciones sobre los órdenes de las repiteselas, pero no abordaremos este tema en esta entrada del Cuaderno de Cultura Científica.
Construyendo reptiles geométricosVamos a terminar esta entrada con una sencilla técnica, desarrollada por Golomb, para construir reptiles geométricos. En particular, la que nos permite construir el siguiente pez como una repitesela de orden 9.
Figura geométrica em forma de pez que es una repitesela de orden 9
Si nos fijamos en la anterior imagen, la figura del pez es un polidiamante formado por tres triángulos (luego un tridiamante) que tesela el triángulo equilátero, es decir, con una cierta cantidad de copias del pez (en este caso tres) se forma un triángulo equilátero, luego el pez es un reptil geométrico.
El tridiamante con forma de pez tesela el triángulo equilátero, por lo que este pez es un reptil geométrico de orden 9
De la misma forma, podemos buscar otros polidiamantes que teselen el triángulo equilátero. Empezando con los tridiamantes tales que juntando tres copias forman el triángulo equilátero, es decir, que teselan el triángulo equilátero, podemos observar que existen cinco ejemplares de estos tridiamantes (el pez y los cuatro que aparecen en la siguiente imagen).
Cuatro tridiamantes, el último formado por dos piezas desconectadas, que teselan el triángulo equilátero, luego que son reptiles geométricos de orden 9
Notemos que en los anteriores ejemplos el triángulo equilátero teselado tiene 9 pequeños triángulos equiláteros y efectivamente el 9 es divisible por 3. Si realizásemos un estudio general de esta construcción con polidiamantes que teselan un triángulo equilátero tendríamos que tener en cuenta cuantos pequeños triángulos equiláteros teselan un triángulo equilátero. El número de esos pequeños triángulos equiláteros es igual a la suma de los primeros números impares, 1 + 3 + 5 + … + (2n – 1), siendo n la cantidad de filas de triángulos que hay. Pero, como vimos en la entrada Matemáticas para ver y tocar la suma de los primeros números impares es igual a un número cuadrado, 1 + 3 + 5 + … + (2n – 1) = n2. Luego si buscamos otra teselación del triángulo equilátero con tres polidiamantes, el siguiente caso en el que buscar sería para n = 6 (seis filas) y un ejemplo es la figura del cohete siguiente.
Hexiadamente -o polidiamante formado por 12 triángulos equiláteros- con forma de cohete que tesela el triángulo equilátero con tres copias del mismo, por lo que es una repitesela de orden 36
Este tipo de construcción sirve también para otras poliformas, como por ejemplo los poliominós (recordemos que ahora se utilizan cuadrados en lugar de triángulos equiláteros). Terminamos la entrada con un ejemplo de esta construcción, que nos dice que el tetraminó (poliominó formado por cuatro cuadrados) con forma de T es un reptil geométrico de orden 16, ya que con cuatro tetraminós de esta forma se construye el cuadrado.
El tetraminó con forma de T es una repitesela de orden 16
Bibliografía
1.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.
2.- Charles Dudley Langford, Uses of a Geometric Puzzle, The Mathematical Gazette 24 (260), pp. 209–211, 1940.
3.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, El mundo es matemático, RBA, 2015.
4.- Solomon W. Golomb, Replicating figures in the plane, The Mathematical Gazette 48 (366), pp- 403–412, 1964.
5.- Martin Gardner, The Unexpected Hanging and Other Mathematical Diversions (capítulo 19: Rep-Tiles, Replicating Figures on the Plane), Chicago University Press, 1991.
6.- Wikipedia: Rep-tile
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los reptiles geométricos se ha escrito en Cuaderno de Cultura Científica.
Fotones como neurotransmisores
Nuestro encéfalo está formado por miles de millones de neuronas que están conectadas entre sí formando redes complejas. Estas neuronas se comunican mayoritariamente mediante un proceso llamado transmisión sináptica, en el cual se envían señales eléctricas (potenciales de acción) y señales químicas (neurotransmisores).
Los neurotransmisores los libera una neurona, se difunden hacia las demás, y llegan a las células diana generando una señal que excita, inhibe o modula la actividad celular. El momento y la fuerza de estas señales son cruciales para que el cerebro procese e interprete la información sensorial, tome decisiones y genere comportamiento.
Controlar las conexiones entre las neuronas nos permitiría comprender y tratar mejor los trastornos neurológicos, reconfigurar o reparar los fallos en los circuitos neuronales tras haber sido dañados, mejorar nuestras capacidades de aprendizaje o expandir nuestro conjunto de comportamientos.
Existen varios métodos para controlar la actividad neuronal. El uso de fármacos es la alternativa más habitual, que permite alterar los niveles de los neurotransmisores presentes en el encéfalo y afectar la actividad de las neuronas. Otra opción es estimular eléctricamente zonas específicas para activar o inhibir las neuronas. Pero existe una tercera posibilidad: usar la luz.
Los investigadores han utilizado el nemátodo Caenorhabditis elegans como modelo experimental. En la imagen, detalle donde el sabor de un neurotransmisor químico ha sido reemplazado por el color del fotón. La neurona de color azul cian es presináptica para el amarillo y el rojo y, por tanto, controla su actividad utilizando luz de ese color cian. Fuente: ICFO / Zeynep F. AltunLa manipulación de la actividad neuronal mediante la luz es una técnica, relativamente nueva, que se viene explorando desde hace tiempo. Esta técnica implica modificar genéticamente las neuronas para que expresen proteínas, canales iónicos, bombas de protones o enzimas específicas sensibles a la luz en las células diana.
Aunque este método permite a los investigadores controlar la actividad de grupos concretos de neuronas con mayor precisión, existen todavía algunas limitaciones. Como la luz se dispersa en el tejido cerebral, debe administrarse muy cerca de las neuronas para lograr una resolución suficiente a nivel de sinapsis. Esto implica usar técnicas a menudo invasivas, y requiere de intervenciones externas. Además, la intensidad que se necesita para llegar a las células diana puede ser potencialmente dañina para ellas.
Luz para controlar la actividad neuronalAhora, un equipo de investigadores ha desarrollado un nuevo sistema que utiliza fotones como neurotransmisores como estrategia para controlar la actividad neuronal. Este método permite conectar dos neuronas utilizando luciferasas (unas enzimas que emiten luz) y canales iónicos fotosensibles. El método, llamado PhAST, ha sido testado en el nemátodo Caenorhabditis elegans, un organismo modelo ampliamente utilizado para estudiar procesos biológicos.
Del mismo modo que los animales bioluminiscentes usan fotones para comunicarse, la idea era utilizar enzimas para enviar fotones, en lugar de sustancias químicas, como transmisores entre neuronas. Para comprobar si era posible, realmente, usar los fotones para codificar y transmitir el estado entre dos neuronas, el equipo primero modificó genéticamente los gusanos, alterando sus neurotransmisores de tal manera que fuesen insensibles a los estímulos mecánicos. El objetivo era ver si, con el sistema diseñado, se podían revertir estas alteraciones sensoriales.
En segundo lugar, los investigadores sintetizaron las luciferasas y seleccionaron los canales iónicos proteicos sensibles a la luz, denominados canalrodopsinas. Por último, desarrollaron un dispositivo que administraba estímulos mecánicos en la punta de la nariz de los gusanos, midiendo simultáneamente la actividad del calcio (uno de los iones y mensajeros intracelulares más importante) en las neuronas sensoriales. Esto les permitió seguir el flujo de la información.
Para poder ver los fotones y estudiar la bioluminiscencia, el equipo diseñó previamente un microscopio específico asistido con aprendizaje automático. Simplificaron un microscopio de fluorescencia quitando algunos elementos ópticos habituales como filtros, espejos, o el propio láser, y lo cubrieron por completo para eliminar la contaminación de luz externa.
Los investigadores diseñaron también varios experimentos que han conseguido establecer que los fotones sí pueden, de hecho, transmitir estados neuronales. En uno de ellos, se estableció una nueva comunicación entre dos neuronas no conectadas previamente, restaurando una conexión neuronal en un circuito defectuoso.
También suprimieron la respuesta del animal a estímulos dolorosos, cambiaron su comportamiento pasando de atracción a aversión en respuesta a un estímulo olfativo y estudiaron la dinámica del calcio durante la puesta de los huevos.
Los fotones pueden actuar como neurotransmisoresLos resultados demuestran que los fotones pueden actuar como neurotransmisores, permitiendo la comunicación entre las neuronas, y que el sistema PhAST permite la modificación sintética del comportamiento animal.
Como la luz puede usarse en más tipos de células y en más especies animales, ofrece un gran potencial para una amplia gama de aplicaciones, desde la investigación básica hasta aplicaciones clínicas en neurociencia.
Controlar y monitorear la actividad neuronal mediante luz puede ayudar a la comunidad científica a, por ejemplo, entender mejor los mecanismos subyacentes de la función cerebral y los comportamientos complejos o a determinar cómo distintas regiones del cerebro se comunican entre ellas.
También puede aportar nuevas maneras de escanear y mapear la actividad cerebral con mayor resolución espacial y temporal. Además, puede ser útil en el futuro para desarrollar nuevos tratamientos para reparar las conexiones neuronales dañadas sin necesidad de cirugías invasivas.
El camino a seguir en un futuro está orientado a mejorar la ingeniería de las enzimas bioluminiscentes, los canales iónicos o las moléculas diana, lo que permitiría controlar de manera óptica, no invasiva, y con una mayor especificidad y precisión la función neuronal.
Referencia:
Porta-de-la-Riva, M., Gonzalez, A.C., Sanfeliu-Cerdán, N. et al. (2023) Neural engineering with photons as synaptic transmitters. Nat Methods doi: 10.1038/s41592-023-01836-9
Edición realizada por César Tomé López a partir de materiales suministrados por ICFO.
El artículo Fotones como neurotransmisores se ha escrito en Cuaderno de Cultura Científica.
La juventud de la superficie de Venus
superficie de Venus
Quizás uno de los temas más candentes de la geología planetaria en los últimos años -y que probablemente lo seguirá siendo hasta bien entrada la próxima, cuando quizás podamos dar por sentada esta cuestión- ha sido el estudio de la posible actividad volcánica en Venus. Aquí, en este mismo espacio de Planeta B hemos hablado de los esfuerzos por cartografiar las estructuras volcánicas en Venus en “Un nuevo mapa del vulcanismo de Venus”, así como también de las que podrían ser las primeras imágenes que demuestran que es un planeta volcánicamente activo en “¿Es esta la prueba definitiva de que Venus tiene volcanes activos?”.
Pero lo cierto es que, a pesar de que nos cueste conocer el grado de actividad de Venus debido a la falta de misiones y a la escasa cobertura temporal -al menos con buena resolución-, si no es activo en la actualidad, lo ha sido muy recientemente, aunque desconozcamos exactamente que tipo de procesos son los encargados de rejuvenecer su superficie. En nuestro planeta tenemos la tectónica de placas, el vulcanismo o los agentes externos como la lluvia o el hielo, pero, ¿qué pasa en Venus?
Las cronologías más recientes muestran una gran horquilla de edades para la superficie de Venus que va desde los 1.000 a los 150 millones de años debido a las grandes limitaciones que tenemos para estudiar el planeta. De hecho, estas edades se han calculado estudiando la población de cráteres que hemos podido observar en las imágenes de radar que tenemos, ya que no hemos podido traer muestras de su superficie y que podamos datar en nuestros laboratorios, algo que de momento está lejos de nuestro alcance a nivel tecnológico.
Cráteres en la región de Lavinia de Venus vistos por el radar de la sonda Magellan. Cortesía de NASA/JPL.Esta técnica de datación mediante el conteo de cráteres es muy habitual en los cuerpos del Sistema Solar de los que no podemos traer muestras pero de los que sí disponemos de imágenes, ya que nos permite estimar la edad contando los cráteres de una zona y por norma general, a mayor número de cráteres por unidad de superficie, más antigua es esta, aunque obviamente tiene sus limitaciones. Se basa en un principio básico que podríamos resumir en que si la superficie no cambia por algún tipo de proceso, cada vez tendrá más cráteres visibles. O dicho de una manera sencilla: los cráteres son las “arrugas” de los planetas.
Pero esta técnica tiene en Venus un inconveniente muy concreto: Y es que su densa atmósfera probablemente sirva de filtro para los cuerpos más pequeños y que, por lo tanto, podrían consumirse antes de tocar suelo, no llegando a dejar un cráter y por lo tanto, dificultando la tarea, dando como resultado una edad más reciente debido a este sesgo.
A pesar de este posible problema con las dataciones, si miramos la superficie de Venus parece muy joven, tanto es así que sería el único planeta interior (contando a Mercurio y Marte) cuya superficie tiene una edad de rejuvenecimiento de su superficie similar a la de la Tierra y, por lo tanto, procesos capaces de transformar el planeta activos o que han estado activos en el pasado reciente.
Cráteres en la región de Lavinia de Venus vistos por el radar de la sonda Magellan. Cortesía de NASA/JPL.¿Qué proceso o procesos podrían ser los responsables de este hecho? Un nuevo estudio (Marchi et al. (2023)) apunta directamente a la labor de la actividad volcánica en Venus. Sabemos por el último censo de edificios volcánicos en el planeta que hay en torno a unos 85.000 volcanes, una cifra que podría ser unas seis veces superior a todos los volcanes de nuestro planeta y, si hay un gran número de estos activos, las coladas de lava podrían ser las responsables de cubrir las superficies más viejas y de generar las nuevas.
Pero de nuevo, aquí hay otra diferencia con nuestro planeta: Si Venus tiene muchos más volcanes activos que la Tierra, a pesar de ser dos planetas similares en tamaño… ¿de dónde saca ese calor extra necesario para generar el elevado número de erupciones?.
El estudio apunta a que Venus pudo sufrir impactos mucho más energéticos contra su superficie al principio de su historia que la Tierra, aumentando el calor disponible en el planeta. Este hecho no es una extrañeza, ya que al encontrarse más cerca del Sol los cuerpos se mueven a mayor velocidad por la propia mecánica orbital, resultando en colisiones más violentas y un mayor grado de fusión en los materiales que forman Venus.
También es posible que las órbitas de estos cuerpos que podrían haber cochado contra Venus fuesen más excéntricas al provenir de zonas más alejadas del Sistema Solar, lo que de nuevo, serviría para añadir más energía al impacto.
Reconstrucción de como habría lucido Venus durante la época de los impactos que añadieron ese calor “extra” al planeta y que permitiría una gran actividad volcánica, mayor que la de la Tierra. Imagen cortesía del Southwest Research Institute.Dicho esto, las condiciones generadas por estos impactos provocarían una evolución geodinámica muy diferente a Venus y la Tierra, llevando a Venus a tener un núcleo muy caliente que daría como resultado la gran actividad volcánica por esa transferencia de calor desde el interior del planeta hacia el exterior.
Pero hay una consecuencia más en este artículo: Venus tiene un campo magnético muy tenue y algunos estudios apuntaban a que la estructura de su núcleo sería la responsable de este hecho, puesto que los impactos podrían haber homogeneizado su composición. Y es posible incluso que Venus tuviese un campo magnético mucho más importante en el pasado ya que su núcleo probablemente tenía calor más que suficiente para iniciar una geodínamo, pero es posible que la magnetización de la corteza haya desparecido debido a su intenso vulcanismo.
Tendremos que esperar a las futuras misiones planeadas para Venus -a finales de esta década y principios de la siguiente- para poder resolver estas y muchas más cuestiones sobre Venus e incluso, quien sabe, si encontrar nuevas preguntas.
Referencias:
Herrick, Robert R., Evan T. Bjonnes, Lynn M. Carter, Taras Gerya, Richard C. Ghail, Cédric Gillmann, Martha Gilmore, et al. «Resurfacing History and Volcanic Activity of Venus». Space Science Reviews 219, n.º 4 (junio de 2023): 29. doi: 10.1007/s11214-023-00966-y.
Marchi, Simone, Raluca Rufu, y Jun Korenaga. «Long-Lived Volcanic Resurfacing of Venus Driven by Early Collisions». Nature Astronomy, 20 de julio de 2023. doi: 10.1038/s41550-023-02037-2.
Tian, Jiacheng, Paul J. Tackley, y Diogo L. Lourenço. «The Tectonics and Volcanism of Venus: New Modes Facilitated by Realistic Crustal Rheology and Intrusive Magmatism». Icarus 399 (julio de 2023): 115539. doi: 10.1016/j.icarus.2023.115539.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo La juventud de la superficie de Venus se ha escrito en Cuaderno de Cultura Científica.
A qué hora comemos y en qué orden afecta a nuestros biorritmos
comemos
Foto: Farhad Ibrahimzade / UnsplashGran parte de los procesos fisiológicos que ocurren en nuestro cuerpo están condicionados por el “sistema circadiano”. Por ejemplo, cuando sale el sol la síntesis de cortisol –la hormona de la vigilia– se dispara, mientras que la síntesis de melatonina –la hormona del sueño– llega a sus mínimos. Conforme llega la noche tiene lugar el proceso contrario.
La producción de estas dos hormonas consigue controlar, sin que nos demos cuenta y de manera repetitiva, muchos procesos que ocurren a diario en nuestro cuerpo, desde la regulación de la temperatura corporal al equilibrio de las concentraciones de glucosa en sangre. Pero ¿se ve afectado nuestro metabolismo si comemos más o menos tarde? ¿Es importante el orden en el que ingerimos los alimentos?
Relojes que marcan la vidaLa ritmicidad circadiana es generada por relojes internos que encontramos en la mayoría de mamíferos y que están sincronizados principalmente de acuerdo con el ciclo luz/oscuridad. Este sistema tiene una gran conexión con el metabolismo y produce ritmos cíclicos en procesos fisiológicos como la síntesis de proteínas y hormonas. Pero ¿puede nuestro estilo de vida afectar a esos biorritmos? Todo apunta a que sí.
Son muchos los factores ambientales que pueden afectar a la relación entre ritmos circadianos y metabolismo, entre ellos la luz artificial, el estrés, el trabajo por turnos y el desfase horario en los viajes. Se les conoce como “cronodisruptores”. Es decir, factores que pueden irrumpir en la correcta organización del sistema circadiano, afectando a los ritmos cíclicos de este sistema y contribuyendo al desarrollo de enfermedades crónicas como la obesidad y la diabetes.
¿Cómo afecta cuándo o cada cuánto comemos?En los últimos años se ha observado que la dieta es un factor importante en la sincronización de los relojes internos. Sin embargo, la compleja relación entre ambos factores todavía no está del todo descrita.
Una nueva disciplina denominada “crononutrición” se encarga de estudiar el impacto de los horarios de la alimentación en el bienestar de los seres vivos. Para ello tiene en cuenta tres dimensiones diferentes de la conducta alimentaria: el momento, la frecuencia y la regularidad de las ingestas.
Los relojes circadianos coordinan las variaciones del metabolismo energético y el comportamiento alimentario, de tal manera que durante la fase más activa del día se asegura de que reponemos las reservas energéticas. En la fase de sueño, por el contrario, promueve el ayuno y la movilización de las reservas de energía.
Sin embargo, el estilo de vida predominante en la sociedad actual se caracteriza cada vez más por seguir dietas poco saludables, no mantener un horario regular para las comidas, saltarse alguna de ellas y comer a altas horas de la noche. El resultado es la disrupción de los ritmos circadianos y, a su vez, una mayor prevalencia de obesidad en la población.
Varias investigaciones han señalado que mantenerse despierto y comer en horas fisiológicamente destinadas al sueño podría poner de alguna manera en riesgo un óptimo estado metabólico. No solo eso, sino que los horarios de alimentación inusuales se han relacionado con alteraciones en la cantidad de energía que se gasta a lo largo del día, cambios en el metabolismo de la glucosa y en la síntesis de hormonas estimulantes del apetito y, por ende, alteraciones de las conductas alimentarias.
Otros estudios sugieren que comer a horas tardías y no mantener horarios regulares de ingesta de alimentos, como ocurre en las personas que trabajan a turnos, altera los relojes biológicos y se asocia con una mayor dificultad para perder peso. Además, puede aumentar la prevalencia de diabetes y de enfermedades cardiovasculares.
¿Importa el orden en el que ingerimos los alimentos?Parece que sí. Estudios recientes han sugerido que priorizar el consumo de algunos grupos de alimentos antes que otros en la misma comida podría afectar a nuestra salud.
Se ha observado que consumir en primer lugar los alimentos ricos en fibra (verduras y frutas), seguido de alimentos proteicos (como carnes y pescados) y dejar para el final los hidratos de carbono (cereales), podría disminuir los picos de azúcar tras las comidas y reducir la concentración de glucosa en sangre. Esto ayudaría a prevenir el desarrollo de diabetes.
Es decir, si comemos un plato de verduras con un poco de arroz y de salmón, deberíamos comer en primer lugar las verduras y dejar para el final el arroz, porque así reduciríamos los aumentos bruscos de azúcar en sangre.
¿Qué podemos hacer para mantener los hábitos alimentarios en consonancia con nuestros relojes biológicos?Diversos estudios sugieren que restringir la ingesta de alimentos a espacios de tiempo concretos, es decir, a las horas del día en las que somos más activos, podría revertir los síntomas asociados a trastornos metabólicos. Esto aumentaría la tolerancia a la glucosa y reduciría la resistencia a la insulina. También podría traducirse en una manera eficaz de evitar la ganancia de peso.
Esto implica comer gran parte de la comida diaria durante el desayuno, almuerzo y comida. A medida que va entrando la noche hay que intentar que las comidas sean lo menos copiosas posible.
Existe evidencia científica de que ingerir la mayor parte de las calorías diarias y los alimentos ricos en hidratos de carbono a la hora del almuerzo y al comienzo de la tarde, evitando cenar tarde, contribuye a un mayor gasto energético a lo largo del día y es fundamental para una correcta sincronización de los relojes circadianos.
En consecuencia, restringir la ingesta de alimentos a las horas del día donde tenemos luz podría representar una estrategia interesante para mantener un correcto estado metabólico y promover la pérdida de peso. No obstante, a día de hoy todavía es escasa la evidencia existente acerca del efecto de horarios y frecuencias del consumo de alimentos en la salud metabólica, por lo que son necesarios más estudios.
Además, debemos tener en cuenta que, debido a que todos los procesos fisiológicos están relacionados entre sí, la mejor manera de seguir manteniendo nuestros relojes internos en hora es evitando hábitos o factores cronodisruptores y promoviendo los que ayudan a mantener la correcta organización de estos.
Así, podemos quedarnos con unos mensajes importantes para poner en práctica:
- Realizar actividad física frecuentemente.
- Mantener horarios regulares de sueño y evitar la exposición a luz artificial durante las horas nocturnas.
- Cambiar el hábito de cenar tarde y tener un horario regular para comer.
- Ingerir la mayoría de alimentos en las horas más activas del día.
- En las comidas, comer primero los alimentos con fibra, como las verduras y frutas, y dejar los hidratos de carbono para el final.
Por último, de nada sirve centrar nuestros esfuerzos en organizar nuestros horarios de comida si basamos nuestra dieta en alimentos poco nutritivos que ponen en riesgo nuestra salud. Es fundamental adquirir hábitos dietéticos adecuados y elaborar nuestra dieta en gran medida a partir de frutas, verduras, legumbres, cereales integrales, proteínas de alto valor biológico y alimentos que aporten grasas de buena calidad.
Sobre los autores: Iker Gomez Garcia, Investigador predoctoral, UPV/EHU; Alfredo Fernández-Quintela, Profesor de Nutrición e Investigador de la UPV/EHU y del Centro de Investigación Biomédica en Red de la Fisiopatología de la Obesidad y Nutrición (CiberObn); Jenifer Trepiana Arin, Investigadora del grupo Nutrición y Obesidad de la UPV/EHU, del CiberObn y del Instituto de Investigación Sanitaria Bioaraba, y María Puy Portillo, Catedrática de Nutrición del UPV/EHU y del CIBERobn
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo A qué hora comemos y en qué orden afecta a nuestros biorritmos se ha escrito en Cuaderno de Cultura Científica.
Del calor al frío y tiro porque me lleva la corriente
Hace unos días apareció una noticia en los medios de comunicación y redes sociales que nos recordó a la trama de la película El Día de Mañana. Un artículo científico recientemente publicado predice un colapso de la AMOC en las próximas décadas, puede que años, que podría conducirnos a una nueva glaciación. Dicho así suena como algo muy serio, pero ¿qué es eso de la AMOC? ¿Y realmente podríamos congelarnos en un par de años?
Para poder entender todo este lío, vamos a bucear un poco en el océano Atlántico. Según vamos profundizando en la columna de agua, descubriremos que las propiedades físico-químicas de esa agua van cambiando, sobre todo la temperatura y la salinidad, es decir, la densidad, formando una especie de capas superpuestas a las que llamamos masas de agua. Además, esas diferencias de densidad entre las masas de agua provocan que el agua fluya de un lado a otro formando las corrientes oceánicas. Así se genera una circulación convectiva global por densidad denominada Circulación Termohalina Oceánica (Oceanic Thermohaline Circulation, THC), nombre que procede de termo=temperatura y halina=salinidad. Esta THC, a grandes rasgos, consiste en corrientes superficiales cálidas que transportan calor desde zonas tropicales hacia los polos, donde se enfrían, se hunden y rehacen su camino como corrientes de fondo.
A) Imagen simplificada de la Circulación Termohalina Oceánica (THC). Propiedad de Rick Lumpkin, Atlantic Oceanographic and Meteorological Laboratory (AOML) de la National Oceanic and Atmospheric Administration (NOAA). B) Representación esquemática de los principales componentes de la Circulación de Vuelco Meridional Atlántica (AMOC), con las corrientes superficiales fluyendo hacia el Atlántico Norte, la formación del Agua Profunda del Atlántico Norte (NADW) en latitudes altas circulando hacia el sur y el Agua de Fondo Antártica (AABW) entrando hacia el norte por el fondo marino. Imagen tomada de: Crivellari, S. (2018). Effects of abrupt changes in the Atlantic meridional overturning circulation over the Amazon Basin: an isotopic and elemental approach. Tesis Doctoral, Universidad de São Paulo.Si hacemos un zoom de la THC sobre el Océano Atlántico, nos encontramos con la Circulación de Vuelco Meridional Atlántica (Atlantic Meridional Overturning Circulation, AMOC). Es decir, la AMOC es parte de la THC y se encarga de transportar calor por el Atlántico. Y si hacemos un nuevo zoom sobre la rama del Atlántico Norte de la AMOC, aparece la Corriente del Golfo (Gulf Stream) como parte de las corrientes cálidas superficiales que fluyen hacia el norte, en este caso desde el Golfo de México hasta el sur de Groenlandia, donde se enfrían y circulan hacia el sur como corrientes de fondo. Entre estas últimas destacan el Agua Profunda del Atlántico Norte (North Atlantic Deep Water, NADW), que fluye hacia el sur por debajo de 1.500m de profundidad, y el Agua de Fondo Antártica (Antarctic Bottom Water, AABW), que se llega a colar hacia el norte a más de 3.000m de profundidad.
A) Esquema simplificado de las principales corrientes superficiales del Atlántico Norte (en gris se representan las corrientes cálidas y en negro las frías). B) Perfil latitudinal (simplificado) de la distribución, en profundidad, de las principales masas de agua del océano Atlántico (las flechas indican la dirección de las corrientes).Si la AMOC es la “culpable” de transportar calor a latitudes altas del Atlántico Norte, es factible pensar que su colapso nos llevaría de cabeza a una glaciación sin precedentes, de manera análoga a lo presentado en la citada película. Pero veamos qué nos dice la geología a esta suposición.
El Cuaternario, el último periodo de la historia de la Tierra, se caracteriza por la alternancia cíclica de momentos más fríos, llamados glaciales, y momentos más cálidos, o interglaciales. Y las causas de estos cambios climáticos abruptos están relacionadas con el giro del planeta sobre sí mismo y alrededor el sol, provocando variaciones en la radiación solar que actúan en periodicidades de 22.000, 40.000, 99.000 y 400.000 años. Vamos, que un cambio en la circulación oceánica no va a llevarnos a una glaciación en el sentido estricto de la palabra.
Pero vamos a hacer un último zoom, en esta ocasión en el clima terrestre de las últimas decenas de miles de años. En las reconstrucciones paleoclimáticas realizadas a partir de los sondeos de hielo extraídos en Groenlandia se observan variaciones climáticas en “dientes de sierra” dentro de los periodos glaciales e interglaciales, consistentes en transiciones abruptas desde condiciones frías o estadiales (Greenland Stadials, GS) a condiciones cálidas o interstadiales (Greenland Interstadials, GI), seguidas por un retorno a condiciones frías estadiales, denominadas ciclos de Dansgaard-Oeschger (D-O), con una periodicidad entre dos estadiales, o dos interestadiales, de unos 1.500 años. Además, se agrupan en secuencias de varios D-O cada vez más fríos que culminan con un evento frío extremo, conocido como evento Heinrich (HE), denominadas ciclos de Bond y que tienen una duración de unos 5.000 años.
Variación del clima en los últimos 80.000 años en el hemisferio norte basado en el espesor de las capas de hielo de dos sondeos extraídos en Groenlandia (sondeo NGRIP en azul y sondeo GRIP en rojo), donde los picos positivos de la gráfica se corresponden con momentos cálidos y los picos negativos con eventos fríos. Se indican los interestadiales cálidos (GI) en color verde y los estadiales fríos (GS) en color amarillo.Las reconstrucciones de los cambios de temperatura en la transición entre dos ciclos de Bond en Groenlandia sugieren un rápido aumento de la temperatura superficial media anual de hasta 15ºC en unas pocas décadas. Ahora falta buscar la causa de estas oscilaciones tan bruscas. Y aquí viene lo complicado, porque la relación atmósfera-criosfera-océano es tan compleja, que ninguna de ellas sería una causa aislada de los ciclos climáticos.
El movimiento de las masas de aire es el principal proceso que provoca la circulación de las masas de agua superficiales. Incluso, el efecto del viento genera el movimiento de las capas oceánicas más profundas hacia superficie debido a la mezcla de aguas con diferentes propiedades en profundidad. Y estos movimientos atmosféricos están condicionados por la cantidad de insolación que llega a la superficie terrestre, la distribución diferencial de esa energía solar con la latitud y la rotación de la Tierra. La variabilidad en los ciclos de actividad solar a escala centenaria podría causar cambios en el clima y la circulación oceánica de escala multi-centenaria.
Por otro lado, la fusión de los icebergs y los mantos de hielo continentales en periodos climáticos cálidos provoca una descarga de agua dulce y, por tanto, menos densa en latitudes altas. Esta entrada de agua dulce frena el ascenso de la AMOC hacia el norte de Europa, disminuyendo el transporte de calor, detiene la formación de la NADW al sur de Groenlandia, favorece el ascenso de la AABW hacia el norte y provoca el descenso de las temperaturas que caracteriza los GS y HE registrados en los sondeos de hielo. La disminución del flujo de agua de deshielo, junto con una disipación de la cubierta de agua dulce, podría restablecer la circulación termohalina previa, causando el calentamiento abrupto que cierra los ciclos de Bond y los ciclos D-O.
Esquema idealizado de los cambios en la extensión de los mantos de hielo y la temperatura atmosférica entre dos eventos Heinrich (HE) consecutivos que representan un ciclo de Bond completo. Ka se refiere a miles de años.Es decir, que el calor conduce al frío, y el frío conduce al calor. El aumento actual de las temperaturas podría producir un colapso de la AMOC que llevaría a un enfriamiento generalizado en el Atlántico Norte. Pero ¿qué tipo de enfriamiento? Pues una glaciación no. Y, probablemente, tampoco un GS ni un HE, porque todo tiene sus ciclos temporales y todavía no les toca. El propio Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) ya ha confirmado que es muy improbable que este tipo de eventos se produzcan este siglo. Pero es que hemos visto que la AMOC depende de las condiciones atmosféricas, por lo que, a pequeña escala, su zona de hundimiento en el Atlántico Norte está variando continuamente. Hace una década sufrió un pequeño retroceso, que apenas duró un año y produjo un par de inviernos más duros de lo normal, y ni nos enteramos. Así que hablar de “ralentización de la AMOC” es muy relativo, lo que importa saber es cuánto debilitamiento se puede producir más que cuándo se producirá, antes de empezar a asustarnos.
Representación esquemática de la Circulación de Vuelco Meridional Atlántica (AMOC) en diferentes estados climáticos. A) En un momento cálido similar al actual, con escaso desarrollo del manto de hielo continental que favorece una fuerte producción del Agua Profunda del Atlántico Norte (NADW) en latitudes altas y una escasa penetración del Agua de Fondo Antártica (AABW). B) Momento frío similar a los estadiales (GS), con un avance de los mantos de hielo que provoca una situación de AMOC débil, con un hundimiento a latitudes más bajas, una reducción de la formación de la NADW y una mayor penetración de la AABW desde el sur. C) Momento muy frío similar a un evento Heinrich (HE), donde la AMOC es muy débil o está prácticamente detenida, se liberan grandes cantidades de icebergs en latitudes altas, no se produce la formación de la NADW y la AABW penetra por completo en el fondo del Atlántico Norte. Imagen tomada de: Crivellari, S. (2018). Effects of abrupt changes in the Atlantic meridional overturning circulation over the Amazon Basin: an isotopic and elemental approach. Tesis Doctoral, Universidad de São Paulo.El comportamiento de nuestro planeta es mucho más complejo de lo que imaginamos. Se trata de un sistema no lineal donde se interrelacionan numerosos factores que condicionan la variabilidad climática en periodicidades muy distintas. Creo que esto ha quedado evidenciado en este texto, repleto de nombres, ciclos y procesos a cuál más complicado. Y eso que lo he resumido, y simplificado, lo máximo que he podido. Pero quería dejar constancia de que una publicación modelizando el posible comportamiento de una de las variables, sin considerar el efecto, sumatorio o contrario, del resto, simplemente es eso, una modelización ideal de algo caótico y que todavía no entendemos en su totalidad. Así que, aunque los títulos de las publicaciones puedan ser muy llamativos, no hay que juzgar nunca un libro por su portada. Y tampoco alarmar sin motivos, la influencia humana en el cambio climático es innegable y debemos evitarla lo máximo posible, porque no podremos pronosticar el comportamiento de nuestro planeta al añadir una nueva variable que no teníamos anteriormente, pero sin exagerar las posibles consecuencias. Si algo nos enseñó una antigua fábula, gritar “que viene el lobo” sin necesidad es bastante contraproducente, porque podríamos conseguir el efecto contrario al que queríamos.
Referencia:
Ditlevsen, P. y Ditlevsen, S. (2023) Warning of a forthcoming collapse of the Atlantic meridional overturning circulation. Nat Commun doi: 10.1038/s41467-023-39810-w
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Del calor al frío y tiro porque me lleva la corriente se ha escrito en Cuaderno de Cultura Científica.
La investigación en matemáticas evoluciona como las estaciones del año
La gran aventura del conocimiento. Un paseo con las matemáticas en cuatro estaciones (Editorial Planeta Chilena S.A., 2023) es el título de una original propuesta divulgativa de las matemáticas Leslie Jiménez Palma y Constanza Rojas-Molina.
Fuente: Editorial Planeta Chilena S.A.El libro se estructura en cuatro capítulos que corresponden a las cuatro estaciones del año en el hemisferio sur; cada capítulo se divide en tres secciones que corresponden a los meses de la estación protagonista, y cada una de esas secciones en otros cuatro apartados.
Cada estación del año simboliza un momento del proceso creativo en la investigación matemática: descubrimiento de un problema matemático (otoño), pensamiento profundo para comprender las “dobleces” del problema (invierno), colaboración y puesta en común de ideas (primavera) y final del proceso con la solución (o la falta de ella) del problema planteado (verano).
Del otoño al verano (australes)El libro comienza en otoño, “Es un momento de reflexión y descubrimiento, es el momento de mirar un problema con ojos matemáticos […] Es también el momento donde nos hacemos preguntas, donde tratamos de responderlas […]”, dicen las autoras. Y recorren los meses otoñales, desde marzo a mayo, dando algunas claves sobre la relación entre las matemáticas y el arte, hablando del papel de las matemáticas en la comprensión de nuestro entorno por medio del modelamiento y, finalmente, revindicando a algunas matemáticas chilenas que “crearon comunidad y redefinieron el quehacer matemático con sus aportes”: Guacolda Antoine, Irene Mikenberg, Salomé Martínez y el colectivo de mujeres matemáticas en Chile.
Tras el otoño llega el invierno, la época en la que la meteorología nos trae frío, los días son más cortos, y no apetece salir a la calle como en otros momentos del año. Para Leslie y Constanza, “Es un momento de pensamiento profundo con el que buscamos revelar los secretos que esconde nuestro problema matemático y donde buscamos desencriptarlo […] para luego poder solucionarlo usando las reglas matemáticas”. En la sección correspondiente al mes de junio las autoras nos invitan a conocer mejor las matemáticas de los códigos secretos; julio está dedicado a los fractales de Sierpinski, de Mandelbrot, de Koch y en la naturaleza, es decir, a las replicaciones infinitas; y agosto se centra en las matemáticas y el lenguaje, desde los símbolos a las metáforas, pasando por la programación.
Para Constanza y Leslie, la primavera “es el momento donde salimos de nuestros pensamientos solitarios a buscar la ayuda de nuestros nuevos colaboradores. […] el regreso de la luz y el calor nos hacen salir y conversar, comunicarnos y buscar ideas en común con otras disciplinas”. La física es el área a la que se dedica esta estación del año, una disciplina profundamente conectada con las matemáticas. En septiembre y octubre se pasa del suelo al cielo a través de la física y las matemáticas: los movimientos sísmicos, las leyes de Newton, la mecánica celeste o el espacio-tiempo son algunos de los temas elegidos. Noviembre se dedica a la matemática Emmy Noether, cuyo trabajo ayudó a entender la conexión fundamental entre la simetría en física y las leyes de conservación.
El libro finaliza festejando el verano austral, para las autoras “el momento en el que hemos logrado describir matemáticamente nuestro problema, lo hemos investigado y llegamos a un resultado”. El mes de diciembre se centra en algunos ejemplos de cómo la biología es una disciplina que, en nuestros días, avanza en parte gracias a la utilización de variadas técnicas matemáticas. La sección dedicada al mes de enero repasa algunos de los grandes problemas matemáticos, con un especial recuerdo a la segunda mujer que ha obtenido una medalla Fields (tras la matemática iraní Maryam Mirzakhani (1977-2017): Maryna Viazovska. Finalmente, el mes de febrero introduce algunos desafíos relacionados con la sociedad: la igualdad de género, la diversidad, la educación matemática y la comunicación de las matemáticas para públicos diversos.
Las autoras y el formato del libroLas autoras, Leslie Jiménez Palma y Constanza Rojas-Molina, son matemáticas chilenas. Las dos son profesoras, investigadoras, divulgadoras y están profundamente preocupadas por la situación de las mujeres en el entorno matemático, en particular en Chile.
Leslie Jiménez Palma trabaja en la Universidad de Chile y, además de su docencia y su investigación, se dedica a la comunicación de las matemáticas.
Constanza Rojas-Molina es matemática e ilustradora; trabaja en la CY Cergy Paris Université. En este Cuaderno de Cultura Científica ya conocíamos su faceta artística al haber ilustrado la sección Historias que cuentan a cargo de Alberto Mercado Saucedo. Y también conocíamos su precioso proyecto #Noethember dedicado a la genial matemática Emmy Noether. Este libro también se nutre de sus ilustraciones en forma de sketchnotes, notas visuales usadas como herramienta para resumir los contenidos del texto.
La gran aventura del conocimiento es una propuesta singular, estimulante y atractiva para entender cómo trabajan las personas que hacen investigación en matemáticas y para conocer algunos hermosos resultados matemáticos y a sus protagonistas. Es una joya.
Referencias
- Leslie Jiménez Palma y Constanza Rojas-Molina, La gran aventura del conocimiento. Un paseo con las matemáticas en cuatro estaciones, Editorial Planeta Chilena S.A., 2023
- Diana Porras, “Un paseo con las matemáticas”: libro revela la aventura del conocimiento y el desafío de la comunicación científica, Diario UChile, 20 marzo 2023
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo La investigación en matemáticas evoluciona como las estaciones del año se ha escrito en Cuaderno de Cultura Científica.
El ruido, un aliado para la computación cuántica
Los ordenadores cuánticos se distinguen por el uso de cúbits en lugar de bits. Esto les permite almacenar y procesar mucha más información a una velocidad mucho mayor, mediante el aprovechamiento de propiedades cuánticas como la superposición y el entrelazamiento. No obstante, existe una importante limitación para el desarrollo pleno de estos ordenadores: el ruido. Este provoca la aparición de errores que se propagan cuando se ejecutan algoritmos complejos, lo cual limita el potencial de la computación cuántica para revolucionar muchos campos de la ciencia y la tecnología. Equipos de todo el mundo llevan años trabajando intensamente para superar esta barrera, concentrando sus esfuerzos principalmente en técnicas para la corrección o mitigación de errores, y en el diseño de algoritmos más sencillos que se adapten a las limitaciones.
Foto: WrongTog / UnsplashEl ruido puede mejorar la calidad…Ahora, un equipo de investigación ha dado una vuelta de tuerca a la cuestión. Proponen una solución alternativa: usar el ruido para mejorar los resultados de algoritmos cuánticos. El equipo ha demostrado que la presencia de ruido en los ordenadores cuánticos puede ser beneficioso para los resultados de un importante algoritmo conocido como quantum reservoir computing.
Este algoritmo realiza predicciones de aprendizaje automático usando sistemas cuánticos con parámetros aleatorios para extraer información útil del sistema estudiado. De este modo, puede resolver problemas muy diversos, como cálculos químico-cuánticos o predicciones de series temporales, así como ayudar en el descubrimiento de nuevos fármacos.
“La idea detrás del quantum reservoir computing es utilizar el espacio de Hilbert, donde viven los estados cuánticos, para extraer propiedades esenciales de los datos estudiados. Así, usando propiedades cuánticas como superposición y entrelazamiento, podemos obtener información útil de los datos y proporcionarla a un modelo de aprendizaje automático, el cual hace la predicción final”, explican los autores.
El estudio concluye que algunos tipos de ruido, como el llamado amplitude damping noise, mejoran la calidad de los resultados del quantum reservoir computing. Por lo tanto, no solo es innecesario corregir este tipo de ruido, sino que podría ser beneficioso para los cálculos cuánticos.
…pero no todos los ruidos son igualesSin embargo, otras fuentes de errores, como el denominado depolarizing noise, pueden degradar los resultados en todos los casos, por lo que es primordial priorizar su corrección en los ordenadores cuánticos.
El estudio también proporciona una demostración teórica que ayuda a explicar este fenómeno. A través del formalismo matemático de las matrices de densidad y los canales cuánticos, los autores ilustran cómo el ruido amplitude damping permite explorar de manera más efectiva el espacio de operadores cuánticos. Esto facilita la extracción de propiedades más complejas y valiosas de los datos, que luego se utilizan para predecir la variable objetivo.
El hallazgo ofrece una nueva perspectiva sobre los mecanismos físicos inherentes en los dispositivos cuánticos. Además, proporciona sólidas pautas prácticas para facilitar una implementación con éxito del procesamiento de información cuántico en la tecnología actual.
Referencia:
Domingo, L., Carlo, G. & Borondo, F. (2023) Taking advantage of noise in quantum reservoir computing. Sci Rep doi: 10.1038/s41598-023-35461-5
Para saber más:
Cómo la aleatoriedad mejora los algoritmos
Edición realizada por César Tomé López a partir de materiales suministrados por la Universidad Autónoma de Madrid
El artículo El ruido, un aliado para la computación cuántica se ha escrito en Cuaderno de Cultura Científica.
La crisis climática potencia a los vectores transmisores de enfermedades infecciosas exóticas
El calentamiento global representa uno de los mayores peligros para la humanidad y su amenaza será cada vez mayor con el paso del tiempo. De hecho, la Organización Mundial de la Salud (OMS) estima que la crisis climática causará unos 250.000 fallecimientos adicionales cada año debido a la malnutrición, el paludismo, la diarrea y el estrés calórico entre los años 2030 y 2050. Por un lado, las catástrofes naturales (sequías, inundaciones, incendios…) serán más frecuentes como consecuencia de fenómenos meteorológicos extremos. Por otro, las olas de calor serán más intensas, frecuentes y duraderas. Ambos fenómenos provocarán, de forma directa o indirecta, más fallecimientos y dolencias en un futuro próximo.
Sin embargo, no es necesario esperar a para comprobar las consecuencias que ya tiene la crisis climática sobre la salud humana. Un estudio epidemiológico publicado recientemente en la revista Nature Medicine calcula que durante el verano de 2022 se produjeron más de 61.000 muertes en Europa (11.000 en España) como consecuencia de las olas de calor. Estas cifras suponen un 41 % más de muertes como consecuencia de las altas temperaturas que las ocurridas de media en los veranos de entre 2015 y 2021. Los autores sugieren que, de seguir esta tendencia, en Europa se producirán un promedio de más de 68.000 muertes prematuras cada verano hacia 2030 y más de 94.000 hacia 2040.
Más allá de las enfermedades y las muertes causadas por estos fenómenos meteorológicos extremos, el calentamiento global afecta también a la salud humana de forma indirecta al alterar la distribución mundial de diversos vectores de enfermedades infecciosas. En ese sentido, el pasado 22 de junio el Centro Europeo para el Control y Prevención de Enfermedades (ECDC) anunció que la extensión de diferentes especies de mosquito del género Aedes por Europa está aumentando el riesgo de diversas enfermedades infecciosas de las que este insecto es vector.
La institución científica explica que las inundaciones y las olas de calor cada vez más frecuentes y graves en el continente europeo, junto con unos veranos más cálidos y largos, crean unas condiciones más favorables para la expansión de los mosquitos invasores Aedes albopictus (más conocido como «mosquito tigre») y Aedes aegypti, que no son propios de esta zona del planeta. Hace 10 años, en 2013, ambas especies se encontraban en solo ocho países de la Unión Europea, afectando a 114 regiones. Ahora estas se encuentran en 13 países y 337 regiones, al invadir dichos vectores el norte y el oeste del continente. España atestigua la gran capacidad que tiene el mosquito tigre para extenderse: la primera vez que se detectó su presencia fue en Sant Cugat del Vallés en el verano de 2004, desde entonces este vector ha conseguido expandirse ya por casi todo el país.
Ambas especies de mosquito (A. albopictus y A. aegypti) pueden transmitir enfermedades infecciosas tropicales o típicas de otros países como el dengue, el Zika, la fiebre amarilla, el chikungunya o la fiebre del Nilo Occidental. El director de la ECDC, Andrea Ammon, sostiene que si la tendencia actual continúa se espera que, con el tiempo, aparezcan más casos y posiblemente más muertes por las citadas enfermedades infecciosas entre los ciudadanos europeos. Solo en 2022 se produjeron los mismos casos autóctonos de dengue (71) en la UE que el total de los que aparecieron entre los años 2010 y 2021. Seis casos de dengue ocurrieron en España. Además, en 2022 aparecieron 1.122 casos de infecciones por el virus del Nilo Occidental en Europa, con 92 muertes, la mayor cifra desde la epidemia de 2018.
Vectores conocidosEspaña conoce de primera mano los estragos que la extensión de los vectores puede provocar en la Salud Pública de su población. Tanto la fiebre del Nilo Occidental (transmitida por mosquitos), como la fiebre hemorrágica de Crimea-Congo (transmitida por garrapatas) preocupan cada vez más a los especialistas por su mayor incidencia en nuestro territorio. En 2020 se produjo el mayor brote registrado de fiebre del Nilo Occidental en el país, con decenas de casos confirmados y siete fallecidos. Anteriormente, ni en 2017 ni en 2019 se detectaron casos de esta enfermedad en humanos, y solo un caso en 2018. Las últimas cifras oficiales, de 2022, han registrado cuatro casos.
Diferentes especies de garrapata están también bajo el punto de mira de los expertos en Salud Pública. Estos arácnidos son vectores de más de cincuenta enfermedades diferentes y la crisis climática está ayudando de forma significativa a su expansión por territorios de mayor altitud y latitudes más elevadas, donde no estaban presente antes.
En el sur de España es donde más se ha potenciado su proliferación en los últimos años, debido al incremento de las temperaturas, sobre todo durante el otoño y el invierno. Además, cada vez hay un mayor porcentaje de garrapatas que poseen el virus responsable de la fiebre hemorrágica de Crimea-Congo. Todos estos factores propician la aparición de casos de esta enfermedad infecciosa, que apareció por primera vez en nuestro país en 2016. Desde dicho año hasta 2022 se han confirmado 11 casos autóctonos de Crimea-Congo. Esto supone la punta del iceberg, porque la mayoría de las veces la infección no provoca síntomas en los humanos y pasa desapercibida.
Las redes de vigilancia epidemiológica, tanto de España como de Europa, siguen de cerca la evolución de múltiples vectores y de las enfermedades infecciosas que provocan. Las proyecciones sobre el calentamiento global en las próximas décadas indican a que los especialistas tendrán muchos motivos para estar alerta ante la aparición de brotes de enfermedades que, hace menos de 10 años, ni siquiera existían en nuestro continente o eran algo totalmente excepcional.
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo La crisis climática potencia a los vectores transmisores de enfermedades infecciosas exóticas se ha escrito en Cuaderno de Cultura Científica.
La fuerza de voluntad no es un recurso, por eso no se agota
fuerza de voluntad
Foto: Matias North / UnsplashAlgunos resultados experimentales recogidos en la literatura científica reciente indican que si se realiza una actividad mental exigente, de esas que requieren concentración y autocontrol, al cabo de un tiempo es necesario ingerir una cierta cantidad de azúcar para poder seguir realizándola, o para mejorar las funciones cognitivas básicas y funciones mentales autorregulatorias, como son la memoria episódica, el procesamiento de información, la atención y el autocontrol.
Lo cierto es que, datos experimentales al margen, mucha gente está convencida de que, efectivamente, es bueno ingerir azúcar si se desea mantener una ardua actividad mental de forma prolongada. Sin embargo, esa es una noción que desde el punto de vista fisiológico no tiene sentido, ya que la concentración de glucosa en la sangre y, por lo tanto, su disponibilidad efectiva para las tareas que desempeña el encéfalo, está sometida a una regulación estricta. Esa regulación solo falla en caso de enfermedad, como ocurre con la diabetes.
Unos psicólogos de las universidades de Zurich (Suiza) y Stanford (California, EEUU) sospechaban que la razón por la que la glucosa facilita el desempeño cognitivo y el autocontrol es porque se trata de una creencia, modelada culturalmente, que ha alcanzado una gran aceptación. Si, efectivamente, ese era el caso, la limitación no vendría determinada por la disponibilidad de glucosa, sino por la creencia en sí. En ese supuesto, sería de aplicación la cita de William James: “vivimos sujetos a la inhibición por niveles de fatiga a los que hemos llegado a obedecer simplemente por costumbre”[*].
De acuerdo con esa sospecha, los psicólogos se plantearon la hipótesis de que, quizás, solo recurran a la ingestión de glucosa (para un correcto funcionamiento cognitivo tras una intensa actividad mental) quienes creen que la fuerza de voluntad es limitada y se agota fácilmente. Sería como si la fuerza de voluntad necesaria para mantener el autocontrol necesitase ser “alimentada” mediante el aporte de energía metabólica en forma de azúcar. Para esa gente, la ingestión de glucosa y los procesos fisiológicos que desencadena actuarían como señales que indican que han recuperado la capacidad de sostener el esfuerzo mental. Por el contrario, las personas que no creen que la fuerza de voluntad se agote con el uso, no dependerían del aporte de glucosa para poder funcionar con normalidad. Estos supuestos se basaban en observaciones experimentales anteriores, según las cuales solo la gente que cree que la fuerza de voluntad está limitada se desenvuelve peor al acumularse las pruebas en que han de realizar tareas mentales exigentes y mantener el autocontrol.
Los investigadores hicieron tres experimentos para tratar de verificar su hipótesis. En el primero analizaron el efecto de la ingestión de glucosa (por comparación con la de un edulcorante artificial) y de las creencias implícitas acerca de la fuerza de voluntad (si se trata de un recurso limitado o no) sobre el autocontrol de individuos que habían estado realizando antes una tarea intelectualmente exigente. Los participantes que habían ingerido edulcorante y que pensaban que la fuerza de voluntad se agota con facilidad fueron los que se diferenciaron de los demás: su desempeño en el test de autocontrol fue peor que el del resto de participantes. El resultado demostró que el efecto de la glucosa sobre la capacidad para mantener el autocontrol depende de lo que creen los sujetos acerca de la fuerza de voluntad.
En el segundo experimento se manipuló la opinión de algunos participantes para que pensasen que la fuerza de voluntad se agota con facilidad, y los resultados reprodujeron los del primer experimento, porque los de la opinión manipulada respondieron igual que los que pensaban eso originalmente.
Y en el tercer experimento se investigó si los participantes que piensan que la fuerza de voluntad es limitada responden a lo que creen que están ingiriendo o si lo hacen sólo a lo que realmente ingieren. Y efectivamente, su desempeño en la tarea de autocontrol tras un esfuerzo anterior solo mejora si realmente ingieren glucosa, no si creen que la ingieren. Quiere ello decir, que esos participantes eran sensibles a señales internas (fisiológicas) que indicaban que se había producido una elevación en la concentración de glucosa en la sangre.
Los resultados de estos experimentos son muy llamativos. Un proceso fisiológico básico, como es el efecto de la ingestión de glucosa sobre el desempeño intelectual en condiciones exigentes, depende de las creencias acerca de la naturaleza de la fuerza de voluntad. Solo se benefician de los efectos de una subida del nivel de azúcar en la sangre quienes creen que la fuerza de voluntad se agota con facilidad o quienes son manipulados para creerlo. Los experimentos demuestran que la fuerza de voluntad no es un recurso limitado, pues que se termine o no depende, de hecho, de lo que cada uno piense. Quienes no creen que se agota no necesitan reponerla ingiriendo azúcar, por eso no se modifica su desempeño intelectual cuando la ingieren. Solo han de restaurarla quienes piensan que se acaba con facilidad.
Los investigadores señalan, finalmente, que el pensar que la fuerza de voluntad no se agota no es suficiente para poder ejercer con éxito el autocontrol, aunque sea un ingrediente importante. Necesitamos, además, desarrollar estrategias de autocontrol eficaces para que funcione, como minimizar tentaciones (evitándolas físicamente) o planificar por adelantado cuándo, dónde y cómo actuar o responder ante la dificultades. Una disposición mental adecuada y unas estrategias efectivas sirven para ejercer el autocontrol durante periodos de tiempo prolongados sin necesidades de ingerir glucosa cada cierto tiempo.
Fuente: V Job, G M Walton, K Bernecker, y C S Dweck (2013): «Beliefs about willpower determine the impact of glucose on self-control». PNAS 110 (37): 14837–14842
Nota: [*] W. James (1907): The energies of men. Science 25(635):321–332.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La fuerza de voluntad no es un recurso, por eso no se agota se ha escrito en Cuaderno de Cultura Científica.
La eficacia del ayuno intermitente en el tratamiento de la obesidad
ayuno intermitente
Entre los métodos que tienen como objetivo la pérdida de peso, el ayuno intermitente se ha convertido en una tendencia que, durante los últimos años, ha dado mucho de qué hablar. Es una rutina alimenticia que se basa en limitar la ingesta de calorías a un periodo concreto del día y ayunar el resto. Un método que ha sido puesto en práctica por personas conocidas a nivel social, que insisten en los supuestos beneficios del mismo.
Pero, ¿qué dice la ciencia? ¿Los supuestos beneficios del ayuno intermitente tienen una base científica? ¿Es un tratamiento de la obesidad eficaz y que se puede mantener a largo plazo?
El metabolismo del ser humano está diseñado para ingerir alimentos a ciertas horas del día y permanecer sin comer otras, pero el ritmo de vida actual lo dificulta. Hay que tener en cuenta que el tramo de actividad en el día a día supera las 12 horas, por lo tanto, es necesario reflexionar sobre la viabilidad y los supuestos beneficios de esta rutina alimenticia.
Idoia Labayen Goñi, profesora en el Departamento de Ciencias de la Salud de la Universidad Pública de Navarra (UPNA), ofrece respuestas a esas preguntas en la charla-coloquio La eficacia del ayuno intermitente en el tratamiento de la obesidad.
La conferencia ha sido organizada por la Cátedra de Cultura Científica de la Universidad del País Vasco y la Biblioteca Bidebarrieta de Bilbao dentro del ciclo Bidebarrieta Científica. Se impartió el pasado 14 de junio, miércoles, en la Biblioteca Bidebarrieta de Bilbao.
PonenteIdoia Labayen Goñi es doctora en Ciencias Biológicas, profesora de la Universidad Pública de Navarra en el Departamento de Ciencias de la Salud y responsable del grupo de investigación ELIKOS. Ha desarrollado su carrera investigadora en el Karolinska Institute (Suecia), en el Georgia Prevention Institute (Georgia, EE.UU.) y ha participado en investigaciones que han tenido como resultado la publicación de más de 200 artículos. A día de hoy es la directora de IS-FOOD (Institute for Sustainability & Food Chain Innovation).
Edición realizada por César Tomé López
El artículo La eficacia del ayuno intermitente en el tratamiento de la obesidad se ha escrito en Cuaderno de Cultura Científica.
La alimentación durante la Alta Edad Media ibérica
Alta Edad Media
La tesis internacional ‘Social archaeology of food in early medieval rural Iberia (5th-9th c. AD) (Arqueología social de la alimentación en la Iberia rural altomedieval (ss. V-IX d.C.), realizada por la investigadora de la Universidad del País Vasco Maite Iris García Collado ha obtenido el Premio extraordinario de doctorado concedido por la Universidad del País Vasco en junio de 2023.
La tesis traza una historia social de la alimentación en la Iberia rural altomedieval basada en la comparación de los patrones alimenticios de tres regiones a partir de análisis de isótopos estables de carbono y nitrógeno sobre colágeno óseo. Para ello se tomaron muestras en diez asentamientos rurales datados entre los siglos V y IX y distribuidos entre Madrid-Toledo, el País Vasco y Cataluña, que fueron investigados desde los puntos de vista de la arqueología funeraria, la demografía y la paleodieta.
“Se trata de la mayor reconstrucción de la alimentación llevada a cabo hasta el momento para la Alta Edad Media en la península ibérica en áreas geográficas nunca antes exploradas –explica la investigadora-. Esta tesis pone a disposición de la comunidad científica un gran volumen de datos normalizados y metodológicamente actualizados acerca del papel de la alimentación como reflejo, pero también como elemento activo, en la construcción de las identidades medievales”.
Los conjuntos de fauna analizados revelan “datos extremadamente interesantes sobre las estrategias de gestión de los animales y las prácticas agrarias en estas sociedades rurales.” Los animales dentro de una misma región eran alimentados de forma similar, sugiriendo que la disponibilidad de recursos determinada por el entorno era clave en la configuración de las estrategias de gestión ganadera y, en general, sin diferencias significativas entre el ganado vacuno, los ovicápridos y los équidos. “En Madrid-Toledo los animales también eran alimentados con pequeñas proporciones de forraje de mijos, lo que apunta al consumo de plantas abonadas intensivamente. Probablemente esto se lograba permitiendo al ganado entrar a pastar en los campos después de la cosecha y es un signo de la fuerte cohesión interna de las comunidades rurales”.
Clara integración entre la agricultura y la ganadería
Mientras que el ganado porcino de las regiones de Madrid-Toledo y del País Vasco eran pastoreados en espacios abiertos, los cerdos de Cataluña eran alimentados, “al menos parcialmente, con residuos domésticos y probablemente eran criados en patios.” Además, el estudio menciona que tanto en Madrid-Toledo como en Cataluña los mijos fueron ampliamente utilizados para alimentar a las aves domésticas. Los perros y los gatos a su vez vivían en contacto con los humanos y su dieta estaba basada en residuos domésticos. “Los datos obtenidos apuntan a la existencia de un complejo conjunto de prácticas agrarias en los asentamientos rurales altomedievales ibéricos con una clara integración entre la agricultura y la ganadería y alejado de los escenarios simples y primitivos propuestos por la historiografía tradicional”, subraya García Collado.
La investigadora Maite Iris García Collado en la Facultad de Letras | Foto: Nuria Gonzalez. UPV/EHUEn cuanto a la dieta de los humanos, esta tesis constata que la característica principal de las dietas humanas en el País Vasco “es la gran importancia de los recursos vegetales en la alimentación, que se basaba principalmente en cereales, frutas y verduras, y dentro de ellos el consumo de cantidades significativas de mijos”. La dieta humana en los asentamientos catalanes y en las poblaciones de Madrid-Toledo era similar. Consumían principalmente recursos terrestres, aunque, en las poblaciones catalanas el estudio apunta a una ingesta más importante de proteínas de origen animal.
Por otro lado, respecto a los recursos acuáticos, tanto marinos como de agua dulce, la tesis menciona que eran prácticamente imperceptibles en todas las poblaciones analizadas. “Es muy difícil definir una dieta típica para las poblaciones rural altomedievales de Iberia. Los patrones alimenticios en estos contextos estaban caracterizados por la diversidad determinada por la disponibilidad local de recursos y probablemente también por las condiciones sociales, políticas y culturales”, subraya la investigadora. Asimismo, de acuerdo a los “escasos datos disponibles, es improbable que en las sociedades rurales altomedievales de Iberia hubiera diferencias sistemáticas entre los sexos en la distribución de los recursos alimenticios.”
La dieta como indicador de estatus social
Otro de los temas analizados por la investigadora de la Universidad del País Vasco en su tesis ha sido el papel de la dieta como indicador del estatus social a través de la presencia de depósitos funerarios en los enterramientos y de la localización topográfica de las tumbas dentro o fuera de los cementerios comunitarios o con relación a las iglesias. “La relación entre la alimentación y el estatus social era compleja y no funcionaba de forma evidente. En Madrid-Toledo y el País Vasco es más frecuente que los individuos enterrados con cualquier tipo de artefacto incluyeran ciertas cantidades de mijos en sus dietas. Esto indica que los patrones de consumo de cereales y específicamente de mijo y panizo jugaron un papel importante en la definición del estatus social.” Asimismo, el estudio constata que la localización topográfica de las tumbas tampoco estaba directamente asociada a la alimentación. “En ningún caso ha sido posible identificar agrupaciones de individuos con patrones alimenticios específicos en torno a las zonas más relevantes, como, por ejemplo, el ábside de las iglesias. De hecho, a pesar del lugar marginal en el que terminaron siendo enterrados, las dietas de los individuos hallados en silos y pozos probablemente estaban basadas en el mismo tipo de productos.”
Por último, García Collado ha llevado a cabo una revisión de todos los casos de estudios contemporáneos situados en Europa y alrededor del Mediterráneo. “Las poblaciones ibéricas eran similares a las de otras regiones del sur de Europa, en las que también predominaban las dietas terrestres ampliamente basadas en cereales, frutas y verduras, con aportaciones más pequeñas de mijos y panizo y contribuciones muy variables de proteínas de origen animal. Por lo tanto, está claro que Iberia participaba de las mismas dinámicas que otros territorios europeos y mediterráneos”, concluye la investigadora de la UPV/EHU.
Referencia:
García Collado, M.I. (2020) Social archaeology of food in early medieval rural Iberia (5th-9th c. AD) UPV/EHU URI: http://hdl.handle.net/10810/50611
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La alimentación durante la Alta Edad Media ibérica se ha escrito en Cuaderno de Cultura Científica.
La catenaria: la dinámica de la interfaz con el pantógrafo (4/4)
Dotar a la catenaria de una red funcional para detectar incidencias en el contacto con el pantógrafo es algo que se hace de manera muy puntual, y tan solo en líneas con tráficos de alto valor añadido. Esto significa alta velocidad, aunque para nada los problemas se limitan a estos trayectos. La diversidad de operadores surgida de la liberalización, unida al aumento de los tráficos de todo tipo que deberá absorber el ferrocarril para reducir al máximo las emisiones de dióxido de carbono a la atmósfera en el transporte hacen necesario poder monitorizar el estado de la interfaz pantógrafo-catenaria en más puntos y todo tipo de líneas. Alta velocidad desde luego, pero también mercancías y cercanías.
Salida de la estación Málaga-María Zambrano. Foto: Iván RiveraLa nueva generación de sensoresDesde 2022 y en el marco del proyecto ALTIUMCAT, financiado con cargo a fondos del Instituto de Competitividad Empresarial de la Junta de Castilla y León, la empresa española TELICE está prototipando, con el apoyo del Instituto Tecnológico de Castilla y León (ITCL) un nuevo tipo de sensor para registrar el comportamiento dinámico de la interfaz pantógrafo-catenaria: TELICE DYNTACT® [Rivera Rodríguez 2023].
El nuevo sistema realiza la monitorización del desplazamiento del hilo de contacto al paso de un pantógrafo mediante sensores láser de triangulación de ultra largo alcance. En el interior de estos equipos hay un láser de estado sólido cuyo haz impacta sobre un objetivo cuya distancia queramos registrar. El rayo reflejado es captado por una lente con un ángulo ligeramente diferente. Tras ella, una matriz de líneas CCD (un tipo de dispositivo que transforma fotones en electrones) registra un impacto: la distancia del objetivo depende del punto excitado en dicha matriz. Como la medida se hace miles de veces por segundo, los cambios de la distancia del objeto monitorizado se registran al cambiar el punto excitado en la matriz CCD. De esta forma es posible alcanzar una precisión en el entorno de los cinco milímetros para medidas realizadas a dos metros y medio de distancia, más que suficiente para mejorar las capacidades de los sensores de las tecnologías anteriores.
Principio de funcionamiento de un sensor de triangulación láser. (Adaptado de [Hermary 2022])Sin embargo, esto no basta para registrar la posición del hilo de contacto. Su sección es relativamente pequeña (apenas 14,5 milímetros), por lo que apuntar el láser hacia el hilo puede ser una tarea complicada, requiriendo ajustes angulares del orden de minutos de arco. Además, el hilo puede moverse no solo en vertical, sino también transversalmente, bien porque el pantógrafo que pase por debajo tenga cierta desviación de alabeo, porque el punto de medida esté en una curva y la vía (y, por tanto, el tren y su pantógrafo) tenga cierto peralte o, de forma imprevisible, por el efecto de la componente lateral del viento.
Un elemento claveAquí entra en juego el segundo elemento clave de TELICE DYNTACT®: la placa reflectora. Sobre el hilo de contacto y sujeto a las ranuras superiores de su perfil que se utilizan para sujetarlo al resto de la estructura de la catenaria, se ubica una placa reflectora con forma de libro abierto hacia arriba y ejecutada en materiales ligeros y resistentes a la suciedad. Su «lomo», el vértice del diedro formado por los dos planos de la placa, se ubica paralelamente al hilo de contacto. La placa reflectora está en una zona sujeta a tensión eléctrica, pero no toca en ningún momento ninguna otra estructura. Es completamente pasiva. Además, su altura sobre el hilo de contacto está ajustada para que siempre se encuentre fuera del gálibo de implantación de obstáculos del pantógrafo, el contorno dentro del que no puede ubicarse ningún equipo. Se evita así cualquier posible perturbación o golpe.
El montaje completo tiene dos sensores láser de triangulación, ubicados sobre una ménsula auxiliar en un poste preexistente, bajo una visera protectora y apuntando hacia la placa reflectora con ángulos iguales y opuestos gracias a una plataforma de apuntado de precisión. Cada láser mide la distancia entre su posición y el plano del lado contrario de la placa reflectora. Disponer así de dos medidas en ángulos diferentes permiten resolver, mediante un simple cálculo trigonométrico, las variaciones de la posición del hilo de contacto en los ejes vertical y transversal.
Esquema simplificado de la geometría básica de TELICE DYNTACT®. ([Rivera Rodríguez 2023])¿Fallo estructural o alabeo del pantógrafo?Por tanto, TELICE DYNTACT® no se limita a acotar la deflexión vertical máxima del hilo de contacto al paso de un pantógrafo. Su capacidad de medir simultáneamente posibles desplazamientos transversales está fuera del alcance de los sensores disponibles en el mercado. Gracias a una estación meteorológica auxiliar provista de anemómetro, puede correlacionar la medida transversal con la del viento local para determinar si la perturbación se debe al viento o a un alabeo anormal del pantógrafo.
El nuevo sensor ofrece la capacidad de monitorizar variaciones históricas en la respuesta del hilo de contacto, permitiendo estimar su desgaste o alertar de respuestas anormales de los sistemas de compensación automática de la tensión. Actúa como una alarma en caso de fallo estructural súbito, sabotaje o intento de robo del hilo. Su bajo consumo eléctrico permite alimentarlo con una placa fotovoltaica en un gran rango de latitudes, con lo que es independiente de cualquier fuente externa, simplificando mucho su instalación. Todo ello con un coste contenido que puede permitir su despliegue en todo tipo de infraestructuras ferroviarias provistas de catenaria flexible.
TELICE DYNTACT® ofrecerá, en virtud de su elevada frecuencia de muestreo, no solo cotas máximas de deflexión del hilo, sino su comportamiento ondulatorio completo hasta frecuencias por encima del kilohercio. Estos datos permitirán, por un lado, alimentar modelos digitales que ofrezcan, en un futuro próximo, una capacidad real de predecir el desgaste de la catenaria y adelantarse a sus fallos. Y por otro, harán posible profundizar en el conocimiento teórico de esta tecnología más que centenaria para, tal vez, dar el siguiente paso en su historia de innovación.
Bibliografía
[Hermary 2022] How do 3D scanners work?: Learn about machine vision. Hermary. (29/11/2022). https://hermary.com/learning/principles-of-laser-triangulation/
[Rivera Rodríguez 2023] Rivera Rodríguez, I. (2023). Dispositivo de medida del desplazamiento del hilo de contacto de una catenaria al paso de un pantógrafo. https://patentscope.wipo.int/search/es/detail.jsf?docId=WO2023002068&_cid=P20-LGKDSU-48947-1
Del mismo autor:
Los límites del Hyperloop
El camión solar: ¿una posibilidad real?
Los límites del ferrocarril
Sobre el autor: Iván Rivera es ingeniero especializado en proyectos de innovación de productos y servicios para ferrocarriles.
El artículo La catenaria: la dinámica de la interfaz con el pantógrafo (4/4) se ha escrito en Cuaderno de Cultura Científica.
Vox populi, la sabiduría de las multitudes
La expresión latina “vox populi”, cuya traducción literal sería “voz del pueblo” y que, según el diccionario de la lengua española de la RAE, es utilizada “para indicar que algo es conocido y repetido por todos”, fue el título de una carta que el polímata (antropólogo, geógrafo, explorador, inventor, meteorólogo, estadístico, psicólogo y eugenista) británico Francis Galton (1822-1911), que entre otras cuestiones fue un pionero en la identificación mediante huellas dactilares o en el estudio de la predicción del tiempo, publicó en la revista científica Nature en 1907.
Fotografía del científico británico Francis Galton (1822-1911), realizada por Eveleen Myers (née Tennant) en la década de 1890. Imagen de la National Portrait GalleryEl texto original de la carta Vox populi, publicada por Fancis Galton en la revista Nature, que podéis encontrar en la página de la propia revista o en la página web sobre Francis Galton, empieza así.
En estos días democráticos, cualquier investigación sobre la fiabilidad y peculiaridades de los juicios, u opiniones, populares es de interés. El material que vamos a discutir se refiere a un asunto menor, pero que viene al caso.
El asunto al que se refiere en su carta, y que utiliza para defender la “sabiduría de las multitudes” (del pueblo), tiene que ver con una visita que realizó a una feria anual de ganado voluminoso y aves de corral que había tenido lugar en la ciudad portuaria de Plymouth (condado de Devon, Inglaterra).
Primera página de la carta, titulada “Vox populi”, publicada por el científico británico Francis Galton en la revista científica Nature, en 1907En su carta, Galton explica que en dicha feria de ganado se celebró una porra, es decir, una apuesta pública, para adivinar el peso de un buey ya descuartizado. Las personas participantes en la misma compraron, por un módico precio, una tarjeta en la que escribieron sus datos personales de contacto, así como su estimación del peso del buey descuartizado. Y los que más se acercaron a la cantidad real recibieron un premio. Entre las personas que visitaron la feria y se animaron a participar en la porra se enviaron 787 tarjetas, es decir, 787 estimaciones del peso del buey. Galton solicitó a las personas que organizaban la porra que le diesen dichas tarjetas para poder analizar estadísticamente los resultados de la misma, como así ocurrió.
Con dicha información en su poder, ordenó todas las estimaciones sobre el peso del buey, que iban desde 1.074 libras (unos 487 kilos) hasta 1.293 libras (unos 586 kilos), y tomó el valor que estaba en el medio (lo que en estadística se llama la mediana), que era de 1.207 libras (unos 547 kilos), como el valor que podría ser más democrático, que podía representar el saber popular, ya que cualquier otra cifra (que no sea la que está en el medio tendrá a más de la mitad de las personas pensando que es muy alta o muy baja).
El peso que tenía el buey descuartizado objeto de la porra resultó que pesaba en realidad 1.198 libras (unos 543 kilos). Y podemos pensar, como así hizo Galton, que el valor del medio -el que recogía el saber popular- de 1.207 libras (547 kilos) estaba muy cerca del valor real, es decir, de las 1.198 libras (543 kilos) que hemos mencionado, solo se había desviado en 9 libras (4 kilos), que no es mucho. De hecho, la mediana, considerada por Galton como el valor más democrático, se alejaba menos de un 0,8% del valor real.
Ante lo que el científico comenta, en su carta, que este es un resultado “más digno de confianza para un juicio democrático de lo que cabría esperar”. Es decir, este es un buen ejemplo de cómo la estadística puede ayudar a obtener información de la realidad.
Tabla con la distribución de las estimaciones de la porra sobre el peso del buey en la feria de ganado celebrada en Plymouth en 1907. Se indican los diferentes percentiles, en particular el percentil 25 que es de 1.162 libras, que se aleja en 45 libras (20,4 kilos) de la mediana (1.207 libras), y el percentil 75 que es de 1.236 libras, que se aleja en 29 libras (13,2 kilos) de la mediana, luego no nos encontramos con una distribución simétrica
Por supuesto que esa “sabiduría de las multitudes” también es susceptible de ser manipulada. Imaginemos en el caso de la porra de la feria de ganado de Plymouth si alguien hubiese hecho correr el bulo de un peso alejado del real, como 1.150 libras, lo que habría provocado que muchas personas subestimaran el peso del buey descuartizado y la mediana se alejase más aún del peso real. Aunque para esta cuestión también podemos utilizar la estadística y extraer interesantes conclusiones, aunque ese es otro tema.
Bibliografía
1.- Francis Galton, Vox populi, Nature 75, pp. 450-451, 1907.
2.- David Spiegelhalter, El arte de la estadística, cómo aprender de los datos, Capitán Swing, 2023.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Vox populi, la sabiduría de las multitudes se ha escrito en Cuaderno de Cultura Científica.
Fricción cuántica agua-grafeno
Un flujo de agua sobre una superficie de átomos de carbono, como la que constituye el grafeno, se rige por una fricción cuántica. Ahora se ha demostrado experimentalmente este fenómeno inusual con técnicas láseres ultrarrápidas. Los resultados se podrían aplicar en procesos de purificación y desalinización del agua e incluso a ordenadores basados en líquidos.
Ilustración: Lucy Reading-Ikkanda / Simons FoundationDurante los últimos 20 años, los científicos han estado desconcertados por cómo se comporta el agua cerca de las superficies de carbono. Puede fluir mucho más rápido de lo que se esperaría según las teorías de fluidos convencionales o adoptar disposiciones extrañas, como el hielo cuadrado.
Ahora, un estudio experimental desvela que el agua puede interactuar directamente con los electrones del carbono: un fenómeno cuántico muy poco habitual en dinámica de fluidos.
Sabemos que un líquido como el agua está formado por pequeñas moléculas que se mueven al azar y chocan constantemente entre sí. Un sólido, en cambio, está formado por núcleos atómicos en posiciones más o menos fijas sumergidos en una nube de electrones. En los modelos usuales se supone que los mundos sólido y líquido solo interactúan mediante colisiones de las moléculas líquidas con los “átomos” del sólido, es decir, se asume que las moléculas líquidas no “distinguen” los electrones del sólido.
Sin embargo, hace poco más de un año, un estudio teórico que cambió este enfoque propuso que, en la interfase agua-carbono, las moléculas del líquido y los electrones del sólido se empujan y tiran unos de otros, ralentizando el flujo del líquido: este nuevo efecto se denominó fricción cuántica. Sin embargo, la propuesta teórica carecía de verificación experimental.
El equipo estudió una muestra de grafeno —una monocapa de átomos de carbono dispuestos en forma de panal—. Utilizaron pulsos ultracortos de láser rojo (con una duración de solo una millonésima de milmillonésima de segundo) para calentar instantáneamente la nube de electrones del grafeno. A continuación, controlaron su enfriamiento con pulsos láser de terahercios, sensibles a la temperatura de los electrones del grafeno. Esta técnica se denomina espectroscopia de bomba óptica y sonda de terahercios.
Para su sorpresa, la nube de electrones se enfrió más rápido cuando el grafeno se sumergió en agua, mientras que la inmersión del grafeno en etanol no supuso ninguna diferencia en la velocidad de enfriamiento. Una posible explicación era que los electrones calientes empujan y tiran de las moléculas de agua para liberar parte de su calor: en otras palabras, se enfrían por fricción cuántica. Los investigadores profundizaron en la teoría y, efectivamente, la fricción cuántica agua-grafeno podía explicar los datos experimentales.
Lo que hace especial al agua en este caso es que sus vibraciones, denominadas ‘hidrones’, están en sincronía con las vibraciones de los electrones del grafeno, denominadas plasmones, de modo que la transferencia de calor grafeno-agua aumenta gracias a la resonancia.
Los experimentos confirman así el mecanismo básico de la fricción cuántica sólido-líquido. Esto tendrá implicaciones para los procesos de filtración y desalinización, en los que la fricción cuántica podría utilizarse para ajustar las propiedades de permeación de las membranas nanoporosas. Si se aprende a controlar la interacción agua-electrón, otras aplicaciones son imaginables en electrocatálisis y fotocatálisis en la interfaz sólido-líquido. Y, ya puestos, ordenadores basados en fluidos.
Referencia:
Yu, X., Principi, A., Tielrooij, KJ. et al. (2023) Electron cooling in graphene enhanced by plasmon–hydron resonance. Nat. Nanotechnol. doi: 10.1038/s41565-023-01421-3
Edición realizada por César Tomé López a partir de materiales suministrados por el Instituto Catalán de Nanociencia y Nanotecnología (ICN2)
El artículo Fricción cuántica agua-grafeno se ha escrito en Cuaderno de Cultura Científica.
Las cárcavas marcianas y los ciclos de oblicuidad
Hay términos que a priori pueden parecer poco relacionados con la geología -al menos en un sentido estricto- pero que son capaces de condicionar, por ejemplo, el clima de un planeta, y con ello su dinámica externa, dejando una impronta en procesos erosivos y deposicionales, hasta el punto de que podemos aproximarnos a la historia climática de un planeta como puede ser la Tierra o Marte a través de su geomorfología o de su sedimentología. La palabra en cuestión que hoy nos trae aquí es oblicuidad, o lo que es lo mismo, la inclinación del eje de rotación de un planeta con respecto al plano orbital, y de la que podemos decir que cuanto mayor sea el ángulo, más extremas serán las estaciones, aunque con sus particularidades para cada zona del planeta.
Podríamos pensar que los planetas mantienen estable a lo largo del tiempo esta inclinación del eje de rotación, pero lo cierto es que no es así, sino que hay ciclos en los cuales este valor va cambiando entre momentos de mayor y menor oblicuidad. En nuestro planeta estos cambios son relativamente pequeños -entre 22,1º y 24,5º -, pero en Marte su oblicuidad puede oscilar en ocasiones entre valores cercanos a los 10º, periodos de baja oblicuidad, a otros en los que su eje se inclina por encima de los 40º.
Recreación de como podrían ser de extremos los ciclos de oblicuidad en Marte. En la actualidad estaría en una situación similar a la de la imagen superior izquierda. Cortesía de la NASA/JPL-Caltech.Los momentos en los que Marte tuviese una mayor oblicuidad serían perfectos para que hubiese una transferencia importante de masa de los polos a la atmósfera, es decir, que una parte del dióxido de carbono que se encuentra formando hielo en estos depósitos polares, acabase sublimándose y permitiese un aumento de la presión atmosférica, pudiendo llegar a valores que duplican la actual presión atmosférica, algo que facilitaría alcanzar mayores temperaturas así como unas condiciones de mayor estabilidad para la presencia de agua líquida en la superficie.
Pero regresemos a la geología. En Marte aparecen una serie de pequeños barrancos que en nuestro planeta conocemos como cárcavas y que en la Tierra suelen estar formados por la erosión fluvial en zonas con pendiente, donde la fuerza del agua y a veces la poca competencia de los materiales -o incluso una baja proporción de materiales consolidados- permite que se produzca una incisión y el transporte de materiales ladera abajo.
Cárcavas en la Tierra, en este caso en la provincia de Guadalajara. Imagen cortesía del Centro Nacional de Información Geográfica (CNIG)Además, algunas de estas cárcavas observadas en Marte parecen relativamente recientes en tiempo geológico, algo que se aprecia porque conservan todavía muy bien su forma y no han sido alteradas en gran medida por otros procesos y porque no acumulan una gran cantidad de cráteres de impacto. Pero, si las condiciones actuales no permiten la presencia de agua líquida en la superficie -al menos no en los lugares ni en la cantidad para generar las poblaciones más recientes de cárcavas-, ¿cómo han podido formarse?.
Algunos estudios sugerían que estas estarían formadas por el hielo de dióxido de carbono, que durante su sublimación -el paso de sólido a gaseoso sin pasar por el líquido- provocaría que los materiales sobre -o debajo- de los que se encuentra se desestabilicen y caigan ladera abajo, a veces ayudados por el propio dióxido de carbono en estado gaseoso que serviría como una especie “lubricante” que facilitaría su transporte. Este mecanismo podría ser incluso funcional en la actualidad, especialmente durante la primavera y el verano marcianos en laderas iluminadas por el Sol.
Este proceso repetido a lo largo del tiempo daría lugar las cárcavas que observamos, como por ejemplo se describe en Pilorget et al. (2016). De algún modo podríamos decir que esta erosión sería “en seco”, ya que no necesita agua para explicar la formación de las cárcavas. Pero lo cierto es que hoy día, al menos en el tiempo que hemos podido observar el planeta rojo y estudiar los cambios que se producen en su superficie, las cárcavas no muestran una gran actividad, por lo que podrían ser una herencia de otros momentos de la historia de Marte más que representar una forma del modelado actual.
En este artículo nos referimos únicamente a las cárcavas que aparecen en las laderas de algunas montañas y cráteres, que parecen tener un origen diferente a aquellas que se forman en las dunas de zonas polares y donde parece que el agente erosivo es exclusivamente el dióxido de carbono a causa de los ciclos estacionales y que son más representativas del clima actual.
Un nuevo estudio publicado en la revista Science por Dickson et al. (2023) vuelve a poner en el punto de mira al agua como agente formador de las cárcavas. Hoy día, con la actual inclinación del eje de rotación de Marte, los lugares donde existen estas cárcavas no cumplen las condiciones de presión y temperaturas necesarias para que el hielo de agua que existe en el regolito u otros almacenes geológicos cercanos a la superficie pueda derretirse y permitir al agua bajar ladera abajo, pero cuando la oblicuidad del planeta se encuentra alrededor de los 35º, las condiciones serían favorables para la fusión del hielo y para que el agua se mantuviese estable en la superficie el tiempo suficiente de generar los procesos erosivos y el depósito de los sedimentos que observamos.
Cárcavas en Marte capturadas por el instrumento HiRISE. La pendiente de la imagen iría de izquierda -más alto- a derecha -más bajo-. Además, se puede apreciar como al final de las cárcavas aparecen una serie de “abanicos” como consecuencia de los materiales arrastrados por el agua. Cortesía de NASA/JPL-Caltech/UArizona.Para llegar a esta conclusión, los científicos han desarrollado un modelo climático en el cual han podido marcar las localizaciones de las poblaciones de cárcavas más recientes y ver en que momentos y bajo que condiciones la formación de estas podría darse de una manera más o menos simultánea, algo que parece explicarse muy bien mediante los ciclos de oblicuidad marcianos. De hecho, estos procesos formadores de las cárcavas podrían haberse repetido en los últimos millones de años, siendo la última vez hace aproximadamente unos 630.000 años.
Este descubrimiento tiene muchas repercusiones. El primero de cara a la exploración planetaria, ya que nos permitiría acceder a depósitos de hielo para su estudio, pero también de cara a la astrobiología, porque la presencia de agua líquida -aunque sea en momentos más o menos efímeros- podría ser importante para la vida en Marte si esta existiese, suponiendo estos intervalos de tiempo en los que hay agua líquida en superficie una especie de puente entre las condiciones frías y secas y otras que amplíen el rango de espacios habitables en el planeta.
Pero, sin lugar a dudas, estudios como estos ponen de manifiesto lo difícil que es a veces la interpretación de la geología en otros lugares diferentes a la Tierra. Es por ello que se necesitan aproximaciones multidisciplinares que nos permitan comprender un poco mejor la historia de los planetas y otros cuerpos del Sistema Solar.
Referencias:
Dickson, J. L., A. M. Palumbo, J. W. Head, L. Kerber, C. I. Fassett, y M. A. Kreslavsky. «Gullies on Mars Could Have Formed by Melting of Water Ice during Periods of High Obliquity». Science 380, n.º 6652 (30 de junio de 2023): 1363-67. https://doi.org/10.1126/science.abk2464.
Dickson, James L., y James W. Head. «The Formation and Evolution of Youthful Gullies on Mars: Gullies as the Late-Stage Phase of Mars’ Most Recent Ice Age». Icarus 204, n.º 1 (noviembre de 2009): 63-86. https://doi.org/10.1016/j.icarus.2009.06.018.
Dundas, Colin M., Serina Diniega, Candice J. Hansen, Shane Byrne, y Alfred S. McEwen. «Seasonal Activity and Morphological Changes in Martian Gullies». Icarus 220, n.º 1 (julio de 2012): 124-43. https://doi.org/10.1016/j.icarus.2012.04.005.
Dundas, Colin M., Alfred S. McEwen, Serina Diniega, Candice J. Hansen, Shane Byrne, y Jim N. McElwaine. «The Formation of Gullies on Mars Today». Geological Society, London, Special Publications 467, n.º 1 (enero de 2019): 67-94. https://doi.org/10.1144/SP467.5.
Treiman, Allan H. «Geologic Settings of Martian Gullies: Implications for Their Origins». Journal of Geophysical Research 108, n.º E4 (2003): 8031. https://doi.org/10.1029/2002JE001900.
Pilorget, C., y F. Forget. «Formation of Gullies on Mars by Debris Flows Triggered by CO2 Sublimation». Nature Geoscience 9, n.º 1 (enero de 2016): 65-69. https://doi.org/10.1038/ngeo2619.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Las cárcavas marcianas y los ciclos de oblicuidad se ha escrito en Cuaderno de Cultura Científica.
Por qué los humanos tenemos un extra inesperado de energía (y para qué sirve)
energía
Foto: Jordan McQueen / UnsplashEl metabolismo es el conjunto de transformaciones mediante las cuales, a partir de materia orgánica (la comida), agua y oxígeno, construimos nuestro cuerpo y generamos energía para todo proceso vital. Gastamos energía cuando hacemos ejercicio. Pero también al dormir, manteniendo y reparando el cuerpo. O pasando una agradable tarde de lectura: no olvidemos que mantener el cerebro “le cuesta” a un adulto el 20 % de toda su energía diaria.
El modo en que obtenemos y gastamos energía los humanos ha sido objeto de discusión en las ciencias y las humanidades. Más aún desde que se ha descubierto que contamos con un extra de energía inesperado. Comparados con otros primates, empleamos más energía de la que podría parecer necesaria por nuestras características físicas.
¿Por qué necesitamos los humanos ese extra de energía? Y ¿cómo la conseguimos?
Una de las respuestas más apasionantes a ambas preguntas tiene que ver con nuestra naturaleza biocultural.
La paradoja energética humanaDurante nuestra evolución hemos desarrollado rasgos que nos diferencian de nuestros parientes vivos más cercanos: crecemos más lentamente, desarrollamos un cerebro más grande, nos reproducimos más, vivimos más años y somos más resistentes en el ejercicio físico que chimpancés, bonobos y gorilas.
Estos rasgos son energéticamente caros, y hacerlos posibles a lo largo de nuestra vida es lo que se ha llamado la paradoja energética humana.
Hasta hace unos años, sorprendentemente nadie había comparado el gasto energético total entre humanos y grandes simios. El primero en hacerlo fue el biólogo experimental Herman Pontzer, que propuso que los humanos estamos metabolicamente “acelerados”. Esto significa que el linaje humano ha experimentado una aceleración en la tasa metabólica a lo largo de la evolución, proporcionando energía para cerebros más grandes y una reproducción más rápida sin sacrificar el mantenimiento del organismo y la longevidad. Pontzer lo describió como el extra inesperado de energía humana: gastamos más energía por unidad de masa que nuestros parientes más cercanos. Y eso se acompaña de un metabolismo particularmente acelerado.
La energía la distribuye el corazónSi seguimos el rastro del gasto energético, el camino nos lleva directos al corazón, el órgano que ha encarnado la esencia de la vida a lo largo y ancho de nuestra historia. Siempre ha sido protagonista, desde la representación prehistórica en la Cueva del Pindal en Asturias hasta el énfasis actual en una buena salud cardiaca, pasando por su pesaje en el viaje al más allá en el antiguo Egipto, o su transformación en jaguar tras la muerte para los Waorani amazónicos.
El corazón provee a todo el cuerpo de la energía necesaria para toda la actividad fisiológica. Podemos cuantificar este suministro con el gasto cardiaco, que es el producto de la cantidad de sangre que bombeamos en un latido por el número de latidos por minuto.
Este flujo tiene un valor medio aproximado de cinco litros por minuto. Así mantenemos la circulación de materias primas (oxígeno y nutrientes) y de deshecho (dióxido de carbono, agua) de nuestro metabolismo, lo que nos lleva a la paradoja energética humana. Si comparados con otros grandes simios estamos metabólicamente acelerados (empleamos más energía por unidad de masa), podemos esperar que nuestro gasto cardiaco por unidad de masa también sea mayor.
Una manera de estudiarlo es midiendo el diámetro de la “tubería” por la cual sale del corazón toda la sangre de un latido. A partir de ecocardiografías en grandes simios vivos observamos que nuestra aorta es similar a la de los gorilas, que nos pueden duplicar en tamaño. De hecho, controlando por el peso tenemos una aorta mayor por unidad de masa que los gorilas. Para alimentar nuestro metabolismo acelerado tenemos un gasto cardiaco mayor por unidad de masa: una aorta de gorila en un cuerpo de humano.
Reproducción biocultural¿Y bien? ¿Cómo sostenemos el sistema? ¿Cómo logramos esa energía extra que permite desarrollar un cerebro voraz o parir más que cualquier otro primate?
Una respuesta a estas preguntas la encontramos en nuestra naturaleza biocultural.
Pensemos en un ingrediente de la paradoja: nuestro gran cerebro. Termina de crecer en volumen aproximadamente a los seis años de edad, en un proceso tan costoso que frena el crecimiento corporal y emplea nada menos que el 40 % de la energía total diaria de los niños (y más del 65 % de la energía en reposo). De hecho, en la infancia tenemos un gasto cardiaco y quemamos más energía por unidad de masa que de adultos.
Pensemos ahora en otro ingrediente de la paradoja: nos reproducimos más. Las madres humanas tienen la capacidad de tener bebes a un ritmo mayor que otros grandes simios. Las humanas destetan a la cría para quedarse embarazada de nuevo cuando aquella todavía es dependiente y quema energía a una tasa muy elevada. Esto sólo es posible gracias a la provisión de cuidados y de comida nutritiva y procesada que proporciona la comunidad, una característica exclusivamente humana: no criamos solas.
Como sugiere el biólogo humano Barry Bogin, una clave es que los humanos practicamos una reproducción biocultural. En nuestra especie, el cuidado y provisión de las crías no es solo asunto de los progenitores. En esa tarea es fundamental el papel de abuelas, abuelos, hermanos y hermanas mayores, y otros familiares. Pero también el papel de otras personas del grupo cuyo vínculo se define culturalmente, más allá de la genética (las “tías” y “tíos” de la infancia, en realidad amigos cercanos de nuestros padres). Otra característica exclusivamente humana.
Siguiendo esta senda energética biocultural, se ha propuesto que, durante nuestra evolución, una de las soluciones para la búsqueda de alimento nutritivo fue el desarrollo de la caza y recolección y de la horticultura. Estas habilidades sociales, de grupo, nos permitieron mejorar nuestra tasa de retorno energético.
Mediante un proceso social complejo, intenso y costoso pero rentable, obtenemos más calorías en menos tiempo que los demás grandes simios. Así alimentamos la máquina.
La supervivencia del más amistosoLa reproducción biocultural y el aumento del retorno energético no se explican sin un aumento continuado de nuestra sociabilidad a lo largo de la evolución. Un aumento que seguramente se produjo en una retroalimentación que incluyó a otros hitos como el fuego, el lenguaje y el cocinado de los alimentos.
Tan llamativa es nuestra sociabilidad que se ha sugerido que nuestra evolución es un proceso de autodomesticación, de “supervivencia del más amistoso”.
Regresando a la perspectiva fundamental de los ciclos de materia y energía, los corazones y cerebros forman parte de metabolismos individuales entretejidos en un grupo social. Al fin y al cabo, forman parte de una matriz biocultural evolutiva capaz de costear nuestra paradoja energética.
El ensayo del recientemente fallecido Nuccio Ordine La utilidad de lo inútil expresa la profundidad de estos vínculos. En él, Ordine escribe: “La necesidad de imaginar, de crear, es tan fundamental como lo es respirar”. Así, según Ordine: “Esta respiración […] expresa el excedente de la vida respecto de la vida misma […], energía que circula de forma invisible y que va más allá de la vida, aún siendo inmanente a ella”.
Una evocadora reflexión para dar respuesta al inesperado extra de energía humana.
Sobre el autor: Luis Ríos Frutos es Profesor de Antropología en la Universidad Complutense de Madrid
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Por qué los humanos tenemos un extra inesperado de energía (y para qué sirve) se ha escrito en Cuaderno de Cultura Científica.
El mono que desafió la sincronía
Cómo influyen los parásitos en el comportamiento de los animales, cómo se modifica la conducta de las madres mamífero o cuáles son las enfermedades que nos afectan y desde cuándo hemos desarrollado comportamientos funerarios ante la muerte son algunos de los aspectos que se analizarán en la V Jornada Nacional sobre Evolución y Neurociencias.
Especialistas en ambas materias se reunieron el 11 y 12 de mayo en una nueva edición conducida por Eva Garnica y Pablo Malo, psiquiatras y miembros de la Red de Salud Mental de Bizkaia, y organizada por esa misma entidad y la Cátedra de Cultura Científica de la UPV/EHU.
La jornada, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolucionista y divulgar de un modo accesible para todos los públicos.
A la hora de entender las psicopatologías y su tratamiento el conocimiento del hecho evolutivo tiene mucho que aportar, especialmente para asumir que no somos más que primates enamorados de los símbolos que nos alegramos con lo bueno u odiamos al otro en sincronía.
Julio Sanjuán Arias es coordinador de la Unidad de Primeros Episodios Psicóticos del Hospital Clínico Universitario de Valencia, investigador principal de la línea de Psiquiatría y enfermedades Neurodegenerativas del INCLIVA y profesor Titular de Psiquiatría en la Universidad de Valencia.
Si no ve correctamente el vídeo, use este enlace.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo El mono que desafió la sincronía se ha escrito en Cuaderno de Cultura Científica.
La natalidad es solo un número
La demografía es una ciencia de sumas y restas, pero si queremos entender su lógica matemática es preciso incorporar la dimensión temporal y analizar los efectos que ejerce la estructura demográfica en su propia dinámica. Cifras de nacimientos como las recientemente publicadas por Eustat deben, por tanto, contextualizarse. Destacar las bajas cifras de nacimientos sin ponerlas en su contexto es quedarse en una visión muy simplificada de la realidad. El número total de nacimientos es cada vez más bajo, pero es solo un número. Si no lo relativizamos, no podremos interpretarlo. Si lo comparamos con la población total, a través de la tasa bruta de natalidad, el resultado son valores cada vez más bajos. Pero, como también se está reduciendo el número de mujeres en edad fértil, si lo medimos a través del índice sintético de fecundidad, nos da valores que superan los de hace tres décadas1.
La natalidad no es el único factor demográficoAdemás, gozamos de mayor eficiencia reproductiva que en el pasado. Lo que MacInnes y Pérez Díaz (2009)2 denominan la revolución reproductiva nos ha conducido a que menores índices de fecundidad por mujer deriven en mayores volúmenes de población. Un menor número de hijos, pero con más medios para su cuidado y educación, lleva a una supervivencia mucho mayor y a un incremento notable de la esperanza de vida. Una sociedad con mayores niveles educativos será también más productiva, por lo que el volumen de población activa necesario para garantizar la sostenibilidad de las pensiones será menor. Asimismo, si se alarga la esperanza de vida, se llega con mejor salud a la vejez y se retrasan el resto de las etapas vitales, no resulta tampoco tan insensato retrasar la edad de jubilación y mantener activo un capital humano que puede aportar experiencia y know-how.
Por otro lado, ¿cómo establecer el número óptimo de nacimientos, tratándose de una decisión individual, un proyecto de vida que cada cual puede o debería poder elegir? Porque, aunque tradicionalmente la demografía ha situado en 2,1 el número de hijos por mujer necesario para que se produzca el reemplazo generacional, esa cifra no incorpora el impacto de las migraciones ni del incremento de la longevidad ni de los nuevos modelos familiares. Es, por tanto, un valor discutible, como lo es considerar que una pérdida de población sea siempre negativa y, por ende, preocuparse más por la cantidad de habitantes que por la calidad de vida de dichos habitantes.
El mayor logro demográfico de los países desarrolladosNo nos percatamos de que gozamos de mejor calidad de vida que nuestros antepasados y que convertirse en sociedades envejecidas es el mayor logro demográfico de los países desarrollados. La pirámide de población de amplia base de los países en vías de desarrollo recoge su pujante natalidad, pero también es el reflejo de una mortalidad por edades relativamente alta y de un marcado descenso de individuos entre una cohorte de edad y la siguiente. Nuestras pirámides, bastante más alargadas y que han perdido hace tiempo su característica forma triangular, indican, por el contrario, un continuo incremento de la esperanza de vida. Sin embargo, en lugar de destacar que los índices de supervivencia de las sucesivas generaciones son cada vez más positivos, los titulares periodísticos se centran en los efectos negativos del envejecimiento de la población y en la baja natalidad.
Aunque ampliamente compartida, presentar el bajo número de nacimientos como algo negativo no deja de ser una valoración subjetiva. Además, gran parte de las alarmas demográficas no se sostienen en fundamentos científicos, sino que se impregnan de ideologías políticas o religiosas que ponen a la familia como núcleo central de organización de la sociedad y otorgan a la mujer el rol de garante de la natalidad. Nos enfrentamos a un cambio en el modelo reproductivo, no solo a nivel individual, sino también como sociedad, que consigue que la población siga creciendo a pesar de que la natalidad se reduzca.
Esa reducción se puede explicar en base al coste de oportunidad que supone tener hijos. En el pasado, tener una prole abundante significaba una probabilidad más alta de que sobreviviesen a la infancia en mayor número y pudiesen contribuir a edades tempranas a la economía familiar e, incluso, garantizasen el cuidado de los padres en la vejez. En la actualidad, las familias que deciden tener hijos se enfrentan a altos costes tanto económicos como medidos en términos de tiempo, lo que lleva a muchas de ellas a replantearse esa decisión.
La maternidad pasa facturaEspecialmente en el caso de las mujeres, la maternidad pasa factura. Son ellas quienes disfrutan en mayor medida de reducciones de la jornada laboral o de excedencias por cuidado de hijos o familiares. A medida que el número de hijos aumenta, presentan mayor probabilidad de abandonar el mercado laboral3, reduciendo también su empleabilidad futura. Por esos y otros motivos, se retrasa la edad de la maternidad y con frecuencia no se tienen los hijos que se desean.
Ese hecho sí debería ser objeto de preocupación por parte de las políticas públicas. Políticas de igualdad que garanticen una sociedad más equitativa, políticas laborales que reduzcan la precariedad laboral y permitan la conciliación de la vida personal y laboral o políticas de vivienda que faciliten el acceso a la misma y favorezcan la emancipación temprana de los jóvenes tendrán una incidencia importante en la decisión de abordar la maternidad/paternidad.
En cambio, las políticas pronatalistas, que hacen un uso ideológico de las estadísticas demográficas, se muestran ineficientes en el fomento de la natalidad. Ayudas coyunturales y no progresivas como son los cheques bebé universales, aunque mejoren la situación de familias en situación de vulnerabilidad, no serán tampoco relevantes en la decisión reproductiva. Probablemente, patrones de parentalidad compartida y una corresponsabilidad real contribuirán en mucha mayor medida a reducir la distancia existente entre expectativas y realidad reproductiva.
Notas y Referencias:
1 Según los Indicadores para el análisis de los fenómenos demográficos (Eustat, 2022), en 1990/1991, el índice sintético de fecundidad de Euskadi era de 0,97 hijos por mujer mientras que en 2020/2021, se sitúa en 1,25 hijos por mujer. En ese mismo periodo, según las Estadísticas de nacimientos, la tasa bruta de natalidad se ha reducido, pasando de 7,7 a 6,5 nacimientos por cada mil habitantes, mientras que el número total de nacimientos ha disminuido también en algo menos de 2.000.
2 MacInnes, J., y Pérez Díaz, J. (2009). ‘The Reproductive Revolution’. The Sociological Review, vol. 57, nº. 2, págs. 262–284. https://doi.org/10.1111/j.1467-954X.2009.01829.x
3 En España, según datos de la Encuesta de Población Activa (INE, 2022), en el caso de los hombres entre 25 y 49 años, presentan una mayor tasa de empleo si tienen hijos que si no tienen hijos (89,7 frente a 83,6), mientras que en las mujeres de esa misma edad se reduce la empleabilidad (en el caso de ser madres, 69,7 frente a 74,7 si no tienen hijos). Pero llama especialmente la atención la distancia existente en el caso de que el número de hijos sea superior a 3, ya que en los hombres la tasa de empleo alcanza el 84,2 (superior incluso a la que presentan cuando no tienen hijos), y en las mujeres es de 53,4 (más de 20 puntos inferior a la que presentan si no son madres).
Sobre la autora: Itziar Aguado es Profesora del Área de Geografía Humana en la Facultad de Letras de la UPV/EHU
Una versión de este texto apareció originalmente en campusa.
El artículo La natalidad es solo un número se ha escrito en Cuaderno de Cultura Científica.
Geología en el Tour
arqueas
Reconozco que, de siempre, me ha encantado seguir las grandes vueltas ciclistas veraniegas, pero no por el deporte en sí, sino por la gran oportunidad de ver unos paisajes increíbles que caracterizan los países por los que pasa la serpiente multicolor. Y el Tour de Francia de este año me está encantando, porque no paran de subir unas montañas míticas. Así que esta semana os voy a hablar de la geología del Tour de Francia, pero no como os lo estáis imaginando.
Si estáis siguiendo la ronda gala, os habréis encontrado con un equipo francés llamado Arkéa Samsic. Pues cada vez que veo las letras Arkéa bien grandes en los maillots, lo que menos pienso es en una empresa de finanzas o en un grupo ciclista. Lo que me viene a la mente es en el origen de la vida en nuestro planeta.
Hoy en día, toda la vida del planeta se puede dividir en tres grandes grupos, llamados Dominios: Archaea (más conocidas en el argot popular como arqueas), Bacteria (creo que estas no necesitan traducción) y Eucarya (o células eucariotas). Los dos primeros grupos son organismos unicelulares sin núcleo diferenciado (lo que en mi época de estudiante se llamaban procariotas y formaban el Reino Monera), mientras que el último está compuesto por organismos con células que tienen un núcleo verdadero.
Arquea es una palabra de origen griego que significa “antiguo”, ya que, hasta no hace mucho, a estos organismos se les consideraba como las formas de vida más antiguas de nuestro planeta. Además, se creía que eran todos extremófilos, es decir, que habitaban ambientes considerados actualmente como muy extremos para la vida: unas arqueas se alimentaban de metano, otras se desarrollaban en medios de alta salinidad y un tercer grupo vivían en condiciones de temperaturas muy elevadas.
Pero todo esto ha cambiado en los últimos años. Recientemente, se han descubierto arqueas en ambientes muy normalitos, por decirlo de alguna manera, como el agua del mar o el fango del suelo continental. Incluso, se pone en duda que realmente sean los organismos vivos más primitivos de la Tierra. Así que vamos a viajar en el tiempo, a ver si nos situamos un poco en toda esta historia… Aunque no va a ser tan fácil como os podéis imaginar, porque la ausencia de un registro fósil tan antiguo nos obliga a trabajar con edades estimadas a partir del estudio genético de actuales grupos de arqueas, bacterias y eucariotas.
Fotografía coloreada de Microscopio Electrónico de Barrido (SEM) de una arquea Sulfolobus, un grupo de organismos extremófilos que habita en medios acuáticos de agua caliente con abundante azufre disuelto. Cada célula mide, aproximadamente, 0,002 mm. Imagen de Oliver Meckes EYE OF SCIENCE /PixelsHoy en día se acepta que nuestro planeta tiene unos 4570 millones de años de edad, millón de años arriba, millón de años abajo. Pues se considera que las primeras formas de vida verdaderas, es decir, células sin núcleo que incluían moléculas de ADN en su interior, aparecieron hace unos 4350 millones de años. Como dice el grupo de música heavy Nightwish en su canción Greatest Show on Earth, que entre LUCA. Estas siglas significan Last Universal Common Ancestor, que se puede traducir como el Último Ancestro Común Universal. Lo primero, no era un organismo en singular, sino un grupo de organismos evolucionados a partir de la unión de los ladrillos de la vida, moléculas de ARN libres que se combinaron para secuenciar ADN.
Pero, ¿qué tipo de organismos eran LUCA? Hasta no hace mucho se consideraban como las primeras arqueas. Actualmente, se ha llegado al consenso de que se trata de un grupo primitivo de bacterias. Por tanto, los organismos más antiguos de nuestro planeta no son el grupo cuyo nombre significa, precisamente, antiguo, sino que lo son las bacterias. Aunque la diferenciación entre los dos dominios pudo producirse muy rápido, hace entre 3800 y 4100 millones de años, dando lugar a dos clados muy diferenciados.
Mecanismo simbiótico propuesto entre las arqueas y las bacterias para dar origen a los organismos eucariotas. Imagen tomada de Imachi et al. (2020) Isolation of an archaeon at the prokaryote–eukaryote interface. Nature volume 577, pages 519–525¿Y los eucariotas? Pues parece que tardaron un poquito más en aparecer, estimándose su presencia más antigua hace unos 2300 millones de años. Estudios recientes han llegado a la conclusión de que este último dominio surgió de un grupo de arqueas primitivas que pudieron hacer simbiosis con bacterias más evolucionadas. Estos primeros eucariotas debieron ser unicelulares, pero rápidamente evolucionaron, dando lugar a organismos pluricelulares hace entre 1900 y 2100 millones de años. Es decir, que los dos grupos primigenios unieron fuerzas para generar la vida compleja en nuestro planeta.
Todo esto que os he contado parecen simples curiosidades biológicas, pero es algo mucho más complejo, porque tanto la aparición como la evolución de las primeras formas de vida provocaron cambios en nuestro planeta que lo condicionaron todo. Los primeros seres vivos aparecieron en un mundo sometido al bombardeo continuo de cuerpos extraterrestres, con una atmósfera reductora y mares repletos de hierro disuelto en el agua. La evolución de estos organismos primitivos dio lugar a las cianobacterias hace entre 3400 y 3700 millones de años, los seres fotosintéticos más antiguos, que llegaron a provocar un cambio desde una atmósfera reductora a una débilmente oxidante. Llegando hace unos 2400 millones de años a producirse el Gran Evento Oxidativo, a partir del cual disfrutamos de una atmósfera totalmente oxidante, lo que aceleró aún más la evolución biótica. Unos cambios ambientales radicales gracias a los cuales los seres humanos estamos aquí hoy.
Espero que, a partir de ahora, sigáis las etapas ciclistas de otra manera. Y cuando algún miembro del equipo Arkéa tome protagonismo con una escapada, os acordéis de la importancia evolutiva de estos pequeños organismos. Incluso, que veáis a un eucarionte con arqueas y bacterias en simbiosis con su organismo para permitirle hacer esos titánicos esfuerzos subiendo esas preciosas montañas, fruto de millones de años de evolución de nuestro planeta.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Geología en el Tour se ha escrito en Cuaderno de Cultura Científica.