Fotones como neurotransmisores
Nuestro encéfalo está formado por miles de millones de neuronas que están conectadas entre sí formando redes complejas. Estas neuronas se comunican mayoritariamente mediante un proceso llamado transmisión sináptica, en el cual se envían señales eléctricas (potenciales de acción) y señales químicas (neurotransmisores).
Los neurotransmisores los libera una neurona, se difunden hacia las demás, y llegan a las células diana generando una señal que excita, inhibe o modula la actividad celular. El momento y la fuerza de estas señales son cruciales para que el cerebro procese e interprete la información sensorial, tome decisiones y genere comportamiento.
Controlar las conexiones entre las neuronas nos permitiría comprender y tratar mejor los trastornos neurológicos, reconfigurar o reparar los fallos en los circuitos neuronales tras haber sido dañados, mejorar nuestras capacidades de aprendizaje o expandir nuestro conjunto de comportamientos.
Existen varios métodos para controlar la actividad neuronal. El uso de fármacos es la alternativa más habitual, que permite alterar los niveles de los neurotransmisores presentes en el encéfalo y afectar la actividad de las neuronas. Otra opción es estimular eléctricamente zonas específicas para activar o inhibir las neuronas. Pero existe una tercera posibilidad: usar la luz.

La manipulación de la actividad neuronal mediante la luz es una técnica, relativamente nueva, que se viene explorando desde hace tiempo. Esta técnica implica modificar genéticamente las neuronas para que expresen proteínas, canales iónicos, bombas de protones o enzimas específicas sensibles a la luz en las células diana.
Aunque este método permite a los investigadores controlar la actividad de grupos concretos de neuronas con mayor precisión, existen todavía algunas limitaciones. Como la luz se dispersa en el tejido cerebral, debe administrarse muy cerca de las neuronas para lograr una resolución suficiente a nivel de sinapsis. Esto implica usar técnicas a menudo invasivas, y requiere de intervenciones externas. Además, la intensidad que se necesita para llegar a las células diana puede ser potencialmente dañina para ellas.
Luz para controlar la actividad neuronalAhora, un equipo de investigadores ha desarrollado un nuevo sistema que utiliza fotones como neurotransmisores como estrategia para controlar la actividad neuronal. Este método permite conectar dos neuronas utilizando luciferasas (unas enzimas que emiten luz) y canales iónicos fotosensibles. El método, llamado PhAST, ha sido testado en el nemátodo Caenorhabditis elegans, un organismo modelo ampliamente utilizado para estudiar procesos biológicos.
Del mismo modo que los animales bioluminiscentes usan fotones para comunicarse, la idea era utilizar enzimas para enviar fotones, en lugar de sustancias químicas, como transmisores entre neuronas. Para comprobar si era posible, realmente, usar los fotones para codificar y transmitir el estado entre dos neuronas, el equipo primero modificó genéticamente los gusanos, alterando sus neurotransmisores de tal manera que fuesen insensibles a los estímulos mecánicos. El objetivo era ver si, con el sistema diseñado, se podían revertir estas alteraciones sensoriales.
En segundo lugar, los investigadores sintetizaron las luciferasas y seleccionaron los canales iónicos proteicos sensibles a la luz, denominados canalrodopsinas. Por último, desarrollaron un dispositivo que administraba estímulos mecánicos en la punta de la nariz de los gusanos, midiendo simultáneamente la actividad del calcio (uno de los iones y mensajeros intracelulares más importante) en las neuronas sensoriales. Esto les permitió seguir el flujo de la información.
Para poder ver los fotones y estudiar la bioluminiscencia, el equipo diseñó previamente un microscopio específico asistido con aprendizaje automático. Simplificaron un microscopio de fluorescencia quitando algunos elementos ópticos habituales como filtros, espejos, o el propio láser, y lo cubrieron por completo para eliminar la contaminación de luz externa.
Los investigadores diseñaron también varios experimentos que han conseguido establecer que los fotones sí pueden, de hecho, transmitir estados neuronales. En uno de ellos, se estableció una nueva comunicación entre dos neuronas no conectadas previamente, restaurando una conexión neuronal en un circuito defectuoso.
También suprimieron la respuesta del animal a estímulos dolorosos, cambiaron su comportamiento pasando de atracción a aversión en respuesta a un estímulo olfativo y estudiaron la dinámica del calcio durante la puesta de los huevos.
Los fotones pueden actuar como neurotransmisoresLos resultados demuestran que los fotones pueden actuar como neurotransmisores, permitiendo la comunicación entre las neuronas, y que el sistema PhAST permite la modificación sintética del comportamiento animal.
Como la luz puede usarse en más tipos de células y en más especies animales, ofrece un gran potencial para una amplia gama de aplicaciones, desde la investigación básica hasta aplicaciones clínicas en neurociencia.
Controlar y monitorear la actividad neuronal mediante luz puede ayudar a la comunidad científica a, por ejemplo, entender mejor los mecanismos subyacentes de la función cerebral y los comportamientos complejos o a determinar cómo distintas regiones del cerebro se comunican entre ellas.
También puede aportar nuevas maneras de escanear y mapear la actividad cerebral con mayor resolución espacial y temporal. Además, puede ser útil en el futuro para desarrollar nuevos tratamientos para reparar las conexiones neuronales dañadas sin necesidad de cirugías invasivas.
El camino a seguir en un futuro está orientado a mejorar la ingeniería de las enzimas bioluminiscentes, los canales iónicos o las moléculas diana, lo que permitiría controlar de manera óptica, no invasiva, y con una mayor especificidad y precisión la función neuronal.
Referencia:
Porta-de-la-Riva, M., Gonzalez, A.C., Sanfeliu-Cerdán, N. et al. (2023) Neural engineering with photons as synaptic transmitters. Nat Methods doi: 10.1038/s41592-023-01836-9
Edición realizada por César Tomé López a partir de materiales suministrados por ICFO.
El artículo Fotones como neurotransmisores se ha escrito en Cuaderno de Cultura Científica.
La juventud de la superficie de Venus
superficie de Venus
Quizás uno de los temas más candentes de la geología planetaria en los últimos años -y que probablemente lo seguirá siendo hasta bien entrada la próxima, cuando quizás podamos dar por sentada esta cuestión- ha sido el estudio de la posible actividad volcánica en Venus. Aquí, en este mismo espacio de Planeta B hemos hablado de los esfuerzos por cartografiar las estructuras volcánicas en Venus en “Un nuevo mapa del vulcanismo de Venus”, así como también de las que podrían ser las primeras imágenes que demuestran que es un planeta volcánicamente activo en “¿Es esta la prueba definitiva de que Venus tiene volcanes activos?”.
Pero lo cierto es que, a pesar de que nos cueste conocer el grado de actividad de Venus debido a la falta de misiones y a la escasa cobertura temporal -al menos con buena resolución-, si no es activo en la actualidad, lo ha sido muy recientemente, aunque desconozcamos exactamente que tipo de procesos son los encargados de rejuvenecer su superficie. En nuestro planeta tenemos la tectónica de placas, el vulcanismo o los agentes externos como la lluvia o el hielo, pero, ¿qué pasa en Venus?
Las cronologías más recientes muestran una gran horquilla de edades para la superficie de Venus que va desde los 1.000 a los 150 millones de años debido a las grandes limitaciones que tenemos para estudiar el planeta. De hecho, estas edades se han calculado estudiando la población de cráteres que hemos podido observar en las imágenes de radar que tenemos, ya que no hemos podido traer muestras de su superficie y que podamos datar en nuestros laboratorios, algo que de momento está lejos de nuestro alcance a nivel tecnológico.

Esta técnica de datación mediante el conteo de cráteres es muy habitual en los cuerpos del Sistema Solar de los que no podemos traer muestras pero de los que sí disponemos de imágenes, ya que nos permite estimar la edad contando los cráteres de una zona y por norma general, a mayor número de cráteres por unidad de superficie, más antigua es esta, aunque obviamente tiene sus limitaciones. Se basa en un principio básico que podríamos resumir en que si la superficie no cambia por algún tipo de proceso, cada vez tendrá más cráteres visibles. O dicho de una manera sencilla: los cráteres son las “arrugas” de los planetas.
Pero esta técnica tiene en Venus un inconveniente muy concreto: Y es que su densa atmósfera probablemente sirva de filtro para los cuerpos más pequeños y que, por lo tanto, podrían consumirse antes de tocar suelo, no llegando a dejar un cráter y por lo tanto, dificultando la tarea, dando como resultado una edad más reciente debido a este sesgo.
A pesar de este posible problema con las dataciones, si miramos la superficie de Venus parece muy joven, tanto es así que sería el único planeta interior (contando a Mercurio y Marte) cuya superficie tiene una edad de rejuvenecimiento de su superficie similar a la de la Tierra y, por lo tanto, procesos capaces de transformar el planeta activos o que han estado activos en el pasado reciente.

¿Qué proceso o procesos podrían ser los responsables de este hecho? Un nuevo estudio (Marchi et al. (2023)) apunta directamente a la labor de la actividad volcánica en Venus. Sabemos por el último censo de edificios volcánicos en el planeta que hay en torno a unos 85.000 volcanes, una cifra que podría ser unas seis veces superior a todos los volcanes de nuestro planeta y, si hay un gran número de estos activos, las coladas de lava podrían ser las responsables de cubrir las superficies más viejas y de generar las nuevas.
Pero de nuevo, aquí hay otra diferencia con nuestro planeta: Si Venus tiene muchos más volcanes activos que la Tierra, a pesar de ser dos planetas similares en tamaño… ¿de dónde saca ese calor extra necesario para generar el elevado número de erupciones?.
El estudio apunta a que Venus pudo sufrir impactos mucho más energéticos contra su superficie al principio de su historia que la Tierra, aumentando el calor disponible en el planeta. Este hecho no es una extrañeza, ya que al encontrarse más cerca del Sol los cuerpos se mueven a mayor velocidad por la propia mecánica orbital, resultando en colisiones más violentas y un mayor grado de fusión en los materiales que forman Venus.
También es posible que las órbitas de estos cuerpos que podrían haber cochado contra Venus fuesen más excéntricas al provenir de zonas más alejadas del Sistema Solar, lo que de nuevo, serviría para añadir más energía al impacto.

Dicho esto, las condiciones generadas por estos impactos provocarían una evolución geodinámica muy diferente a Venus y la Tierra, llevando a Venus a tener un núcleo muy caliente que daría como resultado la gran actividad volcánica por esa transferencia de calor desde el interior del planeta hacia el exterior.
Pero hay una consecuencia más en este artículo: Venus tiene un campo magnético muy tenue y algunos estudios apuntaban a que la estructura de su núcleo sería la responsable de este hecho, puesto que los impactos podrían haber homogeneizado su composición. Y es posible incluso que Venus tuviese un campo magnético mucho más importante en el pasado ya que su núcleo probablemente tenía calor más que suficiente para iniciar una geodínamo, pero es posible que la magnetización de la corteza haya desparecido debido a su intenso vulcanismo.
Tendremos que esperar a las futuras misiones planeadas para Venus -a finales de esta década y principios de la siguiente- para poder resolver estas y muchas más cuestiones sobre Venus e incluso, quien sabe, si encontrar nuevas preguntas.
Referencias:
Herrick, Robert R., Evan T. Bjonnes, Lynn M. Carter, Taras Gerya, Richard C. Ghail, Cédric Gillmann, Martha Gilmore, et al. «Resurfacing History and Volcanic Activity of Venus». Space Science Reviews 219, n.º 4 (junio de 2023): 29. doi: 10.1007/s11214-023-00966-y.
Marchi, Simone, Raluca Rufu, y Jun Korenaga. «Long-Lived Volcanic Resurfacing of Venus Driven by Early Collisions». Nature Astronomy, 20 de julio de 2023. doi: 10.1038/s41550-023-02037-2.
Tian, Jiacheng, Paul J. Tackley, y Diogo L. Lourenço. «The Tectonics and Volcanism of Venus: New Modes Facilitated by Realistic Crustal Rheology and Intrusive Magmatism». Icarus 399 (julio de 2023): 115539. doi: 10.1016/j.icarus.2023.115539.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo La juventud de la superficie de Venus se ha escrito en Cuaderno de Cultura Científica.
A qué hora comemos y en qué orden afecta a nuestros biorritmos
comemos

Gran parte de los procesos fisiológicos que ocurren en nuestro cuerpo están condicionados por el “sistema circadiano”. Por ejemplo, cuando sale el sol la síntesis de cortisol –la hormona de la vigilia– se dispara, mientras que la síntesis de melatonina –la hormona del sueño– llega a sus mínimos. Conforme llega la noche tiene lugar el proceso contrario.
La producción de estas dos hormonas consigue controlar, sin que nos demos cuenta y de manera repetitiva, muchos procesos que ocurren a diario en nuestro cuerpo, desde la regulación de la temperatura corporal al equilibrio de las concentraciones de glucosa en sangre. Pero ¿se ve afectado nuestro metabolismo si comemos más o menos tarde? ¿Es importante el orden en el que ingerimos los alimentos?
Relojes que marcan la vidaLa ritmicidad circadiana es generada por relojes internos que encontramos en la mayoría de mamíferos y que están sincronizados principalmente de acuerdo con el ciclo luz/oscuridad. Este sistema tiene una gran conexión con el metabolismo y produce ritmos cíclicos en procesos fisiológicos como la síntesis de proteínas y hormonas. Pero ¿puede nuestro estilo de vida afectar a esos biorritmos? Todo apunta a que sí.
Son muchos los factores ambientales que pueden afectar a la relación entre ritmos circadianos y metabolismo, entre ellos la luz artificial, el estrés, el trabajo por turnos y el desfase horario en los viajes. Se les conoce como “cronodisruptores”. Es decir, factores que pueden irrumpir en la correcta organización del sistema circadiano, afectando a los ritmos cíclicos de este sistema y contribuyendo al desarrollo de enfermedades crónicas como la obesidad y la diabetes.
¿Cómo afecta cuándo o cada cuánto comemos?En los últimos años se ha observado que la dieta es un factor importante en la sincronización de los relojes internos. Sin embargo, la compleja relación entre ambos factores todavía no está del todo descrita.
Una nueva disciplina denominada “crononutrición” se encarga de estudiar el impacto de los horarios de la alimentación en el bienestar de los seres vivos. Para ello tiene en cuenta tres dimensiones diferentes de la conducta alimentaria: el momento, la frecuencia y la regularidad de las ingestas.
Los relojes circadianos coordinan las variaciones del metabolismo energético y el comportamiento alimentario, de tal manera que durante la fase más activa del día se asegura de que reponemos las reservas energéticas. En la fase de sueño, por el contrario, promueve el ayuno y la movilización de las reservas de energía.
Sin embargo, el estilo de vida predominante en la sociedad actual se caracteriza cada vez más por seguir dietas poco saludables, no mantener un horario regular para las comidas, saltarse alguna de ellas y comer a altas horas de la noche. El resultado es la disrupción de los ritmos circadianos y, a su vez, una mayor prevalencia de obesidad en la población.
Varias investigaciones han señalado que mantenerse despierto y comer en horas fisiológicamente destinadas al sueño podría poner de alguna manera en riesgo un óptimo estado metabólico. No solo eso, sino que los horarios de alimentación inusuales se han relacionado con alteraciones en la cantidad de energía que se gasta a lo largo del día, cambios en el metabolismo de la glucosa y en la síntesis de hormonas estimulantes del apetito y, por ende, alteraciones de las conductas alimentarias.
Otros estudios sugieren que comer a horas tardías y no mantener horarios regulares de ingesta de alimentos, como ocurre en las personas que trabajan a turnos, altera los relojes biológicos y se asocia con una mayor dificultad para perder peso. Además, puede aumentar la prevalencia de diabetes y de enfermedades cardiovasculares.
¿Importa el orden en el que ingerimos los alimentos?Parece que sí. Estudios recientes han sugerido que priorizar el consumo de algunos grupos de alimentos antes que otros en la misma comida podría afectar a nuestra salud.
Se ha observado que consumir en primer lugar los alimentos ricos en fibra (verduras y frutas), seguido de alimentos proteicos (como carnes y pescados) y dejar para el final los hidratos de carbono (cereales), podría disminuir los picos de azúcar tras las comidas y reducir la concentración de glucosa en sangre. Esto ayudaría a prevenir el desarrollo de diabetes.
Es decir, si comemos un plato de verduras con un poco de arroz y de salmón, deberíamos comer en primer lugar las verduras y dejar para el final el arroz, porque así reduciríamos los aumentos bruscos de azúcar en sangre.
¿Qué podemos hacer para mantener los hábitos alimentarios en consonancia con nuestros relojes biológicos?Diversos estudios sugieren que restringir la ingesta de alimentos a espacios de tiempo concretos, es decir, a las horas del día en las que somos más activos, podría revertir los síntomas asociados a trastornos metabólicos. Esto aumentaría la tolerancia a la glucosa y reduciría la resistencia a la insulina. También podría traducirse en una manera eficaz de evitar la ganancia de peso.
Esto implica comer gran parte de la comida diaria durante el desayuno, almuerzo y comida. A medida que va entrando la noche hay que intentar que las comidas sean lo menos copiosas posible.
Existe evidencia científica de que ingerir la mayor parte de las calorías diarias y los alimentos ricos en hidratos de carbono a la hora del almuerzo y al comienzo de la tarde, evitando cenar tarde, contribuye a un mayor gasto energético a lo largo del día y es fundamental para una correcta sincronización de los relojes circadianos.
En consecuencia, restringir la ingesta de alimentos a las horas del día donde tenemos luz podría representar una estrategia interesante para mantener un correcto estado metabólico y promover la pérdida de peso. No obstante, a día de hoy todavía es escasa la evidencia existente acerca del efecto de horarios y frecuencias del consumo de alimentos en la salud metabólica, por lo que son necesarios más estudios.
Además, debemos tener en cuenta que, debido a que todos los procesos fisiológicos están relacionados entre sí, la mejor manera de seguir manteniendo nuestros relojes internos en hora es evitando hábitos o factores cronodisruptores y promoviendo los que ayudan a mantener la correcta organización de estos.
Así, podemos quedarnos con unos mensajes importantes para poner en práctica:
- Realizar actividad física frecuentemente.
- Mantener horarios regulares de sueño y evitar la exposición a luz artificial durante las horas nocturnas.
- Cambiar el hábito de cenar tarde y tener un horario regular para comer.
- Ingerir la mayoría de alimentos en las horas más activas del día.
- En las comidas, comer primero los alimentos con fibra, como las verduras y frutas, y dejar los hidratos de carbono para el final.
Por último, de nada sirve centrar nuestros esfuerzos en organizar nuestros horarios de comida si basamos nuestra dieta en alimentos poco nutritivos que ponen en riesgo nuestra salud. Es fundamental adquirir hábitos dietéticos adecuados y elaborar nuestra dieta en gran medida a partir de frutas, verduras, legumbres, cereales integrales, proteínas de alto valor biológico y alimentos que aporten grasas de buena calidad.
Sobre los autores: Iker Gomez Garcia, Investigador predoctoral, UPV/EHU; Alfredo Fernández-Quintela, Profesor de Nutrición e Investigador de la UPV/EHU y del Centro de Investigación Biomédica en Red de la Fisiopatología de la Obesidad y Nutrición (CiberObn); Jenifer Trepiana Arin, Investigadora del grupo Nutrición y Obesidad de la UPV/EHU, del CiberObn y del Instituto de Investigación Sanitaria Bioaraba, y María Puy Portillo, Catedrática de Nutrición del UPV/EHU y del CIBERobn
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo A qué hora comemos y en qué orden afecta a nuestros biorritmos se ha escrito en Cuaderno de Cultura Científica.
Del calor al frío y tiro porque me lleva la corriente
Hace unos días apareció una noticia en los medios de comunicación y redes sociales que nos recordó a la trama de la película El Día de Mañana. Un artículo científico recientemente publicado predice un colapso de la AMOC en las próximas décadas, puede que años, que podría conducirnos a una nueva glaciación. Dicho así suena como algo muy serio, pero ¿qué es eso de la AMOC? ¿Y realmente podríamos congelarnos en un par de años?
Para poder entender todo este lío, vamos a bucear un poco en el océano Atlántico. Según vamos profundizando en la columna de agua, descubriremos que las propiedades físico-químicas de esa agua van cambiando, sobre todo la temperatura y la salinidad, es decir, la densidad, formando una especie de capas superpuestas a las que llamamos masas de agua. Además, esas diferencias de densidad entre las masas de agua provocan que el agua fluya de un lado a otro formando las corrientes oceánicas. Así se genera una circulación convectiva global por densidad denominada Circulación Termohalina Oceánica (Oceanic Thermohaline Circulation, THC), nombre que procede de termo=temperatura y halina=salinidad. Esta THC, a grandes rasgos, consiste en corrientes superficiales cálidas que transportan calor desde zonas tropicales hacia los polos, donde se enfrían, se hunden y rehacen su camino como corrientes de fondo.

Si hacemos un zoom de la THC sobre el Océano Atlántico, nos encontramos con la Circulación de Vuelco Meridional Atlántica (Atlantic Meridional Overturning Circulation, AMOC). Es decir, la AMOC es parte de la THC y se encarga de transportar calor por el Atlántico. Y si hacemos un nuevo zoom sobre la rama del Atlántico Norte de la AMOC, aparece la Corriente del Golfo (Gulf Stream) como parte de las corrientes cálidas superficiales que fluyen hacia el norte, en este caso desde el Golfo de México hasta el sur de Groenlandia, donde se enfrían y circulan hacia el sur como corrientes de fondo. Entre estas últimas destacan el Agua Profunda del Atlántico Norte (North Atlantic Deep Water, NADW), que fluye hacia el sur por debajo de 1.500m de profundidad, y el Agua de Fondo Antártica (Antarctic Bottom Water, AABW), que se llega a colar hacia el norte a más de 3.000m de profundidad.

Si la AMOC es la “culpable” de transportar calor a latitudes altas del Atlántico Norte, es factible pensar que su colapso nos llevaría de cabeza a una glaciación sin precedentes, de manera análoga a lo presentado en la citada película. Pero veamos qué nos dice la geología a esta suposición.
El Cuaternario, el último periodo de la historia de la Tierra, se caracteriza por la alternancia cíclica de momentos más fríos, llamados glaciales, y momentos más cálidos, o interglaciales. Y las causas de estos cambios climáticos abruptos están relacionadas con el giro del planeta sobre sí mismo y alrededor el sol, provocando variaciones en la radiación solar que actúan en periodicidades de 22.000, 40.000, 99.000 y 400.000 años. Vamos, que un cambio en la circulación oceánica no va a llevarnos a una glaciación en el sentido estricto de la palabra.
Pero vamos a hacer un último zoom, en esta ocasión en el clima terrestre de las últimas decenas de miles de años. En las reconstrucciones paleoclimáticas realizadas a partir de los sondeos de hielo extraídos en Groenlandia se observan variaciones climáticas en “dientes de sierra” dentro de los periodos glaciales e interglaciales, consistentes en transiciones abruptas desde condiciones frías o estadiales (Greenland Stadials, GS) a condiciones cálidas o interstadiales (Greenland Interstadials, GI), seguidas por un retorno a condiciones frías estadiales, denominadas ciclos de Dansgaard-Oeschger (D-O), con una periodicidad entre dos estadiales, o dos interestadiales, de unos 1.500 años. Además, se agrupan en secuencias de varios D-O cada vez más fríos que culminan con un evento frío extremo, conocido como evento Heinrich (HE), denominadas ciclos de Bond y que tienen una duración de unos 5.000 años.

Las reconstrucciones de los cambios de temperatura en la transición entre dos ciclos de Bond en Groenlandia sugieren un rápido aumento de la temperatura superficial media anual de hasta 15ºC en unas pocas décadas. Ahora falta buscar la causa de estas oscilaciones tan bruscas. Y aquí viene lo complicado, porque la relación atmósfera-criosfera-océano es tan compleja, que ninguna de ellas sería una causa aislada de los ciclos climáticos.
El movimiento de las masas de aire es el principal proceso que provoca la circulación de las masas de agua superficiales. Incluso, el efecto del viento genera el movimiento de las capas oceánicas más profundas hacia superficie debido a la mezcla de aguas con diferentes propiedades en profundidad. Y estos movimientos atmosféricos están condicionados por la cantidad de insolación que llega a la superficie terrestre, la distribución diferencial de esa energía solar con la latitud y la rotación de la Tierra. La variabilidad en los ciclos de actividad solar a escala centenaria podría causar cambios en el clima y la circulación oceánica de escala multi-centenaria.
Por otro lado, la fusión de los icebergs y los mantos de hielo continentales en periodos climáticos cálidos provoca una descarga de agua dulce y, por tanto, menos densa en latitudes altas. Esta entrada de agua dulce frena el ascenso de la AMOC hacia el norte de Europa, disminuyendo el transporte de calor, detiene la formación de la NADW al sur de Groenlandia, favorece el ascenso de la AABW hacia el norte y provoca el descenso de las temperaturas que caracteriza los GS y HE registrados en los sondeos de hielo. La disminución del flujo de agua de deshielo, junto con una disipación de la cubierta de agua dulce, podría restablecer la circulación termohalina previa, causando el calentamiento abrupto que cierra los ciclos de Bond y los ciclos D-O.

Es decir, que el calor conduce al frío, y el frío conduce al calor. El aumento actual de las temperaturas podría producir un colapso de la AMOC que llevaría a un enfriamiento generalizado en el Atlántico Norte. Pero ¿qué tipo de enfriamiento? Pues una glaciación no. Y, probablemente, tampoco un GS ni un HE, porque todo tiene sus ciclos temporales y todavía no les toca. El propio Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) ya ha confirmado que es muy improbable que este tipo de eventos se produzcan este siglo. Pero es que hemos visto que la AMOC depende de las condiciones atmosféricas, por lo que, a pequeña escala, su zona de hundimiento en el Atlántico Norte está variando continuamente. Hace una década sufrió un pequeño retroceso, que apenas duró un año y produjo un par de inviernos más duros de lo normal, y ni nos enteramos. Así que hablar de “ralentización de la AMOC” es muy relativo, lo que importa saber es cuánto debilitamiento se puede producir más que cuándo se producirá, antes de empezar a asustarnos.

El comportamiento de nuestro planeta es mucho más complejo de lo que imaginamos. Se trata de un sistema no lineal donde se interrelacionan numerosos factores que condicionan la variabilidad climática en periodicidades muy distintas. Creo que esto ha quedado evidenciado en este texto, repleto de nombres, ciclos y procesos a cuál más complicado. Y eso que lo he resumido, y simplificado, lo máximo que he podido. Pero quería dejar constancia de que una publicación modelizando el posible comportamiento de una de las variables, sin considerar el efecto, sumatorio o contrario, del resto, simplemente es eso, una modelización ideal de algo caótico y que todavía no entendemos en su totalidad. Así que, aunque los títulos de las publicaciones puedan ser muy llamativos, no hay que juzgar nunca un libro por su portada. Y tampoco alarmar sin motivos, la influencia humana en el cambio climático es innegable y debemos evitarla lo máximo posible, porque no podremos pronosticar el comportamiento de nuestro planeta al añadir una nueva variable que no teníamos anteriormente, pero sin exagerar las posibles consecuencias. Si algo nos enseñó una antigua fábula, gritar “que viene el lobo” sin necesidad es bastante contraproducente, porque podríamos conseguir el efecto contrario al que queríamos.
Referencia:
Ditlevsen, P. y Ditlevsen, S. (2023) Warning of a forthcoming collapse of the Atlantic meridional overturning circulation. Nat Commun doi: 10.1038/s41467-023-39810-w
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Del calor al frío y tiro porque me lleva la corriente se ha escrito en Cuaderno de Cultura Científica.
La investigación en matemáticas evoluciona como las estaciones del año
La gran aventura del conocimiento. Un paseo con las matemáticas en cuatro estaciones (Editorial Planeta Chilena S.A., 2023) es el título de una original propuesta divulgativa de las matemáticas Leslie Jiménez Palma y Constanza Rojas-Molina.

El libro se estructura en cuatro capítulos que corresponden a las cuatro estaciones del año en el hemisferio sur; cada capítulo se divide en tres secciones que corresponden a los meses de la estación protagonista, y cada una de esas secciones en otros cuatro apartados.
Cada estación del año simboliza un momento del proceso creativo en la investigación matemática: descubrimiento de un problema matemático (otoño), pensamiento profundo para comprender las “dobleces” del problema (invierno), colaboración y puesta en común de ideas (primavera) y final del proceso con la solución (o la falta de ella) del problema planteado (verano).
Del otoño al verano (australes)El libro comienza en otoño, “Es un momento de reflexión y descubrimiento, es el momento de mirar un problema con ojos matemáticos […] Es también el momento donde nos hacemos preguntas, donde tratamos de responderlas […]”, dicen las autoras. Y recorren los meses otoñales, desde marzo a mayo, dando algunas claves sobre la relación entre las matemáticas y el arte, hablando del papel de las matemáticas en la comprensión de nuestro entorno por medio del modelamiento y, finalmente, revindicando a algunas matemáticas chilenas que “crearon comunidad y redefinieron el quehacer matemático con sus aportes”: Guacolda Antoine, Irene Mikenberg, Salomé Martínez y el colectivo de mujeres matemáticas en Chile.
Tras el otoño llega el invierno, la época en la que la meteorología nos trae frío, los días son más cortos, y no apetece salir a la calle como en otros momentos del año. Para Leslie y Constanza, “Es un momento de pensamiento profundo con el que buscamos revelar los secretos que esconde nuestro problema matemático y donde buscamos desencriptarlo […] para luego poder solucionarlo usando las reglas matemáticas”. En la sección correspondiente al mes de junio las autoras nos invitan a conocer mejor las matemáticas de los códigos secretos; julio está dedicado a los fractales de Sierpinski, de Mandelbrot, de Koch y en la naturaleza, es decir, a las replicaciones infinitas; y agosto se centra en las matemáticas y el lenguaje, desde los símbolos a las metáforas, pasando por la programación.
Para Constanza y Leslie, la primavera “es el momento donde salimos de nuestros pensamientos solitarios a buscar la ayuda de nuestros nuevos colaboradores. […] el regreso de la luz y el calor nos hacen salir y conversar, comunicarnos y buscar ideas en común con otras disciplinas”. La física es el área a la que se dedica esta estación del año, una disciplina profundamente conectada con las matemáticas. En septiembre y octubre se pasa del suelo al cielo a través de la física y las matemáticas: los movimientos sísmicos, las leyes de Newton, la mecánica celeste o el espacio-tiempo son algunos de los temas elegidos. Noviembre se dedica a la matemática Emmy Noether, cuyo trabajo ayudó a entender la conexión fundamental entre la simetría en física y las leyes de conservación.
El libro finaliza festejando el verano austral, para las autoras “el momento en el que hemos logrado describir matemáticamente nuestro problema, lo hemos investigado y llegamos a un resultado”. El mes de diciembre se centra en algunos ejemplos de cómo la biología es una disciplina que, en nuestros días, avanza en parte gracias a la utilización de variadas técnicas matemáticas. La sección dedicada al mes de enero repasa algunos de los grandes problemas matemáticos, con un especial recuerdo a la segunda mujer que ha obtenido una medalla Fields (tras la matemática iraní Maryam Mirzakhani (1977-2017): Maryna Viazovska. Finalmente, el mes de febrero introduce algunos desafíos relacionados con la sociedad: la igualdad de género, la diversidad, la educación matemática y la comunicación de las matemáticas para públicos diversos.
Las autoras y el formato del libroLas autoras, Leslie Jiménez Palma y Constanza Rojas-Molina, son matemáticas chilenas. Las dos son profesoras, investigadoras, divulgadoras y están profundamente preocupadas por la situación de las mujeres en el entorno matemático, en particular en Chile.
Leslie Jiménez Palma trabaja en la Universidad de Chile y, además de su docencia y su investigación, se dedica a la comunicación de las matemáticas.
Constanza Rojas-Molina es matemática e ilustradora; trabaja en la CY Cergy Paris Université. En este Cuaderno de Cultura Científica ya conocíamos su faceta artística al haber ilustrado la sección Historias que cuentan a cargo de Alberto Mercado Saucedo. Y también conocíamos su precioso proyecto #Noethember dedicado a la genial matemática Emmy Noether. Este libro también se nutre de sus ilustraciones en forma de sketchnotes, notas visuales usadas como herramienta para resumir los contenidos del texto.
La gran aventura del conocimiento es una propuesta singular, estimulante y atractiva para entender cómo trabajan las personas que hacen investigación en matemáticas y para conocer algunos hermosos resultados matemáticos y a sus protagonistas. Es una joya.
Referencias
- Leslie Jiménez Palma y Constanza Rojas-Molina, La gran aventura del conocimiento. Un paseo con las matemáticas en cuatro estaciones, Editorial Planeta Chilena S.A., 2023
- Diana Porras, “Un paseo con las matemáticas”: libro revela la aventura del conocimiento y el desafío de la comunicación científica, Diario UChile, 20 marzo 2023
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo La investigación en matemáticas evoluciona como las estaciones del año se ha escrito en Cuaderno de Cultura Científica.
El ruido, un aliado para la computación cuántica
Los ordenadores cuánticos se distinguen por el uso de cúbits en lugar de bits. Esto les permite almacenar y procesar mucha más información a una velocidad mucho mayor, mediante el aprovechamiento de propiedades cuánticas como la superposición y el entrelazamiento. No obstante, existe una importante limitación para el desarrollo pleno de estos ordenadores: el ruido. Este provoca la aparición de errores que se propagan cuando se ejecutan algoritmos complejos, lo cual limita el potencial de la computación cuántica para revolucionar muchos campos de la ciencia y la tecnología. Equipos de todo el mundo llevan años trabajando intensamente para superar esta barrera, concentrando sus esfuerzos principalmente en técnicas para la corrección o mitigación de errores, y en el diseño de algoritmos más sencillos que se adapten a las limitaciones.

Ahora, un equipo de investigación ha dado una vuelta de tuerca a la cuestión. Proponen una solución alternativa: usar el ruido para mejorar los resultados de algoritmos cuánticos. El equipo ha demostrado que la presencia de ruido en los ordenadores cuánticos puede ser beneficioso para los resultados de un importante algoritmo conocido como quantum reservoir computing.
Este algoritmo realiza predicciones de aprendizaje automático usando sistemas cuánticos con parámetros aleatorios para extraer información útil del sistema estudiado. De este modo, puede resolver problemas muy diversos, como cálculos químico-cuánticos o predicciones de series temporales, así como ayudar en el descubrimiento de nuevos fármacos.
“La idea detrás del quantum reservoir computing es utilizar el espacio de Hilbert, donde viven los estados cuánticos, para extraer propiedades esenciales de los datos estudiados. Así, usando propiedades cuánticas como superposición y entrelazamiento, podemos obtener información útil de los datos y proporcionarla a un modelo de aprendizaje automático, el cual hace la predicción final”, explican los autores.
El estudio concluye que algunos tipos de ruido, como el llamado amplitude damping noise, mejoran la calidad de los resultados del quantum reservoir computing. Por lo tanto, no solo es innecesario corregir este tipo de ruido, sino que podría ser beneficioso para los cálculos cuánticos.
…pero no todos los ruidos son igualesSin embargo, otras fuentes de errores, como el denominado depolarizing noise, pueden degradar los resultados en todos los casos, por lo que es primordial priorizar su corrección en los ordenadores cuánticos.
El estudio también proporciona una demostración teórica que ayuda a explicar este fenómeno. A través del formalismo matemático de las matrices de densidad y los canales cuánticos, los autores ilustran cómo el ruido amplitude damping permite explorar de manera más efectiva el espacio de operadores cuánticos. Esto facilita la extracción de propiedades más complejas y valiosas de los datos, que luego se utilizan para predecir la variable objetivo.
El hallazgo ofrece una nueva perspectiva sobre los mecanismos físicos inherentes en los dispositivos cuánticos. Además, proporciona sólidas pautas prácticas para facilitar una implementación con éxito del procesamiento de información cuántico en la tecnología actual.
Referencia:
Domingo, L., Carlo, G. & Borondo, F. (2023) Taking advantage of noise in quantum reservoir computing. Sci Rep doi: 10.1038/s41598-023-35461-5
Para saber más:
Cómo la aleatoriedad mejora los algoritmos
Edición realizada por César Tomé López a partir de materiales suministrados por la Universidad Autónoma de Madrid
El artículo El ruido, un aliado para la computación cuántica se ha escrito en Cuaderno de Cultura Científica.
La crisis climática potencia a los vectores transmisores de enfermedades infecciosas exóticas
El calentamiento global representa uno de los mayores peligros para la humanidad y su amenaza será cada vez mayor con el paso del tiempo. De hecho, la Organización Mundial de la Salud (OMS) estima que la crisis climática causará unos 250.000 fallecimientos adicionales cada año debido a la malnutrición, el paludismo, la diarrea y el estrés calórico entre los años 2030 y 2050. Por un lado, las catástrofes naturales (sequías, inundaciones, incendios…) serán más frecuentes como consecuencia de fenómenos meteorológicos extremos. Por otro, las olas de calor serán más intensas, frecuentes y duraderas. Ambos fenómenos provocarán, de forma directa o indirecta, más fallecimientos y dolencias en un futuro próximo.
Sin embargo, no es necesario esperar a para comprobar las consecuencias que ya tiene la crisis climática sobre la salud humana. Un estudio epidemiológico publicado recientemente en la revista Nature Medicine calcula que durante el verano de 2022 se produjeron más de 61.000 muertes en Europa (11.000 en España) como consecuencia de las olas de calor. Estas cifras suponen un 41 % más de muertes como consecuencia de las altas temperaturas que las ocurridas de media en los veranos de entre 2015 y 2021. Los autores sugieren que, de seguir esta tendencia, en Europa se producirán un promedio de más de 68.000 muertes prematuras cada verano hacia 2030 y más de 94.000 hacia 2040.
Más allá de las enfermedades y las muertes causadas por estos fenómenos meteorológicos extremos, el calentamiento global afecta también a la salud humana de forma indirecta al alterar la distribución mundial de diversos vectores de enfermedades infecciosas. En ese sentido, el pasado 22 de junio el Centro Europeo para el Control y Prevención de Enfermedades (ECDC) anunció que la extensión de diferentes especies de mosquito del género Aedes por Europa está aumentando el riesgo de diversas enfermedades infecciosas de las que este insecto es vector.
La institución científica explica que las inundaciones y las olas de calor cada vez más frecuentes y graves en el continente europeo, junto con unos veranos más cálidos y largos, crean unas condiciones más favorables para la expansión de los mosquitos invasores Aedes albopictus (más conocido como «mosquito tigre») y Aedes aegypti, que no son propios de esta zona del planeta. Hace 10 años, en 2013, ambas especies se encontraban en solo ocho países de la Unión Europea, afectando a 114 regiones. Ahora estas se encuentran en 13 países y 337 regiones, al invadir dichos vectores el norte y el oeste del continente. España atestigua la gran capacidad que tiene el mosquito tigre para extenderse: la primera vez que se detectó su presencia fue en Sant Cugat del Vallés en el verano de 2004, desde entonces este vector ha conseguido expandirse ya por casi todo el país.
Ambas especies de mosquito (A. albopictus y A. aegypti) pueden transmitir enfermedades infecciosas tropicales o típicas de otros países como el dengue, el Zika, la fiebre amarilla, el chikungunya o la fiebre del Nilo Occidental. El director de la ECDC, Andrea Ammon, sostiene que si la tendencia actual continúa se espera que, con el tiempo, aparezcan más casos y posiblemente más muertes por las citadas enfermedades infecciosas entre los ciudadanos europeos. Solo en 2022 se produjeron los mismos casos autóctonos de dengue (71) en la UE que el total de los que aparecieron entre los años 2010 y 2021. Seis casos de dengue ocurrieron en España. Además, en 2022 aparecieron 1.122 casos de infecciones por el virus del Nilo Occidental en Europa, con 92 muertes, la mayor cifra desde la epidemia de 2018.
Vectores conocidosEspaña conoce de primera mano los estragos que la extensión de los vectores puede provocar en la Salud Pública de su población. Tanto la fiebre del Nilo Occidental (transmitida por mosquitos), como la fiebre hemorrágica de Crimea-Congo (transmitida por garrapatas) preocupan cada vez más a los especialistas por su mayor incidencia en nuestro territorio. En 2020 se produjo el mayor brote registrado de fiebre del Nilo Occidental en el país, con decenas de casos confirmados y siete fallecidos. Anteriormente, ni en 2017 ni en 2019 se detectaron casos de esta enfermedad en humanos, y solo un caso en 2018. Las últimas cifras oficiales, de 2022, han registrado cuatro casos.
Diferentes especies de garrapata están también bajo el punto de mira de los expertos en Salud Pública. Estos arácnidos son vectores de más de cincuenta enfermedades diferentes y la crisis climática está ayudando de forma significativa a su expansión por territorios de mayor altitud y latitudes más elevadas, donde no estaban presente antes.
En el sur de España es donde más se ha potenciado su proliferación en los últimos años, debido al incremento de las temperaturas, sobre todo durante el otoño y el invierno. Además, cada vez hay un mayor porcentaje de garrapatas que poseen el virus responsable de la fiebre hemorrágica de Crimea-Congo. Todos estos factores propician la aparición de casos de esta enfermedad infecciosa, que apareció por primera vez en nuestro país en 2016. Desde dicho año hasta 2022 se han confirmado 11 casos autóctonos de Crimea-Congo. Esto supone la punta del iceberg, porque la mayoría de las veces la infección no provoca síntomas en los humanos y pasa desapercibida.
Las redes de vigilancia epidemiológica, tanto de España como de Europa, siguen de cerca la evolución de múltiples vectores y de las enfermedades infecciosas que provocan. Las proyecciones sobre el calentamiento global en las próximas décadas indican a que los especialistas tendrán muchos motivos para estar alerta ante la aparición de brotes de enfermedades que, hace menos de 10 años, ni siquiera existían en nuestro continente o eran algo totalmente excepcional.
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo La crisis climática potencia a los vectores transmisores de enfermedades infecciosas exóticas se ha escrito en Cuaderno de Cultura Científica.
La fuerza de voluntad no es un recurso, por eso no se agota
fuerza de voluntad

Algunos resultados experimentales recogidos en la literatura científica reciente indican que si se realiza una actividad mental exigente, de esas que requieren concentración y autocontrol, al cabo de un tiempo es necesario ingerir una cierta cantidad de azúcar para poder seguir realizándola, o para mejorar las funciones cognitivas básicas y funciones mentales autorregulatorias, como son la memoria episódica, el procesamiento de información, la atención y el autocontrol.
Lo cierto es que, datos experimentales al margen, mucha gente está convencida de que, efectivamente, es bueno ingerir azúcar si se desea mantener una ardua actividad mental de forma prolongada. Sin embargo, esa es una noción que desde el punto de vista fisiológico no tiene sentido, ya que la concentración de glucosa en la sangre y, por lo tanto, su disponibilidad efectiva para las tareas que desempeña el encéfalo, está sometida a una regulación estricta. Esa regulación solo falla en caso de enfermedad, como ocurre con la diabetes.
Unos psicólogos de las universidades de Zurich (Suiza) y Stanford (California, EEUU) sospechaban que la razón por la que la glucosa facilita el desempeño cognitivo y el autocontrol es porque se trata de una creencia, modelada culturalmente, que ha alcanzado una gran aceptación. Si, efectivamente, ese era el caso, la limitación no vendría determinada por la disponibilidad de glucosa, sino por la creencia en sí. En ese supuesto, sería de aplicación la cita de William James: “vivimos sujetos a la inhibición por niveles de fatiga a los que hemos llegado a obedecer simplemente por costumbre”[*].
De acuerdo con esa sospecha, los psicólogos se plantearon la hipótesis de que, quizás, solo recurran a la ingestión de glucosa (para un correcto funcionamiento cognitivo tras una intensa actividad mental) quienes creen que la fuerza de voluntad es limitada y se agota fácilmente. Sería como si la fuerza de voluntad necesaria para mantener el autocontrol necesitase ser “alimentada” mediante el aporte de energía metabólica en forma de azúcar. Para esa gente, la ingestión de glucosa y los procesos fisiológicos que desencadena actuarían como señales que indican que han recuperado la capacidad de sostener el esfuerzo mental. Por el contrario, las personas que no creen que la fuerza de voluntad se agote con el uso, no dependerían del aporte de glucosa para poder funcionar con normalidad. Estos supuestos se basaban en observaciones experimentales anteriores, según las cuales solo la gente que cree que la fuerza de voluntad está limitada se desenvuelve peor al acumularse las pruebas en que han de realizar tareas mentales exigentes y mantener el autocontrol.
Los investigadores hicieron tres experimentos para tratar de verificar su hipótesis. En el primero analizaron el efecto de la ingestión de glucosa (por comparación con la de un edulcorante artificial) y de las creencias implícitas acerca de la fuerza de voluntad (si se trata de un recurso limitado o no) sobre el autocontrol de individuos que habían estado realizando antes una tarea intelectualmente exigente. Los participantes que habían ingerido edulcorante y que pensaban que la fuerza de voluntad se agota con facilidad fueron los que se diferenciaron de los demás: su desempeño en el test de autocontrol fue peor que el del resto de participantes. El resultado demostró que el efecto de la glucosa sobre la capacidad para mantener el autocontrol depende de lo que creen los sujetos acerca de la fuerza de voluntad.
En el segundo experimento se manipuló la opinión de algunos participantes para que pensasen que la fuerza de voluntad se agota con facilidad, y los resultados reprodujeron los del primer experimento, porque los de la opinión manipulada respondieron igual que los que pensaban eso originalmente.
Y en el tercer experimento se investigó si los participantes que piensan que la fuerza de voluntad es limitada responden a lo que creen que están ingiriendo o si lo hacen sólo a lo que realmente ingieren. Y efectivamente, su desempeño en la tarea de autocontrol tras un esfuerzo anterior solo mejora si realmente ingieren glucosa, no si creen que la ingieren. Quiere ello decir, que esos participantes eran sensibles a señales internas (fisiológicas) que indicaban que se había producido una elevación en la concentración de glucosa en la sangre.
Los resultados de estos experimentos son muy llamativos. Un proceso fisiológico básico, como es el efecto de la ingestión de glucosa sobre el desempeño intelectual en condiciones exigentes, depende de las creencias acerca de la naturaleza de la fuerza de voluntad. Solo se benefician de los efectos de una subida del nivel de azúcar en la sangre quienes creen que la fuerza de voluntad se agota con facilidad o quienes son manipulados para creerlo. Los experimentos demuestran que la fuerza de voluntad no es un recurso limitado, pues que se termine o no depende, de hecho, de lo que cada uno piense. Quienes no creen que se agota no necesitan reponerla ingiriendo azúcar, por eso no se modifica su desempeño intelectual cuando la ingieren. Solo han de restaurarla quienes piensan que se acaba con facilidad.
Los investigadores señalan, finalmente, que el pensar que la fuerza de voluntad no se agota no es suficiente para poder ejercer con éxito el autocontrol, aunque sea un ingrediente importante. Necesitamos, además, desarrollar estrategias de autocontrol eficaces para que funcione, como minimizar tentaciones (evitándolas físicamente) o planificar por adelantado cuándo, dónde y cómo actuar o responder ante la dificultades. Una disposición mental adecuada y unas estrategias efectivas sirven para ejercer el autocontrol durante periodos de tiempo prolongados sin necesidades de ingerir glucosa cada cierto tiempo.
Fuente: V Job, G M Walton, K Bernecker, y C S Dweck (2013): «Beliefs about willpower determine the impact of glucose on self-control». PNAS 110 (37): 14837–14842
Nota: [*] W. James (1907): The energies of men. Science 25(635):321–332.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La fuerza de voluntad no es un recurso, por eso no se agota se ha escrito en Cuaderno de Cultura Científica.
La eficacia del ayuno intermitente en el tratamiento de la obesidad
ayuno intermitente
Entre los métodos que tienen como objetivo la pérdida de peso, el ayuno intermitente se ha convertido en una tendencia que, durante los últimos años, ha dado mucho de qué hablar. Es una rutina alimenticia que se basa en limitar la ingesta de calorías a un periodo concreto del día y ayunar el resto. Un método que ha sido puesto en práctica por personas conocidas a nivel social, que insisten en los supuestos beneficios del mismo.
Pero, ¿qué dice la ciencia? ¿Los supuestos beneficios del ayuno intermitente tienen una base científica? ¿Es un tratamiento de la obesidad eficaz y que se puede mantener a largo plazo?
El metabolismo del ser humano está diseñado para ingerir alimentos a ciertas horas del día y permanecer sin comer otras, pero el ritmo de vida actual lo dificulta. Hay que tener en cuenta que el tramo de actividad en el día a día supera las 12 horas, por lo tanto, es necesario reflexionar sobre la viabilidad y los supuestos beneficios de esta rutina alimenticia.
Idoia Labayen Goñi, profesora en el Departamento de Ciencias de la Salud de la Universidad Pública de Navarra (UPNA), ofrece respuestas a esas preguntas en la charla-coloquio La eficacia del ayuno intermitente en el tratamiento de la obesidad.
La conferencia ha sido organizada por la Cátedra de Cultura Científica de la Universidad del País Vasco y la Biblioteca Bidebarrieta de Bilbao dentro del ciclo Bidebarrieta Científica. Se impartió el pasado 14 de junio, miércoles, en la Biblioteca Bidebarrieta de Bilbao.
PonenteIdoia Labayen Goñi es doctora en Ciencias Biológicas, profesora de la Universidad Pública de Navarra en el Departamento de Ciencias de la Salud y responsable del grupo de investigación ELIKOS. Ha desarrollado su carrera investigadora en el Karolinska Institute (Suecia), en el Georgia Prevention Institute (Georgia, EE.UU.) y ha participado en investigaciones que han tenido como resultado la publicación de más de 200 artículos. A día de hoy es la directora de IS-FOOD (Institute for Sustainability & Food Chain Innovation).
Edición realizada por César Tomé López
El artículo La eficacia del ayuno intermitente en el tratamiento de la obesidad se ha escrito en Cuaderno de Cultura Científica.
La alimentación durante la Alta Edad Media ibérica
Alta Edad Media
La tesis internacional ‘Social archaeology of food in early medieval rural Iberia (5th-9th c. AD) (Arqueología social de la alimentación en la Iberia rural altomedieval (ss. V-IX d.C.), realizada por la investigadora de la Universidad del País Vasco Maite Iris García Collado ha obtenido el Premio extraordinario de doctorado concedido por la Universidad del País Vasco en junio de 2023.
La tesis traza una historia social de la alimentación en la Iberia rural altomedieval basada en la comparación de los patrones alimenticios de tres regiones a partir de análisis de isótopos estables de carbono y nitrógeno sobre colágeno óseo. Para ello se tomaron muestras en diez asentamientos rurales datados entre los siglos V y IX y distribuidos entre Madrid-Toledo, el País Vasco y Cataluña, que fueron investigados desde los puntos de vista de la arqueología funeraria, la demografía y la paleodieta.
“Se trata de la mayor reconstrucción de la alimentación llevada a cabo hasta el momento para la Alta Edad Media en la península ibérica en áreas geográficas nunca antes exploradas –explica la investigadora-. Esta tesis pone a disposición de la comunidad científica un gran volumen de datos normalizados y metodológicamente actualizados acerca del papel de la alimentación como reflejo, pero también como elemento activo, en la construcción de las identidades medievales”.
Los conjuntos de fauna analizados revelan “datos extremadamente interesantes sobre las estrategias de gestión de los animales y las prácticas agrarias en estas sociedades rurales.” Los animales dentro de una misma región eran alimentados de forma similar, sugiriendo que la disponibilidad de recursos determinada por el entorno era clave en la configuración de las estrategias de gestión ganadera y, en general, sin diferencias significativas entre el ganado vacuno, los ovicápridos y los équidos. “En Madrid-Toledo los animales también eran alimentados con pequeñas proporciones de forraje de mijos, lo que apunta al consumo de plantas abonadas intensivamente. Probablemente esto se lograba permitiendo al ganado entrar a pastar en los campos después de la cosecha y es un signo de la fuerte cohesión interna de las comunidades rurales”.
Clara integración entre la agricultura y la ganadería
Mientras que el ganado porcino de las regiones de Madrid-Toledo y del País Vasco eran pastoreados en espacios abiertos, los cerdos de Cataluña eran alimentados, “al menos parcialmente, con residuos domésticos y probablemente eran criados en patios.” Además, el estudio menciona que tanto en Madrid-Toledo como en Cataluña los mijos fueron ampliamente utilizados para alimentar a las aves domésticas. Los perros y los gatos a su vez vivían en contacto con los humanos y su dieta estaba basada en residuos domésticos. “Los datos obtenidos apuntan a la existencia de un complejo conjunto de prácticas agrarias en los asentamientos rurales altomedievales ibéricos con una clara integración entre la agricultura y la ganadería y alejado de los escenarios simples y primitivos propuestos por la historiografía tradicional”, subraya García Collado.

En cuanto a la dieta de los humanos, esta tesis constata que la característica principal de las dietas humanas en el País Vasco “es la gran importancia de los recursos vegetales en la alimentación, que se basaba principalmente en cereales, frutas y verduras, y dentro de ellos el consumo de cantidades significativas de mijos”. La dieta humana en los asentamientos catalanes y en las poblaciones de Madrid-Toledo era similar. Consumían principalmente recursos terrestres, aunque, en las poblaciones catalanas el estudio apunta a una ingesta más importante de proteínas de origen animal.
Por otro lado, respecto a los recursos acuáticos, tanto marinos como de agua dulce, la tesis menciona que eran prácticamente imperceptibles en todas las poblaciones analizadas. “Es muy difícil definir una dieta típica para las poblaciones rural altomedievales de Iberia. Los patrones alimenticios en estos contextos estaban caracterizados por la diversidad determinada por la disponibilidad local de recursos y probablemente también por las condiciones sociales, políticas y culturales”, subraya la investigadora. Asimismo, de acuerdo a los “escasos datos disponibles, es improbable que en las sociedades rurales altomedievales de Iberia hubiera diferencias sistemáticas entre los sexos en la distribución de los recursos alimenticios.”
La dieta como indicador de estatus social
Otro de los temas analizados por la investigadora de la Universidad del País Vasco en su tesis ha sido el papel de la dieta como indicador del estatus social a través de la presencia de depósitos funerarios en los enterramientos y de la localización topográfica de las tumbas dentro o fuera de los cementerios comunitarios o con relación a las iglesias. “La relación entre la alimentación y el estatus social era compleja y no funcionaba de forma evidente. En Madrid-Toledo y el País Vasco es más frecuente que los individuos enterrados con cualquier tipo de artefacto incluyeran ciertas cantidades de mijos en sus dietas. Esto indica que los patrones de consumo de cereales y específicamente de mijo y panizo jugaron un papel importante en la definición del estatus social.” Asimismo, el estudio constata que la localización topográfica de las tumbas tampoco estaba directamente asociada a la alimentación. “En ningún caso ha sido posible identificar agrupaciones de individuos con patrones alimenticios específicos en torno a las zonas más relevantes, como, por ejemplo, el ábside de las iglesias. De hecho, a pesar del lugar marginal en el que terminaron siendo enterrados, las dietas de los individuos hallados en silos y pozos probablemente estaban basadas en el mismo tipo de productos.”
Por último, García Collado ha llevado a cabo una revisión de todos los casos de estudios contemporáneos situados en Europa y alrededor del Mediterráneo. “Las poblaciones ibéricas eran similares a las de otras regiones del sur de Europa, en las que también predominaban las dietas terrestres ampliamente basadas en cereales, frutas y verduras, con aportaciones más pequeñas de mijos y panizo y contribuciones muy variables de proteínas de origen animal. Por lo tanto, está claro que Iberia participaba de las mismas dinámicas que otros territorios europeos y mediterráneos”, concluye la investigadora de la UPV/EHU.
Referencia:
García Collado, M.I. (2020) Social archaeology of food in early medieval rural Iberia (5th-9th c. AD) UPV/EHU URI: http://hdl.handle.net/10810/50611
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La alimentación durante la Alta Edad Media ibérica se ha escrito en Cuaderno de Cultura Científica.
La catenaria: la dinámica de la interfaz con el pantógrafo (4/4)
Dotar a la catenaria de una red funcional para detectar incidencias en el contacto con el pantógrafo es algo que se hace de manera muy puntual, y tan solo en líneas con tráficos de alto valor añadido. Esto significa alta velocidad, aunque para nada los problemas se limitan a estos trayectos. La diversidad de operadores surgida de la liberalización, unida al aumento de los tráficos de todo tipo que deberá absorber el ferrocarril para reducir al máximo las emisiones de dióxido de carbono a la atmósfera en el transporte hacen necesario poder monitorizar el estado de la interfaz pantógrafo-catenaria en más puntos y todo tipo de líneas. Alta velocidad desde luego, pero también mercancías y cercanías.

Desde 2022 y en el marco del proyecto ALTIUMCAT, financiado con cargo a fondos del Instituto de Competitividad Empresarial de la Junta de Castilla y León, la empresa española TELICE está prototipando, con el apoyo del Instituto Tecnológico de Castilla y León (ITCL) un nuevo tipo de sensor para registrar el comportamiento dinámico de la interfaz pantógrafo-catenaria: TELICE DYNTACT® [Rivera Rodríguez 2023].
El nuevo sistema realiza la monitorización del desplazamiento del hilo de contacto al paso de un pantógrafo mediante sensores láser de triangulación de ultra largo alcance. En el interior de estos equipos hay un láser de estado sólido cuyo haz impacta sobre un objetivo cuya distancia queramos registrar. El rayo reflejado es captado por una lente con un ángulo ligeramente diferente. Tras ella, una matriz de líneas CCD (un tipo de dispositivo que transforma fotones en electrones) registra un impacto: la distancia del objetivo depende del punto excitado en dicha matriz. Como la medida se hace miles de veces por segundo, los cambios de la distancia del objeto monitorizado se registran al cambiar el punto excitado en la matriz CCD. De esta forma es posible alcanzar una precisión en el entorno de los cinco milímetros para medidas realizadas a dos metros y medio de distancia, más que suficiente para mejorar las capacidades de los sensores de las tecnologías anteriores.
Principio de funcionamiento de un sensor de triangulación láser. (Adaptado de [Hermary 2022])Sin embargo, esto no basta para registrar la posición del hilo de contacto. Su sección es relativamente pequeña (apenas 14,5 milímetros), por lo que apuntar el láser hacia el hilo puede ser una tarea complicada, requiriendo ajustes angulares del orden de minutos de arco. Además, el hilo puede moverse no solo en vertical, sino también transversalmente, bien porque el pantógrafo que pase por debajo tenga cierta desviación de alabeo, porque el punto de medida esté en una curva y la vía (y, por tanto, el tren y su pantógrafo) tenga cierto peralte o, de forma imprevisible, por el efecto de la componente lateral del viento.
Aquí entra en juego el segundo elemento clave de TELICE DYNTACT®: la placa reflectora. Sobre el hilo de contacto y sujeto a las ranuras superiores de su perfil que se utilizan para sujetarlo al resto de la estructura de la catenaria, se ubica una placa reflectora con forma de libro abierto hacia arriba y ejecutada en materiales ligeros y resistentes a la suciedad. Su «lomo», el vértice del diedro formado por los dos planos de la placa, se ubica paralelamente al hilo de contacto. La placa reflectora está en una zona sujeta a tensión eléctrica, pero no toca en ningún momento ninguna otra estructura. Es completamente pasiva. Además, su altura sobre el hilo de contacto está ajustada para que siempre se encuentre fuera del gálibo de implantación de obstáculos del pantógrafo, el contorno dentro del que no puede ubicarse ningún equipo. Se evita así cualquier posible perturbación o golpe.
El montaje completo tiene dos sensores láser de triangulación, ubicados sobre una ménsula auxiliar en un poste preexistente, bajo una visera protectora y apuntando hacia la placa reflectora con ángulos iguales y opuestos gracias a una plataforma de apuntado de precisión. Cada láser mide la distancia entre su posición y el plano del lado contrario de la placa reflectora. Disponer así de dos medidas en ángulos diferentes permiten resolver, mediante un simple cálculo trigonométrico, las variaciones de la posición del hilo de contacto en los ejes vertical y transversal.

Por tanto, TELICE DYNTACT® no se limita a acotar la deflexión vertical máxima del hilo de contacto al paso de un pantógrafo. Su capacidad de medir simultáneamente posibles desplazamientos transversales está fuera del alcance de los sensores disponibles en el mercado. Gracias a una estación meteorológica auxiliar provista de anemómetro, puede correlacionar la medida transversal con la del viento local para determinar si la perturbación se debe al viento o a un alabeo anormal del pantógrafo.
El nuevo sensor ofrece la capacidad de monitorizar variaciones históricas en la respuesta del hilo de contacto, permitiendo estimar su desgaste o alertar de respuestas anormales de los sistemas de compensación automática de la tensión. Actúa como una alarma en caso de fallo estructural súbito, sabotaje o intento de robo del hilo. Su bajo consumo eléctrico permite alimentarlo con una placa fotovoltaica en un gran rango de latitudes, con lo que es independiente de cualquier fuente externa, simplificando mucho su instalación. Todo ello con un coste contenido que puede permitir su despliegue en todo tipo de infraestructuras ferroviarias provistas de catenaria flexible.
TELICE DYNTACT® ofrecerá, en virtud de su elevada frecuencia de muestreo, no solo cotas máximas de deflexión del hilo, sino su comportamiento ondulatorio completo hasta frecuencias por encima del kilohercio. Estos datos permitirán, por un lado, alimentar modelos digitales que ofrezcan, en un futuro próximo, una capacidad real de predecir el desgaste de la catenaria y adelantarse a sus fallos. Y por otro, harán posible profundizar en el conocimiento teórico de esta tecnología más que centenaria para, tal vez, dar el siguiente paso en su historia de innovación.
Bibliografía
[Hermary 2022] How do 3D scanners work?: Learn about machine vision. Hermary. (29/11/2022). https://hermary.com/learning/principles-of-laser-triangulation/
[Rivera Rodríguez 2023] Rivera Rodríguez, I. (2023). Dispositivo de medida del desplazamiento del hilo de contacto de una catenaria al paso de un pantógrafo. https://patentscope.wipo.int/search/es/detail.jsf?docId=WO2023002068&_cid=P20-LGKDSU-48947-1
Del mismo autor:
Los límites del Hyperloop
El camión solar: ¿una posibilidad real?
Los límites del ferrocarril
Sobre el autor: Iván Rivera es ingeniero especializado en proyectos de innovación de productos y servicios para ferrocarriles.
El artículo La catenaria: la dinámica de la interfaz con el pantógrafo (4/4) se ha escrito en Cuaderno de Cultura Científica.
Vox populi, la sabiduría de las multitudes
La expresión latina “vox populi”, cuya traducción literal sería “voz del pueblo” y que, según el diccionario de la lengua española de la RAE, es utilizada “para indicar que algo es conocido y repetido por todos”, fue el título de una carta que el polímata (antropólogo, geógrafo, explorador, inventor, meteorólogo, estadístico, psicólogo y eugenista) británico Francis Galton (1822-1911), que entre otras cuestiones fue un pionero en la identificación mediante huellas dactilares o en el estudio de la predicción del tiempo, publicó en la revista científica Nature en 1907.

El texto original de la carta Vox populi, publicada por Fancis Galton en la revista Nature, que podéis encontrar en la página de la propia revista o en la página web sobre Francis Galton, empieza así.
En estos días democráticos, cualquier investigación sobre la fiabilidad y peculiaridades de los juicios, u opiniones, populares es de interés. El material que vamos a discutir se refiere a un asunto menor, pero que viene al caso.
El asunto al que se refiere en su carta, y que utiliza para defender la “sabiduría de las multitudes” (del pueblo), tiene que ver con una visita que realizó a una feria anual de ganado voluminoso y aves de corral que había tenido lugar en la ciudad portuaria de Plymouth (condado de Devon, Inglaterra).

En su carta, Galton explica que en dicha feria de ganado se celebró una porra, es decir, una apuesta pública, para adivinar el peso de un buey ya descuartizado. Las personas participantes en la misma compraron, por un módico precio, una tarjeta en la que escribieron sus datos personales de contacto, así como su estimación del peso del buey descuartizado. Y los que más se acercaron a la cantidad real recibieron un premio. Entre las personas que visitaron la feria y se animaron a participar en la porra se enviaron 787 tarjetas, es decir, 787 estimaciones del peso del buey. Galton solicitó a las personas que organizaban la porra que le diesen dichas tarjetas para poder analizar estadísticamente los resultados de la misma, como así ocurrió.
Con dicha información en su poder, ordenó todas las estimaciones sobre el peso del buey, que iban desde 1.074 libras (unos 487 kilos) hasta 1.293 libras (unos 586 kilos), y tomó el valor que estaba en el medio (lo que en estadística se llama la mediana), que era de 1.207 libras (unos 547 kilos), como el valor que podría ser más democrático, que podía representar el saber popular, ya que cualquier otra cifra (que no sea la que está en el medio tendrá a más de la mitad de las personas pensando que es muy alta o muy baja).
El peso que tenía el buey descuartizado objeto de la porra resultó que pesaba en realidad 1.198 libras (unos 543 kilos). Y podemos pensar, como así hizo Galton, que el valor del medio -el que recogía el saber popular- de 1.207 libras (547 kilos) estaba muy cerca del valor real, es decir, de las 1.198 libras (543 kilos) que hemos mencionado, solo se había desviado en 9 libras (4 kilos), que no es mucho. De hecho, la mediana, considerada por Galton como el valor más democrático, se alejaba menos de un 0,8% del valor real.
Ante lo que el científico comenta, en su carta, que este es un resultado “más digno de confianza para un juicio democrático de lo que cabría esperar”. Es decir, este es un buen ejemplo de cómo la estadística puede ayudar a obtener información de la realidad.

Por supuesto que esa “sabiduría de las multitudes” también es susceptible de ser manipulada. Imaginemos en el caso de la porra de la feria de ganado de Plymouth si alguien hubiese hecho correr el bulo de un peso alejado del real, como 1.150 libras, lo que habría provocado que muchas personas subestimaran el peso del buey descuartizado y la mediana se alejase más aún del peso real. Aunque para esta cuestión también podemos utilizar la estadística y extraer interesantes conclusiones, aunque ese es otro tema.
Bibliografía
1.- Francis Galton, Vox populi, Nature 75, pp. 450-451, 1907.
2.- David Spiegelhalter, El arte de la estadística, cómo aprender de los datos, Capitán Swing, 2023.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Vox populi, la sabiduría de las multitudes se ha escrito en Cuaderno de Cultura Científica.
Fricción cuántica agua-grafeno
Un flujo de agua sobre una superficie de átomos de carbono, como la que constituye el grafeno, se rige por una fricción cuántica. Ahora se ha demostrado experimentalmente este fenómeno inusual con técnicas láseres ultrarrápidas. Los resultados se podrían aplicar en procesos de purificación y desalinización del agua e incluso a ordenadores basados en líquidos.

Durante los últimos 20 años, los científicos han estado desconcertados por cómo se comporta el agua cerca de las superficies de carbono. Puede fluir mucho más rápido de lo que se esperaría según las teorías de fluidos convencionales o adoptar disposiciones extrañas, como el hielo cuadrado.
Ahora, un estudio experimental desvela que el agua puede interactuar directamente con los electrones del carbono: un fenómeno cuántico muy poco habitual en dinámica de fluidos.
Sabemos que un líquido como el agua está formado por pequeñas moléculas que se mueven al azar y chocan constantemente entre sí. Un sólido, en cambio, está formado por núcleos atómicos en posiciones más o menos fijas sumergidos en una nube de electrones. En los modelos usuales se supone que los mundos sólido y líquido solo interactúan mediante colisiones de las moléculas líquidas con los “átomos” del sólido, es decir, se asume que las moléculas líquidas no “distinguen” los electrones del sólido.
Sin embargo, hace poco más de un año, un estudio teórico que cambió este enfoque propuso que, en la interfase agua-carbono, las moléculas del líquido y los electrones del sólido se empujan y tiran unos de otros, ralentizando el flujo del líquido: este nuevo efecto se denominó fricción cuántica. Sin embargo, la propuesta teórica carecía de verificación experimental.
El equipo estudió una muestra de grafeno —una monocapa de átomos de carbono dispuestos en forma de panal—. Utilizaron pulsos ultracortos de láser rojo (con una duración de solo una millonésima de milmillonésima de segundo) para calentar instantáneamente la nube de electrones del grafeno. A continuación, controlaron su enfriamiento con pulsos láser de terahercios, sensibles a la temperatura de los electrones del grafeno. Esta técnica se denomina espectroscopia de bomba óptica y sonda de terahercios.
Para su sorpresa, la nube de electrones se enfrió más rápido cuando el grafeno se sumergió en agua, mientras que la inmersión del grafeno en etanol no supuso ninguna diferencia en la velocidad de enfriamiento. Una posible explicación era que los electrones calientes empujan y tiran de las moléculas de agua para liberar parte de su calor: en otras palabras, se enfrían por fricción cuántica. Los investigadores profundizaron en la teoría y, efectivamente, la fricción cuántica agua-grafeno podía explicar los datos experimentales.
Lo que hace especial al agua en este caso es que sus vibraciones, denominadas ‘hidrones’, están en sincronía con las vibraciones de los electrones del grafeno, denominadas plasmones, de modo que la transferencia de calor grafeno-agua aumenta gracias a la resonancia.
Los experimentos confirman así el mecanismo básico de la fricción cuántica sólido-líquido. Esto tendrá implicaciones para los procesos de filtración y desalinización, en los que la fricción cuántica podría utilizarse para ajustar las propiedades de permeación de las membranas nanoporosas. Si se aprende a controlar la interacción agua-electrón, otras aplicaciones son imaginables en electrocatálisis y fotocatálisis en la interfaz sólido-líquido. Y, ya puestos, ordenadores basados en fluidos.
Referencia:
Yu, X., Principi, A., Tielrooij, KJ. et al. (2023) Electron cooling in graphene enhanced by plasmon–hydron resonance. Nat. Nanotechnol. doi: 10.1038/s41565-023-01421-3
Edición realizada por César Tomé López a partir de materiales suministrados por el Instituto Catalán de Nanociencia y Nanotecnología (ICN2)
El artículo Fricción cuántica agua-grafeno se ha escrito en Cuaderno de Cultura Científica.
Las cárcavas marcianas y los ciclos de oblicuidad
Hay términos que a priori pueden parecer poco relacionados con la geología -al menos en un sentido estricto- pero que son capaces de condicionar, por ejemplo, el clima de un planeta, y con ello su dinámica externa, dejando una impronta en procesos erosivos y deposicionales, hasta el punto de que podemos aproximarnos a la historia climática de un planeta como puede ser la Tierra o Marte a través de su geomorfología o de su sedimentología. La palabra en cuestión que hoy nos trae aquí es oblicuidad, o lo que es lo mismo, la inclinación del eje de rotación de un planeta con respecto al plano orbital, y de la que podemos decir que cuanto mayor sea el ángulo, más extremas serán las estaciones, aunque con sus particularidades para cada zona del planeta.
Podríamos pensar que los planetas mantienen estable a lo largo del tiempo esta inclinación del eje de rotación, pero lo cierto es que no es así, sino que hay ciclos en los cuales este valor va cambiando entre momentos de mayor y menor oblicuidad. En nuestro planeta estos cambios son relativamente pequeños -entre 22,1º y 24,5º -, pero en Marte su oblicuidad puede oscilar en ocasiones entre valores cercanos a los 10º, periodos de baja oblicuidad, a otros en los que su eje se inclina por encima de los 40º.

Los momentos en los que Marte tuviese una mayor oblicuidad serían perfectos para que hubiese una transferencia importante de masa de los polos a la atmósfera, es decir, que una parte del dióxido de carbono que se encuentra formando hielo en estos depósitos polares, acabase sublimándose y permitiese un aumento de la presión atmosférica, pudiendo llegar a valores que duplican la actual presión atmosférica, algo que facilitaría alcanzar mayores temperaturas así como unas condiciones de mayor estabilidad para la presencia de agua líquida en la superficie.
Pero regresemos a la geología. En Marte aparecen una serie de pequeños barrancos que en nuestro planeta conocemos como cárcavas y que en la Tierra suelen estar formados por la erosión fluvial en zonas con pendiente, donde la fuerza del agua y a veces la poca competencia de los materiales -o incluso una baja proporción de materiales consolidados- permite que se produzca una incisión y el transporte de materiales ladera abajo.

Además, algunas de estas cárcavas observadas en Marte parecen relativamente recientes en tiempo geológico, algo que se aprecia porque conservan todavía muy bien su forma y no han sido alteradas en gran medida por otros procesos y porque no acumulan una gran cantidad de cráteres de impacto. Pero, si las condiciones actuales no permiten la presencia de agua líquida en la superficie -al menos no en los lugares ni en la cantidad para generar las poblaciones más recientes de cárcavas-, ¿cómo han podido formarse?.
Algunos estudios sugerían que estas estarían formadas por el hielo de dióxido de carbono, que durante su sublimación -el paso de sólido a gaseoso sin pasar por el líquido- provocaría que los materiales sobre -o debajo- de los que se encuentra se desestabilicen y caigan ladera abajo, a veces ayudados por el propio dióxido de carbono en estado gaseoso que serviría como una especie “lubricante” que facilitaría su transporte. Este mecanismo podría ser incluso funcional en la actualidad, especialmente durante la primavera y el verano marcianos en laderas iluminadas por el Sol.
Este proceso repetido a lo largo del tiempo daría lugar las cárcavas que observamos, como por ejemplo se describe en Pilorget et al. (2016). De algún modo podríamos decir que esta erosión sería “en seco”, ya que no necesita agua para explicar la formación de las cárcavas. Pero lo cierto es que hoy día, al menos en el tiempo que hemos podido observar el planeta rojo y estudiar los cambios que se producen en su superficie, las cárcavas no muestran una gran actividad, por lo que podrían ser una herencia de otros momentos de la historia de Marte más que representar una forma del modelado actual.
En este artículo nos referimos únicamente a las cárcavas que aparecen en las laderas de algunas montañas y cráteres, que parecen tener un origen diferente a aquellas que se forman en las dunas de zonas polares y donde parece que el agente erosivo es exclusivamente el dióxido de carbono a causa de los ciclos estacionales y que son más representativas del clima actual.
Un nuevo estudio publicado en la revista Science por Dickson et al. (2023) vuelve a poner en el punto de mira al agua como agente formador de las cárcavas. Hoy día, con la actual inclinación del eje de rotación de Marte, los lugares donde existen estas cárcavas no cumplen las condiciones de presión y temperaturas necesarias para que el hielo de agua que existe en el regolito u otros almacenes geológicos cercanos a la superficie pueda derretirse y permitir al agua bajar ladera abajo, pero cuando la oblicuidad del planeta se encuentra alrededor de los 35º, las condiciones serían favorables para la fusión del hielo y para que el agua se mantuviese estable en la superficie el tiempo suficiente de generar los procesos erosivos y el depósito de los sedimentos que observamos.

Para llegar a esta conclusión, los científicos han desarrollado un modelo climático en el cual han podido marcar las localizaciones de las poblaciones de cárcavas más recientes y ver en que momentos y bajo que condiciones la formación de estas podría darse de una manera más o menos simultánea, algo que parece explicarse muy bien mediante los ciclos de oblicuidad marcianos. De hecho, estos procesos formadores de las cárcavas podrían haberse repetido en los últimos millones de años, siendo la última vez hace aproximadamente unos 630.000 años.
Este descubrimiento tiene muchas repercusiones. El primero de cara a la exploración planetaria, ya que nos permitiría acceder a depósitos de hielo para su estudio, pero también de cara a la astrobiología, porque la presencia de agua líquida -aunque sea en momentos más o menos efímeros- podría ser importante para la vida en Marte si esta existiese, suponiendo estos intervalos de tiempo en los que hay agua líquida en superficie una especie de puente entre las condiciones frías y secas y otras que amplíen el rango de espacios habitables en el planeta.
Pero, sin lugar a dudas, estudios como estos ponen de manifiesto lo difícil que es a veces la interpretación de la geología en otros lugares diferentes a la Tierra. Es por ello que se necesitan aproximaciones multidisciplinares que nos permitan comprender un poco mejor la historia de los planetas y otros cuerpos del Sistema Solar.
Referencias:
Dickson, J. L., A. M. Palumbo, J. W. Head, L. Kerber, C. I. Fassett, y M. A. Kreslavsky. «Gullies on Mars Could Have Formed by Melting of Water Ice during Periods of High Obliquity». Science 380, n.º 6652 (30 de junio de 2023): 1363-67. https://doi.org/10.1126/science.abk2464.
Dickson, James L., y James W. Head. «The Formation and Evolution of Youthful Gullies on Mars: Gullies as the Late-Stage Phase of Mars’ Most Recent Ice Age». Icarus 204, n.º 1 (noviembre de 2009): 63-86. https://doi.org/10.1016/j.icarus.2009.06.018.
Dundas, Colin M., Serina Diniega, Candice J. Hansen, Shane Byrne, y Alfred S. McEwen. «Seasonal Activity and Morphological Changes in Martian Gullies». Icarus 220, n.º 1 (julio de 2012): 124-43. https://doi.org/10.1016/j.icarus.2012.04.005.
Dundas, Colin M., Alfred S. McEwen, Serina Diniega, Candice J. Hansen, Shane Byrne, y Jim N. McElwaine. «The Formation of Gullies on Mars Today». Geological Society, London, Special Publications 467, n.º 1 (enero de 2019): 67-94. https://doi.org/10.1144/SP467.5.
Treiman, Allan H. «Geologic Settings of Martian Gullies: Implications for Their Origins». Journal of Geophysical Research 108, n.º E4 (2003): 8031. https://doi.org/10.1029/2002JE001900.
Pilorget, C., y F. Forget. «Formation of Gullies on Mars by Debris Flows Triggered by CO2 Sublimation». Nature Geoscience 9, n.º 1 (enero de 2016): 65-69. https://doi.org/10.1038/ngeo2619.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Las cárcavas marcianas y los ciclos de oblicuidad se ha escrito en Cuaderno de Cultura Científica.
Por qué los humanos tenemos un extra inesperado de energía (y para qué sirve)
energía

El metabolismo es el conjunto de transformaciones mediante las cuales, a partir de materia orgánica (la comida), agua y oxígeno, construimos nuestro cuerpo y generamos energía para todo proceso vital. Gastamos energía cuando hacemos ejercicio. Pero también al dormir, manteniendo y reparando el cuerpo. O pasando una agradable tarde de lectura: no olvidemos que mantener el cerebro “le cuesta” a un adulto el 20 % de toda su energía diaria.
El modo en que obtenemos y gastamos energía los humanos ha sido objeto de discusión en las ciencias y las humanidades. Más aún desde que se ha descubierto que contamos con un extra de energía inesperado. Comparados con otros primates, empleamos más energía de la que podría parecer necesaria por nuestras características físicas.
¿Por qué necesitamos los humanos ese extra de energía? Y ¿cómo la conseguimos?
Una de las respuestas más apasionantes a ambas preguntas tiene que ver con nuestra naturaleza biocultural.
La paradoja energética humanaDurante nuestra evolución hemos desarrollado rasgos que nos diferencian de nuestros parientes vivos más cercanos: crecemos más lentamente, desarrollamos un cerebro más grande, nos reproducimos más, vivimos más años y somos más resistentes en el ejercicio físico que chimpancés, bonobos y gorilas.
Estos rasgos son energéticamente caros, y hacerlos posibles a lo largo de nuestra vida es lo que se ha llamado la paradoja energética humana.
Hasta hace unos años, sorprendentemente nadie había comparado el gasto energético total entre humanos y grandes simios. El primero en hacerlo fue el biólogo experimental Herman Pontzer, que propuso que los humanos estamos metabolicamente “acelerados”. Esto significa que el linaje humano ha experimentado una aceleración en la tasa metabólica a lo largo de la evolución, proporcionando energía para cerebros más grandes y una reproducción más rápida sin sacrificar el mantenimiento del organismo y la longevidad. Pontzer lo describió como el extra inesperado de energía humana: gastamos más energía por unidad de masa que nuestros parientes más cercanos. Y eso se acompaña de un metabolismo particularmente acelerado.
La energía la distribuye el corazónSi seguimos el rastro del gasto energético, el camino nos lleva directos al corazón, el órgano que ha encarnado la esencia de la vida a lo largo y ancho de nuestra historia. Siempre ha sido protagonista, desde la representación prehistórica en la Cueva del Pindal en Asturias hasta el énfasis actual en una buena salud cardiaca, pasando por su pesaje en el viaje al más allá en el antiguo Egipto, o su transformación en jaguar tras la muerte para los Waorani amazónicos.
El corazón provee a todo el cuerpo de la energía necesaria para toda la actividad fisiológica. Podemos cuantificar este suministro con el gasto cardiaco, que es el producto de la cantidad de sangre que bombeamos en un latido por el número de latidos por minuto.
Este flujo tiene un valor medio aproximado de cinco litros por minuto. Así mantenemos la circulación de materias primas (oxígeno y nutrientes) y de deshecho (dióxido de carbono, agua) de nuestro metabolismo, lo que nos lleva a la paradoja energética humana. Si comparados con otros grandes simios estamos metabólicamente acelerados (empleamos más energía por unidad de masa), podemos esperar que nuestro gasto cardiaco por unidad de masa también sea mayor.
Una manera de estudiarlo es midiendo el diámetro de la “tubería” por la cual sale del corazón toda la sangre de un latido. A partir de ecocardiografías en grandes simios vivos observamos que nuestra aorta es similar a la de los gorilas, que nos pueden duplicar en tamaño. De hecho, controlando por el peso tenemos una aorta mayor por unidad de masa que los gorilas. Para alimentar nuestro metabolismo acelerado tenemos un gasto cardiaco mayor por unidad de masa: una aorta de gorila en un cuerpo de humano.
Reproducción biocultural¿Y bien? ¿Cómo sostenemos el sistema? ¿Cómo logramos esa energía extra que permite desarrollar un cerebro voraz o parir más que cualquier otro primate?
Una respuesta a estas preguntas la encontramos en nuestra naturaleza biocultural.
Pensemos en un ingrediente de la paradoja: nuestro gran cerebro. Termina de crecer en volumen aproximadamente a los seis años de edad, en un proceso tan costoso que frena el crecimiento corporal y emplea nada menos que el 40 % de la energía total diaria de los niños (y más del 65 % de la energía en reposo). De hecho, en la infancia tenemos un gasto cardiaco y quemamos más energía por unidad de masa que de adultos.
Pensemos ahora en otro ingrediente de la paradoja: nos reproducimos más. Las madres humanas tienen la capacidad de tener bebes a un ritmo mayor que otros grandes simios. Las humanas destetan a la cría para quedarse embarazada de nuevo cuando aquella todavía es dependiente y quema energía a una tasa muy elevada. Esto sólo es posible gracias a la provisión de cuidados y de comida nutritiva y procesada que proporciona la comunidad, una característica exclusivamente humana: no criamos solas.
Como sugiere el biólogo humano Barry Bogin, una clave es que los humanos practicamos una reproducción biocultural. En nuestra especie, el cuidado y provisión de las crías no es solo asunto de los progenitores. En esa tarea es fundamental el papel de abuelas, abuelos, hermanos y hermanas mayores, y otros familiares. Pero también el papel de otras personas del grupo cuyo vínculo se define culturalmente, más allá de la genética (las “tías” y “tíos” de la infancia, en realidad amigos cercanos de nuestros padres). Otra característica exclusivamente humana.
Siguiendo esta senda energética biocultural, se ha propuesto que, durante nuestra evolución, una de las soluciones para la búsqueda de alimento nutritivo fue el desarrollo de la caza y recolección y de la horticultura. Estas habilidades sociales, de grupo, nos permitieron mejorar nuestra tasa de retorno energético.
Mediante un proceso social complejo, intenso y costoso pero rentable, obtenemos más calorías en menos tiempo que los demás grandes simios. Así alimentamos la máquina.
La supervivencia del más amistosoLa reproducción biocultural y el aumento del retorno energético no se explican sin un aumento continuado de nuestra sociabilidad a lo largo de la evolución. Un aumento que seguramente se produjo en una retroalimentación que incluyó a otros hitos como el fuego, el lenguaje y el cocinado de los alimentos.
Tan llamativa es nuestra sociabilidad que se ha sugerido que nuestra evolución es un proceso de autodomesticación, de “supervivencia del más amistoso”.
Regresando a la perspectiva fundamental de los ciclos de materia y energía, los corazones y cerebros forman parte de metabolismos individuales entretejidos en un grupo social. Al fin y al cabo, forman parte de una matriz biocultural evolutiva capaz de costear nuestra paradoja energética.
El ensayo del recientemente fallecido Nuccio Ordine La utilidad de lo inútil expresa la profundidad de estos vínculos. En él, Ordine escribe: “La necesidad de imaginar, de crear, es tan fundamental como lo es respirar”. Así, según Ordine: “Esta respiración […] expresa el excedente de la vida respecto de la vida misma […], energía que circula de forma invisible y que va más allá de la vida, aún siendo inmanente a ella”.
Una evocadora reflexión para dar respuesta al inesperado extra de energía humana.
Sobre el autor: Luis Ríos Frutos es Profesor de Antropología en la Universidad Complutense de Madrid
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Por qué los humanos tenemos un extra inesperado de energía (y para qué sirve) se ha escrito en Cuaderno de Cultura Científica.
El mono que desafió la sincronía
Cómo influyen los parásitos en el comportamiento de los animales, cómo se modifica la conducta de las madres mamífero o cuáles son las enfermedades que nos afectan y desde cuándo hemos desarrollado comportamientos funerarios ante la muerte son algunos de los aspectos que se analizarán en la V Jornada Nacional sobre Evolución y Neurociencias.
Especialistas en ambas materias se reunieron el 11 y 12 de mayo en una nueva edición conducida por Eva Garnica y Pablo Malo, psiquiatras y miembros de la Red de Salud Mental de Bizkaia, y organizada por esa misma entidad y la Cátedra de Cultura Científica de la UPV/EHU.
La jornada, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolucionista y divulgar de un modo accesible para todos los públicos.
A la hora de entender las psicopatologías y su tratamiento el conocimiento del hecho evolutivo tiene mucho que aportar, especialmente para asumir que no somos más que primates enamorados de los símbolos que nos alegramos con lo bueno u odiamos al otro en sincronía.
Julio Sanjuán Arias es coordinador de la Unidad de Primeros Episodios Psicóticos del Hospital Clínico Universitario de Valencia, investigador principal de la línea de Psiquiatría y enfermedades Neurodegenerativas del INCLIVA y profesor Titular de Psiquiatría en la Universidad de Valencia.
Si no ve correctamente el vídeo, use este enlace.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo El mono que desafió la sincronía se ha escrito en Cuaderno de Cultura Científica.
La natalidad es solo un número

La demografía es una ciencia de sumas y restas, pero si queremos entender su lógica matemática es preciso incorporar la dimensión temporal y analizar los efectos que ejerce la estructura demográfica en su propia dinámica. Cifras de nacimientos como las recientemente publicadas por Eustat deben, por tanto, contextualizarse. Destacar las bajas cifras de nacimientos sin ponerlas en su contexto es quedarse en una visión muy simplificada de la realidad. El número total de nacimientos es cada vez más bajo, pero es solo un número. Si no lo relativizamos, no podremos interpretarlo. Si lo comparamos con la población total, a través de la tasa bruta de natalidad, el resultado son valores cada vez más bajos. Pero, como también se está reduciendo el número de mujeres en edad fértil, si lo medimos a través del índice sintético de fecundidad, nos da valores que superan los de hace tres décadas1.
La natalidad no es el único factor demográficoAdemás, gozamos de mayor eficiencia reproductiva que en el pasado. Lo que MacInnes y Pérez Díaz (2009)2 denominan la revolución reproductiva nos ha conducido a que menores índices de fecundidad por mujer deriven en mayores volúmenes de población. Un menor número de hijos, pero con más medios para su cuidado y educación, lleva a una supervivencia mucho mayor y a un incremento notable de la esperanza de vida. Una sociedad con mayores niveles educativos será también más productiva, por lo que el volumen de población activa necesario para garantizar la sostenibilidad de las pensiones será menor. Asimismo, si se alarga la esperanza de vida, se llega con mejor salud a la vejez y se retrasan el resto de las etapas vitales, no resulta tampoco tan insensato retrasar la edad de jubilación y mantener activo un capital humano que puede aportar experiencia y know-how.
Por otro lado, ¿cómo establecer el número óptimo de nacimientos, tratándose de una decisión individual, un proyecto de vida que cada cual puede o debería poder elegir? Porque, aunque tradicionalmente la demografía ha situado en 2,1 el número de hijos por mujer necesario para que se produzca el reemplazo generacional, esa cifra no incorpora el impacto de las migraciones ni del incremento de la longevidad ni de los nuevos modelos familiares. Es, por tanto, un valor discutible, como lo es considerar que una pérdida de población sea siempre negativa y, por ende, preocuparse más por la cantidad de habitantes que por la calidad de vida de dichos habitantes.
El mayor logro demográfico de los países desarrolladosNo nos percatamos de que gozamos de mejor calidad de vida que nuestros antepasados y que convertirse en sociedades envejecidas es el mayor logro demográfico de los países desarrollados. La pirámide de población de amplia base de los países en vías de desarrollo recoge su pujante natalidad, pero también es el reflejo de una mortalidad por edades relativamente alta y de un marcado descenso de individuos entre una cohorte de edad y la siguiente. Nuestras pirámides, bastante más alargadas y que han perdido hace tiempo su característica forma triangular, indican, por el contrario, un continuo incremento de la esperanza de vida. Sin embargo, en lugar de destacar que los índices de supervivencia de las sucesivas generaciones son cada vez más positivos, los titulares periodísticos se centran en los efectos negativos del envejecimiento de la población y en la baja natalidad.
Aunque ampliamente compartida, presentar el bajo número de nacimientos como algo negativo no deja de ser una valoración subjetiva. Además, gran parte de las alarmas demográficas no se sostienen en fundamentos científicos, sino que se impregnan de ideologías políticas o religiosas que ponen a la familia como núcleo central de organización de la sociedad y otorgan a la mujer el rol de garante de la natalidad. Nos enfrentamos a un cambio en el modelo reproductivo, no solo a nivel individual, sino también como sociedad, que consigue que la población siga creciendo a pesar de que la natalidad se reduzca.
Esa reducción se puede explicar en base al coste de oportunidad que supone tener hijos. En el pasado, tener una prole abundante significaba una probabilidad más alta de que sobreviviesen a la infancia en mayor número y pudiesen contribuir a edades tempranas a la economía familiar e, incluso, garantizasen el cuidado de los padres en la vejez. En la actualidad, las familias que deciden tener hijos se enfrentan a altos costes tanto económicos como medidos en términos de tiempo, lo que lleva a muchas de ellas a replantearse esa decisión.
La maternidad pasa facturaEspecialmente en el caso de las mujeres, la maternidad pasa factura. Son ellas quienes disfrutan en mayor medida de reducciones de la jornada laboral o de excedencias por cuidado de hijos o familiares. A medida que el número de hijos aumenta, presentan mayor probabilidad de abandonar el mercado laboral3, reduciendo también su empleabilidad futura. Por esos y otros motivos, se retrasa la edad de la maternidad y con frecuencia no se tienen los hijos que se desean.
Ese hecho sí debería ser objeto de preocupación por parte de las políticas públicas. Políticas de igualdad que garanticen una sociedad más equitativa, políticas laborales que reduzcan la precariedad laboral y permitan la conciliación de la vida personal y laboral o políticas de vivienda que faciliten el acceso a la misma y favorezcan la emancipación temprana de los jóvenes tendrán una incidencia importante en la decisión de abordar la maternidad/paternidad.
En cambio, las políticas pronatalistas, que hacen un uso ideológico de las estadísticas demográficas, se muestran ineficientes en el fomento de la natalidad. Ayudas coyunturales y no progresivas como son los cheques bebé universales, aunque mejoren la situación de familias en situación de vulnerabilidad, no serán tampoco relevantes en la decisión reproductiva. Probablemente, patrones de parentalidad compartida y una corresponsabilidad real contribuirán en mucha mayor medida a reducir la distancia existente entre expectativas y realidad reproductiva.
Notas y Referencias:
1 Según los Indicadores para el análisis de los fenómenos demográficos (Eustat, 2022), en 1990/1991, el índice sintético de fecundidad de Euskadi era de 0,97 hijos por mujer mientras que en 2020/2021, se sitúa en 1,25 hijos por mujer. En ese mismo periodo, según las Estadísticas de nacimientos, la tasa bruta de natalidad se ha reducido, pasando de 7,7 a 6,5 nacimientos por cada mil habitantes, mientras que el número total de nacimientos ha disminuido también en algo menos de 2.000.
2 MacInnes, J., y Pérez Díaz, J. (2009). ‘The Reproductive Revolution’. The Sociological Review, vol. 57, nº. 2, págs. 262–284. https://doi.org/10.1111/j.1467-954X.2009.01829.x
3 En España, según datos de la Encuesta de Población Activa (INE, 2022), en el caso de los hombres entre 25 y 49 años, presentan una mayor tasa de empleo si tienen hijos que si no tienen hijos (89,7 frente a 83,6), mientras que en las mujeres de esa misma edad se reduce la empleabilidad (en el caso de ser madres, 69,7 frente a 74,7 si no tienen hijos). Pero llama especialmente la atención la distancia existente en el caso de que el número de hijos sea superior a 3, ya que en los hombres la tasa de empleo alcanza el 84,2 (superior incluso a la que presentan cuando no tienen hijos), y en las mujeres es de 53,4 (más de 20 puntos inferior a la que presentan si no son madres).
Sobre la autora: Itziar Aguado es Profesora del Área de Geografía Humana en la Facultad de Letras de la UPV/EHU
Una versión de este texto apareció originalmente en campusa.
El artículo La natalidad es solo un número se ha escrito en Cuaderno de Cultura Científica.
Geología en el Tour
arqueas
Reconozco que, de siempre, me ha encantado seguir las grandes vueltas ciclistas veraniegas, pero no por el deporte en sí, sino por la gran oportunidad de ver unos paisajes increíbles que caracterizan los países por los que pasa la serpiente multicolor. Y el Tour de Francia de este año me está encantando, porque no paran de subir unas montañas míticas. Así que esta semana os voy a hablar de la geología del Tour de Francia, pero no como os lo estáis imaginando.

Si estáis siguiendo la ronda gala, os habréis encontrado con un equipo francés llamado Arkéa Samsic. Pues cada vez que veo las letras Arkéa bien grandes en los maillots, lo que menos pienso es en una empresa de finanzas o en un grupo ciclista. Lo que me viene a la mente es en el origen de la vida en nuestro planeta.
Hoy en día, toda la vida del planeta se puede dividir en tres grandes grupos, llamados Dominios: Archaea (más conocidas en el argot popular como arqueas), Bacteria (creo que estas no necesitan traducción) y Eucarya (o células eucariotas). Los dos primeros grupos son organismos unicelulares sin núcleo diferenciado (lo que en mi época de estudiante se llamaban procariotas y formaban el Reino Monera), mientras que el último está compuesto por organismos con células que tienen un núcleo verdadero.
Arquea es una palabra de origen griego que significa “antiguo”, ya que, hasta no hace mucho, a estos organismos se les consideraba como las formas de vida más antiguas de nuestro planeta. Además, se creía que eran todos extremófilos, es decir, que habitaban ambientes considerados actualmente como muy extremos para la vida: unas arqueas se alimentaban de metano, otras se desarrollaban en medios de alta salinidad y un tercer grupo vivían en condiciones de temperaturas muy elevadas.
Pero todo esto ha cambiado en los últimos años. Recientemente, se han descubierto arqueas en ambientes muy normalitos, por decirlo de alguna manera, como el agua del mar o el fango del suelo continental. Incluso, se pone en duda que realmente sean los organismos vivos más primitivos de la Tierra. Así que vamos a viajar en el tiempo, a ver si nos situamos un poco en toda esta historia… Aunque no va a ser tan fácil como os podéis imaginar, porque la ausencia de un registro fósil tan antiguo nos obliga a trabajar con edades estimadas a partir del estudio genético de actuales grupos de arqueas, bacterias y eucariotas.

Hoy en día se acepta que nuestro planeta tiene unos 4570 millones de años de edad, millón de años arriba, millón de años abajo. Pues se considera que las primeras formas de vida verdaderas, es decir, células sin núcleo que incluían moléculas de ADN en su interior, aparecieron hace unos 4350 millones de años. Como dice el grupo de música heavy Nightwish en su canción Greatest Show on Earth, que entre LUCA. Estas siglas significan Last Universal Common Ancestor, que se puede traducir como el Último Ancestro Común Universal. Lo primero, no era un organismo en singular, sino un grupo de organismos evolucionados a partir de la unión de los ladrillos de la vida, moléculas de ARN libres que se combinaron para secuenciar ADN.
Pero, ¿qué tipo de organismos eran LUCA? Hasta no hace mucho se consideraban como las primeras arqueas. Actualmente, se ha llegado al consenso de que se trata de un grupo primitivo de bacterias. Por tanto, los organismos más antiguos de nuestro planeta no son el grupo cuyo nombre significa, precisamente, antiguo, sino que lo son las bacterias. Aunque la diferenciación entre los dos dominios pudo producirse muy rápido, hace entre 3800 y 4100 millones de años, dando lugar a dos clados muy diferenciados.

¿Y los eucariotas? Pues parece que tardaron un poquito más en aparecer, estimándose su presencia más antigua hace unos 2300 millones de años. Estudios recientes han llegado a la conclusión de que este último dominio surgió de un grupo de arqueas primitivas que pudieron hacer simbiosis con bacterias más evolucionadas. Estos primeros eucariotas debieron ser unicelulares, pero rápidamente evolucionaron, dando lugar a organismos pluricelulares hace entre 1900 y 2100 millones de años. Es decir, que los dos grupos primigenios unieron fuerzas para generar la vida compleja en nuestro planeta.
Todo esto que os he contado parecen simples curiosidades biológicas, pero es algo mucho más complejo, porque tanto la aparición como la evolución de las primeras formas de vida provocaron cambios en nuestro planeta que lo condicionaron todo. Los primeros seres vivos aparecieron en un mundo sometido al bombardeo continuo de cuerpos extraterrestres, con una atmósfera reductora y mares repletos de hierro disuelto en el agua. La evolución de estos organismos primitivos dio lugar a las cianobacterias hace entre 3400 y 3700 millones de años, los seres fotosintéticos más antiguos, que llegaron a provocar un cambio desde una atmósfera reductora a una débilmente oxidante. Llegando hace unos 2400 millones de años a producirse el Gran Evento Oxidativo, a partir del cual disfrutamos de una atmósfera totalmente oxidante, lo que aceleró aún más la evolución biótica. Unos cambios ambientales radicales gracias a los cuales los seres humanos estamos aquí hoy.
Espero que, a partir de ahora, sigáis las etapas ciclistas de otra manera. Y cuando algún miembro del equipo Arkéa tome protagonismo con una escapada, os acordéis de la importancia evolutiva de estos pequeños organismos. Incluso, que veáis a un eucarionte con arqueas y bacterias en simbiosis con su organismo para permitirle hacer esos titánicos esfuerzos subiendo esas preciosas montañas, fruto de millones de años de evolución de nuestro planeta.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Geología en el Tour se ha escrito en Cuaderno de Cultura Científica.
Martha Betz Shapley, la “Primera Dama del Observatorio de Harvard”
En mi tercer año [en la Universidad de Missouri] conocí a una morena llamada Martha Betz, de Kansas City, y nunca me separé de ella, ni quise hacerlo. Nos conocimos en una clase de matemáticas: ella se sentaba en primera fila y conocía todas las respuestas. Era una mujer inteligente… Hizo cinco cursos completos y obtuvo las mejores calificaciones en todos ellos.

Martha Betz nació el 3 de agosto de 1890 en Kansas City, Missouri (Estados Unidos). Era la tercera de las siete hijas e hijos de Carl Betz y Louise Wittig Betz. El abuelo paterno de Martha, John G. Betz había nacido en Hannover (Alemania) y emigrado a Estados Unidos junto a su esposa en 1863. Contó a su nieta que había visto una vez en las calles de Hannover a la astrónoma Caroline Lucretia Herschel (1750-1848). Aunque ella recordaba esta anécdota de su abuelo, en aquel momento, Martha no sospechaba que dedicaría toda su vida a estudiar las estrellas.
Carl Betz era maestro de música en varias escuelas de Kansas City y transmitió su pasión por la música a su prole; tocar música fue uno de los mayores pasatiempos de Martha a lo largo de su vida.
De maestra a astrónomaComo su madre y dos de sus hermanas, y con solo 15 años, Martha se convirtió en maestra de escuela primaria tras completar su formación secundaria. A los 18 comenzó sus estudios en la Universidad de Missouri, donde obtuvo una licenciatura en educación, y se convirtió en profesora de matemáticas de secundaria en 1912. En 1914, se casó con el astrónomo Harlow Shapley (1885-1972) al que había conocido durante sus estudios en la universidad. Lo hicieron después de que Shapley finalizara su tesis doctoral en Princeton. De hecho, según confirma su nieta Deborah Shapley, Martha ayudó a Harlow realizando algunos cálculos para su tesis que trataba sobre sistemas binarios eclipsantes.
El matrimonio se trasladó al Observatorio Mount Wilson donde comenzaron a trabajar como astrónomos profesionales. Mientras él estudiaba las estrellas variables cefeidas, Martha se centró en el análisis de las binarias eclipsantes que, como ya hemos comentado, habían sido el tema de investigación doctoral de su marido. Redactó una serie de artículos dedicados al cálculo de los elementos y la variación de los períodos de los sistemas eclipsantes que fueron contribuciones destacadas en su época. Entre estos trabajos destacan The period of U Cephei(1916) o The Light Curve and Orbital Elements of the Eclipsing Binary Y Leonis (1918).
También colaboró varias veces en la investigación de Shapley, algunas ocasiones como coautora. Algunos de esos trabajos son The Light Curve of XX Cygni(1915) o Studies Based on the colors and magnitudes in stellar clusters (1919).
En 1921 Harlow Shapley fue nombrado director del Observatorio de Harvard. Martha lo acompañó en su nuevo puesto y continuó su trabajo sobre binarias eclipsantes durante un tiempo, aunque pronto su familia de cinco hijos (Mildred, Willis, Alan Horace, Lloyd Stowell y Carl Betz) se convirtió en el centro de su atención.
Durante la Segunda Guerra Mundial, los Shapley participaron en actividades humanitarias, encontrando hogar para muchas familias judías que habían huido de Europa. Además, Martha se unió a Zdeněk Kopal (1914-1993) y otros astrónomos de Harvard que estaban trabajando para la División de Cooperación Industrial en el Instituto Tecnológico de Massachusetts. Sus habilidades matemáticas fueron esenciales para calcular trayectorias de proyectiles para la Armada y las Fuerzas Aéreas. Tras finalizar la contienda, continuó colaborando con el mismo grupo, midiendo posiciones y calculando órbitas de meteoros.
Cuando sus hijos e hija abandonaron el hogar familiar, Martha Shapley regresó a sus investigaciones astronómicas. Su última contribución a la astronomía fue Catalogue of the Elements of Eclipsing Binaries (1956) en colaboración con Zdeněk Kopal.
Primera Dama del Observatorio de HarvardDurante los 32 años en los que Harlow Shapley fue director del Observatorio de la Universidad de Harvard, a Martha se la conocía como la Primera Dama del Observatorio. El matrimonio era muy apreciado por su hospitalidad con “la familia astronómica de Harvard” (personal fijo y personas que trabajaban temporalmente o visitaban el Observatorio), y Martha era una anfitriona entregada en las reuniones que organizaban en su casa.
Tres de sus hijos también se dedicaron a la astronomía y las matemáticas: Mildred Shapley Matthews (1915-2016) se convirtió en una destacada astrónoma; Willis Shapley (1917-2005) trabajó como administrador de la NASA; y Lloyd Shapley (1923-2016) fue un brillante matemático que recibió el Premio Nobel de Economía el año 2012 junto a Alvin E. Roth (citamos a estos dos investigadores en Matemática discreta y trasplantes cruzados de riñones).
Martha Shapley falleció el 24 de enero de 1981, a los 90 años de edad.
La Sra. Shapley lamenta no haber hecho más por su cuenta. No es el tipo de mujer que se conforma con el mérito de haber ayudado a su marido. Cree que una mujer nacida con aptitudes, y ella evidentemente las tenía, tiene la obligación de utilizarlas, y no sólo en su calidad de esposa y madre.
Referencias
-
John J O’Connor and Edmund F. Robertson, Martha Betz Shapley, MacTutor History of Mathematics Archive, University of St Andrews
-
Barbara L. Welther, Guilt by Association: How Mrs. Harlow Shapley Lost Her Job, Bulletin of the American Astronomical Society 18 (1986) 1055
-
Zdeněk Kopal, Obituary – Shapley, Martha-Betz 1890-1981, Astrophysics and Space Science 79 (1981) 261-264
-
Deborah Shapley, Martha Shapley – Astronomer, Harlow Shapley Project, 8 marzo 2023
-
Martha Betz Shapley, Wikipedia
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Martha Betz Shapley, la “Primera Dama del Observatorio de Harvard” se ha escrito en Cuaderno de Cultura Científica.
Los invasores: Los hipopótamos del narco Escobar
Es la especie animal invasora más grande del mundo, tal como titulan su artículo Jonathan Shurin y sus colegas, de la Universidad de California San Diego de La Jolla. Mide entre tres y cinco metros de la cabeza a la punta de la cola, con metro y medio de altura hasta los hombros. El peso medio es de 1500 a 1800 kilos, aunque puede llegar a los 3000. Es el hipopótamo común, de nombre científico Hippopotamus amphibius. Habita el África subsahariana hasta Sudáfrica y es una especie invasora en Colombia por los caprichos de un célebre narcotraficante, Pablo Escobar.

La portada y el primer capítulo de Historia de las especies invasoras, del biólogo Ángel León Panal, libro publicado en 2021, están dedicados a los hipopótamos de Colombia y al narco Pablo Escobar. Dirigía en 1978 el Cártel de Medellín. Visitaba el curso medio del valle del río Magdalena, en el centro de Colombia. En la zona compró varias fincas con selva, agua y montaña y fundó la Hacienda Nápoles, en el municipio de Puerto Triunfo, Departamento de Antioquía, así llamada en homenaje a su admirado Al Capone, nacido en Napolés.
En la finca mostraba su colección de automóviles y practicaba varios deportes, entre ellos el tenis. Pero el mayor atractivo era el Zoológico. Se informó de las especies que se adaptarían al clima de aquella zona de Colombia y, por medio de intermediarios de Estados Unidos, compró, por ejemplo, cebras, elefantes, rinocerontes, jirafas, hipopótamos y más especies que, poco a poco, iban llegando a la hacienda. En total llegaron a ser unos mil doscientos animales.
Los hipopótamos primero fueron cuatro, tres hembras y un macho, en 1981, y pronto llegaron a seis con la compra de otros ejemplares (quizá, no está claro, eran entre dos y seis los ejemplares del grupo inicial). Tras la muerte de Pablo Escobar a los 44 años, en 1993 y acribillado a balazos por la policía colombiana, los hipopótamos y otros animales quedaron en la Hacienda Nápoles. Eran muchos hipopótamos y en 2016 llegaban a 30 ejemplares y, para 2020, se calculó que había entre 60 y 80 individuos. Viven, de media, unos 40 años en estado silvestre y las hembras tienen unas 25 crías. Las proyecciones para el futuro hablan de 800-1400 individuos en Colombia para 2040.
Las últimas previsiones publicadas hace unas semanas por Amanda Subalusky y sus colegas, de la Universidad de Florida en Gainesville, estiman que el crecimiento de la población de hipopótamos es del 9.6% al año, lo que supone 230 individuos para 2032. Incluso el cálculo de crecimiento de la población, según D.N. Castelblanco-Martínez y su grupo, del Consejo Nacional de Ciencia y Tecnología de Ciudad de México, podría llegar a los 800 individuos en 2034. Todos estos datos suponen que, según la estrategia de control que adopte el Gobierno de Colombia, hay hipopótamos en el país por unos 50-100 años.
En conclusión, es el único grupo de hipopótamos en estado salvaje y viable que se puede encontrar fuera de África.
Algunos ejemplares abandonaron la Hacienda Nápoles y siguieron el curso del río Magdalena hacia el norte hasta, por ahora y con datos confirmados, unos 150 kilómetros de la finca, aunque las citas más al norte parecen que están a unos 400 kilómetros. Para los habitantes de los márgenes del río es un asunto difícil pues los hipopótamos son agresivos y peligrosos. En África causan más muertes al año que leones, elefantes, búfalos y rinocerontes juntos, como escribe Ángel León Panal. Además, pueden transmitir enfermedades como la tuberculosis, la brucelosis, la leptospirosis, el ántrax y la salmonelosis.
Ingenieros de ecosistemasSon los hipopótamos lo que se denomina ingenieros de ecosistemas, pues pueden modificar los hábitats en que se encuentran. Es un herbívoro que transporta nutrientes desde las plantas de las que se alimenta hasta las zonas acuáticas donde libera sus heces. Algo así como una tonelada de carbono y otros compuestos al año y por individuo. En los ecosistemas acuáticos en que vive puede provocar la eutrofización por exceso de nutrientes por la acumulación de los componentes de las heces. Según el resumen de Jonathan Shurin y sus colegas, los hipopótamos importan al hábitat acuático materia orgánica y nutrientes con un impacto apreciable en el metabolismo del ecosistema y en la estructura de la comunidad.
Por cierto, desde 2012 y por orden judicial está prohibida la caza de hipopótamos en Colombia. Y en 2014, el Gobierno optó por la conservación de los hipopótamos, controló su reproducción y exportó algunos ejemplares a zoológicos de otros países como Ecuador y Uruguay. Sin embargo, en 2021, la Unión Internacional para la Conservación de la Naturaleza envió una carta de intervención al Gobierno de Colombia recomendando iniciar un programa para eliminar la población de hipopótamos. Y en sentido opuesto, el hipopótamo fue declarado legalmente como especie invasora hace poco más de un año, el 24 de marzo de 2022.
El control de la población de hipopótamos en Colombia ha planteado varios problemas. En 2018 revisaron los métodos Santiago Monsalve, de la Corporación Universitaria Lasallista, y Alejandro Ramírez, de la Universidad de Durham. Se han propuesto los anticonceptivos para las hembras y la castración química en los machos. Pero faltan datos sobre su eficacia. Ninguno de estos métodos parece funcionar con ella tal y como se propone su aplicación según D.N. Castelblanco-Martínez y su grupo. Para la aplicación de estas técnicas se necesita controlar la agresividad de los hipopótamos, también poco estudiada y difícil de evitar por su tamaño y peso. También la población ha crecido en tal cantidad que la captura y entrega a zoológicos ya no es posible. La caza y eliminación de individuos ha provocado un gran debate con ONGs y la sociedad en general por lo que, por ahora, se ha abandonado.
La conservación compasiva de los hipopótamos no es una opciónComo resumen final valen los comentarios de Amanda Subalusky y sus colegas, de la Universidad de Yale, publicados en 2021. El hipopótamo es un ingeniero de ecosistemas que puede tener efectos profundos en los entornos terrestre y acuático y afectar la biodiversidad original de la cuenca del río Magdalena. Los hipopótamos también son agresivos y representan una amenaza para los habitantes de la región del río Magdalena aunque, por otra parte, también podrían generar beneficios económicos por el turismo. Sin embargo, se necesita más investigación para cuantificar el tamaño y la distribución de la población de hipopótamos y para predecir los efectos ecológicos, sociales y económicos que pueden provocar. Pero el conocimiento debe equilibrarse con la consideración de las preocupaciones sociales y culturales al desarrollar estrategias de manejo apropiadas para la introducción de una especie invasora.
Además, en este debate sobre cómo manejar una especie invasora, Colombia depende en gran medida del negacionismo científico: varios participantes en debates públicos tergiversan el trabajo y las opiniones de los científicos y cuestionan su ética y motivos. Destacan la necesidad y la confianza en la acción basada en la ciencia, proponen participar en discusiones sobre las preocupaciones éticas, y deben superar falsos dilemas, a menudo poco argumentados. La “conservación compasiva”, que valora los derechos e intereses de los individuos de una especie exótica carismática, no puede prevalecer sobre (1) los derechos e intereses de los individuos de las especies nativas y (2) la conservación de poblaciones, ecosistemas y servicios que suponen las especies nativas. Como proponen Sebastián Restrepo y Carlos Daniel Cadenas, de las universidades Javeriana y de los Andes, de Bogotá, sin una acción decisiva por parte de las autoridades ambientales de Colombia, con una variedad de medidas que incluyen la matanza selectiva bajo estándares humanitarios de bienestar animal, las poblaciones de hipopótamos continuarán expandiéndose a expensas de los ecosistemas que sustentan a comunidades humanas vulnerables y las especies nativas.
Referencias:
Castaño, J.A. 2008. Dos hipopótamos tristes. Letras Libres junio: 22-25.
Castelblanco-Martínez, D.N.et al. 2021. A hippo in the room: Predicting the persistence and dispersion of an invasive mega-vertebrate in Colombia, South America. Biological Conservation 253: 108923.
Dembitzer, J. 2018. The case for hippos in Colombia. Israel Journal of Ecology & Evolution doi: 10.1163/22244662-06303002.
León Panal, A.L. 2021. Historia de las especies invasoras. Guadalmazán. Córdoba. 425 pp.
Monsalve Buriticá, S. & A. Ramírez Guerra. 2018. Estado actual de los hipopótamos (Hippopotamus amphibius) en Colombia: 2018. Revista CES Medicina Veterinaria y Zootecnia 13: 338-346.
Resolución nº 0346, de 24 marzo 2022, Por la cual se modifica el artículo 1º de la Resolución Nº 848 de 2008, adicionando la especie Hippopotamus amphibius (Hipopótamo común) y se toman otras determinaciones. El Ministro de Ambiente y Desarrollo Sostenible. Colombia.
Restrepo, S. & C.D. Cadena. 2021. Science denialism limits management of invasive hippos in Colombia. Frontiers in Ecology and the Environment 19: 323-325.
Shurin, J.B. et al. 2020. Ecosystem effects of the world’s largest invasive animal. Ecology e02991.
Subalusky, A.L. et al. 2021. Potential ecological and socio-economic effects of a novel megaherbivore introduction: the hippopotamus in Colombia. Oryx 55: 105-113.
Subalusky, A.L. et al. 2023. Rapid population growth and high management costs have created a narrow window for control of introduced hippos in Colombia. Scientific Reports 13: 6193.
Wikipedia. 2023. Hippopotamus amphibius. 12 mayo.
Para saber más:
Catástrofe Ultravioleta #18 INVASORES
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Los invasores: Los hipopótamos del narco Escobar se ha escrito en Cuaderno de Cultura Científica.