Esperar el autobús en un frigorífico
Un equipo de investigación de la Escuela Superior de Ingenieros de la Universidad de Sevilla ha diseñado una parada de autobús bioclimática que reduce hasta 20 grados la temperatura de su entorno. Esta marquesina ‘inteligente’ detecta cuándo hay un usuario esperando y activa su sistema de acondicionamiento térmico (parecido al de un frigorífico), que rebaja el calor extremo del verano para que las personas que alberga se encuentren más cómodas y seguras. Las investigadoras confirman que el primer prototipo se instalará en Sevilla el próximo año.
Un diseño o arquitectura bioclimática es aquella que, por un lado, aprovecha las condiciones ambientales y elementos naturales para lograr que se integre de forma armoniosa con el entorno. Por otro lado, posee un ambiente interior confortable, que requiere un menor consumo energético. La marquesina que proponen las investigadoras está basada en este principio y funciona mediante radiación térmica, esto es, una forma de transferencia de calor o frío que ocurre cuando un objeto emite ondas electromagnéticas debido a su temperatura. “No es como un aire acondicionado, que produce aire frío; sino que la propia estructura de la parada de autobús emite frescor, como ocurre con los frigoríficos”, explica el investigador de la Universidad de Sevilla José Sánchez.
En el artículo que recoge los resultados, las científicas explican que la marquesina está compuesta por tres partes. En primer lugar, un tanque subterráneo donde se almacena agua depurada. Este elemento está conectado a la marquesina, o sea, la estructura de la parada de autobús, mediante tubos que recorren su interior y hasta el techo, lugar donde hay instalados sensores y placas solares. “A pesar de que consta de más elementos, su producción es más económica que las paradas de autobús comunes”, añade José Sánchez.
Marquesina ‘inteligente’
La marquesina posee un sistema de autosuficiencia que produce electricidad y agua fría, además de una serie de sensores que perciben la temperatura exterior, la presencia humana y el clima del entorno, de modo que ‘toma decisiones’ de forma autónoma. Por ejemplo, detendría su funcionamiento en caso de que bajaran las temperaturas.
Las investigadoras explican que, por la noche, el agua del tanque asciende hacia las placas solares, se enfría y retorna al tanque subterráneo, donde se almacena y mantiene el frescor. Cuando la parada detecta mediante sus sensores la presencia de una o varias personas, activa su sistema de enfriamiento y el agua recorre el interior de la estructura, expulsando el frío por el metal de la marquesina mediante unos poros muy pequeños, del tamaño aproximado de un garbanzo. Durante el día, los paneles fotovoltaicos acumulan la energía que impulsa el agua y el enfriamiento tiene una duración de 10 a 20 minutos, periodo máximo que un usuario suele esperar el autobús.
Según comentan las investigadoras, se trata de un espacio desarrollado por arquitectas e ingenieras, de modo que integra el diseño exterior de las paradas comunes y las funcionalidades automáticas e ‘inteligentes’. El prototipo está ideado como un refugio climático, de modo que ejercería su función de enfriamiento durante las horas más calurosas del verano en el sur, de 13:00 a 19:00 horas. “Si la temperatura alcanza, por ejemplo, los 42 grados centígrados, la sensación térmica en el interior de la marquesina sería aproximadamente de 23”, señala José Sánchez.
Referencia:
MPaz Montero Gutiérrez, Teresa Palomo Amores, Rafael Monge Palma, MCarmen Guerrero Delgado, José Sánchez Ramos, Servando Álvarez Domíguez (2023) Thermal conditioning of short-term stays. Radiant solution in a bus stop in Seville Science Talks doi: 10.1016/j.sctalk.2023.100237.
Edición realizada por César Tomé López a partir de materiales suministrados por la Fundación Descubre
El artículo Esperar el autobús en un frigorífico se ha escrito en Cuaderno de Cultura Científica.
Un archipiélago volcánico para Marte
Cuando hoy miramos el yermo paisaje del planeta Marte, a pesar de todas las pruebas que tenemos, cuesta mucho visualizar como era hace tres o cuatro mil millones de años: el planeta contaba con una atmósfera mucho más densa y un océano cubría su gran cuenca boreal, con ríos recorriendo su superficie y lagos donde ahora vemos algunos de sus cráteres. Pero todavía podemos llevar nuestra imaginación un paso más allá y esbozar un planeta que todavía, si cabe, nos recuerde más al nuestro. Un estudio recién publicado plantea que Olympus Mons podría ser el equivalente marciano a un archipiélago de origen volcánico terráqueo, como las islas de Hawái o las Azores, por ejemplo.

Estas islas tienen su origen en la existencia de puntos calientes en el manto, bajo la corteza oceánica, que alimentan una actividad volcánica capaz de construir los edificios volcánicos que formarían estas islas a partir de sucesivas erupciones a lo largo del tiempo.
Pero volvamos al caso de Marte y analicemos las monstruosas dimensiones de esta isla, que desde luego empequeñecería cualquiera de las islas oceánicas terrestres. La isla formada por Olympus Mons tendría un diámetro de unos 600 kilómetros -de tal manera que si la colocásemos dentro de la península Ibérica cabría relativamente justa- y una altura que supera los 20 kilómetros de altura desde la base, mucho más que cualquier caso de los existentes, tanto que más que duplicaría, por ejemplo, a la altura de la isla de Hawaii desde su base.
El tamaño descomunal de esta isla podría deberse a dos factores principales: Por un lado, la inexistencia de una tectónica de placas que hiciese que la corteza se fuese moviendo sobre el punto caliente. Este factor provocaría que la lava fuese surgiendo por una zona muy concreta todo el iempo, pero en la Tierra, por ejemplo, como la corteza va moviéndose, en el caso de los océanos lo que se forma es un rosario de islas con distintas edades porque, aunque el punto caliente permanezca estático, la corteza si se ha movido sobre este, dando la apariencia de que el magma ha surgido por puntos diferentes.

El otro factor para tener en cuenta es la gravedad marciana, que aproximadamente equivale a un 40% de la gravedad terrestre. Esto podría provocar que fuesen estables edificios volcánicos mucho más altos que los que hay en nuestro planeta y que no se “desmontaran” tan fácilmente, aunque en las laderas de Olympus Mons se pueden apreciar grandes cicatrices de deslizamientos cuyas causas requieren un análisis en detalle.
¿Cómo han llegado a la conclusión de que Olympus Mons pudo ser una enorme isla? Uno de los puntos clave de este estudio se sitúa en la morfología del edificio volcánico. Cuando miramos las imágenes vemos dos partes bien diferenciadas: una inferior con un escarpe muy marcado que tiene una altura de unos 6 kilómetros y sobre esta una forma mucho más suave, similar a la que vemos en los volcanes de escudo terrestre. En este estudio se interpreta el escarpe como el punto donde aproximadamente estaría la línea de costa o el nivel del mar y donde la lava se encontraría con ese gran océano boreal.
En nuestro planeta las islas oceánicas también muestran esta morfología dual cuya frontera es la altura del agua. Anteriormente, el escarpe se había interpretado de distintas maneras, fuese como una forma creada por los deslizamientos que se pueden dar en las laderas por la simple inestabilidad del edificio volcánico, por el contacto con un océano en ocasiones congelado, pero con la capacidad de erosionar y la interacción entre la lava y el hielo o también por la acción del agua líquida.
Pero todo no acaba aquí. El escarpe mide algo más de seis kilómetros de altura y, desde luego, no parece que el océano de Marte en ningún momento haya tenido una profundidad tan grande… entonces, ¿cómo podríamos resolver esta aparente incongruencia con las pruebas que marcan antiguas líneas de costa a una cota mucho más baja? El rápido crecimiento del edificio volcánico podría haber obligado a la corteza a flexionarse, generando una topografía deprimida alrededor de la base del volcán y, por lo tanto, justificando la altura de la columna del agua en esa zona sin necesidad de invocar a la existencia de un océano mucho más profundo en toda la cuenca boreal que el que ofrece cualquier modelo sobre el pasado de Marte.

Este estudio tiene muchas ramificaciones, no únicamente a nivel geológico, sino que estudiando las distintas rupturas de pendiente que se observan en el escarpe podríamos conocer distintas alturas que tuvo la columna de agua e intentar usarlo como un marcador para conocer mejor la historia del océano de Marte a lo largo del tiempo, algo que tiene unas grandes implicaciones desde el punto de vista de la astrobiología, ya que conocer la cantidad de agua y su tiempo de permanencia en estado líquido sobre la superficie de Marte nos permitiría hacernos una mejor idea sobre cómo ha cambiado la habitabilidad de Marte a lo largo del tiempo.
Además, podría intentar extenderse este estudio a otros de los volcanes presentes en la región de Tarsis, cuyas morfologías también podrían ser útiles con este método de estudio e intentar comparar resultados e incluso estudiar el resto de edificios volcánicos fueron también islas en el pasado.
Pero todavía nos queda un hándicap que resolver en el futuro: Y es que para hacer bien este último trabajo probablemente deberíamos también muestrear las rocas que forman estos volcanes, algo que nos permitiría datarlas y conocer con precisión la fecha de los distintos episodios de crecimiento de estos volcanes e intentar dibujar las antiguas líneas de costa, pero desde luego es un reto que ahora mismo es imposible a nivel técnico, pero quien sabe si en el futuro -ojalá no dentro de muchas décadas- contemos con los medios y la tecnología necesarios para poder estudiar en detalle estos lugares.
Y sin duda, estudios como estos ponen de manifiesto que, a pesar de las diferencias actuales, Marte, en su juventud, quizás no fuimos tan distintos.
Referencias:
Hildenbrand, A., H. Zeyen, F. Schmidt, S. Bouley, F. Costard, P.Y. Gillot, F.O. Marques, y X. Quidelleur. (2023) A Giant Volcanic Island in an Early Martian Ocean? Earth and Planetary Science Letters doi: 10.1016/j.epsl.2023.118302.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Un archipiélago volcánico para Marte se ha escrito en Cuaderno de Cultura Científica.
Para qué escanea el iris de millones de usuarios una aplicación de criptomonedas

WorldCoin es un mundo recién nacido en el que la economía funciona con tokens y cuyo “gobierno” promete un entorno financiero más igualitario. Para formar parte de él es necesario aportar una prueba biométrica: el escaneo del iris. Y eso ha hecho que, nada más nacer, ya esté bajo sospecha.
¿La justificación de esta prueba? Para garantizar la seguridad de quienes invierten, compran o venden en este mercado, WorldCoin necesita una herramienta que garantice que del otro lado hay un humano, y no un robot o un impostor. Con ese fin, su protocolo de identidad, World ID, rastrea los bots y las identidades virtuales falsas. Pero, además, exige a los usuarios que se unen a la red que miren con atención a una esfera plateada llamada Orb que escanea su iris, prueba indiscutible de su identidad humana y única.
La batalla por la seguridadPor ese motivo, en Kenia han suspendido la actividad de WorldCoin. Y distintas autoridades europeas han abierto investigaciones. En Francia, sin ir más lejos, la Comisión Nacional de Informática y Libertades (CNIL) ha abierto investigaciones a WorldCoin por posibles infracciones a la privacidad de datos, y apuntan a preocupaciones serias sobre vigilancia biométrica sin consentimiento informado.
Entre tanto, en Argentina, el abogado Daniel Monastersky, experto en protección de datos, ha alertado a la Agencia de Acceso a la Información Pública sobre la posibilidad de que WorldCoin esté infringiendo la ley de protección de datos personales del país y no esté cumpliendo con los estándares de privacidad y seguridad al recolectar datos biométricos de las personas.
La línea roja de escanear el irisPara WorldCoin (“MundoMoneda” si hacemos una traducción literal), la identidad digital es una herramienta básica para garantizar la seguridad y la confiabilidad de las transacciones de criptomonedas. Para garantizar que cada participante sea una persona real, escanea su iris con un dispositivo llamado Orb y lo convierte en un código alfanumérico. Si la persona aún no se había registrado en WorldCoin, recibe una participación cuando se registra por primera vez.

En el contexto de las criptomonedas, la identidad digital juega un papel esencial, dado que garantiza que las partes involucradas sean quienes afirman ser, lo que ayuda a prevenir el fraude y el robo. Por ejemplo, cuando un usuario de criptomonedas desea enviar fondos a otro usuario, debe proporcionar su identidad digital al destinatario. El destinatario puede, luego, verificar la identidad del usuario utilizando su identidad digital. Una vez que la identidad del usuario ha sido verificada, el destinatario puede aceptar los fondos.
La imagen original de los iris no se almacena ni se carga y no es necesaria otra información personal. A través de la criptografía moderna, este código alfanumérico no está vinculado ni a la tarjeta, ni a la cuenta bancaria ni a las transacciones del usuario, lo que protege aún más su privacidad.
Una vez que WorldCoin ha recibido un escáner de iris único, el proyecto emite una identidad digital denominada World ID. El ID no son los datos biométricos del usuario, sino un identificador creado mediante un método criptográfico denominado pruebas de conocimiento cero.
No obstante, esto no significa que no haya peligros.

Las zero-knowledge proofs o pruebas de conocimiento cero son un tipo de criptografía que permite a una parte (el prover) demostrar a otra (el verifier) que algo es cierto, sin revelar ninguna información adicional.
Funcionan mediante interacciones cuidadosamente diseñadas en las que el prover responde preguntas del verifier. Al final, el verifier queda convencido de la veracidad de la afirmación, pero sin obtener datos confidenciales.
Se utilizan para validar transacciones preservando la privacidad. El prover demuestra que posee fondos para una transacción, sin exponer su saldo real. WorldCoin aplica este concepto a la identidad digital, permitiendo verificar usuarios sin compartir datos biométricos reales.
La promesa de una democratización de las finanzasBajo la promesa de una posible renta básica universal, WorldCoin ha despertado esperanzas, pero también suspicacias desde una perspectiva decolonial. Si bien la idea de una renta básica incondicional o universal suena atractiva, algunos críticos advierten sobre los riesgos de implementarla mediante recolección masiva de datos biométricos en países en vías de desarrollo. Esto podría perpetuar dinámicas coloniales donde potencias extranjeras extraen recursos y datos de poblaciones vulnerables.
Además, la falta de un marco regulatorio claro en muchos de estos países genera dudas sobre la violación de derechos y privacidad de los usuarios. La promesa de WorldCoin parece benigna, pero es crucial analizarla críticamente y asegurar que no replique injusticias del pasado en el contexto del colonialismo de datos.
Los gobiernos y ciudadanos de países en vías de desarrollo deben exigir transparencia, consentimiento informado y protección de datos antes de adoptar esta controvertida tecnología.
Sobre el autor: Aníbal M. Astobiza, Investigador Posdoctoral, especializado en ciencias cognitivas y éticas aplicadas, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Para qué escanea el iris de millones de usuarios una aplicación de criptomonedas se ha escrito en Cuaderno de Cultura Científica.
La música de las rocas
Si alguna vez habéis golpeado una roca con un martillo geológico, habréis comprobado que no siempre se produce el mismo ruido. Obviamente, ese sonido depende, directamente, de la composición de esa roca. Os podéis encontrar con algo parecido a un «chof» apagado y sordo si machacáis una arcilla, pero también seréis capaces de desvelar un agudo sonido metálico al hacer chocar vuestro acero inoxidable con un sulfuro de hierro que os transportará a las melodías que se desprenden en una forja. Esto que a veces nos sirve en el campo a las personas que nos dedicamos a la Geología para hacernos una primera idea, muy burda y grosera, de los materiales que nos encontramos en nuestra investigación, se ha trasladado incluso al mundo de la música. Y no me estoy refiriendo a emplear diferentes aleaciones metálicas para construir instrumentos musicales, sino a utilizar directamente rocas para jugar con los sonidos que producen y generar así melodías muy particulares.

Un ejemplo muy directo y, probablemente, el más conocido entre la gente del norte de la Península Ibérica, lo encontramos en un grupo de música folk del País Vasco llamado Oreka TX. Este grupo se caracteriza por emplear instrumentos musicales tradicionales de la cultura vasca, en especial la txalaparta. Para que os hagáis una idea, una txalaparta es una especie de xilófono de grandes dimensiones que se toca por, al menos, dos personas puestas en pié y que dejan caer dos grandes palos de manera vertical sobre las tablas de madera que conforman el instrumento. Pues hace unos años este grupo decidió innovar un poco y crearon la primera txalaparta de piedra, en concreto, formada a partir de láminas de una roca metamórfica denominada pizarra. La pizarra procede de la transformación de una roca sedimentaria siliciclástica como la arenisca (formada principalmente por granos de cuarzo o SiO2) debido a la presión y la temperatura sufridas por su enterramiento durante millones de años. Y tiene una característica que la hace muy especial y útil para el ser humano denominada pizarrosidad: aparece formando planos muy finos a través de los cuales es muy fácil separar lajas o láminas de la roca, por lo que se ha empleado durante siglos como cubiertas de paredes y tejados en nuestros edificios. Pero esta debilidad a lo largo de las superficies planares se convierte en una enorme resistencia ante la presión en dirección perpendicular a las mismas. Vamos, que si golpeamos una pizarra de manera vertical en la superficie formada a 90 grados de sus planos de debilidad, nos va a costar mucho fracturarla. Pues Oreka TX aprovechan esta propiedad de la roca, creando láminas de pizarra de diferentes grosores y longitudes a las que golpean con fuerza en la vertical, arrancando curiosas melodías de las rocas. El sonido que desprende esta txalaparta, comparado con los que se obtienen de una tradicional de madera, es mucho más agudo, vibrante y profundo, transportándonos, si me permitís que me ponga un poco poética, a los ruidos que nos regala el agua goteando lentamente en la profundidad de una cueva.

Os he puesto de ejemplo un instrumento de percusión, el tipo de instrumentos en los que podemos pensar si hablamos de usar rocas para hacer música. Pero, ¿os imagináis que pueda existir un instrumento de viento o, mejor dicho y para ser más correcta, un instrumento de aire insuflado mediante un teclado construido en piedra? Pues para conocerlo debemos viajar al levante español, en concreto, a la localidad alicantina de Novelda. Allí, a los pies de su muralla medieval, se encuentra el Santuario de Santa María Magdalena, una iglesia de estilo modernista que recuerda mucho a la Sagrada Familia de Barcelona. En su interior se encuentra un inacabado órgano cuyos tubos están tallados en piedra. En concreto, se ha empleado una roca extraída de los alrededores y que recibe el nombre comercial de «mármol Rojo Alicante».

Se trata de una roca sedimentaria carbonatada, es decir, una caliza, formada en un ambiente marino poco profundo, de aguas transparentes, cálidas y bien oxigenadas del Jurásico, que suele presentar un abundante contenido fósil, entre el que destacan unos cefalópodos de concha enrollada llamados ammonites, muy similares a los actuales nautilus, y unos de concha recta, antecesores de los recientes calamares, denominados belemnites. La denominación de «rojo» procede de la presencia de hierro en el sedimento carbonatado original, cuya oxidación ha proporcionado a la roca unos tonos anaranjados cuyo brillo destaca una vez pulidas las losas. Como os comento, el órgano está sin terminar, pero tienen expuestos en el Santuario los tubos ya fabricados, dentro de los que insuflan aire para que las personas visitantes podamos apreciar su sonido. Y, de nuevo, me resulta muy difícil describirlo, porque su tonalidad es completamente diferente al sonido producido por cualquier órgano común construido con tubos de metal. Si le sumamos la reverberación y el eco generados por el edificio, en el que también han empleado diversas rocas ornamentales típicamente explotadas en los alrededores, como el propio «mármol Rojo Alicante», el efecto que produce este particular instrumento de piedra te transporta a los sonidos primordiales generados por la naturaleza.
La existencia de estos instrumentos de piedra nos hace viajar, de nuevo, a nuestros orígenes. Cuando quienes nos precedieron golpeaban dos rocas entre sí para generar fuego o construir herramientas, descubrieron que también podían crear sonidos armoniosos y con diferentes timbres y tonos dependiendo de su composición. Al menos, yo imagino el origen de la música de esta manera. Un arte que luego se ha ido perfeccionando con el tiempo hasta convertirse en algo indispensable para nuestra vida actual. Y el motivo por el que yo viaje una semana todos los años a la provincia de Alicante durante el mes de agosto, lo que me ha permitido conocer y disfrutar de su órgano de piedra, uniendo así dos de mis pasiones. Sin duda, como siempre digo, la Geología está en todas partes, hasta en los instrumentos musicales.
Agradecimientos:
Quiero dar las gracias a Francisco «Patxy» García Garmilla, Catedrático jubilado de Petrología Sedimentaria de la Universidad del País Vasco, magnífico profesor y mejor persona, por dar a conocer la existencia del órgano de piedra de Novelda durante una conferencia magistral que impartió con motivo de una Sesión Científica de la Sociedad Geológica de España celebrada en Leioa. Y a mi mejor amiga, Jone Mendicoa, por acompañarme a visitar el Santuario de Santa María Magdalena de Novelda durante nuestras vacaciones para disfrutar de los sonidos de la piedra, junto a muchos otros sonidos de metal, y darme la idea de escribir este artículo.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo La música de las rocas se ha escrito en Cuaderno de Cultura Científica.
Usando la lógica para encontrar al pez
Estamos en Sumerlandia. Un ladrón ha entrado de noche en el acuario de esta ciudad y ha robado el último ejemplar conocido del pez dorado de Sumerlandia.

La policía de la ciudad ha seguido el rastro dejado por el ladrón hasta la calle Five que posee cinco casas idénticas. No tienen suficientes agentes para entrar en todas las casas simultáneamente. Temen que, si entran en una de ellas y no es la del ladrón, este podría darse cuenta de que la policía le sigue de cerca y escaparía con el pez.
Las pistas recopiladas por la policíaLos agentes de policía han investigado a las personas que habitan estas cinco casas y conocen una serie de datos sobre ellas. Saben que:
-
el dueño de cada casa es de una nacionalidad distinta (alemán, británico, danés, noruego y sueco), bebe una bebida diferente (agua, café, cerveza, leche y té) y fuma un tipo distinto de cigarro (Blend, Blue Masters, Dunhill, Pall Mall y Prince);
-
cada casa tiene las paredes interiores pintadas de un color diferente (amarillo, azul, blanco, rojo y verde); y
-
en cada casa habita, además del dueño, un animal distinto (caballo, gato, pájaro, perro y pez).
Y, gracias a sus indagaciones conocen también algunos datos adicionales sobre estas personas. Saben que:
-
el británico vive en la casa pintada de rojo;
-
el sueco tiene un perro como mascota;
-
el danés bebe solo té;
-
la casa verde está situada justo a la izquierda de la blanca;
-
el dueño de la casa verde toma café a todas horas;
-
el fumador de cigarrillos de la marca Pall Mall tiene un loro como mascota;
-
el dueño de la casa amarilla fuma cigarros Dunhill;
-
el hombre que vive en la tercera casa bebe leche;
-
el noruego vive en la primera casa;
-
el que fuma cigarros de la marca Blend vive junto al que habita con un gato;
-
el que tiene un caballo vive junto al fumador de Dunhill;
-
el hombre que fuma Blue Masters bebe cerveza;
-
el alemán fuma cigarros de la marca Prince;
-
el noruego tiene como vecino al de la casa pintada de azul; y
-
el fumador de Blend vive junto a un hombre que solo bebe agua.
¿Podrías ayudar a la policía a encontrar al pez?
Usando la lógica para encontrar al culpable… y al pezVamos a construir una tabla 6×6 en la que vamos a ir incorporando la información que vamos deduciendo al analizar los datos:
La solución que se plantea aquí, extraída de la referencia, usa las pistas en un orden determinado. Así, empezamos añadiendo a la tabla anterior la información proporcionada por las pistas 8 y 9.
Como el noruego está al principio de la calle, solo tiene una casa vecina, que es la de paredes azules según la pista 14.
La pista 5 dice que el hombre que vive en la casa verde bebe café. Esa no puede ser la tercera casa, porque ya sabemos (por la pista 8) que su propietario toma leche. Pero tampoco puede ser la segunda casa porque acabamos de ver que ésa tiene paredes azules. Además, la pista 4 afirma que la casa pintada de verde está justo a la izquierda de la de paredes blancas, así que no puede ser ni la primera (porque a su derecha está la casa azul) ni la quinta casa (que no está a la izquierda de ninguna). Así, la casa de paredes verdes y el bebedor de café es la cuarta casa. Y, por tanto, la casa blanca es la quinta.
La pista 1 dice que el británico vive en la casa roja. Así que esa casa debe ser la tercera (no puede ser la primera porque su dueño es noruego).
De aquí se deduce que la primera casa debe de ser amarilla, el único color que faltaba. Y usando la pista 7, sabemos que su propietario fuma Dunhill.
La pista 11 afirma que el dueño del caballo vive junto al fumador de Dunhill. Como ese hombre vive en la primera casa, el caballo trota en el jardín de la segunda casa.
¿Y qué bebe el habitante de la primera casa? Recordemos que es noruego. Solo nos quedan tres bebidas para analizar: agua, cerveza o té. Pero no puede beber té, porque la pista 3 dice que el amante del té es danés. Además, la pista 12 afirma que el bebedor de cerveza fuma Blue Masters. Así, concluimos que el noruego de la primera casa bebe agua.
La pista 15 asegura que el que fuma Blend vive junto al bebedor de agua. Como ése habita en la primera casa, el fumador de Blend es el de la segunda casa.
La pista 12 afirma que el hombre que fuma Blue Masters bebe cerveza. Y debe ser entonces el de la quinta casa, porque la quinta columna de nuestra tabla es la única en la que no hay asignada la bebida y la marca de cigarros. Así, la única bebida no asignada, el té, debe corresponder al habitante de la segunda casa, que por la pista 3, es la casa del danés.
La cuarta casa es la única que no tiene asignadas la nacionalidad y la marca de cigarros. Podemos usar la pista 13 para deducir que es esa casa vive un alemán que fuma cigarros de la marca Prince. Y sólo nos queda una marca de cigarros por asignar, Pall Mall, que es la marca del británico de la tercera casa. Por lo tanto, el sueco (la única nacionalidad por asignar), debe vivir en la quinta casa.
La pista 6 dice que el que fuma Pall Mall, el propietario de la tercera casa, tiene a un pájaro como mascota. Y la pista 2 asegura que el sueco, el de la quinta casa, tiene un perro como compañero.
Solo nos queda por usar la pista 10, que afirma que el hombre que fuma cigarros de la marca Blend (el de la segunda casa) vive junto al que habita con un gato. En la tercera casa la mascota es un pájaro, así que el gato vive en la primera casa.
¡El ladrón es el alemán que vive en la cuarta casa! ¡Resuelto el enigma!
Referencia
Visto y adaptado de la lección TED-Ed del profesor de matemáticas Dan Van der Vieren titulada ¿Puedes resolver el «Acertijo de Einstein»?
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Usando la lógica para encontrar al pez se ha escrito en Cuaderno de Cultura Científica.
La transición vítrea observada en tiempo real
Desde la fabricación de fármacos, dispositivos electrónicos o materiales de alta tecnología a la criopreservación de proteínas, células y tejidos vivos, el conocimiento de qué sucede cuando un vidrio se calienta y pasa a una fase líquida subenfriada es de vital importancia. La llamada transición vítrea ha sido observada primera vez en tiempo real en un microscopio.

Los vidrios son materiales sólidos con una estructura tan desordenada que podrían considerarse como líquidos de una viscosidad extraordinariamente elevada. Los encontramos en las ventanas, en las pantallas de televisión y en los dispositivos móviles, en la fibra óptica, en materiales industriales plásticos, y también en el estado que presentan proteínas, estructuras celulares y tejidos vivos cuando se congelan para criopreservarlos.
Pese a ser tan habituales, es muy difícil desarrollar teorías y modelos que puedan explicar su comportamiento en detalle. Los mecanismos por los que un líquido se enfría y se transforma en un vidrio y a la inversa —cómo un vidrio se transforma en líquido al calentarse, la llamada transición vítrea— no terminan de entenderse. No se sabe a ciencia cierta si se trata de una transición de fase y se puede considerar el vidrio como un estado termodinámico diferente de los estados líquido y sólido, o si, por el contrario, el vidrio es simplemente un líquido subenfriado —enfriado por debajo de la temperatura de congelación pero manteniendo propiedades de líquido— cuyos átomos o moléculas tienen muy poca movilidad.
Una de las mayores dificultades para entender este proceso está en los desafíos que aparecen para poder visualizarlo a través del microscopio con suficiente resolución, ya que la estructura del líquido subenfriado y la del vidrio son indistinguibles a efectos prácticos.
Ahora, un equipo de investigación ha desarrollado una metodología que permite salvar esta dificultad. Ha trabajado con vidrios orgánicos ultraestables, que se preparan mediante evaporación térmica. Son más densos y exhiben una mayor estabilidad cinética y termodinámica que los vidrios convencionales obtenidos directamente a partir de líquidos.
A diferencia de los vidrios convencionales que, tal y como se ha visto hasta ahora, se transforman hacia el estado líquido de forma global, sin distinciones claras entre diferentes regiones del material, estos vidrios ultraestables hacen la transición hacia un estado líquido subenfriado de modo similar a como lo hacen los sólidos cristalinos cuando pasan al estado líquido, con la formación de zonas en fase líquida que van creciendo progresivamente. Se trata de un proceso que ya se ha descrito de forma indirecta mediante medidas de nanocalorimetría y que se ha observado solo en modelos computacionales.

La nueva metodología consiste en crear un sándwich insertando el vidrio ultraestable entre dos capas de vidrio con una temperatura de transición más elevada. Cuando la capa de vidrio ultraestable se calienta por encima de su temperatura de transición, las inestabilidades que se producen en la superficie se trasladan a las capas exteriores del sándwich y pueden ser observadas directamente mediante un microscopio de fuerza atómica.
“Se trata de movimientos y compresiones muy pequeños, del orden de unos pocos nanómetros cuando comienza la transformación, pero lo suficientemente grandes como para poder ser medidos de forma precisa con un microscopio de este tipo, que monitoriza in situ las deformaciones de la superficie que aparecen por encima de la temperatura de transición”, explica Marta Ruiz Ruiz, primera autora del estudio.
De esta manera se puede seguir en tiempo real la ‘desvitrificación’ del vidrio. La metodología Permite cuantificar la dinámica del proceso de relajación en los cristales ultraestables hacia un líquido subenfriado mediante la medida directa de las distancias existentes entre los dominios líquidos que van apareciendo, mientras se observa la deformación de la superficie y su evolución a lo largo del tiempo. De esta forma se ha podido confirmar cómo estas distancias entre zonas líquidas son extraordinariamente grandes en este tipo de vidrio. También se ha podido comparar directamente los resultados de los modelos computacionales con la realidad física y determinar la correlación de estas distancias con las escalas de tiempo del material.
Referencia:
Ruiz-Ruiz, M., Vila-Costa, A., Bar, T. et al. (2023) Real-time microscopy of the relaxation of a glass. Nat. Phys. (2023). doi: 10.1038/s41567-023-02125-0
Edición realizada por César Tomé López a partir de materiales suministrados por la Universitat Autònoma de Barcelona.
El artículo La transición vítrea observada en tiempo real se ha escrito en Cuaderno de Cultura Científica.
Trasplante fecal para reforzar al sistema inmunitario frente al cáncer
En el interior de nuestro cuerpo existe un mundo microscópico de gran complejidad que apenas se ha explorado: la microbiota intestinal, el conjunto de microorganismos (virus, bacterias, hongos, arqueas y diversos parásitos) que residen en el tracto gastrointestinal. Consta de miles de millones de microbios que suelen vivir en armonía con nosotros y que pueden llegar a tener un peso de en torno a 500 gramos. Este vasto ecosistema microscópico desempeña varias funciones vitales como la protección frente a la invasión de bacterias perjudiciales o la producción y absorción de determinados nutrientes como la vitamina K y varias vitaminas del grupo B.

La microbiota intestinal (conocida erróneamente como «flora intestinal» en la cultura popular) ha recibido un gran interés científico y médico en la última década. Los amplios avances en las tecnologías para estudiar el genoma de la inmensa variedad de microorganismos que colonizan el tracto intestinal han permitido empezar a conocer cómo estos podrían modular aspectos tan diferentes de la salud como el riesgo de padecer obesidad, alergias, diabetes tipo 2 o enfermedad inflamatoria intestinal. Sin embargo, la microbiota intestinal sigue siendo un gran misterio y multitud de especies que la pueblan (sobre todo virus) son desconocidas. De hecho, a día de hoy, ni siquiera sabemos qué es lo que diferencia a una microbiota sana de una enferma (salvo cuando existen infecciones por bacterias claramente patógenas), por la extrema variabilidad de la composición de esta entre distintas personas.
A pesar de nuestro limitado conocimiento de la microbiota intestinal, los científicos están desarrollando y evaluando potenciales tratamientos a partir de esta. En la actualidad, la terapia con más respaldo científico de entre todos ellos es el trasplante fecal para tratar a las personas que sufren una infección intestinal persistente por la bacteria Clostridioides difficile. Este microorganismo forma parte de la microbiota normal de muchísimas personas sin que cause ningún problema. No obstante, el uso de antibióticos y otros factores pueden destruir la microbiota normal y provocar que esta bacteria se expanda por el intestino y provoque graves enfermedades intestinales.
El pasado abril, la Administración de Alimentos y Medicamentos de los Estados Unidos aprobó el primer producto de microbiota fecal por vía oral para la prevención de la recurrencia de la infección por Clostridioides difficile. En España, la empresa biotecnológica Mikrobiomik está llevando a cabo un ensayo clínico en fase III en más de 20 hospitales para evaluar un medicamento basado en la microbiota intestinal con el mismo fin.
Microbiota fecal contra el cáncerEn los últimos años los investigadores han descubierto que la microbiota intestinal podría ser una aliada inesperada en al tratamiento de diferentes tipos de cáncer. En concreto, el trasplante de microbiota fecal (TMF) podría potenciar la respuesta del sistema inmunitario contra el tumor, en combinación con las inmunoterapias que también estimulan a este sistema defensivo. Este enfoque se está evaluando actualmente en múltiples ensayos clínicos a lo largo del mundo.
Uno de los estudios más importantes y pioneros, que despertó el furor sobre la microbiota fecal contra el cáncer, apareció en la revista Science en 2020. Los autores evaluaron por primer primera vez en un ensayo clínico (fase I) la respuesta de diez pacientes con melanoma y metástasis al TMF en combinación con un tratamiento de inmunoterapia al que no respondieron antes. El pronóstico de un melanoma en un estadio tan avanzado suele ser muy pobre, la gran mayoría de los afectados no llega a sobrevivir ni 5 años. Las inmunoterapias son una opción para estos pacientes, pero no todos responden: en el 40-50% de los pacientes estas no resultan eficaces y se sospecha que la microbiota intestinal podría influir en la respuesta.
En el citado estudio, de aquellos que recibieron el novedoso trasplante, dos respondieron de forma parcial al tratamiento combinado y uno de forma completa, a pesar de que previamente no habían mostrado una respuesta positiva a la inmunoterapia. Además, diversas pruebas sugerían que el TMF había estimulado al sistema inmunitario para atacar con más eficacia al tumor.
Aunque el estudio anterior no nos permite asegurar que la aplicación de microbiota fecal sea una opción eficaz frente al cáncer, por sus importantes limitaciones (pocos pacientes y sin grupo control), sí que plantea indicios de que podría serlo. Desde la publicación de dicho ensayo han ido apareciendo resultados de más investigaciones que respaldan el valor del TMF. Ahora, un reciente estudio, publicado en la revista Nature Medicine, refuerza la idea de que esta novedosa estrategia terapéutica realmente podría potenciar los tratamientos de inmunoterapia.
En esta ocasión, los investigadores administraron a 20 pacientes con melanoma avanzado (sin haber recibido tratamiento previo) TMF de donantes sanos e inmunoterapia (nivolumab o pembrolizumab). En concreto, los voluntarios recibieron en una sola sesión en torno a 40 cápsulas con microbiota fecal una semana antes del comienzo de la inmunoterapia. El ensayo no solo mostró que el TMF es un tratamiento seguro, sino que también encontró resultados prometedores: el 65 % de los pacientes que conservaban la microbiota recibida tenían una respuesta clínica al tratamiento combinado. Sin embargo, cinco pacientes tuvieron que cesar el tratamiento de inmunoterapia por eventos adversos.
El mismo grupo de científicos ya ha puesto en marcha la fase II del ensayo clínico para conocer mejor los efectos del TMF, en combinación con la inmunoterapia, sobre el melanoma. Además, el equipo también está investigando el efecto de esta novedosa estrategia terapéutica en cáncer de pulmón, pancreático y de riñones. Sin duda, en los próximos 10 años vamos a conocer con mucha más profundidad el potencial del TMF frente al cáncer.
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo Trasplante fecal para reforzar al sistema inmunitario frente al cáncer se ha escrito en Cuaderno de Cultura Científica.
El entorno cultural de niños y niñas influye en el desarrollo de sus rasgos prosociales
prosociales

Los seres humanos somos animales cooperativos. En general, lo somos más que otros primates, aunque hay importantes diferencias entre culturas y, seguramente, también entre épocas históricas. Aún hoy no somos capaces de determinar si el comportamiento prosocial, o cooperativo, es simplemente consecuencia de las relaciones de parentesco y de las expectativas de reciprocidad o si, además de esos dos, actúan otros factores.
La transmisión cultural en el seno de grupos humanos es un mecanismo fundamental en la adopción por sus integrantes de las normas sociales de las que depende el comportamiento cooperativo. Los modelos matemáticos basados en los principios de la coevolución genético-cultural predicen que las diferencias de comportamiento prosocial entre grupos humanos han de ser más pronunciadas cuanto mayores son los costes de la cooperación, y que esas diferencias han de aparecer conforme los niños adquieren las normas en sus respectivas comunidades. Por esa razón es importante estudiar la ontogenia de la prosocialidad. Con ontogenia, me refiero a la variación que ocurre a lo largo de la vida del individuo (normalmente de su morfología o estructura), y suele utilizarse en contraste con filogenia, que describe la historia evolutiva de un grupo de individuos. Ontogenia es un término procedente de la biología del desarrollo, y aquí se utiliza haciendo una extensión de su campo semántico al ámbito del comportamiento.
Un equipo de investigación ha sometido a contraste las predicciones de los modelos de coevolución genético-cultural [1], estudiando experimentalmente grupos de individuos de diferentes edades (entre 3 y 14 años, y también adultos) pertenecientes a seis sociedades humanas muy diferentes entre sí. Los grupos humanos investigados fueron urbanitas de Los Ángeles (EEUU), horticultores y recolectores marinos de la Isla Yasawa (Islas Fiji), cazadores-recolectores Aka (República Centroafricana), pastores y horticultores Himba (Namibia), horticultores Shuar (Ecuador), y cazadores-recolectores Martu (Australia). Los experimentos se basaron en juegos similares a algunos de los propios de teoría de juegos (se pueden consultar en la referencia original).
Los niños y niñas de menor edad (entre 4 y 6 años) tenían comportamientos prosociales muy similares en las diferentes sociedades estudiadas. Dado que el aprendizaje social modela el comportamiento infantil ya desde muy temprano, el hecho de que hubiese mínimas diferencias entre los más pequeños de distintas culturas quiere decir que no es el aprendizaje social temprano el que determina las diferencias que se observan posteriormente entre culturas, sino que esas diferencias han de tener su origen en periodos vitales posteriores.
Efectivamente, el comportamiento cooperativo empieza a divergir entre poblaciones (entre culturas) a partir de los 6 o 7 años de edad, y las diferencias se van afianzando durante lo que se considera la infancia media, esto es, desde los 6-7 años y hasta la madurez sexual. Esto sugiere que los chicos y chicas de esas edades empiezan a ser sensibles a la información propia de cada sociedad acerca de la forma de comportarse en situaciones de cooperación costosa. No es en absoluto sorprendente que el intervalo de edades en que se produce la divergencia sea, precisamente, un periodo clave en el desarrollo cognitivo humano, ya que es en el que niños y niñas se incorporan a la comunidad cultural más amplia a la que pertenece su familia. Por eso, se trata de un periodo especialmente importante desde el punto de vista de la acomodación o adaptación a las normas sociales locales.
El comportamiento prosocial que se va diferenciando entre chicos y chicas de distintas culturas a partir de los 6 y 7 años es, sobre todo, el que conlleva costes. Esta observación coincide con las predicciones de los modelos de coevolución genético-cultural que se han citado antes, en el sentido de que las normas sociales e institucionales ejercen una mayor influencia cuando el comportamiento beneficioso para el grupo es costoso y, por lo tanto, más difícil de poner en práctica y mantener en el tiempo.
Por último, el comportamiento prosocial se desarrolla de forma diferenciada dependiendo del contexto cultural en el que se desenvuelven los niños y niñas y adolescentes. Los comportamientos cooperativos que conllevan costes empiezan a divergir a partir de los 6 o 7 años de edad, y esa divergencia es la que se acaba manifestando en las edades adultas. Por lo tanto, no cabe considerar un único modelo de desarrollo ontogenético de la prosocialidad en nuestra especie, sino que resulta ser muy dependiente del contexto cultural.
Fuente: B. R. House, J. B. Silk, J. Henrich, H. C. Barrett, B. A. Scelza, A. H. Boyette, B. S. Hewlett, R. McElreath y S. Laurence (2013): «Ontogeny of prosocial behavior across diverse societies». PNAS 110 (36): 14586-14591
Nota:
[1] En la evolución humana intervienen, de forma interactiva, elementos de carácter genético y de naturaleza cultural. Es lo que se conoce como coevolución genético-cultural. En virtud de esa coevolución, los mecanismos de transmisión genética y de transmisión cultural interaccionan dando lugar a la adopción y extensión, en dominios muy diferentes, de rasgos con valor adaptativo.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El entorno cultural de niños y niñas influye en el desarrollo de sus rasgos prosociales se ha escrito en Cuaderno de Cultura Científica.
Bacterias magnetotácticas con funcionalidades mejoradas
El grupo de Magnetismo y Materiales Magnéticos de la UPV/EHU lleva más de una década trabajando con bacterias magnetotácticas, un grupo de bacterias acuáticas que en su entorno natural sintetizan cristales de magnetita (un mineral de hierro), que actúan como brújulas y posibilitan que estas bacterias se orienten y naveguen a lo largo de las líneas del campo magnético terrestre.
“Las funcionalidades intrínsecas de estas bacterias hacen que sean muy interesantes para el ámbito clínico, ya que tienen todas las características que se necesitan para ser utilizadas como nanorrobots. Además de poder guiarlas mediante campos magnéticos a la zona a tratar, numerosos trabajos han demostrado el potencial que las bacterias magnetotácticas tienen para ser utilizadas en diferentes prácticas, como la hipertermia magnética (una terapia contra el cáncer), como portadores de fármacos y como agentes de contraste para imágenes por resonancia magnética”, detalla Lucía Gandarias Albaina, investigadora del grupo de investigación y primera autora del presente estudio.
No obstante, estas bacterias presentan una dificultad: “No son fáciles de modificar; sus interesantes características las tienen de forma intrínseca, pero no resulta sencillo introducir nuevas funcionalidades”, señala la investigadora. Una de las estrategias que se sigue en este sentido reside en enriquecer el medio de cultivo con ciertas sustancias, y ver el efecto que esto tiene en las bacterias.
El equipo de investigación se propuso estudiar el efecto que tendría añadir terbio (Tb) y gadolinio (Gd) en el medio de cultivo de la bacteria Magnetospirillum gryphiswaldense, es decir, “cómo cambiaría el potencial de esta bacteria como agente biomédico al incorporar estos elementos”, precisa Gandarias.

La internalización del terbio y el gadolinio por parte de las bacterias trajo la aparición de nuevas funcionalidades. Así lo describe la investigadora: “En nuestros análisis vimos, por un lado, que el terbio convierte las bacterias fluorescentes, por lo que podrían ser utilizadas como biomarcadores, ya que sería posible rastrear dónde se encuentran. Por otro lado, comprobamos que, al incorporar el gadolinio, las bacterias adquieren carácter de agentes de contraste duales para resonancias magnéticas, que es hacia donde se están dirigiendo las investigaciones en este campo de estudio”.
Es conocido que la resonancia magnética requiere que la persona que se va a someter a ella tome agentes de contraste, una clase de productos que mejoran la diferenciación por imagen entre el tejido normal y el dañado y facilitan el diagnóstico. Actualmente se utilizan dos tipos de contraste, los positivos, o T1, que son los más utilizados y están basados en compuestos de gadolinio, y los negativos, o T2, que son nanopartículas de óxido de hierro. “Dado que nuestras bacterias ya contaban con partículas de hierro como parte de sus partículas magnéticas y son capaces de integrar gadolinio del medio de cultivo, pueden funcionar como agentes de contraste duales”, explica Gandarias. Porque la aparición de las nuevas funcionalidades descritas no ha hecho desaparecer las que previamente tenían.
A la vista de estos resultados, la investigadora augura un futuro muy prometedor para el uso de bacterias en la práctica clínica: “Aunque estamos en los inicios, se está trabajando en el uso de bacterias para tratamientos contra el cáncer; hay muchos estudios en diferentes fases. En nuestro caso, en las pruebas in vitro realizadas hemos comprobado que las bacterias no son tóxicas para las células, lo cual nos permitirá continuar estudiando en esta línea”.
Referencia:
Lucía Gandarias, Elizabeth M. Jefremovas, David Gandia, Lourdes Marcano, Virginia Martínez-Martínez, Pedro Ramos-Cabrer, Daniel M. Chevrier, Sergio Valencia, Luis Fernández Barquín, M. Luisa Fdez-Gubieda, Javier Alonso, Ana García-Prieto & Alicia Muela (2023) Incorporation of Tb and Gd improves the diagnostic functionality of magnetotactic bacteria Materials Today Bio doi: 10.1016/j.mtbio.2023.100680
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Bacterias magnetotácticas con funcionalidades mejoradas se ha escrito en Cuaderno de Cultura Científica.
Europa entreabre la puerta a la edición genética en plantas
edición genética

Hace unos pocos meses publicaba un artículo en el que lamentaba el bloqueo que, en mi opinión y en la de muchos otros profesionales del sector, estaban sufriendo las nuevas técnicas genómicas (NGT en sus siglas en inglés) para su posible aplicación en las plantas. Las técnicas NGT incluyen los nuevos procedimientos de edición genética, en particular las herramientas de edición genética CRISPR, las más recientes, versátiles y poderosas, que han revolucionado la biología, la biomedicina y también la biotecnología tanto en animales como en plantas.
Una inexplicable sentencia del tribunal de justicia de la Unión Europea de julio de 2018 había equiparado los riesgos potenciales de las plantas modificadas genéticamente por la adición de un nuevo gen o fragmento de ADN (transgénicas) con los de las plantas editadas genéticamente con CRISPR. Sin embargo, en estas últimas no se suele añadir ningún transgén, sino que se inactivan o modifican genes con pequeñas variaciones genéticas (inserciones, deleciones o substituciones), similares o idénticas a las existentes en otras variedades naturales de esa misma planta.
La sentencia indicaba, sin aportar justificación científica, que toda planta editada genéticamente debía ser evaluada frente a los riesgos potenciales contra la salud humana y el medio ambiente. Eso implica la preparación de complejos y caros dossieres, tal y como recoge la Directiva 2001/18. Esta directiva se ha venido aplicando sobre todos los organismos modificados genéticamente (OMG) y ha provocado, de facto, la no aprobación para el cultivo de ninguna nueva variedad OMG desde entonces.
Este despropósito aisló Europa –y a Nueva Zelanda, aunque últimamente están reconsiderando su postura– del resto del mundo, que ha optado mayoritariamente por no regular a las plantas editadas genéticamente como OMG. Eso les permite favorecer la innovación tecnológica y aprovecharse de las ventajas productivas de incorporar estos métodos NGT en la agricultura.
Una nueva propuesta de la Comisión Europea para cambiar las cosasSin embargo, algo parece estar moviéndose en Europa en este tema. El pasado 5 de julio, la Comisión Europea publicó una propuesta para modificar la regulación de las plantas obtenidas mediante edición genética usando alguno de los métodos NGT, como las herramientas CRISPR.
El resumen de esta propuesta subraya varios aspectos. En primer lugar reconoce que las técnicas NGT no existían en 2001, cuando se adoptó la legislación actual europea que aplica sobre los OMG. Ciertamente parece cuando menos extraño que se intente aplicar los dictados de una directiva que se aprobó 12 años antes que apareciera la tecnología CRISPR (en 2013).
En segundo lugar, la propuesta incorpora una modificación largamente esperada por el sector: aquellas plantas obtenidas mediante alguna técnica NGT que podrían haberse también obtenido de forma natural o mediante cruces tradicionales serían sometidas a un proceso de verificación.
Aquellas que superaran este proceso serían tratadas como plantas convencionales y, por ello, estarían exentas de cumplir la Directiva 2001/18 de OMG. De hecho, no tendrían que ser identificadas como tales, aunque naturalmente deberían cumplir las normas de seguridad alimentaria, como cualquier otro producto destinado a la alimentación.
¿Y qué pasaría con las plantas NGT que no superen dicha verificación? Que seguirían considerándose OMG y seguirían teniendo que afrontar la citada directiva, aunque de una forma distinta, menos exhaustiva. Y esta es la tercera de las novedades importantes de la propuesta: no se les realizarán los mismos análisis que actualmente se aplican a las plantas transgénicas. La evaluación de riesgo debería estar justificada por una hipótesis de riesgo que se pudiera testar. O lo que es lo mismo, solamente se evaluarían aquellos riesgos para los que hubiera una hipótesis plausible.
No es lo mismo edición genética al azar que hacerla mediante CRISPRIncluir un proceso de verificación a las plantas obtenidas mediante NGT incorpora la flexibilidad que la comunidad científica venía reclamando desde hacía muchos años. No pueden tratarse todas las modificaciones o ediciones genéticas por igual.
Ese fue el error de la sentencia de julio de 2018: que equiparaba insertar al azar un gen de otro organismo (por ejemplo de una bacteria) en el genoma de una planta para generar una planta transgénica resistente a una plaga de insectos, a modificar mediante CRISPR, con precisión, algunas letras del ADN de una planta de forma que un gen deje de funcionar o adquiera una variante genética distinta, existente ya en la naturaleza, que le proporcione alguna característica distintiva aprovechable agroeconómicamente. Por ejemplo distinto sabor, mayor resistencia a la sequía, cambio en el contenido de compuestos metabólicos, resistencia a plagas, etcétera.
El nuevo (y gran) paso de la Comisión Europea acercaría el destino de la biotecnología vegetal en Europa al del resto del mundo, y terminaría con nuestro aislamiento. Algo que ya hizo en EE. UU. el Ministerio de Agricultura hace cinco años.
Aires de cambio que invitan al optimismoLa EPSO(la Organización Europea para la Ciencia de las Plantas) ya ha reconocido públicamente la voluntad de la Comisión Europea para modificar la legislación sobre OMG en la dirección adecuada. Y también ha dado la bienvenida a la propuesta el consejo científico asesor de ARRIGE, la Asociación para la Investigación Responsable e Innovación en Edición Genética.
Naturalmente esta propuesta no suscita el acuerdo de todos, y tanto los partidos Verdes europeos como Alemania y Austria ya se han posicionado en contra de la misma, reclamando mantener el principio de precaución que ha lastrado el progreso en Europa en este campo en los últimos años.
Algunos sinsentidosEn toda iniciativa, el diablo está en los detalles, y este caso no es una excepción. El procedimiento de verificación de las plantas NGT permite eximirlas de cumplir la Directiva 2001/18 solamente en determinadas situaciones, descritas en los anexos de la propuesta.
Concretamente, se propone que una planta obtenida por NGT se considerará equivalente a una planta convencional si el número de substituciones o inserciones de letras del genoma afectadas por la modificación es menor o igual a 20. Pero si se trata de eliminar letras (deleciones) o de invertir la dirección de un fragmento del ADN, este número es ilimitado. ¿Por qué diferenciamos entre inserciones/substituciones y deleciones/inversiones? ¿Por qué limitamos las primeras precisamente a 20 y no a 18, o a 25, o a 30? En plantas, de forma natural,existen inserciones y deleciones mucho mayores.
Son razones arbitrarias en las que, de nuevo, parece faltar la justificación científica correspondiente y pueden dejar fuera de esta propuesta a muchas plantas NGT que no cumplan con estas limitaciones.
Finalmente, las plantas NGT que se consideren equivalentes a las plantas convencionales no podrán, sin embargo, ser usadas en agricultura ecológica/orgánica. Otra contradicción.
Sea como fuere, esta propuesta de la Comisión Europea deberá ser debatida en el Parlamento Europeo y por el Consejo Europeo antes de su aprobación. Es posible que afronte nuevas modificaciones durante la negociación. Pero hay esperanza y algo se mueve –¡por fin!– en Europa.
Y por eso es tan importante contarlo, para que la sociedad europea conozca la existencia de esta propuesta y su previsible impacto en la biotecnología y en nuestra economía.
Sobre el autor: Lluís Montoliu, Investigador científico del CSIC, Centro Nacional de Biotecnología (CNB – CSIC)
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Europa entreabre la puerta a la edición genética en plantas se ha escrito en Cuaderno de Cultura Científica.
Los reptiles geométricos
Se acaba de anunciar que el lema del Día Internacional de las Matemáticas 2024 será Jugando con las matemáticas. Por este motivo, me ha parecido una buena idea dedicar esta entrada estival del Cuaderno de Cultura Científica a un curioso rompecabezas geométrico, el de las figuras geométricas conocidas como “rep-tiles”, bueno realmente su nombre es el de “repiteselas”, pero tiene su gracia utilizar en el título de esta entrada el término en inglés, “reptiles”.

El matemático escocés Charles Dudley Langford (1905-1969), a quien se le ocurrió también el conocido problema de los emparejamientos de Langford (véase la entrada Teselaciones rítmicas perfectas o el libro Del ajedrez a los grafos, la seriedad matemática de los juegos), en un artículo titulado Uses of a Geometric Puzzle (Usos de un rompecabezas geométrico) y publicado en la revista The Mathematical Gazette (La gaceta matemática) en 1940, se planteó la siguiente cuentión.
Problema: ¿Qué formas geométricas (formas poligonales) pueden ser diseccionadas en copias idénticas de ellas mismas?
Aunque Langford lo plantea al revés, de la siguiente forma. Es trivial que, si tomamos cuatro cuadrados, triángulos o rectángulos, estos pueden juntarse para formar de nuevo un cuadrado, un triángulo o un rectángulo, es decir, la misma forma, pero de mayor tamaño.
Langford propone buscar otras figuras geométricas que cumplan esta propiedad, algunas de las cuales, como las dos que aparecen en la siguiente imagen, ya eran conocidas por los creadores de rompecabezas geométricos.
Aunque el matemático ofrece algunos otros ejemplos, tres con forma de trapecio y otro con forma de L (los dos anteriores son también de este tipo). Los tres con forma de trapecio son los siguientes.
Mientras que el de la forma de L es esta sencilla forma.
En 1962 el matemático e ingeniero estadounidense Solomon W. Golomb (1932-2016), creador de los poliominós (véanse las entradas Embaldosando con L-triominós (Un ejemplo de demostración por inducción) y Tetris, embaldosados y demostraciones), recuperó la idea de los rompecabezas de Langford, a los que denominó “rep-tiles” (repiteselas), que venía de la expresión “self-replicating tiles” (teselas o baldosas auto-replicantes), haciendo un gracioso juego de palabras con el grupo de animales que reciben el nombre de reptiles. Las repiteselas fueron popularizadas por el divulgador de las matemáticas estadounidense Martin Gardner (1914-2010) en su columna Juegos matemáticos, de mayo de 1963, de la revista Scientific American.
Por lo tanto, una repitesela (o un rep-tile geométrico, si queremos seguir el juego de palabras de Golomb) es una forma geométrica (poligonal) que puede ser diseccionada en copias idénticas de ella misma, como las formas que hemos mostrado más arriba o la figura “esfinge” introducida por Golomb y que mostramos a continuación.
La figura “esfinge” es un hexadiamante (es decir, un polidiamante -figura geométrica plana formada conectando dos o más triángulos equiláteros por alguno de sus lados; los triángulos se conectan lado con lado, pero no se pueden conectar ni por sus vértices, ni juntando solo parte de un lado de un triángulo con parte de un lado de otro- formado por seis triángulos equiláteros) que forma un pentágono irregular y que recuerda a la gran esfinge de Guiza (Egipto), motivo por el cual recibe su nombre.

Pero se puede afinar un poco más la definición teniendo en cuenta el número de copias en las que se descompone la figura geométrica. Se dice que una figura geométrica es una repitesela (o un reptil geométrico) de orden k si puede ser diseccionada en k copias idénticas de ella misma. Todos los ejemplos que han sido mostrados en esta entrada hasta el momento son repiteselas de orden 4.
Veamos ejemplos de repiteselas de otros órdenes. Empecemos por el orden 2. Un ejemplo de reptil geométrico de orden 2 lo encontramos muy cerca de nosotros, de hecho, en las hojas de papel sobre las que escribimos, que tienen el formato denominado DINA (véase la entrada Visitad los museos, también en clave matemática). Si juntamos dos hojas de papel DIN A4 se obtiene una hoja de papel DIN A3 y ambas tienen la misma forma (el cociente entre el largo y el ancho en ambas es igual, la raíz de 2), es decir, se puede dividir la hoja DIN A3 en dos hojas DINA4, que tienen la misma forma que la hoja original (DIN A3). Por lo tanto, el rectángulo raíz cuadrada de dos, es decir, el rectángulo cuya proporción entre la altura y la base es la raíz cuadrada de 2, es una repitesela de orden 2.

El triángulo rectángulo isósceles es también un ejemplo de reptil geométrico de orden 2.

El ejemplo del rectángulo anterior nos sirve para poder afirmar que para todo orden k existe siempre un reptil geométrico de ese orden, ya que el rectángulo cuya proporción entre la base y la altura es la raíz cuadrada de k, es una repitesela de orden k.

Todos los ejemplos de repiteselas que hemos mostrado son figuras convexas, sin embargo, Langford consideró también figuras no convexas. Recordemos que, en matemáticas, un conjunto es convexo si, dados dos puntos cualesquiera del conjunto, se verifica que los puntos del segmento que une esos dos puntos están también dentro del conjunto. El conjunto no convexo, mostrado por Langford en su artículo, que es una repitesela es la unión de dos cuadrados por su vértice, que se muestra en la siguiente imagen.

Teniendo en cuenta que una repitesela de orden k es una figura geométrica que puede ser diseccionada en k copias idénticas de ella misma, y que cada una de estas copias puede ser, a su vez, diseccionada en k pequeñas copias de sí misma, entonces la figura original quedará diseccionada en k2 copias, es decir, la figura geométrica es también una repitesela de orden k2. Y como este proceso de puede continuar hasta el infinito, se puede deducir el siguiente resultado.
Proposición: Una figura geométrica que es un reptil geométrico de orden k, es también un reptil geométrico de orden kn, para cualquier número natural n.

Pero los reptiles geométricos de un cierto orden k, es decir, que pueden ser diseccionados en k copias idénticas de ellos mismos, también pueden ser diseccionados en otras cantidades, distintas de k (o sus potencias), de copias de ellas mismas. Por ejemplo, el propio Langford muestra como dos de las repiteselas de orden 4 que ya hemos mostrado, también tienen orden 9, como queda de manifiesto en la siguiente imagen.

Existen diferentes investigaciones sobre los órdenes de las repiteselas, pero no abordaremos este tema en esta entrada del Cuaderno de Cultura Científica.
Construyendo reptiles geométricosVamos a terminar esta entrada con una sencilla técnica, desarrollada por Golomb, para construir reptiles geométricos. En particular, la que nos permite construir el siguiente pez como una repitesela de orden 9.

Si nos fijamos en la anterior imagen, la figura del pez es un polidiamante formado por tres triángulos (luego un tridiamante) que tesela el triángulo equilátero, es decir, con una cierta cantidad de copias del pez (en este caso tres) se forma un triángulo equilátero, luego el pez es un reptil geométrico.

De la misma forma, podemos buscar otros polidiamantes que teselen el triángulo equilátero. Empezando con los tridiamantes tales que juntando tres copias forman el triángulo equilátero, es decir, que teselan el triángulo equilátero, podemos observar que existen cinco ejemplares de estos tridiamantes (el pez y los cuatro que aparecen en la siguiente imagen).

Notemos que en los anteriores ejemplos el triángulo equilátero teselado tiene 9 pequeños triángulos equiláteros y efectivamente el 9 es divisible por 3. Si realizásemos un estudio general de esta construcción con polidiamantes que teselan un triángulo equilátero tendríamos que tener en cuenta cuantos pequeños triángulos equiláteros teselan un triángulo equilátero. El número de esos pequeños triángulos equiláteros es igual a la suma de los primeros números impares, 1 + 3 + 5 + … + (2n – 1), siendo n la cantidad de filas de triángulos que hay. Pero, como vimos en la entrada Matemáticas para ver y tocar la suma de los primeros números impares es igual a un número cuadrado, 1 + 3 + 5 + … + (2n – 1) = n2. Luego si buscamos otra teselación del triángulo equilátero con tres polidiamantes, el siguiente caso en el que buscar sería para n = 6 (seis filas) y un ejemplo es la figura del cohete siguiente.

Este tipo de construcción sirve también para otras poliformas, como por ejemplo los poliominós (recordemos que ahora se utilizan cuadrados en lugar de triángulos equiláteros). Terminamos la entrada con un ejemplo de esta construcción, que nos dice que el tetraminó (poliominó formado por cuatro cuadrados) con forma de T es un reptil geométrico de orden 16, ya que con cuatro tetraminós de esta forma se construye el cuadrado.

Bibliografía
1.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.
2.- Charles Dudley Langford, Uses of a Geometric Puzzle, The Mathematical Gazette 24 (260), pp. 209–211, 1940.
3.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, El mundo es matemático, RBA, 2015.
4.- Solomon W. Golomb, Replicating figures in the plane, The Mathematical Gazette 48 (366), pp- 403–412, 1964.
5.- Martin Gardner, The Unexpected Hanging and Other Mathematical Diversions (capítulo 19: Rep-Tiles, Replicating Figures on the Plane), Chicago University Press, 1991.
6.- Wikipedia: Rep-tile
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los reptiles geométricos se ha escrito en Cuaderno de Cultura Científica.
Fotones como neurotransmisores
Nuestro encéfalo está formado por miles de millones de neuronas que están conectadas entre sí formando redes complejas. Estas neuronas se comunican mayoritariamente mediante un proceso llamado transmisión sináptica, en el cual se envían señales eléctricas (potenciales de acción) y señales químicas (neurotransmisores).
Los neurotransmisores los libera una neurona, se difunden hacia las demás, y llegan a las células diana generando una señal que excita, inhibe o modula la actividad celular. El momento y la fuerza de estas señales son cruciales para que el cerebro procese e interprete la información sensorial, tome decisiones y genere comportamiento.
Controlar las conexiones entre las neuronas nos permitiría comprender y tratar mejor los trastornos neurológicos, reconfigurar o reparar los fallos en los circuitos neuronales tras haber sido dañados, mejorar nuestras capacidades de aprendizaje o expandir nuestro conjunto de comportamientos.
Existen varios métodos para controlar la actividad neuronal. El uso de fármacos es la alternativa más habitual, que permite alterar los niveles de los neurotransmisores presentes en el encéfalo y afectar la actividad de las neuronas. Otra opción es estimular eléctricamente zonas específicas para activar o inhibir las neuronas. Pero existe una tercera posibilidad: usar la luz.

La manipulación de la actividad neuronal mediante la luz es una técnica, relativamente nueva, que se viene explorando desde hace tiempo. Esta técnica implica modificar genéticamente las neuronas para que expresen proteínas, canales iónicos, bombas de protones o enzimas específicas sensibles a la luz en las células diana.
Aunque este método permite a los investigadores controlar la actividad de grupos concretos de neuronas con mayor precisión, existen todavía algunas limitaciones. Como la luz se dispersa en el tejido cerebral, debe administrarse muy cerca de las neuronas para lograr una resolución suficiente a nivel de sinapsis. Esto implica usar técnicas a menudo invasivas, y requiere de intervenciones externas. Además, la intensidad que se necesita para llegar a las células diana puede ser potencialmente dañina para ellas.
Luz para controlar la actividad neuronalAhora, un equipo de investigadores ha desarrollado un nuevo sistema que utiliza fotones como neurotransmisores como estrategia para controlar la actividad neuronal. Este método permite conectar dos neuronas utilizando luciferasas (unas enzimas que emiten luz) y canales iónicos fotosensibles. El método, llamado PhAST, ha sido testado en el nemátodo Caenorhabditis elegans, un organismo modelo ampliamente utilizado para estudiar procesos biológicos.
Del mismo modo que los animales bioluminiscentes usan fotones para comunicarse, la idea era utilizar enzimas para enviar fotones, en lugar de sustancias químicas, como transmisores entre neuronas. Para comprobar si era posible, realmente, usar los fotones para codificar y transmitir el estado entre dos neuronas, el equipo primero modificó genéticamente los gusanos, alterando sus neurotransmisores de tal manera que fuesen insensibles a los estímulos mecánicos. El objetivo era ver si, con el sistema diseñado, se podían revertir estas alteraciones sensoriales.
En segundo lugar, los investigadores sintetizaron las luciferasas y seleccionaron los canales iónicos proteicos sensibles a la luz, denominados canalrodopsinas. Por último, desarrollaron un dispositivo que administraba estímulos mecánicos en la punta de la nariz de los gusanos, midiendo simultáneamente la actividad del calcio (uno de los iones y mensajeros intracelulares más importante) en las neuronas sensoriales. Esto les permitió seguir el flujo de la información.
Para poder ver los fotones y estudiar la bioluminiscencia, el equipo diseñó previamente un microscopio específico asistido con aprendizaje automático. Simplificaron un microscopio de fluorescencia quitando algunos elementos ópticos habituales como filtros, espejos, o el propio láser, y lo cubrieron por completo para eliminar la contaminación de luz externa.
Los investigadores diseñaron también varios experimentos que han conseguido establecer que los fotones sí pueden, de hecho, transmitir estados neuronales. En uno de ellos, se estableció una nueva comunicación entre dos neuronas no conectadas previamente, restaurando una conexión neuronal en un circuito defectuoso.
También suprimieron la respuesta del animal a estímulos dolorosos, cambiaron su comportamiento pasando de atracción a aversión en respuesta a un estímulo olfativo y estudiaron la dinámica del calcio durante la puesta de los huevos.
Los fotones pueden actuar como neurotransmisoresLos resultados demuestran que los fotones pueden actuar como neurotransmisores, permitiendo la comunicación entre las neuronas, y que el sistema PhAST permite la modificación sintética del comportamiento animal.
Como la luz puede usarse en más tipos de células y en más especies animales, ofrece un gran potencial para una amplia gama de aplicaciones, desde la investigación básica hasta aplicaciones clínicas en neurociencia.
Controlar y monitorear la actividad neuronal mediante luz puede ayudar a la comunidad científica a, por ejemplo, entender mejor los mecanismos subyacentes de la función cerebral y los comportamientos complejos o a determinar cómo distintas regiones del cerebro se comunican entre ellas.
También puede aportar nuevas maneras de escanear y mapear la actividad cerebral con mayor resolución espacial y temporal. Además, puede ser útil en el futuro para desarrollar nuevos tratamientos para reparar las conexiones neuronales dañadas sin necesidad de cirugías invasivas.
El camino a seguir en un futuro está orientado a mejorar la ingeniería de las enzimas bioluminiscentes, los canales iónicos o las moléculas diana, lo que permitiría controlar de manera óptica, no invasiva, y con una mayor especificidad y precisión la función neuronal.
Referencia:
Porta-de-la-Riva, M., Gonzalez, A.C., Sanfeliu-Cerdán, N. et al. (2023) Neural engineering with photons as synaptic transmitters. Nat Methods doi: 10.1038/s41592-023-01836-9
Edición realizada por César Tomé López a partir de materiales suministrados por ICFO.
El artículo Fotones como neurotransmisores se ha escrito en Cuaderno de Cultura Científica.
La juventud de la superficie de Venus
superficie de Venus
Quizás uno de los temas más candentes de la geología planetaria en los últimos años -y que probablemente lo seguirá siendo hasta bien entrada la próxima, cuando quizás podamos dar por sentada esta cuestión- ha sido el estudio de la posible actividad volcánica en Venus. Aquí, en este mismo espacio de Planeta B hemos hablado de los esfuerzos por cartografiar las estructuras volcánicas en Venus en “Un nuevo mapa del vulcanismo de Venus”, así como también de las que podrían ser las primeras imágenes que demuestran que es un planeta volcánicamente activo en “¿Es esta la prueba definitiva de que Venus tiene volcanes activos?”.
Pero lo cierto es que, a pesar de que nos cueste conocer el grado de actividad de Venus debido a la falta de misiones y a la escasa cobertura temporal -al menos con buena resolución-, si no es activo en la actualidad, lo ha sido muy recientemente, aunque desconozcamos exactamente que tipo de procesos son los encargados de rejuvenecer su superficie. En nuestro planeta tenemos la tectónica de placas, el vulcanismo o los agentes externos como la lluvia o el hielo, pero, ¿qué pasa en Venus?
Las cronologías más recientes muestran una gran horquilla de edades para la superficie de Venus que va desde los 1.000 a los 150 millones de años debido a las grandes limitaciones que tenemos para estudiar el planeta. De hecho, estas edades se han calculado estudiando la población de cráteres que hemos podido observar en las imágenes de radar que tenemos, ya que no hemos podido traer muestras de su superficie y que podamos datar en nuestros laboratorios, algo que de momento está lejos de nuestro alcance a nivel tecnológico.

Esta técnica de datación mediante el conteo de cráteres es muy habitual en los cuerpos del Sistema Solar de los que no podemos traer muestras pero de los que sí disponemos de imágenes, ya que nos permite estimar la edad contando los cráteres de una zona y por norma general, a mayor número de cráteres por unidad de superficie, más antigua es esta, aunque obviamente tiene sus limitaciones. Se basa en un principio básico que podríamos resumir en que si la superficie no cambia por algún tipo de proceso, cada vez tendrá más cráteres visibles. O dicho de una manera sencilla: los cráteres son las “arrugas” de los planetas.
Pero esta técnica tiene en Venus un inconveniente muy concreto: Y es que su densa atmósfera probablemente sirva de filtro para los cuerpos más pequeños y que, por lo tanto, podrían consumirse antes de tocar suelo, no llegando a dejar un cráter y por lo tanto, dificultando la tarea, dando como resultado una edad más reciente debido a este sesgo.
A pesar de este posible problema con las dataciones, si miramos la superficie de Venus parece muy joven, tanto es así que sería el único planeta interior (contando a Mercurio y Marte) cuya superficie tiene una edad de rejuvenecimiento de su superficie similar a la de la Tierra y, por lo tanto, procesos capaces de transformar el planeta activos o que han estado activos en el pasado reciente.

¿Qué proceso o procesos podrían ser los responsables de este hecho? Un nuevo estudio (Marchi et al. (2023)) apunta directamente a la labor de la actividad volcánica en Venus. Sabemos por el último censo de edificios volcánicos en el planeta que hay en torno a unos 85.000 volcanes, una cifra que podría ser unas seis veces superior a todos los volcanes de nuestro planeta y, si hay un gran número de estos activos, las coladas de lava podrían ser las responsables de cubrir las superficies más viejas y de generar las nuevas.
Pero de nuevo, aquí hay otra diferencia con nuestro planeta: Si Venus tiene muchos más volcanes activos que la Tierra, a pesar de ser dos planetas similares en tamaño… ¿de dónde saca ese calor extra necesario para generar el elevado número de erupciones?.
El estudio apunta a que Venus pudo sufrir impactos mucho más energéticos contra su superficie al principio de su historia que la Tierra, aumentando el calor disponible en el planeta. Este hecho no es una extrañeza, ya que al encontrarse más cerca del Sol los cuerpos se mueven a mayor velocidad por la propia mecánica orbital, resultando en colisiones más violentas y un mayor grado de fusión en los materiales que forman Venus.
También es posible que las órbitas de estos cuerpos que podrían haber cochado contra Venus fuesen más excéntricas al provenir de zonas más alejadas del Sistema Solar, lo que de nuevo, serviría para añadir más energía al impacto.

Dicho esto, las condiciones generadas por estos impactos provocarían una evolución geodinámica muy diferente a Venus y la Tierra, llevando a Venus a tener un núcleo muy caliente que daría como resultado la gran actividad volcánica por esa transferencia de calor desde el interior del planeta hacia el exterior.
Pero hay una consecuencia más en este artículo: Venus tiene un campo magnético muy tenue y algunos estudios apuntaban a que la estructura de su núcleo sería la responsable de este hecho, puesto que los impactos podrían haber homogeneizado su composición. Y es posible incluso que Venus tuviese un campo magnético mucho más importante en el pasado ya que su núcleo probablemente tenía calor más que suficiente para iniciar una geodínamo, pero es posible que la magnetización de la corteza haya desparecido debido a su intenso vulcanismo.
Tendremos que esperar a las futuras misiones planeadas para Venus -a finales de esta década y principios de la siguiente- para poder resolver estas y muchas más cuestiones sobre Venus e incluso, quien sabe, si encontrar nuevas preguntas.
Referencias:
Herrick, Robert R., Evan T. Bjonnes, Lynn M. Carter, Taras Gerya, Richard C. Ghail, Cédric Gillmann, Martha Gilmore, et al. «Resurfacing History and Volcanic Activity of Venus». Space Science Reviews 219, n.º 4 (junio de 2023): 29. doi: 10.1007/s11214-023-00966-y.
Marchi, Simone, Raluca Rufu, y Jun Korenaga. «Long-Lived Volcanic Resurfacing of Venus Driven by Early Collisions». Nature Astronomy, 20 de julio de 2023. doi: 10.1038/s41550-023-02037-2.
Tian, Jiacheng, Paul J. Tackley, y Diogo L. Lourenço. «The Tectonics and Volcanism of Venus: New Modes Facilitated by Realistic Crustal Rheology and Intrusive Magmatism». Icarus 399 (julio de 2023): 115539. doi: 10.1016/j.icarus.2023.115539.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo La juventud de la superficie de Venus se ha escrito en Cuaderno de Cultura Científica.
A qué hora comemos y en qué orden afecta a nuestros biorritmos
comemos

Gran parte de los procesos fisiológicos que ocurren en nuestro cuerpo están condicionados por el “sistema circadiano”. Por ejemplo, cuando sale el sol la síntesis de cortisol –la hormona de la vigilia– se dispara, mientras que la síntesis de melatonina –la hormona del sueño– llega a sus mínimos. Conforme llega la noche tiene lugar el proceso contrario.
La producción de estas dos hormonas consigue controlar, sin que nos demos cuenta y de manera repetitiva, muchos procesos que ocurren a diario en nuestro cuerpo, desde la regulación de la temperatura corporal al equilibrio de las concentraciones de glucosa en sangre. Pero ¿se ve afectado nuestro metabolismo si comemos más o menos tarde? ¿Es importante el orden en el que ingerimos los alimentos?
Relojes que marcan la vidaLa ritmicidad circadiana es generada por relojes internos que encontramos en la mayoría de mamíferos y que están sincronizados principalmente de acuerdo con el ciclo luz/oscuridad. Este sistema tiene una gran conexión con el metabolismo y produce ritmos cíclicos en procesos fisiológicos como la síntesis de proteínas y hormonas. Pero ¿puede nuestro estilo de vida afectar a esos biorritmos? Todo apunta a que sí.
Son muchos los factores ambientales que pueden afectar a la relación entre ritmos circadianos y metabolismo, entre ellos la luz artificial, el estrés, el trabajo por turnos y el desfase horario en los viajes. Se les conoce como “cronodisruptores”. Es decir, factores que pueden irrumpir en la correcta organización del sistema circadiano, afectando a los ritmos cíclicos de este sistema y contribuyendo al desarrollo de enfermedades crónicas como la obesidad y la diabetes.
¿Cómo afecta cuándo o cada cuánto comemos?En los últimos años se ha observado que la dieta es un factor importante en la sincronización de los relojes internos. Sin embargo, la compleja relación entre ambos factores todavía no está del todo descrita.
Una nueva disciplina denominada “crononutrición” se encarga de estudiar el impacto de los horarios de la alimentación en el bienestar de los seres vivos. Para ello tiene en cuenta tres dimensiones diferentes de la conducta alimentaria: el momento, la frecuencia y la regularidad de las ingestas.
Los relojes circadianos coordinan las variaciones del metabolismo energético y el comportamiento alimentario, de tal manera que durante la fase más activa del día se asegura de que reponemos las reservas energéticas. En la fase de sueño, por el contrario, promueve el ayuno y la movilización de las reservas de energía.
Sin embargo, el estilo de vida predominante en la sociedad actual se caracteriza cada vez más por seguir dietas poco saludables, no mantener un horario regular para las comidas, saltarse alguna de ellas y comer a altas horas de la noche. El resultado es la disrupción de los ritmos circadianos y, a su vez, una mayor prevalencia de obesidad en la población.
Varias investigaciones han señalado que mantenerse despierto y comer en horas fisiológicamente destinadas al sueño podría poner de alguna manera en riesgo un óptimo estado metabólico. No solo eso, sino que los horarios de alimentación inusuales se han relacionado con alteraciones en la cantidad de energía que se gasta a lo largo del día, cambios en el metabolismo de la glucosa y en la síntesis de hormonas estimulantes del apetito y, por ende, alteraciones de las conductas alimentarias.
Otros estudios sugieren que comer a horas tardías y no mantener horarios regulares de ingesta de alimentos, como ocurre en las personas que trabajan a turnos, altera los relojes biológicos y se asocia con una mayor dificultad para perder peso. Además, puede aumentar la prevalencia de diabetes y de enfermedades cardiovasculares.
¿Importa el orden en el que ingerimos los alimentos?Parece que sí. Estudios recientes han sugerido que priorizar el consumo de algunos grupos de alimentos antes que otros en la misma comida podría afectar a nuestra salud.
Se ha observado que consumir en primer lugar los alimentos ricos en fibra (verduras y frutas), seguido de alimentos proteicos (como carnes y pescados) y dejar para el final los hidratos de carbono (cereales), podría disminuir los picos de azúcar tras las comidas y reducir la concentración de glucosa en sangre. Esto ayudaría a prevenir el desarrollo de diabetes.
Es decir, si comemos un plato de verduras con un poco de arroz y de salmón, deberíamos comer en primer lugar las verduras y dejar para el final el arroz, porque así reduciríamos los aumentos bruscos de azúcar en sangre.
¿Qué podemos hacer para mantener los hábitos alimentarios en consonancia con nuestros relojes biológicos?Diversos estudios sugieren que restringir la ingesta de alimentos a espacios de tiempo concretos, es decir, a las horas del día en las que somos más activos, podría revertir los síntomas asociados a trastornos metabólicos. Esto aumentaría la tolerancia a la glucosa y reduciría la resistencia a la insulina. También podría traducirse en una manera eficaz de evitar la ganancia de peso.
Esto implica comer gran parte de la comida diaria durante el desayuno, almuerzo y comida. A medida que va entrando la noche hay que intentar que las comidas sean lo menos copiosas posible.
Existe evidencia científica de que ingerir la mayor parte de las calorías diarias y los alimentos ricos en hidratos de carbono a la hora del almuerzo y al comienzo de la tarde, evitando cenar tarde, contribuye a un mayor gasto energético a lo largo del día y es fundamental para una correcta sincronización de los relojes circadianos.
En consecuencia, restringir la ingesta de alimentos a las horas del día donde tenemos luz podría representar una estrategia interesante para mantener un correcto estado metabólico y promover la pérdida de peso. No obstante, a día de hoy todavía es escasa la evidencia existente acerca del efecto de horarios y frecuencias del consumo de alimentos en la salud metabólica, por lo que son necesarios más estudios.
Además, debemos tener en cuenta que, debido a que todos los procesos fisiológicos están relacionados entre sí, la mejor manera de seguir manteniendo nuestros relojes internos en hora es evitando hábitos o factores cronodisruptores y promoviendo los que ayudan a mantener la correcta organización de estos.
Así, podemos quedarnos con unos mensajes importantes para poner en práctica:
- Realizar actividad física frecuentemente.
- Mantener horarios regulares de sueño y evitar la exposición a luz artificial durante las horas nocturnas.
- Cambiar el hábito de cenar tarde y tener un horario regular para comer.
- Ingerir la mayoría de alimentos en las horas más activas del día.
- En las comidas, comer primero los alimentos con fibra, como las verduras y frutas, y dejar los hidratos de carbono para el final.
Por último, de nada sirve centrar nuestros esfuerzos en organizar nuestros horarios de comida si basamos nuestra dieta en alimentos poco nutritivos que ponen en riesgo nuestra salud. Es fundamental adquirir hábitos dietéticos adecuados y elaborar nuestra dieta en gran medida a partir de frutas, verduras, legumbres, cereales integrales, proteínas de alto valor biológico y alimentos que aporten grasas de buena calidad.
Sobre los autores: Iker Gomez Garcia, Investigador predoctoral, UPV/EHU; Alfredo Fernández-Quintela, Profesor de Nutrición e Investigador de la UPV/EHU y del Centro de Investigación Biomédica en Red de la Fisiopatología de la Obesidad y Nutrición (CiberObn); Jenifer Trepiana Arin, Investigadora del grupo Nutrición y Obesidad de la UPV/EHU, del CiberObn y del Instituto de Investigación Sanitaria Bioaraba, y María Puy Portillo, Catedrática de Nutrición del UPV/EHU y del CIBERobn
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo A qué hora comemos y en qué orden afecta a nuestros biorritmos se ha escrito en Cuaderno de Cultura Científica.
Del calor al frío y tiro porque me lleva la corriente
Hace unos días apareció una noticia en los medios de comunicación y redes sociales que nos recordó a la trama de la película El Día de Mañana. Un artículo científico recientemente publicado predice un colapso de la AMOC en las próximas décadas, puede que años, que podría conducirnos a una nueva glaciación. Dicho así suena como algo muy serio, pero ¿qué es eso de la AMOC? ¿Y realmente podríamos congelarnos en un par de años?
Para poder entender todo este lío, vamos a bucear un poco en el océano Atlántico. Según vamos profundizando en la columna de agua, descubriremos que las propiedades físico-químicas de esa agua van cambiando, sobre todo la temperatura y la salinidad, es decir, la densidad, formando una especie de capas superpuestas a las que llamamos masas de agua. Además, esas diferencias de densidad entre las masas de agua provocan que el agua fluya de un lado a otro formando las corrientes oceánicas. Así se genera una circulación convectiva global por densidad denominada Circulación Termohalina Oceánica (Oceanic Thermohaline Circulation, THC), nombre que procede de termo=temperatura y halina=salinidad. Esta THC, a grandes rasgos, consiste en corrientes superficiales cálidas que transportan calor desde zonas tropicales hacia los polos, donde se enfrían, se hunden y rehacen su camino como corrientes de fondo.

Si hacemos un zoom de la THC sobre el Océano Atlántico, nos encontramos con la Circulación de Vuelco Meridional Atlántica (Atlantic Meridional Overturning Circulation, AMOC). Es decir, la AMOC es parte de la THC y se encarga de transportar calor por el Atlántico. Y si hacemos un nuevo zoom sobre la rama del Atlántico Norte de la AMOC, aparece la Corriente del Golfo (Gulf Stream) como parte de las corrientes cálidas superficiales que fluyen hacia el norte, en este caso desde el Golfo de México hasta el sur de Groenlandia, donde se enfrían y circulan hacia el sur como corrientes de fondo. Entre estas últimas destacan el Agua Profunda del Atlántico Norte (North Atlantic Deep Water, NADW), que fluye hacia el sur por debajo de 1.500m de profundidad, y el Agua de Fondo Antártica (Antarctic Bottom Water, AABW), que se llega a colar hacia el norte a más de 3.000m de profundidad.

Si la AMOC es la “culpable” de transportar calor a latitudes altas del Atlántico Norte, es factible pensar que su colapso nos llevaría de cabeza a una glaciación sin precedentes, de manera análoga a lo presentado en la citada película. Pero veamos qué nos dice la geología a esta suposición.
El Cuaternario, el último periodo de la historia de la Tierra, se caracteriza por la alternancia cíclica de momentos más fríos, llamados glaciales, y momentos más cálidos, o interglaciales. Y las causas de estos cambios climáticos abruptos están relacionadas con el giro del planeta sobre sí mismo y alrededor el sol, provocando variaciones en la radiación solar que actúan en periodicidades de 22.000, 40.000, 99.000 y 400.000 años. Vamos, que un cambio en la circulación oceánica no va a llevarnos a una glaciación en el sentido estricto de la palabra.
Pero vamos a hacer un último zoom, en esta ocasión en el clima terrestre de las últimas decenas de miles de años. En las reconstrucciones paleoclimáticas realizadas a partir de los sondeos de hielo extraídos en Groenlandia se observan variaciones climáticas en “dientes de sierra” dentro de los periodos glaciales e interglaciales, consistentes en transiciones abruptas desde condiciones frías o estadiales (Greenland Stadials, GS) a condiciones cálidas o interstadiales (Greenland Interstadials, GI), seguidas por un retorno a condiciones frías estadiales, denominadas ciclos de Dansgaard-Oeschger (D-O), con una periodicidad entre dos estadiales, o dos interestadiales, de unos 1.500 años. Además, se agrupan en secuencias de varios D-O cada vez más fríos que culminan con un evento frío extremo, conocido como evento Heinrich (HE), denominadas ciclos de Bond y que tienen una duración de unos 5.000 años.

Las reconstrucciones de los cambios de temperatura en la transición entre dos ciclos de Bond en Groenlandia sugieren un rápido aumento de la temperatura superficial media anual de hasta 15ºC en unas pocas décadas. Ahora falta buscar la causa de estas oscilaciones tan bruscas. Y aquí viene lo complicado, porque la relación atmósfera-criosfera-océano es tan compleja, que ninguna de ellas sería una causa aislada de los ciclos climáticos.
El movimiento de las masas de aire es el principal proceso que provoca la circulación de las masas de agua superficiales. Incluso, el efecto del viento genera el movimiento de las capas oceánicas más profundas hacia superficie debido a la mezcla de aguas con diferentes propiedades en profundidad. Y estos movimientos atmosféricos están condicionados por la cantidad de insolación que llega a la superficie terrestre, la distribución diferencial de esa energía solar con la latitud y la rotación de la Tierra. La variabilidad en los ciclos de actividad solar a escala centenaria podría causar cambios en el clima y la circulación oceánica de escala multi-centenaria.
Por otro lado, la fusión de los icebergs y los mantos de hielo continentales en periodos climáticos cálidos provoca una descarga de agua dulce y, por tanto, menos densa en latitudes altas. Esta entrada de agua dulce frena el ascenso de la AMOC hacia el norte de Europa, disminuyendo el transporte de calor, detiene la formación de la NADW al sur de Groenlandia, favorece el ascenso de la AABW hacia el norte y provoca el descenso de las temperaturas que caracteriza los GS y HE registrados en los sondeos de hielo. La disminución del flujo de agua de deshielo, junto con una disipación de la cubierta de agua dulce, podría restablecer la circulación termohalina previa, causando el calentamiento abrupto que cierra los ciclos de Bond y los ciclos D-O.

Es decir, que el calor conduce al frío, y el frío conduce al calor. El aumento actual de las temperaturas podría producir un colapso de la AMOC que llevaría a un enfriamiento generalizado en el Atlántico Norte. Pero ¿qué tipo de enfriamiento? Pues una glaciación no. Y, probablemente, tampoco un GS ni un HE, porque todo tiene sus ciclos temporales y todavía no les toca. El propio Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) ya ha confirmado que es muy improbable que este tipo de eventos se produzcan este siglo. Pero es que hemos visto que la AMOC depende de las condiciones atmosféricas, por lo que, a pequeña escala, su zona de hundimiento en el Atlántico Norte está variando continuamente. Hace una década sufrió un pequeño retroceso, que apenas duró un año y produjo un par de inviernos más duros de lo normal, y ni nos enteramos. Así que hablar de “ralentización de la AMOC” es muy relativo, lo que importa saber es cuánto debilitamiento se puede producir más que cuándo se producirá, antes de empezar a asustarnos.

El comportamiento de nuestro planeta es mucho más complejo de lo que imaginamos. Se trata de un sistema no lineal donde se interrelacionan numerosos factores que condicionan la variabilidad climática en periodicidades muy distintas. Creo que esto ha quedado evidenciado en este texto, repleto de nombres, ciclos y procesos a cuál más complicado. Y eso que lo he resumido, y simplificado, lo máximo que he podido. Pero quería dejar constancia de que una publicación modelizando el posible comportamiento de una de las variables, sin considerar el efecto, sumatorio o contrario, del resto, simplemente es eso, una modelización ideal de algo caótico y que todavía no entendemos en su totalidad. Así que, aunque los títulos de las publicaciones puedan ser muy llamativos, no hay que juzgar nunca un libro por su portada. Y tampoco alarmar sin motivos, la influencia humana en el cambio climático es innegable y debemos evitarla lo máximo posible, porque no podremos pronosticar el comportamiento de nuestro planeta al añadir una nueva variable que no teníamos anteriormente, pero sin exagerar las posibles consecuencias. Si algo nos enseñó una antigua fábula, gritar “que viene el lobo” sin necesidad es bastante contraproducente, porque podríamos conseguir el efecto contrario al que queríamos.
Referencia:
Ditlevsen, P. y Ditlevsen, S. (2023) Warning of a forthcoming collapse of the Atlantic meridional overturning circulation. Nat Commun doi: 10.1038/s41467-023-39810-w
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Del calor al frío y tiro porque me lleva la corriente se ha escrito en Cuaderno de Cultura Científica.
La investigación en matemáticas evoluciona como las estaciones del año
La gran aventura del conocimiento. Un paseo con las matemáticas en cuatro estaciones (Editorial Planeta Chilena S.A., 2023) es el título de una original propuesta divulgativa de las matemáticas Leslie Jiménez Palma y Constanza Rojas-Molina.

El libro se estructura en cuatro capítulos que corresponden a las cuatro estaciones del año en el hemisferio sur; cada capítulo se divide en tres secciones que corresponden a los meses de la estación protagonista, y cada una de esas secciones en otros cuatro apartados.
Cada estación del año simboliza un momento del proceso creativo en la investigación matemática: descubrimiento de un problema matemático (otoño), pensamiento profundo para comprender las “dobleces” del problema (invierno), colaboración y puesta en común de ideas (primavera) y final del proceso con la solución (o la falta de ella) del problema planteado (verano).
Del otoño al verano (australes)El libro comienza en otoño, “Es un momento de reflexión y descubrimiento, es el momento de mirar un problema con ojos matemáticos […] Es también el momento donde nos hacemos preguntas, donde tratamos de responderlas […]”, dicen las autoras. Y recorren los meses otoñales, desde marzo a mayo, dando algunas claves sobre la relación entre las matemáticas y el arte, hablando del papel de las matemáticas en la comprensión de nuestro entorno por medio del modelamiento y, finalmente, revindicando a algunas matemáticas chilenas que “crearon comunidad y redefinieron el quehacer matemático con sus aportes”: Guacolda Antoine, Irene Mikenberg, Salomé Martínez y el colectivo de mujeres matemáticas en Chile.
Tras el otoño llega el invierno, la época en la que la meteorología nos trae frío, los días son más cortos, y no apetece salir a la calle como en otros momentos del año. Para Leslie y Constanza, “Es un momento de pensamiento profundo con el que buscamos revelar los secretos que esconde nuestro problema matemático y donde buscamos desencriptarlo […] para luego poder solucionarlo usando las reglas matemáticas”. En la sección correspondiente al mes de junio las autoras nos invitan a conocer mejor las matemáticas de los códigos secretos; julio está dedicado a los fractales de Sierpinski, de Mandelbrot, de Koch y en la naturaleza, es decir, a las replicaciones infinitas; y agosto se centra en las matemáticas y el lenguaje, desde los símbolos a las metáforas, pasando por la programación.
Para Constanza y Leslie, la primavera “es el momento donde salimos de nuestros pensamientos solitarios a buscar la ayuda de nuestros nuevos colaboradores. […] el regreso de la luz y el calor nos hacen salir y conversar, comunicarnos y buscar ideas en común con otras disciplinas”. La física es el área a la que se dedica esta estación del año, una disciplina profundamente conectada con las matemáticas. En septiembre y octubre se pasa del suelo al cielo a través de la física y las matemáticas: los movimientos sísmicos, las leyes de Newton, la mecánica celeste o el espacio-tiempo son algunos de los temas elegidos. Noviembre se dedica a la matemática Emmy Noether, cuyo trabajo ayudó a entender la conexión fundamental entre la simetría en física y las leyes de conservación.
El libro finaliza festejando el verano austral, para las autoras “el momento en el que hemos logrado describir matemáticamente nuestro problema, lo hemos investigado y llegamos a un resultado”. El mes de diciembre se centra en algunos ejemplos de cómo la biología es una disciplina que, en nuestros días, avanza en parte gracias a la utilización de variadas técnicas matemáticas. La sección dedicada al mes de enero repasa algunos de los grandes problemas matemáticos, con un especial recuerdo a la segunda mujer que ha obtenido una medalla Fields (tras la matemática iraní Maryam Mirzakhani (1977-2017): Maryna Viazovska. Finalmente, el mes de febrero introduce algunos desafíos relacionados con la sociedad: la igualdad de género, la diversidad, la educación matemática y la comunicación de las matemáticas para públicos diversos.
Las autoras y el formato del libroLas autoras, Leslie Jiménez Palma y Constanza Rojas-Molina, son matemáticas chilenas. Las dos son profesoras, investigadoras, divulgadoras y están profundamente preocupadas por la situación de las mujeres en el entorno matemático, en particular en Chile.
Leslie Jiménez Palma trabaja en la Universidad de Chile y, además de su docencia y su investigación, se dedica a la comunicación de las matemáticas.
Constanza Rojas-Molina es matemática e ilustradora; trabaja en la CY Cergy Paris Université. En este Cuaderno de Cultura Científica ya conocíamos su faceta artística al haber ilustrado la sección Historias que cuentan a cargo de Alberto Mercado Saucedo. Y también conocíamos su precioso proyecto #Noethember dedicado a la genial matemática Emmy Noether. Este libro también se nutre de sus ilustraciones en forma de sketchnotes, notas visuales usadas como herramienta para resumir los contenidos del texto.
La gran aventura del conocimiento es una propuesta singular, estimulante y atractiva para entender cómo trabajan las personas que hacen investigación en matemáticas y para conocer algunos hermosos resultados matemáticos y a sus protagonistas. Es una joya.
Referencias
- Leslie Jiménez Palma y Constanza Rojas-Molina, La gran aventura del conocimiento. Un paseo con las matemáticas en cuatro estaciones, Editorial Planeta Chilena S.A., 2023
- Diana Porras, “Un paseo con las matemáticas”: libro revela la aventura del conocimiento y el desafío de la comunicación científica, Diario UChile, 20 marzo 2023
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo La investigación en matemáticas evoluciona como las estaciones del año se ha escrito en Cuaderno de Cultura Científica.
El ruido, un aliado para la computación cuántica
Los ordenadores cuánticos se distinguen por el uso de cúbits en lugar de bits. Esto les permite almacenar y procesar mucha más información a una velocidad mucho mayor, mediante el aprovechamiento de propiedades cuánticas como la superposición y el entrelazamiento. No obstante, existe una importante limitación para el desarrollo pleno de estos ordenadores: el ruido. Este provoca la aparición de errores que se propagan cuando se ejecutan algoritmos complejos, lo cual limita el potencial de la computación cuántica para revolucionar muchos campos de la ciencia y la tecnología. Equipos de todo el mundo llevan años trabajando intensamente para superar esta barrera, concentrando sus esfuerzos principalmente en técnicas para la corrección o mitigación de errores, y en el diseño de algoritmos más sencillos que se adapten a las limitaciones.

Ahora, un equipo de investigación ha dado una vuelta de tuerca a la cuestión. Proponen una solución alternativa: usar el ruido para mejorar los resultados de algoritmos cuánticos. El equipo ha demostrado que la presencia de ruido en los ordenadores cuánticos puede ser beneficioso para los resultados de un importante algoritmo conocido como quantum reservoir computing.
Este algoritmo realiza predicciones de aprendizaje automático usando sistemas cuánticos con parámetros aleatorios para extraer información útil del sistema estudiado. De este modo, puede resolver problemas muy diversos, como cálculos químico-cuánticos o predicciones de series temporales, así como ayudar en el descubrimiento de nuevos fármacos.
“La idea detrás del quantum reservoir computing es utilizar el espacio de Hilbert, donde viven los estados cuánticos, para extraer propiedades esenciales de los datos estudiados. Así, usando propiedades cuánticas como superposición y entrelazamiento, podemos obtener información útil de los datos y proporcionarla a un modelo de aprendizaje automático, el cual hace la predicción final”, explican los autores.
El estudio concluye que algunos tipos de ruido, como el llamado amplitude damping noise, mejoran la calidad de los resultados del quantum reservoir computing. Por lo tanto, no solo es innecesario corregir este tipo de ruido, sino que podría ser beneficioso para los cálculos cuánticos.
…pero no todos los ruidos son igualesSin embargo, otras fuentes de errores, como el denominado depolarizing noise, pueden degradar los resultados en todos los casos, por lo que es primordial priorizar su corrección en los ordenadores cuánticos.
El estudio también proporciona una demostración teórica que ayuda a explicar este fenómeno. A través del formalismo matemático de las matrices de densidad y los canales cuánticos, los autores ilustran cómo el ruido amplitude damping permite explorar de manera más efectiva el espacio de operadores cuánticos. Esto facilita la extracción de propiedades más complejas y valiosas de los datos, que luego se utilizan para predecir la variable objetivo.
El hallazgo ofrece una nueva perspectiva sobre los mecanismos físicos inherentes en los dispositivos cuánticos. Además, proporciona sólidas pautas prácticas para facilitar una implementación con éxito del procesamiento de información cuántico en la tecnología actual.
Referencia:
Domingo, L., Carlo, G. & Borondo, F. (2023) Taking advantage of noise in quantum reservoir computing. Sci Rep doi: 10.1038/s41598-023-35461-5
Para saber más:
Cómo la aleatoriedad mejora los algoritmos
Edición realizada por César Tomé López a partir de materiales suministrados por la Universidad Autónoma de Madrid
El artículo El ruido, un aliado para la computación cuántica se ha escrito en Cuaderno de Cultura Científica.
La crisis climática potencia a los vectores transmisores de enfermedades infecciosas exóticas
El calentamiento global representa uno de los mayores peligros para la humanidad y su amenaza será cada vez mayor con el paso del tiempo. De hecho, la Organización Mundial de la Salud (OMS) estima que la crisis climática causará unos 250.000 fallecimientos adicionales cada año debido a la malnutrición, el paludismo, la diarrea y el estrés calórico entre los años 2030 y 2050. Por un lado, las catástrofes naturales (sequías, inundaciones, incendios…) serán más frecuentes como consecuencia de fenómenos meteorológicos extremos. Por otro, las olas de calor serán más intensas, frecuentes y duraderas. Ambos fenómenos provocarán, de forma directa o indirecta, más fallecimientos y dolencias en un futuro próximo.
Sin embargo, no es necesario esperar a para comprobar las consecuencias que ya tiene la crisis climática sobre la salud humana. Un estudio epidemiológico publicado recientemente en la revista Nature Medicine calcula que durante el verano de 2022 se produjeron más de 61.000 muertes en Europa (11.000 en España) como consecuencia de las olas de calor. Estas cifras suponen un 41 % más de muertes como consecuencia de las altas temperaturas que las ocurridas de media en los veranos de entre 2015 y 2021. Los autores sugieren que, de seguir esta tendencia, en Europa se producirán un promedio de más de 68.000 muertes prematuras cada verano hacia 2030 y más de 94.000 hacia 2040.
Más allá de las enfermedades y las muertes causadas por estos fenómenos meteorológicos extremos, el calentamiento global afecta también a la salud humana de forma indirecta al alterar la distribución mundial de diversos vectores de enfermedades infecciosas. En ese sentido, el pasado 22 de junio el Centro Europeo para el Control y Prevención de Enfermedades (ECDC) anunció que la extensión de diferentes especies de mosquito del género Aedes por Europa está aumentando el riesgo de diversas enfermedades infecciosas de las que este insecto es vector.
La institución científica explica que las inundaciones y las olas de calor cada vez más frecuentes y graves en el continente europeo, junto con unos veranos más cálidos y largos, crean unas condiciones más favorables para la expansión de los mosquitos invasores Aedes albopictus (más conocido como «mosquito tigre») y Aedes aegypti, que no son propios de esta zona del planeta. Hace 10 años, en 2013, ambas especies se encontraban en solo ocho países de la Unión Europea, afectando a 114 regiones. Ahora estas se encuentran en 13 países y 337 regiones, al invadir dichos vectores el norte y el oeste del continente. España atestigua la gran capacidad que tiene el mosquito tigre para extenderse: la primera vez que se detectó su presencia fue en Sant Cugat del Vallés en el verano de 2004, desde entonces este vector ha conseguido expandirse ya por casi todo el país.
Ambas especies de mosquito (A. albopictus y A. aegypti) pueden transmitir enfermedades infecciosas tropicales o típicas de otros países como el dengue, el Zika, la fiebre amarilla, el chikungunya o la fiebre del Nilo Occidental. El director de la ECDC, Andrea Ammon, sostiene que si la tendencia actual continúa se espera que, con el tiempo, aparezcan más casos y posiblemente más muertes por las citadas enfermedades infecciosas entre los ciudadanos europeos. Solo en 2022 se produjeron los mismos casos autóctonos de dengue (71) en la UE que el total de los que aparecieron entre los años 2010 y 2021. Seis casos de dengue ocurrieron en España. Además, en 2022 aparecieron 1.122 casos de infecciones por el virus del Nilo Occidental en Europa, con 92 muertes, la mayor cifra desde la epidemia de 2018.
Vectores conocidosEspaña conoce de primera mano los estragos que la extensión de los vectores puede provocar en la Salud Pública de su población. Tanto la fiebre del Nilo Occidental (transmitida por mosquitos), como la fiebre hemorrágica de Crimea-Congo (transmitida por garrapatas) preocupan cada vez más a los especialistas por su mayor incidencia en nuestro territorio. En 2020 se produjo el mayor brote registrado de fiebre del Nilo Occidental en el país, con decenas de casos confirmados y siete fallecidos. Anteriormente, ni en 2017 ni en 2019 se detectaron casos de esta enfermedad en humanos, y solo un caso en 2018. Las últimas cifras oficiales, de 2022, han registrado cuatro casos.
Diferentes especies de garrapata están también bajo el punto de mira de los expertos en Salud Pública. Estos arácnidos son vectores de más de cincuenta enfermedades diferentes y la crisis climática está ayudando de forma significativa a su expansión por territorios de mayor altitud y latitudes más elevadas, donde no estaban presente antes.
En el sur de España es donde más se ha potenciado su proliferación en los últimos años, debido al incremento de las temperaturas, sobre todo durante el otoño y el invierno. Además, cada vez hay un mayor porcentaje de garrapatas que poseen el virus responsable de la fiebre hemorrágica de Crimea-Congo. Todos estos factores propician la aparición de casos de esta enfermedad infecciosa, que apareció por primera vez en nuestro país en 2016. Desde dicho año hasta 2022 se han confirmado 11 casos autóctonos de Crimea-Congo. Esto supone la punta del iceberg, porque la mayoría de las veces la infección no provoca síntomas en los humanos y pasa desapercibida.
Las redes de vigilancia epidemiológica, tanto de España como de Europa, siguen de cerca la evolución de múltiples vectores y de las enfermedades infecciosas que provocan. Las proyecciones sobre el calentamiento global en las próximas décadas indican a que los especialistas tendrán muchos motivos para estar alerta ante la aparición de brotes de enfermedades que, hace menos de 10 años, ni siquiera existían en nuestro continente o eran algo totalmente excepcional.
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo La crisis climática potencia a los vectores transmisores de enfermedades infecciosas exóticas se ha escrito en Cuaderno de Cultura Científica.
La fuerza de voluntad no es un recurso, por eso no se agota
fuerza de voluntad

Algunos resultados experimentales recogidos en la literatura científica reciente indican que si se realiza una actividad mental exigente, de esas que requieren concentración y autocontrol, al cabo de un tiempo es necesario ingerir una cierta cantidad de azúcar para poder seguir realizándola, o para mejorar las funciones cognitivas básicas y funciones mentales autorregulatorias, como son la memoria episódica, el procesamiento de información, la atención y el autocontrol.
Lo cierto es que, datos experimentales al margen, mucha gente está convencida de que, efectivamente, es bueno ingerir azúcar si se desea mantener una ardua actividad mental de forma prolongada. Sin embargo, esa es una noción que desde el punto de vista fisiológico no tiene sentido, ya que la concentración de glucosa en la sangre y, por lo tanto, su disponibilidad efectiva para las tareas que desempeña el encéfalo, está sometida a una regulación estricta. Esa regulación solo falla en caso de enfermedad, como ocurre con la diabetes.
Unos psicólogos de las universidades de Zurich (Suiza) y Stanford (California, EEUU) sospechaban que la razón por la que la glucosa facilita el desempeño cognitivo y el autocontrol es porque se trata de una creencia, modelada culturalmente, que ha alcanzado una gran aceptación. Si, efectivamente, ese era el caso, la limitación no vendría determinada por la disponibilidad de glucosa, sino por la creencia en sí. En ese supuesto, sería de aplicación la cita de William James: “vivimos sujetos a la inhibición por niveles de fatiga a los que hemos llegado a obedecer simplemente por costumbre”[*].
De acuerdo con esa sospecha, los psicólogos se plantearon la hipótesis de que, quizás, solo recurran a la ingestión de glucosa (para un correcto funcionamiento cognitivo tras una intensa actividad mental) quienes creen que la fuerza de voluntad es limitada y se agota fácilmente. Sería como si la fuerza de voluntad necesaria para mantener el autocontrol necesitase ser “alimentada” mediante el aporte de energía metabólica en forma de azúcar. Para esa gente, la ingestión de glucosa y los procesos fisiológicos que desencadena actuarían como señales que indican que han recuperado la capacidad de sostener el esfuerzo mental. Por el contrario, las personas que no creen que la fuerza de voluntad se agote con el uso, no dependerían del aporte de glucosa para poder funcionar con normalidad. Estos supuestos se basaban en observaciones experimentales anteriores, según las cuales solo la gente que cree que la fuerza de voluntad está limitada se desenvuelve peor al acumularse las pruebas en que han de realizar tareas mentales exigentes y mantener el autocontrol.
Los investigadores hicieron tres experimentos para tratar de verificar su hipótesis. En el primero analizaron el efecto de la ingestión de glucosa (por comparación con la de un edulcorante artificial) y de las creencias implícitas acerca de la fuerza de voluntad (si se trata de un recurso limitado o no) sobre el autocontrol de individuos que habían estado realizando antes una tarea intelectualmente exigente. Los participantes que habían ingerido edulcorante y que pensaban que la fuerza de voluntad se agota con facilidad fueron los que se diferenciaron de los demás: su desempeño en el test de autocontrol fue peor que el del resto de participantes. El resultado demostró que el efecto de la glucosa sobre la capacidad para mantener el autocontrol depende de lo que creen los sujetos acerca de la fuerza de voluntad.
En el segundo experimento se manipuló la opinión de algunos participantes para que pensasen que la fuerza de voluntad se agota con facilidad, y los resultados reprodujeron los del primer experimento, porque los de la opinión manipulada respondieron igual que los que pensaban eso originalmente.
Y en el tercer experimento se investigó si los participantes que piensan que la fuerza de voluntad es limitada responden a lo que creen que están ingiriendo o si lo hacen sólo a lo que realmente ingieren. Y efectivamente, su desempeño en la tarea de autocontrol tras un esfuerzo anterior solo mejora si realmente ingieren glucosa, no si creen que la ingieren. Quiere ello decir, que esos participantes eran sensibles a señales internas (fisiológicas) que indicaban que se había producido una elevación en la concentración de glucosa en la sangre.
Los resultados de estos experimentos son muy llamativos. Un proceso fisiológico básico, como es el efecto de la ingestión de glucosa sobre el desempeño intelectual en condiciones exigentes, depende de las creencias acerca de la naturaleza de la fuerza de voluntad. Solo se benefician de los efectos de una subida del nivel de azúcar en la sangre quienes creen que la fuerza de voluntad se agota con facilidad o quienes son manipulados para creerlo. Los experimentos demuestran que la fuerza de voluntad no es un recurso limitado, pues que se termine o no depende, de hecho, de lo que cada uno piense. Quienes no creen que se agota no necesitan reponerla ingiriendo azúcar, por eso no se modifica su desempeño intelectual cuando la ingieren. Solo han de restaurarla quienes piensan que se acaba con facilidad.
Los investigadores señalan, finalmente, que el pensar que la fuerza de voluntad no se agota no es suficiente para poder ejercer con éxito el autocontrol, aunque sea un ingrediente importante. Necesitamos, además, desarrollar estrategias de autocontrol eficaces para que funcione, como minimizar tentaciones (evitándolas físicamente) o planificar por adelantado cuándo, dónde y cómo actuar o responder ante la dificultades. Una disposición mental adecuada y unas estrategias efectivas sirven para ejercer el autocontrol durante periodos de tiempo prolongados sin necesidades de ingerir glucosa cada cierto tiempo.
Fuente: V Job, G M Walton, K Bernecker, y C S Dweck (2013): «Beliefs about willpower determine the impact of glucose on self-control». PNAS 110 (37): 14837–14842
Nota: [*] W. James (1907): The energies of men. Science 25(635):321–332.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La fuerza de voluntad no es un recurso, por eso no se agota se ha escrito en Cuaderno de Cultura Científica.
La eficacia del ayuno intermitente en el tratamiento de la obesidad
ayuno intermitente
Entre los métodos que tienen como objetivo la pérdida de peso, el ayuno intermitente se ha convertido en una tendencia que, durante los últimos años, ha dado mucho de qué hablar. Es una rutina alimenticia que se basa en limitar la ingesta de calorías a un periodo concreto del día y ayunar el resto. Un método que ha sido puesto en práctica por personas conocidas a nivel social, que insisten en los supuestos beneficios del mismo.
Pero, ¿qué dice la ciencia? ¿Los supuestos beneficios del ayuno intermitente tienen una base científica? ¿Es un tratamiento de la obesidad eficaz y que se puede mantener a largo plazo?
El metabolismo del ser humano está diseñado para ingerir alimentos a ciertas horas del día y permanecer sin comer otras, pero el ritmo de vida actual lo dificulta. Hay que tener en cuenta que el tramo de actividad en el día a día supera las 12 horas, por lo tanto, es necesario reflexionar sobre la viabilidad y los supuestos beneficios de esta rutina alimenticia.
Idoia Labayen Goñi, profesora en el Departamento de Ciencias de la Salud de la Universidad Pública de Navarra (UPNA), ofrece respuestas a esas preguntas en la charla-coloquio La eficacia del ayuno intermitente en el tratamiento de la obesidad.
La conferencia ha sido organizada por la Cátedra de Cultura Científica de la Universidad del País Vasco y la Biblioteca Bidebarrieta de Bilbao dentro del ciclo Bidebarrieta Científica. Se impartió el pasado 14 de junio, miércoles, en la Biblioteca Bidebarrieta de Bilbao.
PonenteIdoia Labayen Goñi es doctora en Ciencias Biológicas, profesora de la Universidad Pública de Navarra en el Departamento de Ciencias de la Salud y responsable del grupo de investigación ELIKOS. Ha desarrollado su carrera investigadora en el Karolinska Institute (Suecia), en el Georgia Prevention Institute (Georgia, EE.UU.) y ha participado en investigaciones que han tenido como resultado la publicación de más de 200 artículos. A día de hoy es la directora de IS-FOOD (Institute for Sustainability & Food Chain Innovation).
Edición realizada por César Tomé López
El artículo La eficacia del ayuno intermitente en el tratamiento de la obesidad se ha escrito en Cuaderno de Cultura Científica.