¿Pescado salvaje o de acuicultura?
El pescado es una de las principales fuentes de proteína de patrones alimentarios como la dieta mediterránea. En España, el consumo de pescado es mayor en las comunidades del norte y noroeste, donde principalmente se consume pescado fresco. Cuando acudimos a las pescaderías o supermercados a comprar este alimento, nos encontramos con especies tanto de origen salvaje como de acuicultura, y en ocasiones resulta difícil saber qué implicaciones tiene su origen (más allá del precio de venta).
El pescado como alimentoLo cierto es que el pescado es un alimento muy interesante desde el punto de vista nutricional debido tanto a su contenido en proteínas y lípidos como a que no aporta carbohidratos. Por lo tanto, deberíamos intentar incluirlo en nuestra dieta.
En el caso de las proteínas, el pescado tiene un contenido del 15-20 % (similar al de la carne de animales terrestres), porcentaje que se mantiene constante tanto en peces marinos como en las especies de agua dulce . Cabe destacar que la proteína del pescado proporciona todos los aminoácidos esenciales (los que nuestro cuerpo no puede sintetizar) en proporciones adecuadas. Además, la elevada digestibilidad de la proteína del pescado, junto a que el colágeno que contiene se gelatiniza a temperaturas más bajas que las de la carne, lo convierten en una fuente proteica de especial interés en la infancia y para las personas de edad avanzada.
En cuanto a los lípidos, su contenido es menor en los pescados denominados blancos (como merluza, rape o gallo) y mayor en los pescados azules (como anchoas, sardinas o salmón). Sin embargo, lo interesante de los lípidos del pescado no es tanto su cantidad sino el tipo: puesto que la mayoría (dos tercios del total) son insaturados, proporción significativamente superior en comparación a los lípidos de la carne.
Entre los lípidos presentes en el pescado destacan los ácidos grasos poliinsaturados (AGP), que pueden llegar a suponer hasta el 45 % del total. Destacan entre ellos el ácido docosahexaenoico (DHA) y el ácido eicosapentaenoico (EPA), pertenecientes a la serie omega-3. De hecho, el DHA y el EPA son habitualmente reconocidos como los “responsables” de los efectos cardioprotectores atribuidos al consumo de pescado azul, favoreciendo la vasodilatación y, por lo tanto, contribuyendo al control de la presión arterial, regulando el metabolismo del colesterol (principalmente el DHA) y los triglicéridos, y disminuyendo el riesgo de padecer trombos (son precursores de prostaglandinas).
Por todo ello, se recomienda consumir de tres a cuatro raciones de pescado a la semana, intentando variar entre especies magras (pescados blancos) y grasas (pescados azules), lo que asegurará los efectos cardioprotectores anteriormente mencionados y favorecerá la ingesta de otros nutrientes (como vitaminas A y D, y minerales como el yodo, selenio o calcio).
Diferencias entre pescado salvaje y de acuiculturaMás allá de diferencias en precio o disponibilidad, también existen variaciones significativas en la composición nutricional entre el pescado salvaje y el procedente de acuicultura. Estas diferencias no afectan a las proteínas (no cambia la proporción o el tipo), pero sí a los lípidos.
La diferencia se debe a que la alimentación del pescado procedente de acuicultura se enfoca (lógicamente) en conseguir el mayor aumento de peso en el menor tiempo posible. Para ello es habitual utilizar piensos, que tradicionalmente han sido elaborados principalmente a base de harina y aceite de pescado, entre otros. Cabe señalar que en la actualidad, por motivos de sostenibilidad, estos ingredientes se están sustituyendo por fuentes de proteína y aceites de origen vegetal.
Por el contrario, el pescado salvaje necesita buscarse el alimento para sobrevivir. Como consecuencia, el contenido de grasa de ejemplares de acuicultura suele ser superior al de ejemplares salvajes de la misma especie, tal y como se ha descrito en especies como la dorada o la lubina.
Pero, además, las diferencias en la alimentación también tienen implicaciones en la composición de la grasa de los pescados salvajes y de acuicultura. Así, se ha observado que, para una misma especie de pescado, la proporción de AGP de la serie omega-3 es menor en los pescados de acuicultura, puesto que los piensos con los que se alimentan son ricos en AGP omega-6. De hecho, en salmones de acuicultura, se han llegado a observar porcentajes de ácido linoleico (AGP de la serie omega-6) 20 veces mayor que en salmones salvajes.
Esto puede provocar que el efecto cardioprotector del consumo de pescado de acuicultura sea menor que si se consume pescado salvaje, debido al mayor contenido en los primeros de AGP omega-6 (con efecto proinflamatorio).
Entonces, ¿qué pescado es más recomendable consumir?Teniendo en cuenta lo anteriormente mencionado, y desde un punto de vista exclusivamente nutricional, sería más recomendable el consumo de pescado salvaje que el de acuicultura, debido a la mejor relación AGP omega-3:omega-6. No obstante, cabe señalar que debido a la bioacumulación de contaminantes durante un período de tiempo muy largo, ciertas especies salvajes de gran tamaño, como pez espada, atún rojo o tiburón, presentan un alto contenido en mercurio, por lo que se recomienda evitar su consumo en el caso de mujeres embarazadas o en lactancia, así como en niños de entre 0 y 10 años.
Conviene indicar que tanto los pescados salvajes como de acuicultura tienen la capacidad de acumular contaminantes químicos (tales como metales pesados, dioxinas, microplásticos, medicamentos, etc.), si bien difieren en las fuentes de contaminación. En el caso de especies salvajes, el tipo y concentración de los contaminantes presentes en el pescado dependerá en gran medida de la calidad de las aguas en las que habitan; mientras que, en el caso de los pescados de acuicultura, resulta además esencial la calidad de los piensos con los que los alimentan.
El precio es otro de los factores que pueden definir la elección de pescado salvaje o de acuicultura. En este sentido, comprar especies de temporada y proximidad puede facilitar el consumo de pescado salvaje a precios más asequibles.
Sobre las autoras: Iñaki Milton Laskibar, Investigador del grupo Nutrición y Obesidad del Centro de Investigación Biomédica en Red de la Fisiopatología de la Obesidad y Nutrición (CiberObn) y del Instituto de Investigación Sanitaria Bioaraba; Alfredo Fernández-Quintela, Investigador del CIBERobn; Bárbara Nieva Echevarría; Encarnación Goicoechea Osés; Laura Isabel Arellano García, Investigadora predoctoral del Grupo Nutrición y Obesidad del CiberObn y María Puy Portillo, Investigadora del CIBERobn. Todas, además, profesoras de la Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Pescado salvaje o de acuicultura? se ha escrito en Cuaderno de Cultura Científica.
La Geología que truena
«El doctor Livingstone, supongo». Esta frase forma parte de la leyenda sobre el encuentro entre los exploradores Henry Stanley y David Livingstone a orillas del lago Tanganika en 1871, cuando el primero fue a buscar al segundo al corazón de África después de que David no diera señales de vida durante años. Pero Livingstone no estaba allí de excursión, había sido enviado por el Imperio Británico a buscar las fuentes del río Nilo, es decir, cartografiar el lugar de origen del mítico río que baña las tierras de Egipto en su desembocadura. Y aunque no consiguió dar respuesta a esta incógnita geográfica, que aún hoy genera discusión, sí que hizo otro importante descubrimiento: encontró el río Zambeze, siguió su curso y llegó hasta unas impresionantes cataratas que, como buen británico, llamó Victoria.
Detalle del salto de agua de las cataratas Victoria, situadas en la frontera entre Zambia y Zimbabwe, donde se aprecia la cortina de gotas de agua que se forma gracias a la energía liberada por la caída. Foto: By Diego Delso, CC BY-SA 4.0, Wikimedia CommonsLas cataratas Victoria, o “Mosi-oa-Tunya” en idioma batoko, que puede traducirse como “el humo que truena”, marcan la frontera entre Zambia y Zimbabwe, en el sur del continente africano. Se trata de las cataratas más grandes del mundo, con una longitud superior a 1700 metros y más de 100 metros de altura de salto de agua que, en época de lluvias, cae con tanta energía que levanta una enorme cortina de pequeñas gotas que son impulsadas hacia arriba con un gran estruendo, característica que les confiere su toponimia local. Y, como no podía ser de otra manera, este impresionante paisaje tiene su origen en la Geología.
Esta historia comienza hace unos 180 millones de años, poco después de que Pangea se disgregase en dos supercontientes que empezaron a separarse uno del otro: Laurasia al norte y Gondwana, del que formaba parte el actual continente africano, al sur. En aquel momento, en la zona que hoy en día se desarrollan las cataratas Victoria, se produjeron diversas erupciones volcánicas que dieron lugar a un manto de rocas basálticas que cubrieron toda la zona y que se iban disponiendo en capas superpuestas unas sobre otras. Estos procesos eruptivos duraron varios millones de años, provocando la acumulación de un depósito de rocas volcánicas de centenares de metros de altura en varios kilómetros a la redonda.
Como la tectónica de placas es imparable, durante más de cien millones de años Gondwana se estuvo subdividiendo, lo que provocó la fracturación de ese manto de rocas volcánicas, generando así una serie de zonas de debilidad que lo atraviesan de lado a lado. Y si algo le gusta encontrarse al agua en circulación por la superficie del terreno son zonas de debilidad, porque le sirven como pequeños atajos que le facilitan el avance.
Así es como llegamos al último capítulo de nuestra historia, que comenzó hace unos 5 millones de años y continúa hasta la actualidad. Durante este periodo, el clima se ha caracterizado por una alternancia de momentos fríos y áridos, llamados glaciaciones, y momentos cálidos y húmedos, conocidos como interglaciales, que han favorecido el desarrollo de una red de drenaje formada por varios ríos que se abren camino hacia la desembocadura. Entre ellos, el río Zambeze, que poco a poco, con más moral que el alcoyano y una paciencia de millones de años, ha ido construyendo un curso serpenteante horadando las rocas volcánicas al encajar su cauce cada vez a mayor profundidad.
¿Y las cataratas Victoria? Pues voy a responder con otra pregunta, ¿os acordáis que decía que al agua le encanta encontrarse con zonas de debilidad en su recorrido? Exacto, las cataratas son una gran fractura del terreno que ha aprovechado el río para avanzar más rápido hacia su desembocadura. Entrando en más detalle, inicialmente el Zambeze aprovechó esta pequeña rotura superficial del terreno para circular por ella, pudiendo erosionar el fondo con mayor facilidad hasta crear una pequeña garganta o cañón en esta zona. Con el paso del tiempo, gracias a ir aumentando la diferencia de altitud entre la parte superior de las paredes del cañón y el fondo del mismo por la erosión del cauce, también se incrementa la energía potencial del agua en caída, que acaba actuando como un martillo pilón con las rocas del fondo. Así, la catarata es cada vez más profunda y, mientras siga circulando el agua, lo será cada vez más. Además, esta liberación de energía del agua al chocar con las rocas del fondo, también explica que se genere esa cortina de pequeñas gotas que salen despedidas hacia arriba, simplemente se cumple la “Tercera ley de Newton”.
Aspecto del recorrido serpenteante del río Zambeze y de las paredes verticales de las cataratas Victoria en época seca, lo que permite observar las fracturas del terreno que cortan perpendicularmente el cauce y el alcance de la erosión vertical producida por el agua. Foto: Siyabona AfricaLas cataratas Victoria forman un paisaje de ensueño que ha asombrado a toda la humanidad, desde los inicios del género Homo en el corazón de África hasta nuestros días, llegando a convertirse en una zona protegida con las figuras de Parque Nacional y sitio del Patrimonio Mundial de la UNESCO. Y todo ello gracias a su historia geológica, que ha hecho posible que hoy en día disfrutemos de este maravilloso lugar. Por eso lo he escogido para desearos un feliz Día Internacional de la Geodiversidad, que se celebró el pasado 6 de octubre. Cada vez que miréis el paisaje que os rodea, recordad que todo lo que veis es debido a la Geología.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo La Geología que truena se ha escrito en Cuaderno de Cultura Científica.
En el Día Mundial del Correo, cartas matemáticas
Hoy, como cada 9 de octubre desde 1969, se celebra el Día Mundial del Correo. La fecha de esta conmemoración se eligió porque el 9 de octubre de 1874 nació la Unión Postal Universal en Berna, Suiza. Así, hoy, el 9 de octubre de 2024, este organismo especializado de Naciones Unidas cumple 150 años.
El propósito de este Día Mundial es concienciar sobre el papel del sector postal en la vida cotidiana de las personas y las empresas y su contribución al desarrollo social y económico de los países.
Cartel del Día Mundial del Correo 2024. Fuente: Naciones Unidas.
El papel del sector postal también ha sido relevante en el quehacer científico. Entre otras historias que ratifican la anterior afirmación, recuerdo el caso de la microbióloga Elizabeth Lee Hazen y la química Rachel Fuller Brown que, en 1950, descubrieron y aislaron la nistatina, un fármaco que impide el crecimiento de los hongos. La eficacia del servicio de correos estadounidense jugó un papel esencial en ese hallazgo: los laboratorios en los que trabajaban estas dos científicas distaban más de 200 kilómetros y debían intercambiar sus cultivos de hongos para avanzar en la investigación…
Aunque los servicios postales van mucho más allá que el intercambio de cartas, en el día de hoy quería dedicar esta anotación a recordar algunos fragmentos de nueve (en honor al día) correspondencias epistolares relacionadas, por supuesto, con las matemáticas.
Carta de William Molyneux a John Locke, 1693“Soy de la opinión de que el ciego no podría, a primera vista, decir con certeza cuál es el globo y cuál el cubo, mientras sólo los viera, aunque por el tacto pudiera nombrarlos sin equivocarse y con toda seguridad supiera distinguirlos por las diferencias de sus formas tentadas”.
En Haciendo matemáticas en la oscuridad.
Carta de Carl Friedrich Gauss a Sophie Germain, 1807“Pero cómo describirle mi admiración y mi sorpresa al ver a mi estimado remitente señor LeBlanc transformarse en este ilustre personaje que da un ejemplo tan brillante de algo en lo que me cuesta creer.
El gusto por las ciencias abstractas en general y sobre todo por los misterios de los números no es algo frecuente: eso no sorprende a nadie; los encantos hechiceros de esta ciencia sublime no se desvelan en toda su belleza más que a quienes tienen el valor de profundizar en ella. Pero cuando una persona de ese sexo, que por nuestras costumbres y nuestros prejuicios ha de encontrar infinitamente más obstáculos y dificultades que los hombres para familiarizarse con sus espinosas investigaciones, es capaz pese a todo de superar esas trabas y penetrar en lo más oscuro que tiene, es sin duda necesario que posea el más noble coraje, dones absolutamente extraordinarios y un talento superior”.
En Semblanza alfabética de Sophie Germain.
Carta de Sophie Germain a Guglielmo Libri (sobre Évariste Galois), 1831“La muerte del señor Fourier ha sido demasiado para este estudiante Galois que, a pesar de su impertinencia, daba muestras de un carácter inteligente. Todo esto ha hecho tanto que lo han expulsado de la Escuela Normal. No tiene dinero… Dicen que se volverá completamente loco. Temo que sea cierto”.
En 18th April.
Carta de Ada Augusta Lovelace a Annabella Milbanke, 1841“No me concederás poesía filosófica. ¡Invierte el orden! ¿Me darás filosofía poética, ciencia poética?”.
Carta de Augustus de Morgan a William Rowan Hamilton, 1852“Uno de mis estudiantes [Frederick Guthrie] me pidió hoy que le diera la razón para un hecho –que yo no sabía que era un hecho, ni lo sé aún–. Dijo que si una figura se divide de alguna manera y sus piezas se colorean de manera que las que tengan alguna frontera común queden con colores distintos, se pueden necesitar cuatro colores, pero no más. El siguiente es el caso en el que se necesitan cuatro colores”.
En Una historia que comienza en 1852.
Carta de Karl Weierstrass a Sofia Kovalevskaya, 1873“Qué bien estaríamos aquí –tú con tu alma imaginativa, yo estimulado y renovado por tu entusiasmo– soñando y contemplando todos los problemas que nos quedan por resolver, sobre los espacios finitos o infinitos, sobre la estabilidad del sistema solar, y los otros grandes problemas de las matemáticas y de la física del futuro”.
Carta de Albert Einstein al New York Times (sobre Emmy Noether), 1935“A juicio de los matemáticos vivos más competentes, la señorita Noether fue el genio matemático creativo más importante que haya existido desde que comenzó la educación superior para las mujeres”.
Carta de Warren Weaver a Norbert Wiener, 1947“Naturalmente, uno se pregunta si el problema de la traducción podría ser tratado como un problema de criptografía. Cuando veo un artículo en ruso, digo: «Esto está escrito en inglés, pero ha sido codificado con algunos símbolos extraños. Ahora procederé a descifrarlo»”.
En Warren Weaver, de la física matemática a la traducción automática.
Carta de Alexandre Grothendieck (declaración de intenciones), 2010“No tengo intención de publicar ni republicar ninguna obra o texto de los que sea autor, en ninguna forma, impresa o electrónica, ya sea en su totalidad o en extractos, textos de carácter personal, de carácter científico o de otro tipo, ni cartas dirigidas a nadie, ni ninguna traducción de textos de los que sea autor”.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia
Nota del editor: Aunque no sean de índole matemática, merece la pena recordar esta serie de artículos de Javier Peláez en un día como hoy: Las cartas de Darwin
El artículo En el Día Mundial del Correo, cartas matemáticas se ha escrito en Cuaderno de Cultura Científica.
La pista número uno sobre la gravedad cuántica se encuentra en las superficies de los agujeros negros
Un artículo de Joseph Howlett. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Ilustración: Kristina Armitage / Quanta MagazineKarl Schwarzschild descubrió por primera vez los agujeros negros en 1916, pero durante mucho tiempo no fueron realmente algo. “Los agujeros negros se descubrieron como un objeto puramente geométrico, en cierto sentido, solo espacio vacío. Nada”, explica Yuk Ting Albert Law, físico teórico de la Universidad de Stanford.
Un agujero negro es una rareza matemática surgida de la teoría general de la relatividad de Albert Einstein. Es la contorsión más extrema del tejido espacio-temporal, un lugar donde su curvatura y atracción gravitatoria se vuelven infinitas. Todo lo que se acerque demasiado a ese punto nunca podrá escapar, ni siquiera la luz.
Los agujeros negros adquirieron mayor importancia con el trabajo de Stephen Hawking y Jacob Bekenstein en la década de 1970. Sus cálculos transformaron los agujeros negros de espacio retorcido a objetos reales con «posible estructura microscópica», continúa Law. Los hallazgos tuvieron consecuencias de largo alcance que continúan dando forma a nuestra comprensión del espacio-tiempo y agudizando sus misterios.
La serie de descubrimientos comenzó en 1972, cuando Hawking demostró que el tamaño de un agujero negro (en concreto, su superficie esférica) siempre aumenta en proporción a la masa de lo que cae en él. La regla se parecía a la segunda ley de la termodinámica, que dice que la entropía, una medida del desorden en un sistema, nunca disminuye.
La mayoría de los físicos, incluido Hawking, no tomaron la similitud demasiado literalmente. “La gente pensaba que no tenía nada que ver con la termodinámica. Simplemente parecía matemáticamente similar”, explica Elba Alonso-Monsalve, física teórica del Instituto Tecnológico de Massachusetts.
Bekenstein no estuvo de acuerdo. Sostenía que los agujeros negros deben tener entropía. Si no la tuvieran, consideremos el caso en el que una taza de té caliente cae en un agujero negro. La entropía del té parecería desaparecer, lo que violaría la segunda ley de la termodinámica. Esto es, a no ser que la superficie del agujero negro se expanda y signifique que su propia entropía aumenta para compensar la diferencia.
Por lo tanto, el área del agujero negro debe considerarse como un indicador de su entropía, según Bekenstein. “Vio que si se toma en serio el área como entropía, entonces la entropía total del universo aumenta”, como debería ocurrir cuando algo cae en el agujero negro, continúa Alonso-Monsalve.
La relación entropía-área de Bekenstein era sólo una conjetura. Luego Hawking la convirtió en una fórmula cuantitativa precisa. Encontró los coeficientes que faltaban en la fórmula combinando las ecuaciones de la mecánica cuántica con el espacio-tiempo deformado que rodea a un agujero negro. Calculó que los agujeros negros en realidad irradian como cualquier objeto cáliente, lo que significa que tienen una temperatura medible. Trabajando a la inversa, utilizó esta temperatura para calcular la entropía del agujero negro, obteniendo una expresión exacta en términos de su área.
La fórmula tuvo implicaciones radicales.
Las investigaciones realizadas en los años 70 por el físico británico Stephen Hawking (izquierda) y, trabajando de forma independiente, por el físico israelí-estadounidense Jacob Bekenstein demostraron que la entropía de un agujero negro depende de su área. De izquierda a derecha: Santi Visalli/Getty Images; Jakob Bekenstein/Wikimedia CommonsA un nivel fundamental, la entropía significa opciones. Se calcula observando algo desde el exterior y calculando la cantidad de formas diferentes en que se podrían organizar sus partículas para que parezca de esa manera. Cuantas más posibilidades microscópicas existan para el estado de un sistema que no se puedan distinguir desde el exterior, más entropía tendrá el sistema.
La entropía suele aumentar con el volumen de un sistema, porque se distribuye entre todos los átomos que lo componen. Una jarra llena con dos tazas de agua tiene el doble de entropía que una taza.
Los agujeros negros son sorprendentemente diferentes. La fórmula de Bekenstein-Hawking dice que la entropía de un agujero negro aumenta con el área de su superficie, no con la cantidad de espacio que contiene. Si cae suficiente material en un agujero negro como para duplicar su volumen, su entropía solo aumentará aproximadamente la mitad.
La fórmula implica que toda la información microscópica inaccesible desde el exterior de un agujero negro está codificada en su superficie. Es como si el volumen encerrado por ese límite impermeable no contuviera información adicional, como si el límite en sí fuera el objeto más importante y fundamental.
Hasta el día de hoy, la ley de área-entropía es una de las cosas más concretas que conocemos sobre la naturaleza cuántica de la gravedad. “Cualquiera que sea el modelo de gravedad cuántica, tiene que ser capaz de explicar la entropía de los agujeros negros”, afirma Law. Este es uno de los grandes éxitos de la teoría de cuerdas, una candidata a “teoría del todo” que describe el origen cuántico de la gravedad como bucles vibrantes de energía. En 1996, Andrew Strominger y Cumrun Vafa contaron los estados microscópicos subyacentes a un agujero negro en la teoría de cuerdas y llegaron a la fórmula de área-entropía de Bekenstein.
Así pues, la clave de la estructura subyacente de los agujeros negros se encuentra en su superficie. “La gente empezó a pensar”, afirma Law, “que tal vez la teoría microscópica que describe los agujeros negros vive en un espacio-tiempo con una dimensión inferior”. Este concepto, llamado principio holográfico, puede extenderse de los agujeros negros al espacio-tiempo en general. Tal vez el tejido flexible y gravitacional de nuestro universo surja de lo que sea que esté sucediendo en algún límite de dimensión inferior.
El artículo original, The #1 Clue to Quantum Gravity Sits on the Surfaces of Black Holes, se publicó el 25 de septiembre de 2024 en Quanta Magazine.
Traducido por César Tomé López
El artículo La pista número uno sobre la gravedad cuántica se encuentra en las superficies de los agujeros negros se ha escrito en Cuaderno de Cultura Científica.
Bacterias que preparan el invierno midiendo el fotoperiodo
La medición del fotoperiodo, es decir, el número de horas de luz en un día determinado, permite anticipar condiciones ambientales cambiantes con las estaciones y regular así procesos fisiológicos como la migración, la floración, la hibernación o la reproducción estacional. Esto es muy conveniente cuando animales y plantas asisten al desfile de las estaciones a lo largo del año, pero ¿qué ocurre con bacterias que solo viven unas horas antes de dividirse? ¿Les puede interesar saber que se acerca el invierno?
La respuesta es que a algunas sí les interesa, y la historia de este reciente descubrimiento es apasionante. Primero tenemos que recordar qué es el reloj circadiano.
Los ritmos circadianos son cambios fisiológicos que siguen un ciclo aproximado de 24 horas. Por ejemplo, nuestro ciclo vigilia/sueño. El llamado jetlag se produce cuando este ritmo circadiano pierde la sincronía con el ciclo luz/oscuridad debido a un viaje. Después de unos cuantos días ambos ciclos vuelven a sincronizarse. Este y otros muchos cambios son controlados por el llamado reloj circadiano, descubierto en los años setenta y bien caracterizado a nivel molecular.
Figura 1. La cianobacteria fotosintética Synechococcus elongatus. De Masur (dominio público)Resulta sorprendente, pero procariotas como la cianobacteria fotosintética Synechococcus (Figura 1), que viven unas horas antes de dividirse, también tienen un reloj circadiano. Sus mecanismos fueron descubiertos por el grupo de Carl H. Johnson en la Universidad Vanderbilt. Solo tres genes, KaiA, B y C, interactuando de forma compleja (explicado en la Figura 2), permiten que los procesos fisiológicos de Synechococcus se ajusten a un ciclo aproximado de 24 horas, a pesar de que en ese periodo habrá experimentado cuatro ciclos de división.
Figura 2. Control del ritmo circadiano por las proteínas KaiA, B y C. KaiC es un hexámero de proteínas con actividad kinasa (fosforilación). Esta actividad se potencia a lo largo del día por la unión a KaiA. De esta forma se fosforilan residuos de treonina (T) y serina (S) (fosforilación representada en rojo). Al final del día la hiperfosforilación provoca la unión de los factores SaSA y RpaA activando el programa genético “nocturno”. También se une KaiB, que desplaza a SaSA y KaiA, y cambia la configuración de KaiC, adquiriendo actividad desfosforilasa. Al final de la noche los residuos de treonina y serina han sido desfosforilados, vuelve el programa “diurno” de expresión génica y el ciclo vuelve a comenzar. Imagen de ADN de Forluvoft, dominio públicoBuena parte de los genes de Synechococcus siguen un ritmo circadiano. Durante el día (temperatura alta, luz ultravioleta, fotosíntesis activa) se activan mecanismos de respuesta al calor, al estrés oxidativo y a los daños en el ADN. Cuando cae la noche cesa la fotosíntesis y aumenta el metabolismo de carbohidratos para suministrar energía. A diferencia de otros organismos, la sincronización del reloj no se produce captando la luz mediante pigmentos fotorreceptores, sino en función del estado de oxidación-reducción que se establece durante la fotosíntesis diurna.
Una estudiante de Johnson, María Luisa Jabbur, sugirió a su jefe la posibilidad de que el reloj circadiano de Synechococcus pudiese ser utilizado también para anticipar cambios estacionales y prepararse para el frío. Esta idea fue recibida con muchísimo escepticismo. Si ya era difícil imaginar que una bacteria se ajustara a un ritmo diario cuatro veces más largo que su ciclo vital, pensar que podría hacer previsiones a un plazo de meses resultaba inverosímil. No obstante, Luisa recibió autorización para investigarlo. Tuvo éxito y sus resultados acaban de ser publicados en la revista Science.
Los experimentos de Mª Luisa Jabbur consistieron en someter a las bacterias a tres fotoperiodos, día corto (8 horas de luz, 16 de oscuridad), día equinoccial (12 horas de luz y oscuridad) y día largo (16 horas de luz, 8 de oscuridad) (Figura 3). Después de varios días, las bacterias fueron mantenidas durante dos horas en un medio helado. Sorprendentemente, la tasa de supervivencia de las que habían experimentado los días cortos fue 2-3 veces superior al resto. El equipo constató que eran necesarios al menos cuatro ciclos de alternancia luz/oscuridad para obtener esos resultados, y la supervivencia óptima se conseguía después de 6-8 ciclos.
Figura 3. Experimento de Mª Luisa Jabbur. Cultivos de Synechococcus son sometidos a un mínimo de cuatro ciclos diarios con diferentes periodos de luz y oscuridad. Las bacterias sometidas a días cortos y noches largas resistieron mucho más que el resto una bajada drástica de la temperatura. Sin embargo, bacterias mutantes para los genes que regulan el ritmo circadiano perdieron su capacidad de adaptación al frío. Cubo de hielo diseñado por macrovector (Freepik)Otro experimento importante consistió en utilizar bacterias mutantes para los genes KaiA, B y C. De esta forma se comprobó que cuando las bacterias no eran capaces de establecer el ritmo circadiano, tampoco se adaptaban a las temperaturas bajas a pesar de haber experimentado fotoperiodos cortos.
El mecanismo de adaptación a las bajas temperaturas pasa por un aumento de la fluidez de las membranas celulares. Esta fluidez depende del grado de saturación de los lípidos que las componen. Como bien sabemos, el aceite de oliva es fluido a temperatura ambiente, la mantequilla lo es mucho menos, y esto se debe a las grasas insaturadas del aceite. El fotoperiodo corto en Synechococcus provoca la activación de un programa genético que incluye la síntesis de lípidos insaturados y su incorporación a las membranas celulares. Un estudio del transcriptoma de Synechococcus mostró que 708 genes (la cuarta parte del total) cambian sus niveles de expresión al reducirse el fotoperiodo. Sin embargo, en los mutantes KaiABC, incapaces de establecer un ritmo circadiano, solo 384 genes modifican sus niveles de expresión al acortarse los días. Esto muestra que un buen número de genes responde específicamente a la disminución del ritmo circadiano, sincronizado a través de la fotosíntesis como dijimos antes.
La investigación también mostró que el cultivo a bajas temperaturas (20 °C) provoca cambios adaptativos en la fluidez de las membranas, pero dichos cambios son mucho más pronunciados si van acompañados por un acortamiento del fotoperiodo. Es decir, la medición del fotoperiodo realmente anticipa la estación fría que se aproxima y prepara a las bacterias para enfrentarla. Una cuestión que deberá aclararse en el futuro es cómo Synechococcus transmite a los descendientes la previsión de que se acerca el invierno.
Referencia
Jabbur, M.L., Bratton, B.P., Johnson, C.H. (2024) Bacteria can anticipate the seasons: Photoperiodism in cyanobacteria. Science. doi: 10.1126/science.ado8588.
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga
El artículo Bacterias que preparan el invierno midiendo el fotoperiodo se ha escrito en Cuaderno de Cultura Científica.
La corriente en chorro polar y la meteorología extrema en Europa en los últimos 700 años
La corriente en chorro polar ha influido de manera determinante en el clima europeo durante más de 700 años provocando eventos extremos como incendios, epidemias o inundaciones.
Las corrientes en chorro o jetstream son bandas concentradas de vientos en la parte superior de la atmósfera que fluye alrededor de la Tierra en ambos hemisferios. Su localización no es fija, sino que varía en función de los cambios en la posición y la intensidad de sistemas de altas y bajas presiones. Estas corrientes pueden cambiar su curso, desplazarse hacia el norte o hacia el sur así como aumentar su sinuosidad, asemejándose en algunas ocasiones a una corriente que fluye rápidamente y a un río lento y serpenteante en otras.
Pero, ¿qué relación tiene esto con el clima y por qué son tan importantes estas corrientes? La respuesta está en un trabajo liderado por investigadores de la Universidad de Arizona (EE. UU.) y que ha demostrado que una de ellas, concretamente la corriente en chorro polar del hemisferio norte, ha estado relacionada con la ocurrencia de fenómenos extremos en Europa durante más de 700 años.
“Durante los meses de verano, algunas configuraciones dominantes de la corriente en chorro polar dan lugar a un clima extremo y opuesto entre el noroeste y el sudeste de Europa, generando un patrón espacial que recibe el nombre de ‘dipolo climático’”, explica Isabel Dorado Liñán, investigadora de la Universidad Politécnica de Madrid y una de las coautoras de este trabajo.
“Estos dipolos climáticos afectan de forma directa a sistemas naturales como los bosques, que crecen más de lo normal en un lado del dipolo mientras reducen su crecimiento en el otro”, explica en referencia a los resultados de un artículo que publicaron en 2022.
Fuente: Xu, G., Broadman, E., Dorado-Liñán, I. et al. (2024)«Cuando la corriente en chorro está en una posición más norte, tenemos condiciones más frías y húmedas en las Islas Británicas y condiciones más cálidas y secas en el Mediterráneo y los Balcanes», explica Ellie Broadman, ex investigadora postdoctoral en el Laboratorio de Tree-Ring Research de la Universidad de Arizona y coautora de este trabajo. «Un ejemplo del impacto la hemos presenciado recientemente, con las inundaciones catastróficas en Europa central», añade.
Por el contrario, cuando la corriente en chorro polar migra más al sur, da lugar a veranos menos cálidos y más húmedos en el sureste de Europa, mientras que el noroeste experimenta condiciones más cálidas y secas.
Anillos de crecimiento de los árbolesPero, ¿hasta qué punto las corrientes en chorro han sido históricamente responsables de fenómenos extremos climáticos, económicos y sociales en Europa? ¿El impacto es diferente ahora debido al cambio climático antropogénico o ha sido así durante siglos? Esa fue la pregunta que se hicieron los investigadores y, para dar respuesta, realizaron una estimación indirecta empleando muestras de anillos de crecimiento de árboles centenarios y milenarios de diferentes regiones de Europa.
“La posición de la corriente en chorro puede estimarse con datos climáticos existentes, pero estos se extienden, en el mejor caso, hasta principios del siglo XX. Para poder evaluar la influencia que ha tenido la variación en la posición de la corriente en chorro en el clima a largo plazo primero tuvimos que reconstruir los desplazamientos de la corriente en chorro polar sobre Europa”, explica Dorado.
Ello es posible porque cada año, los árboles añaden un anillo que registra las condiciones ambientales, y por tanto las climáticas, durante su formación. Al analizar los anillos de crecimiento de los árboles, los dendrocronólogos pueden compilar un archivo del clima pasado. Así, los investigadores vincularon los anillos de crecimiento de tres regiones de Europa con los desplazamientos de la banda de vientos atmosféricos a muchos kilómetros de altura a través de los cambios que esos desplazamientos producen en la temperatura a nivel de superficie.
“Descubrimos que los desplazamientos de la corriente en chorro muy al norte o muy al sur de su posición habitual durante el verano han estado históricamente asociados con una serie de impactos ecológicos, económicos y sociales como los incendios forestales, el rendimiento y la calidad de los cultivos y sus productos derivados como el vino y las epidemias”, explica Dorado. “Dado que estos impactos están relacionados con las condiciones climáticas de la superficie, esto demuestra como la corriente en chorro polar ha influido en el clima estival en la superficie terrestre los últimos 700 años y, en consecuencia, en la sociedad”.
Por poner ejemplos concretos, “las epidemias ocurrieron con mayor frecuencia en las Islas Británicas cuando la corriente en chorro estaba más al norte, ya que, dado que los veranos eran húmedos y fríos, la gente permanecía en casa y las condiciones eran más propicias para la propagación de enfermedades” explica Valerie Trouet, coautora del artículo y profesora en la Universidad de Arizona. “Otro ejemplo destacado es el de la peste negra, que asoló Irlanda entre 1348 y 1350, cuando la corriente en chorro se encontraba en una posición extrema, en el extremo norte de Europa”.
Los investigadores también constataron que, históricamente, los incendios forestales en los Balcanes fueron más frecuentes cuando la corriente de chorro estaba en esa posición norte que crea condiciones secas y cálidas, algo que también se ha visto este pasado verano.
¿Qué pasará en el futuro?Y es que, parte de la relevancia de este trabajo radica en que sus resultados se pueden aplicar también a los posibles impactos futuros del cambio climático si se conoce la evolución de la posición de la corriente en chorro.
“La relación a largo plazo entre la posición latitudinal de la corriente en chorro polar y los fenómenos extremos en Europa también proporciona un contexto para las condiciones actuales y define los tipos de extremos que podríamos experimentar bajo un calentamiento global continuo. Por ejemplo, nuestros resultados sugieren que, si como describen algunos estudios, la posición promedio de la corriente en chorro se desplaza hacia el norte como resultado del calentamiento global, los rendimientos de los cultivos probablemente se reducirían en ambos lados del dipolo”, asegura Trouet.
Referencias:
Xu, G., Broadman, E., Dorado-Liñán, I. et al. (2024) Jet stream controls on European climate and agriculture since 1300 ce. Nature doi: 10.1038/s41586-024-07985-x
Dorado-Liñán, I., Ayarzagüena, B., Babst, F. et al. (2022) Jet stream position explains regional anomalies in European beech forest productivity and tree growth. Nat Commun doi: 10.1038/s41467-022-29615-8
Edición realizada por César Tomé López a partir de materiales suministrados por la Universidad Politécnica de Madrid
El artículo La corriente en chorro polar y la meteorología extrema en Europa en los últimos 700 años se ha escrito en Cuaderno de Cultura Científica.
¿Y si los dinosaurios no se hubiesen extinguido?
¿Qué habría pasado si los dinosaurios no se hubieran extinguido hace unos 66 millones de años? Quizá algunos fuesen capaces de diseñar y utilizar herramientas.
Los vídeos ‘¿Y sí…?´ se plantean cuestiones ficticias pero que nos permiten aprender mucho sobre el mundo en el que vivimos. Se han emitido en el programa de divulgación científica de Televisión Española Órbita Laika, y producido en colaboración con la Cátedra de Cultura Científica de la Universidad del País Vasco.
Ficha técnica: Idea: José Antonio Pérez Ledo
Producción ejecutiva: Blanca Baena
Dirección: Aitor Gutierrez
Guion: Manuel Martinez March
Grafismo: Cristina Serrano
Música: Israel Santamaría
Producción: Olatz Vitorica
Locución: José Antonio Pérez Ledo
El artículo ¿Y si los dinosaurios no se hubiesen extinguido? se ha escrito en Cuaderno de Cultura Científica.
Un pueblo hispano en Pompeya: ¿quiénes fueron los autrigones?
Las excavaciones arqueológicas de Pompeya nos han sorprendido, una vez más, con un hallazgo extraordinario. Esta vez se trata de una tumba monumental que ha sido hallada durante las obras de mejora del edificio San Paolino, sede de la biblioteca del Parque Arqueológico de Pompeya.
Este nuevo monumento funerario tiene forma de banco hemicíclico, un modelo popular en la ciudad, que invitaba a los transeúntes a sentarse y recordar al difunto. En su respaldo destaca una gran inscripción funeraria dedicada a Numerio Agrestino, un hombre que hizo carrera militar y cívica durante el reinado del emperador Augusto (27 a. e. c.– 14).
Imagen de la tumba descubierta en julio en Pompeya.Ministero della CulturaUna inscripción monumental
El texto latino, tallado en grandes letras, dice lo siguiente:
N(umerio) Agrestino N(umerii) f(ilio) Equitio Pulchro trib(uno) mil(itum) praef(ecto) autrygon(um) praef(ecto) fabr(um) II d(uum) v(iro) i(ure) d(icundo) iter(um) / locus sepulturae datus d(ecreto) d(ecurionum)
Y se traduce como:
A Numerio Agrestino Equitio Pulcro, hijo de Numerio, tribuno militar, prefecto de los Autrygones, prefecto del genio militar, «duoviro iure dicundo» dos veces. El lugar de sepultura fue dado por decreto de los decuriones.
Inscripción en el respaldo de la tumba de Numerio Agrestino. Fuente: Ministero della CulturaComo puede observarse, además de su nombre completo, se mencionan los cargos militares y cívicos que Numerio Agrestino cumplió durante su vida. Entre ellos destaca el cargo político más alto de la ciudad (duoviro iure dicundo) que ejerció en dos ocasiones. Tal vez por ello –como puede leerse en la última parte de la inscripción– el ordo decurional –una especie de consejo de la ciudad– le concedió un espacio público de enterramiento, un honor únicamente reservado para personas altamente valoradas por su comunidad.
La inscripción ofrece mucha más información y posibilidades de análisis, pero en esta ocasión nos centraremos en un elemento concreto: la mención al cargo de praefectus autrygon(um).
¿Quiénes fueron los autrigones?Los autrigones fueron un grupo de población de la Península ibérica que conocemos gracias a unas pocas menciones de autores clásicos. A partir de esa información los podemos situar al norte junto a otros grupos de población: los cántabros a su oeste, los caristios al este y turmogos y berones al sur.
Norte peninsular en la Antigüedad.Fernández Corral, M. (2020). _La epigrafía funeraria de época romana del área autrigona. Conmemoración, relaciones familiares y sociedad._ Anejos de Archivo Español de Arqueología. CSIC
Además, debemos especificar que, aunque algunos medios han señalado erróneamente a los autrigones como parte de otros grupos de población antiguos y modernos, las fuentes clásicas nos indican que fueron un grupo de población independiente de sus vecinos.
Primeros contactos con RomaNo sabemos en qué momento concreto fueron dominados por el Imperio romano, ni cómo fue su proceso de conquista. Los textos antiguos los sitúan directamente en la órbita romana formando parte de conflictos en Hispania.
Según el historiador romano Tito Livio, durante las guerras Sertorianas (83-72 a. e. c.) estuvieron en el bando de Pompeyo. Dice:
“El propio Sertorio decidió avanzar con su ejército contra los berones y los autrigones; había tenido conocimiento de que estos, mientras él asediaba las ciudades de Celtiberia, habían implorado la ayuda de Pompeyo, habían enviado guías para indicar las rutas al ejército romano, y sus jinetes habían hostigado a menudo a los soldados suyos en cualquier punto…”
Y en las guerras astur-cántabras (29-19 a. e. c.) Floro –también historiador romano– los sitúa en oposición a los cántabros en este texto:
“El primero en iniciar la rebelión, el más enérgico y pertinaz fue el de los cántabros, que, no contentos con defender su libertad, pretendían incluso imponer su dominio a sus vecinos y hostigaban con frecuentes incursiones a los vacceos, turmogos y autrigones”.
Integración en el Imperio romanoLos primeros contactos son poco conocidos, pero sí sabemos cómo encajaron dentro de la estructura administrativa romana. Las fuentes nos indican que fueron parte del territorio de la provincia de Hispania Citerior y, tal y como nos dice Plinio el Viejo, sus ciudades formaron parte del Conventus Cluniensis. Es decir, les correspondía acudir a la ciudad de Clunia (en la actual provincia Burgos) cuando el gobernador –o un legado enviado por él– la visitaba anualmente para impartir justicia.
“Al convento jurídico de Clunia los várdulos llevan catorce pueblos de los que solo hay que nombrar a los alabanenses. […] Entre los nueve pueblos de los cántabros solo hay que nombrar a Iuliobriga y entre las diez ciudades de los autrigones a Tricio y Virovesca”.
Hispania Citerior, por M. Fernández Corral.Además, como la mayor parte de los territorios conquistados, también fueron receptores de los modelos culturales y sociales romanos que incluían, entre otros, la cultura epigráfica latina. Es decir, adquirieron la costumbre de realizar inscripciones en piedra, principalmente funerarias y religiosas, que se han conservado en gran número hasta la actualidad.
El análisis de estas inscripciones ha permitido constatar cambios en la población local. Entre otras cuestiones, se ve cómo pasaron a utilizar cada vez más nombres latinos o a interactuar con deidades (locales y clásicas) al modo romano. Además, encontramos personas que escalaron políticamente participando en las nuevas estructuras de poder del Imperio cumpliendo con cargos civiles y militares (igual que lo hizo el protagonista de la inscripción pompeyana, Numerio Agrestino).
Nuevas oportunidades de estudioVolviendo a Pompeya, la presencia de un praefectus autrygon(um) hace de esta inscripción un hallazgo muy importante para el estudio del norte de Hispania. Conocemos otros prefectos que se ocuparon del control de otras zonas, pero este es el primero documentado para los autrigones.
Aunque aún es pronto para ofrecer respuestas, este texto nos sugiere muchas nuevas preguntas: si había un praefectus autrygon(um), ¿desde cuándo y hasta cuándo lo hubo?, ¿qué funciones tenía?, ¿cómo encajaba con el resto de los territorios circundantes?, ¿qué tipo de persona ostentaba este cargo?, etc.
Confiamos en que un periodo de estudio y –ójala– nuevos hallazgos como este nos permitan ir contestando a estas preguntas y así podamos conocer mejor las primeras formas de control romano de la zona.
Sobre la autora: Marta Fernández Corral, Profesora Adjunta del Departamento de Estudios Clásicos, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Un pueblo hispano en Pompeya: ¿quiénes fueron los autrigones? se ha escrito en Cuaderno de Cultura Científica.
Agujeros de gusano: puentes entre ciencia y ficción
No sé de ninguna explicación excepto la que ha lanzado el profesor Wade. Pero su teoría implica la cuarta dimensión, y una disertación sobre tipos teóricos de espacio. Hablar de una torsión en el espacio me parece una tontería, quizá se deba a que no soy matemático. Cuando dije que nada alteraría el hecho de que el lugar está a ocho mil millas, respondió que dos puntos pueden estar a una yarda de distancia en una hoja de papel y, sin embargo, se los puede juntar doblando el papel. El lector quizá comprenda este argumento, yo ciertamente no.
En este fragmento de texto muchos habrán detectado una de las imágenes que más han aparecido en el ámbito de la divulgación científica para explicar el funcionamiento de un agujero de gusano: la del papel que se dobla sobre sí mismo para aproximar dos puntos alejados entre sí. Encontramos un ejemplo perfecto de esto en la película Interstellar. Nada nuevo, en principio, si no fuera porque estamos ante un relato que H. G. Wells publicó en 1894 ―un año antes que La máquina del tiempo―: «El extraordinario caso de los ojos de Davidson».
En el ámbito de la divulgación científica se suele utilizar la imagen de un plano que se dobla sobre sí mismo para ilustrar el concepto de agujero de gusano. En la película Interstellar, por ejemplo, el doctor Romilly utiliza un trozo de papel y un lápiz para explicárselo a Cooper. Fuente: Panzi / Wikimedia CommonsEn este caso, H. G. Wells no hizo su planteamiento en el contexto de un viaje espacial, sino en el de un científico quien, tras un accidente de laboratorio durante una tormenta ―uno de los clichés más manidos de la ciencia ficción― adquiere la capacidad, de forma transitoria, de observar lugares remotos de la tierra. Aun así, el escritor inglés no fue nada desencaminado al especular, más de una década antes del desarrollo de la teoría de la relatividad especial y dos décadas antes del desarrollo de la relatividad general, con la posibilidad de la existencia de dimensiones adicionales en el espacio y, después, en el tiempo.
El escritor británico H. G. Wells no solo especuló con la posibilidad de una cuarta dimensión en el tiempo, sino que también se planteó qué significaría contar con una dimensión adicional en el espacio. Fuente: Dominio Público / George Charles BeresfordEs difícil saber si alguno de los popes de la física relativista leyó en algún momento «El extraordinario caso de los ojos de Davidson» y, de haber sido así, si le pudo servir de inspiración a alguno de ellos en un momento dado. No existe ninguna prueba ni testimonio, pero eso, probablemente, haga a este relato más especial si cabe.
La primera solución de la teoría de la relatividad general que apuntó en la dirección de los agujeros de gusano ―la primera solución de cualquier tipo, en realidad― apareció un año después de la publicación de la teoría, en 1916. Aquel año Karl Schwarzschild calculó el primer «modelo relativista» de una estrella, y descubrió que el tiempo, tal y como predecía Einstein, transcurría más lento cuanto mayor fuera el campo gravitatorio en las proximidades del astro. También predijo que, a partir de cierta densidad crítica, el tiempo, directamente, se detendría, lo que provocaba una singularidad matemática. Estaba describiendo de forma teórica y por primera vez, un agujero negro estático. Pero había algo más, y es que la métrica de Schwarzschild llevaba implícita una solución de signo contrario: un agujero blanco. Aquel mismo año, el físico austríaco Ludwig Flamm advirtió que se podía interpretar geométricamente la solución de Schwarzschild como una conexión, o puente, entre dos puntos del espacio-tiempo o, lo que es lo mismo, un agujero de gusano.
La interpretación de Flamm no tuvo demasiada repercusión en su momento. Tendrían que pasar dos décadas para que Albert Einstein y Nathan Rosen exploraran el mismo camino y plantearan lo que a la postre se bautizó como puente de Einstein-Rosen. El nombre «agujero de gusano» no lo acuñaría John Wheeler hasta el año 1957.
Pese a que durante la primera mitad del siglo XX los viajes espaciales fueron un tema recurrente en la ciencia ficción, el uso de agujeros de gusano, en un sentido moderno, como red de transporte interestelar, no se popularizó hasta alrededor de los años setenta con obras como La guerra interminable, de Joe Haldeman. En esta novela, el agujero de gusano tiene el exótico nombre de colapsar ―collapsar, en el inglés original―, y su descripción es bastante vaga:
Hace doce años, cuando yo tenía diez [no es un error, la novela también tiene en cuenta la dilatación del tiempo relativista], descubrieron el salto por colapsar. Bastaba con arrojar un objeto contra un colapsar a velocidad suficiente para que apareciera en otra parte de la galaxia.
Probablemente, la primera aparición de un agujero de gusano, en su sentido más riguroso, en la literatura de ciencia ficción, fue la de Contact, de Carl Sagan. Y no hubiera sido así si el divulgador no le hubiera pasado el manuscrito de la novela a un colega del Caltech especializado en física relativista: Kip Thorne. En un principio, el viaje galáctico de Ellie Arroway, Devi Sujavati, Vaygay Lunacharsky, Xi Qiaomu y Abonneba Eda en la Máquina iba a consistir en una serie de saltos a través de agujeros negros, pero Thorne surgirió a Sagan que los cambiara por agujeros de gusano. Y este en realidad, es una de los recursos que muchas veces utiliza la ciencia ficción para no pillarse los dedos con la ciencia: siempre es mejor utilizar ideas teóricas con ciertas zonas grises en las que se puede especular, que jugársela con algo, en este caso, como un agujero negro, cuya existencia no se había demostrado, pero estaba ya muy aceptada entre los físicos. Moviéndonos en esa delgada línea que separa la ciencia real de la especulación, se pueden aprovechar las posibilidades que nuestra ignorancia deja abiertas, pero sin tirar abajo todos los cimientos de una disciplina. Lo que estaba bastante claro en aquel momento es que nadie podría sobrevivir al caer en un agujero negro, pero en uno de gusano, ¿quién sabe?
Tanto las soluciones de Schwarzchild como las de Flamm y Einstein-Rosen eran impracticables ―colapsaban sobre sí mismas si se intentaban atravesar―, pero Kip Thorne y uno de sus estudiantes, Mike Morris, encontraron una que no lo era en 1988. Aunque solo se trataba de un constructo teórico, demostraron que, al menos matemáticamente, las ecuaciones de Einstein aceptaban soluciones de agujero de gusano transitables. En este caso, parece que la ciencia y la ciencia ficción se retroalimentaron en un bucle perfecto.
La novela Contact, de Carl Sagan, y el modelo de Kip Thorne y Mike Morris de agujero de gusano atravesable están íntimamente relacionados. Fuentes: Editorial Nova / American Journal of PhysicsY un bucle similar nos lleva, de nuevo, al comienzo de este artículo, ya que precisamente Kip Thorne fue también consultor científico en Interstellar, estrenada en 2014.1
No siempre es fácil solucionar la problemática de los viajes espaciales en ciencia ficción, sobre todo cuando se intenta ser lo más fiel posible a la ciencia. La duración de una vida humana es muy corta en relación al tiempo que se necesitaría para llegar, siquiera, a nuestra estrella más cercana con la tecnología actual, pero la física, en este caso, sigue poniendo muchos recursos a nuestra disposición si no queremos recurrir al pensamiento mágico. Los agujeros de gusano, así como otras muchas ideas modernas, son alguno de esos recursos. Al fin y cabo, y como diría el poeta:
Mientras la ciencia a descubrir no alcance
las fuentes de la vida
y en el mar o en el cielo haya un abismo
que al cálculo resista…
¡Habrá ciencia ficción!
Bueno, tal vez no dijo exactamente eso…
Bibliografía
Einstein, A. y Rosen, N. (1935). The particle problem in the general theory of relativity. Physical Review 48, 73.
Flamm, L. (1916). Beiträge zur Einsteinschen Gravitationstheorie. Physikalische Zeitschrift, 17, 448.
Haldeman, J. (1978) [1974]. La guerra interminable. EDHASA.
Morris, M. S. y Thorne, K. S. (1988). Wormholes in spacetime and their use for interstellar travel: A tool for teaching general relativity. American Journal of Physics, 56, 395-412.
Poundstone, W. (1999). Carl Sagan. A life in the cosmos. Henry Holt.
Sagan, C. (2018) [1985]. Contacto. Nova.
Schwarzschild, K. (1916). Über das Gravitationsfeld eines Massenpunktes nach der Einsteinschen Theorie. Sitzungsberichte der Königlich Preussischen Akademie der Wissenschaften: 189-196.
Wells, H. G. (2019) [1894]. El extraordinario caso de los ojos de Davidson. En Cuentos completos. Valdemar.
Wells, H. G. (1985). La máquina del tiempo.
Nota
1 Kip Thorne sería galardonado en 2017 con el Premio Nobel de Física, junto con Rainer Weiss y Barry C. Barish, pero por otro motivo: «por sus contribuciones decisivas al detector LIGO y por la observación de ondas gravitatorias».
.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo Agujeros de gusano: puentes entre ciencia y ficción se ha escrito en Cuaderno de Cultura Científica.
Fibonacci está en todas partes (I)
La sucesión de Fibonacci, es una sucesión de números (naturales) que ha superado la frontera de las matemáticas, de la ciencia, para colarse en el mundo de las artes y la cultura. Que una familia de números como esta haya despertado el interés no solo dentro de la comunidad matemática, sino de toda la sociedad, se debe, en gran medida, a que juega un papel fundamental en el estudio de la morfología de las plantas, en concreto, en la filotaxis, siendo el número de espirales de las cabezas de los girasoles, las piñas o el romanescu, números de dicha sucesión, así como por su relación con el número de oro.
Fotografía de una piña recogida en la isla de Arousa (Pontevedra), en la cual puede observarse su conexión con los números de Fibonacci al contar el número de espirales a izquierda y derecha, 8 y 13Por supuesto, este interés por la sucesión de Fibonacci se ha trasladado al Cuaderno de Cultura Científica, en el que hemos dedicado una cierta cantidad de entradas a la misma: Póngame media docena de fibonaccis; Una de mates: la sucesión de Fibonacci; Los números (y los inversos) de Fibonacci; Nos encanta Fibonacci; El origen poético de los números de Fibonacci; Poemas Fibonacci; La sucesión de Fibonacci, el teorema de Zeckendorf y un poemario magistral o El árbol de Fibonacci.
En esta entrada vamos a mostrar que los números de Fibonacci pueden aparecer en lugares de lo más curiosos e inesperados, además de los ya mencionados en las entradas anteriores, como solución al desafío matemático de los conejos del Liber Abaci / Libro del Ábaco (1202), del matemático italiano Leonardo de Pisa (1170-1241), conocido como Fibonacci, relacionados con la poesía en la lengua sánscrita en la India, o en la botánica, por ejemplo, en las espirales de los girasoles y piñas, o en la disposición helicoidal de las hojas en el tallo.
Los números de FibonacciAntes de adentrarnos en este paseo por diferentes manifestaciones de la sucesión de Fibonacci, recordemos brevemente esta sucesión, de forma directa a través de su propiedad numérica, sin entrar en el problema de los conejos, ni en la poesía en sanscrito. La sucesión de Fibonacci es una sucesión de números Fn que tiene la particularidad de que cada término es igual a la suma de los dos anteriores, Fn = Fn – 1 + Fn – 2, siendo los dos primeros términos F1 = F2 = 1.
Podemos calcular los primeros términos de la sucesión de forma sencilla, ya que cada número es la suma de los dos anteriores. De manera que los 40 primeros números de esta sucesión son:
1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1.597, 2.584, 4.181, 6.765, 10.946, 17.711, 28.657, 46.368, 75.025, 121.393, 196.418, 317.811, 514.229, 832.040, 1.346.269, 2.178.309, 3.524.578, 5.702.887, 9.227.465, 14.930.352, 24.157.817, 39.088.169, 63.245.986, 102.334.155, …
Esta sucesión aparece bajo la denominación A000045 dentro de La enciclopedia on-line de las sucesiones de números enteros.
Existe una organización matemática internacional, The Fibonacci Association / La asociación Fibonacci, formada por personas del ámbito de las matemáticas y de la ciencia, pero también personas amateurs interesadas en esta curiosa sucesión de números, así como en otras sucesiones relacionadas (por ejemplo, la sucesión de Lucas, con la misma propiedad recurrente, pero con los dos primeros términos L1 = 1 y L2 = 3, por lo tanto, se continua con los números 4, 7, 11, 18, 29, etcétera). Esta sociedad publica una revista, The Fibonacci Quarterly, y organiza un congreso internacional cada dos años.
Logotipo de La Asociación FibonacciTanto la organización como la revista fueron fundadas en 1963 por el matemático estadounidense Verner E. Hoggatt (1921-1980), profesor de la San Jose State University, que era conocido como el “Profesor Fibonacci” por sus amigos y colegas, y el educador, fotógrafo y matemático estadounidense Alfred Brousseau (1907-1988), profesor en el College Saint Mary de California, a quienes unía una gran amistad y que se reunían frecuentemente para discutir sobre los números de Fibonacci, así como para cantar canciones inventadas por ellos.
El árbol genealógico de un zánganoPara empezar, vamos a mostrar dos ejemplos relacionados con las abejas en los que aparecen los números de Fibonacci. En el primero surgen estos números como las diferentes generaciones del árbol genealógico de las abejas macho, los zánganos.
Las abejas, al menos las de la especie más conocida, la abeja melífera o doméstica, son animales sociales que viven todas juntas en colmenas. Hay tres tipos de abejas en una colmena, una abeja reina, los zánganos, que son abejas macho, y las abejas trabajadoras, que son abejas hembra.
Ilustración de una abeja trabajadora, de una abeja reina y un zángano, del libro The ABC and XYZ of bee culture (1910), de A. I. Root y E. R. RootNormalmente solo hay una abeja reina en una colmena, que se encarga de las tareas reproductivas de la colonia, poniendo del orden de 1.500 huevos al día. Las abejas reina viven entre dos y tres años, aunque pueden llegar a vivir hasta cinco años. El número de zánganos de una colmena está entre unos cientos y mil, y su trabajo es también reproductivo, ya que se dedican a copular con la reina durante el vuelo de apareamiento de esta, con el fin de que los huevos sean fecundados. Los zánganos mueren cuando depositan su semen en el aparato reproductor de la abeja reina. Solamente son útiles durante la época de apareamiento, que se produce cuando hace buen tiempo (primavera y verano), no pueden picar ya que no tienen aguijón y no ayudan con ninguna otra labor de la colmena. Por este motivo, cuando llega el mal tiempo, las abejas trabajadoras expulsan a los zánganos de la colmena, que mueren de hambre y frío. Mientras que son las abejas trabajadoras, de las cuales hay unos miles en cada colmena, las que se dedican a realizar todas las tareas de la misma. La vida de las abejas obreras es de entre 5 y 6 semanas en época de buen tiempo, mientras que es de entre 5 y 6 meses si viven cuando hace mal tiempo, mientras que la de los zánganos es de entre 4 y 8 semanas.
Una de las curiosidades de la reproducción de las abejas es que las abejas macho, los zánganos, nacen de huevos no fecundados, luego solamente tienen madre, la abeja reina, mientras que las abejas trabajadoras nacen de huevos fecundados, luego tienen padre y madre. Además, la reina puede controlar si un huevo es, o no, fecundado. Las abejas trabajadoras suelen ser estériles, la mayoría de los ovarios de las trabajadoras están poco desarrollados y no producen huevos. En el caso de que una obrera tenga ovarios desarrollados, solo pondrá huevos no fecundados, luego nacerán zánganos, aunque las demás abejas trabajadoras pueden reconocer que el huevo no es de la reina y se lo comerán, salvo que la reina haya muerto y no se pueda criar otra reina, aunque eso llevará al final de la colmena, ya que no nacerán abejas trabajadoras, solo zánganos.
Este sistema de determinación del sexo del animal se llama haplodiploidía y es un sistema que no solamente se da en las abejas, sino también en otros animales, entre ellos, hormigas, avispas y algunos escarabajos.
Fotografía de un zángano, una abeja macho. Fotografía del profesor de biología Laurence Packer
Pero vayamos con el árbol genealógico de un zángano (1), como el que aparece en la anterior imagen. Como se ha comentado, esta abeja macho tendrá solo madre, por lo que la primera generación hacia atrás del zángano consistirá en una abeja (1), normalmente la abeja reina. Como esta abeja es hembra tendrá madre y padre (la abuela y el abuelo del zángano), luego la segunda generación del zángano serán dos abejas (2). En la tercera generación estarán la madre y el padre de la abeja abuela, así como la madre de la abeja abuelo, en total tres abejas (3). Y así se puede continuar, como se muestra en el siguiente esquema.
Árbol genealógico de un zángano
En la siguiente tabla se recogen la cantidad de abejas de cada generación hacia atrás de una abeja macho, un zángano, añadiendo además cuántas de ellas son abejas macho y cuántas abejas hembra.
Como se observa la cantidad de abejas del árbol genealógico de un zángano, por generaciones hacia atrás, es 1, 1, 2, 3, 5, 8, 13, 21, etcétera, es decir, la sucesión de Fibonacci. Más aún, si dividimos la cantidad de abejas de cada generación, en abejas hembra y abejas macho, seguimos obteniendo esta sucesión en los dos casos.
Una paseo hexagonalEl siguiente ejemplo en el que se puede encontrar a los números de Fibonacci relacionados con las abejas se debe al matemático estadounidense Leonard Carlitz (1907-1999), de la Duke University, que fue miembro de La asociación Fibonacci y del comité editorial de la revista The Fibonacci Quarterly, en la que publicó 72 artículos, dentro de una extensa obra matemática compuesta de 771 artículos.
Imaginemos un panal de abejas, que recordemos que está formado con celdas prismáticas hexagonales pegadas unas a otras por sus caras laterales, pero con la particularidad de que está formado por tan solo dos filas de celdas, como se muestra en la siguiente imagen. En la primera celda, de uno de los extremos del panal (en la imagen en la izquierda), hay una abeja e imaginemos también que el panal es tan largo (hacia la derecha en la imagen) como queramos, de hecho, imaginemos que es infinito. Nos gustaría calcular la cantidad de caminos que puede recorrer la abeja para ir de su posición inicial a otra celda cualquiera que fijemos, desde la primera al lado de la abeja en adelante, teniendo en cuenta que de cada celda puede pasar a una contigua, pero siempre hacia delante, por ejemplo, de su celda inicial puede pasar a las celdas C1 o C2, mientras que de la celda C3 puede pasar a las celdas C4 y C5, pero no ir para atrás a las celdas C1 y C2.
Panal de abejas, formado por dos filas de celdas, infinito, que tiene principio, pero no tiene fin, con una abeja en la celda de su extremo izquierdo
Pero vayamos contando los diferentes caminos que puede recorrer la abeja, en función de cuál sea la celda final, empezando por la celda C1 y siguiendo en orden. Solo existe una forma (1) de llegar a la celda C1, sin retroceder, que es directamente. Para llegar a la celda C2 puede hacerse directamente o a través de la celda C1, luego de dos formas (2) distintas. Y hay tres caminos posibles para alcanzar la celda C3, como se muestra en la siguiente imagen.
Los posibles caminos para que la abeja llegue a las celdas C1, C2 y C3, sin retroceder
Para llegar a la celda C4 hay 5 recorridos posibles, que se muestran en la siguiente imagen.
Recorridos posibles para que la abeja llegue a la celda C4, sin retroceder
La cantidad de caminos posibles para cada una de las celdas mencionadas es 1, 2, 3 y 5, que son los primeros números de la sucesión de Fibonacci. Si seguimos con las celdas C5, C6, C7, etcétera, se irán obteniendo los demás números de la sucesión, 8, 13, 21, etcétera.
Jugando con las fichas de dominóPara la siguiente situación vamos a considerar fichas de dominó, como la de la siguiente imagen.
Fichas de dominó. Fotografía: Dietmar Rabich / Wikimedia Commons / “Domino – 2021 – 6766” / CC BY-SA 4.0
Las fichas de dominó son el doble de largo que de ancho, como si juntáramos dos cuadrados. La cuestión que nos ocupa es la siguiente.
Problema: ¿de cuántas formas distintas se puede crear un embaldosado rectangular de dos filas y n columnas (es decir, una cuadrícula rectangular de tamaño n x 2), para n = 1, 2, 3, etc?
Empecemos con los casos más sencillos, para 1, 2 y 3 columnas, que se obtienen las siguientes 1, 2 y 3 formas de embaldosar, respectivamente, como se muestra en la imagen.
Para 4 filas empezamos a tener más maneras diferentes de colocar las fichas de dominó, en concreto 5.
Si la cuadrícula rectangular es de tamaño 5 x 2, existen 8 formas distintas de embaldosar esta cuadrícula con fichas de dominó, como aparece en la siguiente imagen.
Podéis continuar con 6, 7, 8, … filas y, como se observa, se van obteniendo los números de la sucesión de Fibonacci, de nuevo.
¿Por qué aparece la sucesión de Fibonacci? La respuesta es muy sencilla. Simplemente porque es un problema cuya solución tiene la misma propiedad recursiva que la sucesión de Fibonacci y los dos primeros términos son 1 y 2. Esto es así porque para conocer los embaldosados con fichas de dominó de una cuadrícula rectangular n x 2, basta con tomar los embaldosados de la cuadrícula (n – 1) x 2 y añadirles una ficha de dominó vertical, y los embaldosados de la cuadrícula (n – 2) x 2 y añadirles dos fichas de dominó horizontales.
Veamos un ejemplo. Miremos a los embaldosados de la cuadrícula rectangular 5 x 2, que como acabamos de ver son 8. En la siguiente imagen, he tomado esos ocho embaldosados de la cuadrícula 5 x 2, he coloreado de morado los embaldosados de la cuadrícula 4 x 2, a los que se les añade una ficha de dominó vertical y he coloreado de verde los embaldosados de la cuadrícula 4 x 2, a los que se les añaden dos fichas de dominó horizontales.
Algo similar ocurre con la cantidad de caminos posibles que recorre la abeja en su paseo hexagonal, como podéis observar.
En mi siguiente entrada de la sección Matemoción del Cuaderno de Cultura Científica volveré con más curiosos e inesperados ejemplos de apariciones de la sucesión de Fibonacci.
Fibonacci 1-10 (2010), de la artista conceptual estadounidense Jennifer Bartlett (1941-2022)
Bibliografía
1.- Alfred S. Posamentier, Ingmar Lehmann, The Fabulous Fibonacci Numbers, Prometheus Books, 2007.
2.- Thomas Koshy, Fibonacci and Lucas Numbers with Applications, John Wiley & Sons, 2001.
3.- Martin Gardner, Circo matemático, Alianza editorial, 1988.
4.- Fredric T. Howard, The Fibonacci Association, Math Horizons, vol. 12, n. 3,
pp. 31, 2005.
5.- Fred Whitford; Christian H Krupke, Cindy Gerber, Greg Hunt, John L. Obermeyer, Krispn Given, Max Feken, Reed Johnson, Thomas Steeger, The Complex Life of the Honey Bee: Environmental, Biological, and Chemical Challenges to Colony Health, Purdue University, 2017.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Fibonacci está en todas partes (I) se ha escrito en Cuaderno de Cultura Científica.
El Sistema Solar como detector de agujeros negros primordiales
Durante la expansión temprana del Universo, las regiones hiperdensas podrían haber colapsado gravitacionalmente para producir agujeros negros primordiales. Dependiendo de lo que provocase el colapso, los agujeros negros primordiales resultantes podrían tener casi cualquier masa. Pero si, como sostienen algunos teóricos, podrían explicar toda la materia oscura del Universo, no pueden ser tan ligeros como para evaporarse y desaparecer, ni tan pesados como para contradecir las observaciones del efecto de lente gravitacional.
Dentro de ese amplio rango se encuentra otro más estrecho, que abarca las masas de los asteroides. Este rango de masas ha permanecido en gran parte inexplorado. Ahora, Tung Tran, del Instituto Tecnológico de Massachusetts, y sus colaboradores han determinado que los agujeros negros primordiales con masas de asteroides podrían detectarse de manera plausible gracias a su influencia gravitatoria en el Sistema Solar.
La materia oscura gobierna la estructura a gran escala del Universo. En las teorías de la materia oscura, cuanto menor sea la masa de las partículas de materia oscura, más partículas se necesitan para explicar esa estructura. Además, las partículas de materia oscura deben moverse a través del cosmos lo suficientemente despacio como para que la gravedad las atraiga. Si la materia oscura consiste exclusivamente en agujeros negros primordiales con masa de asteroide, esas dos restricciones implicarían que varios agujeros negros primordiales estarían presentes en el Sistema Solar en cualquier momento dado y que las velocidades de esos agujeros negros primordiales serían de aproximadamente 200 km/s.
Un agujero negro primordial (PBH) con masa de asteroide que pase cerca de un planeta podría perturbar la órbita del planeta en una cantidad detectable. Fuente: Tran et al (2024)La presencia de esos agujeros negros primordiales apenas perturbarían el Sistema Solar. Sin embargo, las distancias entre la Tierra y los planetas se conocen con una precisión extraordinaria (hasta 10 cm en el caso de Marte). A partir de sus cálculos y simulaciones, Tran y sus colaboradores concluyen que el paso de al menos un agujero negro primordial con la masa de un asteroide a través del Sistema Solar podría dejar un rastro detectable en los datos de distancia existentes o inminentes una vez por década.
Una no detección, afirman los investigadores, impondría unas restricciones muy estrictas a un candidato a materia oscura bien motivado.
Referencia:
Tung X. Tran, Sarah R. Geller, Benjamin V. Lehmann, and David I. Kaiser (2024) Close encounters of the primordial kind: A new observable for primordial black holes as dark matter Phys. Rev. D doi: 10.1103/PhysRevD.110.063533
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El Sistema Solar como detector de agujeros negros primordiales se ha escrito en Cuaderno de Cultura Científica.
Unos anillos para el planeta Tierra
La imagen de unos anillos rodeando los gigantes de hielo y gaseosos de nuestro sistema solar, como formando una especie de hula hop cósmico, son una imagen que hoy en día, gracias a los telescopios y a las misiones espaciales, nos resulta habitual, diría que incluso casi ordinaria. Pero si hacemos un ejercicio de imaginación y pensamos en la idea de que nuestro planeta también pudo tener un sistema de anillos, probablemente pensemos que esta idea es mucho más exótica e incluso, quizás, un poco fantasiosa.
Pero un estudio reciente publicado por Tomkins et al. (2024) ha dibujado este escenario como una posibilidad real durante el Ordovícico, uno de los periodos en los que está dividida la historia de nuestro planeta y que va desde el final del Cámbrico, hace unos 485 millones de años, hasta el inicio del Silúrico, hace unos 444 millones de años… no hace tanto tiempo si tenemos en cuenta que la historia de nuestro planeta estaría en el entorno de los 4.500 millones de años.
¿En qué pistas o pruebas se basa este estudio? Pues los científicos ha detectado un aumento anómalo del número de impactos de meteoritos contra nuestro planeta, que además coincide con una mayor proporción de materia caída del espacio y que se puede detectar en las capas de sedimentos que se formaron entonces. En particular, buena parte de esta materia procedería de un tipo de meteoritos que conocemos como condritas de tipo L que, por cierto, son el segundo grupo más abundante de todos los meteoritos de los que han caído sobre nuestro planeta.
Los anillos de Saturno son uno de los “ornamentos” planetarios más espectaculares de todo nuestro Sistema Solar. Y, a pesar de su espectacularidad, somos unos afortunados al poder contemplarlos, ya que son un fenómeno probablemente efímero en cuanto a escala geológica nos referimos. Cortesía de NASA/JPL-Caltech/Space Science Institute.Durante el Ordovícico y a lo largo de millones de años, parece como si hubiese ocurrido un continuo bombardeo por parte de meteoritos de este tipo sobre nuestro planeta, como si un gran cuerpo se hubiese desintegrado y lentamente sus fragmentos hubiesen ido chocando con nuestro planeta.
Aunque la cantidad de materia que pudo caer sobre nuestro planeta pudo ser mucha como atestiguan los sedimentos, no es lo que más llamó la atención de los científicos, sino que en realidad fue la distribución de los cráteres de impacto sobre la superficie lo que hizo saltar las alarmas. Y es que nuestro planeta ha sufrido el impacto de cuerpos a lo largo de toda su historia, algunos de los cuales han dejado cicatrices que todavía son visibles y otros, en cambio, han sucumbido al paso del tiempo.
Pero muchos de los que ocurrieron durante el Ordovícico parecen agruparse en una estrecha franja que estaría situada aproximadamente en lo que antaño sería el ecuador de la Tierra, aunque hoy estén a diferentes latitudes debido a la tectónica de placas. Si fuesen impactos más o menos aleatorios -como pasa habitualmente- la distribución de los cráteres sobre nuestro planeta también sería aleatoria, no siguiendo ningún patrón.
¿Y a que podría deberse esta distribución de cráteres tan característica? Pues pudo ocurrir que un asteroide, cuya composición fuese la de las condritas de tipo L, pasase cerca de nuestro planeta, superando lo que conocemos como el límite de Roche -un umbral de distancia a partir del cual las fuerzas de marea son suficientes para “desintegrar” los cuerpos que pasen por el interior de esta línea- y como consecuencia fragmentándose en una nube de pequeños cuerpos que quedaría temporalmente atrapada en la órbita de la Tierra, formando un anillo… temporal. Porque ojo, no podemos olvidar que incluso los anillos de los gigantes gaseosos podrían ser un adorno efímero, eso sí, efímero en el sentido geológico de la palabra, en escalas de millones de años.
Con el tiempo, parte de la materia que formaba este anillo iría cayendo sobre la superficie de la Tierra, causando esa concentración de cráteres tan característica que hoy todavía se puede distinguir en el registro geológico y también al aumento en la presencia de materiales de procedencia extraterrestre en los sedimentos y, por supuesto, de una mayor tasa de impactos.
Pero este tipo de fenómenos nunca vienen solos, sino que suelen coincidir en el tiempo con otros eventos: En el Ordovícico ocurre lo que denominamos como gran evento de biodiversidad del Ordovícico (o GOBE, por sus siglas en inglés) o radiación del Ordovícico, una importante radiación evolutiva de la vida animal. ¿Pudo tener algo que ver este periodo de un mayor número de impactos con la generación de una mayor diversidad biológica? Es una especulación, pero los cambios ambientales provocados por los impactos, así como nutrientes aportados por la materia que caería desde los anillos, podrían haber desempeñado un papel importante en la generación de nuevos ecosistemas y favorecer la evolución.
Otro efecto que pudieron provocar los anillos sería la alteración en la cantidad de luz del Sol que llegaba a la Tierra, contribuyendo a un enfriamiento global. Y es que, de hecho, a finales del del Ordovícico ocurre la que denominamos como glaciación Hirnantiana o fini-Ordovícica, una de las más importantes de la historia de la Tierra… ¿Podría la sombra de los anillos haber contribuido a un enfriamiento repentino de nuestro planeta? No parece muy descabellado pensarlo tampoco, aunque, de nuevo, se necesitan más pruebas y modelos predictivos avanzados.
Pero si es cierto que los anillos planetarios son capaces de condicionar de algún modo el clima de los planetas. Por ejemplo, los anillos de Saturno son capaces de jugar un papel en la dinámica atmosférica del planeta, dato que sabemos gracias a la misión Cassini. Así que, si la Tierra tuvo un sistema de anillos, aunque fuese de manera temporal, podría haber tenido efecto no solo en la insolación que recibía la Tierra, sino también alterar los patrones meteorológicos y climáticos.
Pero quizás uno de los detalles más interesantes del artículo es como esta fuente de impactos cuestiona de algún modo los modelos más convencionales de los impactos de asteroides en la formación planetaria. Y es que la mayoría de los impactos proceden de asteroides del cinturón de asteroides o de los asteroides cercanos a la Tierra (NEAs, por sus siglas en inglés).
Estadísticamente parece imposible que estos impactos “aleatorios” puedan causar alineaciones como las que se han detectado, puesto que las distintas trayectorias que seguirían hasta chocar contra nosotros harían de formar patrones algo muy complicado. Pero si en el Ordovícico hubiésemos tenido un anillo, la formación de alineaciones en los cráteres de impacto no sería tan difícil de lograr porque esta materia caería desde una zona muy concreta alrededor de la Tierra.
Aun así, todavía queda mucho por desgranar de esta nueva teoría que, desde luego, pone de manifiesto que nos quedan muchos capítulos de la historia de la Tierra por conocer y, quien sabe, cuantas páginas podremos escribir gracias a la ayuda de la geología planetaria.
Referencias:
Tomkins, Andrew G., Erin L. Martin, y Peter A. Cawood. «Evidence Suggesting That Earth Had a Ring in the Ordovician». Earth and Planetary Science Letters 646 (noviembre de 2024): 118991. https://doi.org/10.1016/j.epsl.2024.118991.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Unos anillos para el planeta Tierra se ha escrito en Cuaderno de Cultura Científica.
El impacto del ordenador cuántico de 100 000 cúbits de IBM
Cada minuto que pasa, la computación cuántica aumenta exponencialmente sus posibilidades de éxito. IBM pugna por los primeros puestos en la carrera para dar con la máquina que logre la supremacía cuántica, o lo que es lo mismo, resolver algún problema imposible para la computación clásica. Su plan para comercializar el primer ordenador cuántico con 100 000 cúbits puede darle la corona del siglo.
Qué tiene la computación cuántica que le da tanto poderLa computación cuántica funciona utilizando propiedades del mundo microscópico que ni siquiera se pueden explicar. Una de estas propiedades es que estos sistemas físicos pueden estar en varios estados a la vez.
La computación cuántica utiliza esa extravagante propiedad, los estados cuánticos superpuestos, para realizar cálculos. Lo hace a través de puertas cuánticas, circuitos cuánticos básicos que operan sobre un pequeño número de cúbits. Son lo mismo que las puertas lógicas para los ordenadores digitales. Y esta fantasía ha pasado en los últimos años de ser una mera posibilidad teórica a ser una realidad.
En computación cuántica el elemento de computación básico es el cúbit, que en contraste con el bit de la computación clásica puede tomar cualquier combinación lineal de módulo uno entre el valor 0 y el 1; esos son sus distintos estados.
El cambio del bit al cúbitEn algunos problemas de computación, la cantidad necesaria de recursos aumenta muy rápido a medida que crece el tamaño del problema. El cambio del bit al cúbit puede reducir la velocidad de aumento de recursos de manera muy drástica.
Para poner un ejemplo práctico, imaginemos que queremos simular un ordenador cuántico de 100 cúbits. En un ordenador clásico necesitaríamos 2 elevado a 100 bits, o lo que es lo mismo, un quintillón de bits. Nunca alcanzaremos esta capacidad de cálculo utilizando ordenadores clásicos. En cambio, con un ordenador cuántico sólo necesitaríamos 100 cúbits, de hecho, actualmente ya existen ordenadores cuánticos de más de 100 cúbits.
Toda esta tecnología se podría escalar hasta miles de cúbits. Según los expertos, esto no va a ser suficiente para conseguir la computación cuántica útil. Sin embargo, los investigadores de IBM ya están pensando en la siguiente revolución. Están trabajando en el primer ordenador cuántico de cien mil cúbits. ¿Cómo lo quieren conseguir?
Superar la era NISQHoy en día estamos en lo que se conoce como era NISQ. El acrónimo hace referencia al hecho de que tenemos ordenadores cuánticos con pocos cúbits y estos cúbits son ruidosos. Es un término acuñado por el físico John Preskill en 2018, quien señaló que las computadoras cuánticas en ese momento (y de hecho todavía en 2024) son propensas a tasas de error considerables y están limitadas en tamaño por la cantidad de cúbits lógicos (o incluso cúbits físicos) en el sistema. Esto significa que no son confiables para realizar cálculos generales.
Este ruido es el que evita que consigamos la supremacía cuántica. La ventaja se consigue cuando un ordenador cuántico hace una tarea que ningún ordenador clásico puede hacer.
La dificultad para reducir el ruido es puramente tecnológica, lo cual no significa que no haya que hacer mucha investigación para superar los retos. Actualmente IBM ofrece más de diez ordenadores cuánticos de más de 100 cúbits. Algunos ejemplos son IBM Fez, con 156 cúbits; IBM Torino, con 133 cúbits, e IBM Kyiv, con 127 cúbits.
Se ha demostrado que estás máquinas se pueden utilizar para resolver diferentes tipos de problemas, pero aún sin ventaja cuántica: problemas de optimización, problemas de estructura electrónica, problemas de magnetismo, etc.
En los últimos años, los investigadores de IBM están desarrollado diferentes métodos para mitigar el error de los cúbits. Estas técnicas corrigen hasta cierto punto los errores generados por el ruido, pero a cambio de mayor tiempo de cómputo.
Con estas técnicas han demostrado que los ordenadores cuánticos pueden dar mayor rendimiento que los clásicos en problemas concretos, lo que demuestra que se están acercando a la ventaja cuántica.
La siguiente olaA esta nueva serie de ordenadores cuánticos la han llamado “la siguiente ola” y está basada en supercomputación cuántico-céntrica. Va a ser un superordenador cuántico modular.
La modularidad le va a permitir escalar y para ello va a tener que combinar comunicaciones cuánticas y computación clásica. Las innovaciones vendrán del hardware y también del software.
El middleware (software con el que las diferentes aplicaciones se comunican entre sí) va a ser híbrido, esto significa que va a integrar flujos de trabajo clásicos y cuánticos. Este middleware va a contener, por ejemplo, una herramienta llamada tejido de circuitos cuánticos. Esta herramienta va a permitir utilizar menos puertas cuánticas de dos cúbits para ejecutar los circuitos. Para afrontar todos estos retos, IBM ha creado una fuerte colaboración con las Universidades de Tokyo y Chicago.
IBM no está solaEn lo que respecta a computación cuántica universal (o computación cuántica digital), IBM es una de las empresas que están trabajando en los ordenadores cuánticos del futuro, pero no es la única.
Por ejemplo, en Google Guantum AI están trabajando para conseguir cúbits lógicos utilizando la menor cantidad posible de cúbits físicos y también en la manera de escalar este proceso. En esta misma línea también trabaja Microsoft en colaboración con Quantinuum, y es también una fuerte apuesta de Amazon Web Services.
Sin embargo, la computación cuántica no es sólo digital. También existe la computación cuántica analógica que se utiliza para resolver un problema matemático muy concreto (QUBO) que aparece en diversos campos: finanzas, logística, energía, etc. La empresa que más está impulsando esta tecnología es DWAVE.
Aparte de la utilización de diferentes tipos de hardware cuántico, en muchas empresas y universidades trabajan intensamente en algoritmos clásicos inspirados en la física cuántica que han demostrado ser muy útiles.
Es solo cuestión de tiempo cambiar el mundo.
Sobre el autor: Unai Aseguinolaza Aguirreche, Docente investigador en la Escuela Politécnica Superior de Mondragón, Mondragon Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo El impacto del ordenador cuántico de 100 000 cúbits de IBM se ha escrito en Cuaderno de Cultura Científica.
Día de pi 2024: Soy de letras
El número Pi, representado por la letra griega π, es una de las constantes matemáticas más famosas e importantes que existen en el mundo. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.
La fascinación que ha suscitado durante siglos es tal, que se viene estudiando desde hace más de 4.000 años e, incluso, cuenta con su propio día en el calendario: el 14 de marzo. Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien en 1988 lanzó la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.
Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU nos sumamos a la celebración, organizando la quinta edición del evento BCAM NAUKAS, que se desarrolló a lo largo del 14 de marzo en el Bizkaia Aretoa de UPV/EHU.
La creencia popular quiere entender que las matemáticas son cosa de números y, por tanto, de calculadoras. Pero la realidad es que las matemáticas están llenas de letras y que para muchas personas dedicadas profesionalmente a las matemáticas los cálculos numéricos no son su fuerte. De esta base la charla «Soy de letras» de Sara Barja.
Sara Barja Martínez ha sido investigadora Ramón y Cajal en la Universidad del País Vasco (UPV/EHU) y el Centro de Física de Materiales (CFM) y desde enero de 2024 continúa su investigación en la UPV/EHU como Ikerbasque Associate Researcher. Su investigación se centra en el estudio de las relaciones existentes entre estructura y reactividad en (electro)-catálisis. En 2021, recibió una prestigiosa beca ERC-Starting Grant del Consejo Europeo de Investigación.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Día de pi 2024: Soy de letras se ha escrito en Cuaderno de Cultura Científica.
Frass, el excremento de insectos que es un tesoro para la agricultura
La idea de incluir insectos en la dieta humana nos puede sonar algo exótica, sacada de un viaje a algún país lejano. Sin embargo, es algo que está cada vez más cerca de nuestra mesa. La previsión para el año 2030 es que el mercado mundial de los insectos comestibles supere los 3 000 millones de dólares en Europa.
La gran demanda de proteínas alternativas para alimentación, tanto humana como animal, hace que la cría del gusano de la harina se haya disparado en los últimos años. Sin embargo, este animal también podría utilizarse en agricultura. Más concretamente, sus excrementos.
La Autoridad Europea de Seguridad Alimentaria ha avalado el consumo del gusano de la harina para la alimentación humana. Si bien en España aún no se comercializa con este fin, en Salamanca se encuentra una de las plantas de producción más grandes del mundo.
Nota para los más aprensivos: vivimos en tiempos de crisis ecosocial y la mitigación del cambio climático supone un auténtico reto. Producir proteína animal sin emitir metano ni amoníaco, consumiendo menos agua que otros sistemas de producción animal y con una huella de carbono negativa, supone un escenario ganador.
Pero ¿de qué animal estamos hablando y por qué tiene tanto interés? El gusano de la harina es la fase larvaria del insecto Tenebrio molitor. Este pequeño coleóptero no es solo una fuente rica en proteínas, sino también un buen candidato a revolucionar otros campos como el de la agricultura. Todo ello en un contexto de economía circular. ¿Cómo? Produciendo excrementos con un alto valor como fuente de fertilización orgánica.
Gusanos de la harina. Fuente: Eldred Lim/ShutterstockLos secretos del excremento excelenteEl subproducto del proceso de cría de gusano de T. molitor es en realidad una mezcla de excrementos de larvas, restos de comida no digeridos y fragmentos de exoesqueletos. El conjunto recibe el nombre de “frass” y es un tesoro en miniatura para la agricultura gracias a su composición fisicoquímica y microbiológica.
Posee un alto contenido en macronutrientes, similar o superior al de otros fertilizantes orgánicos como purines y estiércoles. Por eso, es eficaz en el suministro de nitrógeno, fósforo y potasio para los cultivos, y muestra un excelente potencial para sustituir parcial o totalmente al fertilizante mineral convencional.
A diferencia de muchos fertilizantes minerales basados en nitrógeno, fósforo y potasio, el frass también es una mina de micronutrientes esenciales para las plantas. Aporta, entre otros, manganeso, hierro, zinc, cobre y boro. Su bajo contenido en humedad, en torno al 10 %, hace que sea más manejable, fácil de aplicar y más estable en su almacenamiento que otros residuos orgánicos.
No obstante, es como un perfume caro: efectivo a dosis bajas. Estudios previos han demostrado que dosis altas pueden resultar nocivas para el crecimiento de las plantas.
Una de las características más destacadas del frass es su rápida descomposición. Así, una vez aplicado al suelo, su tasa de mineralización es más rápida que la de cualquier fertilizante orgánico. Gracias a su alto contenido de carbono lábil, fácilmente disponible para la microbiota del suelo, estimula la actividad microbiana. Así, se favorece la descomposición de la materia orgánica nativa del propio suelo. Es decir, promueve la mineralización y el crecimiento de biomasa microbiana, lo cual resulta crucial para un suelo saludable y fértil.
La microbiota del frassEl frass también resulta muy interesante desde el punto de vista microbiológico, ya que contiene bacterias y hongos beneficiosos capaces de mejorar el crecimiento y el estado de salud de los cultivos.
Estos microorganismos promotores del crecimiento vegetal son capaces de solubilizar el fosfato o el potasio del suelo y de llevar a cabo la fijación biológica del nitrógeno, lo que aumenta la disponibilidad de estos nutrientes para el cultivo.
Otros son capaces de producir hormonas que mejoran el desarrollo de la planta. Al aplicar estos microorganismos al suelo agrícola mejora el crecimiento y el estado fisiológico de los cultivos, lo que induce una mayor resistencia frente a estreses abióticos como la sequía y la salinidad.
Asimismo, algunos de los microorganismos presentes en el frass provocan la activación de respuestas defensivas en la planta. Esto impulsa la supresión de patógenos.
La aplicación de excretas animales queda sujeta por ley a algún tratamiento de higienización que asegure la eliminación de posibles microorganismos nocivos para la salud humana. Sin embargo, en el caso del frass la aplicación de altas temperaturas podría eliminar, además de patógenos potenciales, muchos de los microorganismos beneficiosos para el crecimiento de los cultivos.
Por otro lado, la composición de la microbiota del frass se ve influenciada por la dieta mantenida por las larvas de T. molitor durante la cría.
Por todo esto, aunque el futuro del frass como fertilizante resulta muy prometedor, aún requiere ahondar en algunas cuestiones. Por ejemplo, en las condiciones de producción y en la búsqueda de tratamientos higienizantes alternativos que nos permitan aprovechar todo su potencial.
A pesar de ello, el excremento de T. molitor no es solamente un “excremento excelente”, sino también una solución innovadora, capaz de mejorar la fertilidad del suelo e impulsar una agricultura sostenible, eficiente y resiliente frente al cambio climático.
Sobre las autoras: Teresa Fuertes Mendizabal, Profesora Fisiología Vegetal, Universidad del País Vasco / Euskal Herriko Unibertsitatea y Maddi Malatsetxebarria, estudiante predoctoral en Agrobiología Ambiental, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Frass, el excremento de insectos que es un tesoro para la agricultura se ha escrito en Cuaderno de Cultura Científica.
¿Los lagos también necesitan afeitarse?
Cuando queremos hacer una broma al hablar de la edad de algún evento o proceso geológico, solemos añadir la muletilla “millón de años arriba, millón de años abajo” al final de la frase. Y siempre hace gracia, porque la unidad mínima de medida del tiempo en Geología es el millón de años, así que esa frase de broma sería como decir “cinco minutos antes o cinco minutos después” a la fecha de algún evento histórico en el que estemos especificando la hora aproximada a la que ocurrió. Pero esta resolución temporal con un error de un millón de años no es útil cuando estudiamos el Periodo geológico en el que vivimos, el Cuaternario, que comenzó hace unos 2,6 millones de años. Aquí sí queremos conseguir detectar eventos y procesos que acontecieron en nuestro pasado más reciente y de la manera más precisa posible, necesitamos reducir ese margen de error temporal hasta los mil años, cien años, diez años…o, incluso, menos.
Entonces es cuando nos surgen dos preguntas: ¿Existe algún contexto geológico reciente en donde se produzca un depósito sedimentario periódico que nos permita realizar una reconstrucción ambiental de los últimos miles de años con una resolución temporal cercana al año? Y ¿ese mismo proceso geológico también se ha producido en la historia geológica, pudiendo aplicar este error tan pequeño a la datación de eventos que ocurrieron hace millones de años? La respuesta a ambas cuestiones es sí. De hecho, existen varios procesos que podría poneros como ejemplo, pero me voy a quedar con uno muy particular, las varvas lacustres.
Secuencia de varvas lacustres del lago Crawford, de Ontario (Canadá), donde se observa el patrón de láminas claras y oscuras en una secuencia rítmica. Imagen tomada de Lafond, K., Walsh, C., Patterson, R., Mccarthy, F., Llew-Williams, B., Hamilton, P., Nasser, N. y Cumming, B. (2023). Influence of Climatic Trends and Cycles on Varve Deposition in Crawford Lake, Ontario, Canada. Geosciences 13, 87.Sí, varvas con dos uves, no lo he escrito mal, ya que se trata de una palabra procedente del término sueco “varvig lera”, que se puede traducir como “capas de arcilla”. Y este término, varvas, hace alusión a un tipo de sedimentación que se produce en el fondo de algunos lagos y que se caracteriza por la presencia de unas pequeñas láminas o capitas de sedimentos finos (arcilla, limo o arena de grano muy fino) con colores blancos y negros alternantes en una secuencia rítmica, repetitiva, como si fuese un código de barras. Pero la principal característica que tienen es que cada par de capas blanca-negra se deposita de manera anual: las láminas de colores blancos corresponden con la sedimentación de primavera y verano, mientras que los niveles oscuros se producen en otoño e invierno.
Inicialmente se creía que las varvas, estas secuencias sedimentarias rítmicas formadas anualmente, sólo se formaban en lagos glaciares de latitudes altas, donde las capas blancas corresponden con el depósito de limo y arena muy fina generado por la fusión del hielo en los momentos cálidos del verano y las capas negras con el nuevo avance del hielo y la congelación de la superficie del agua en el invierno, cuando decantarían arcillas y limos finos en el fondo. Pero, hoy en día, se han encontrado varvas en numerosos lagos desarrollados en otros escenarios climáticos a lo largo del mundo. Por ejemplo, en lagos de montaña en zonas geográficas de temperaturas templadas, como es el caso de varias localizaciones pirenaicas de la Península Ibérica, en donde las láminas blancas se generan por la precipitación de calcita (CaCO3) o cuarzo (SiO2) de origen biogénico, es decir, producidos por la actividad de los seres vivos acuáticos, mientras que las láminas oscuras se deben al depósito de limo, arena muy fina, restos vegetales y minerales procedentes del continente y que son arrastrados por el agua de lluvia que llega al lago durante los meses de invierno, depositándose en el fondo del mismo.
Aspecto de un depósito sedimentario de varvas lacustres del Pleistoceno (hace más de 12.000 años) de los acantilados de Scarboro, de Ontario (Canadá). Imagen propiedad de Bruce F. Molnia, del Servicio Geológico de Estados Unidos (USGS)Realmente, se pueden producir depósitos sedimentarios rítmicos de manera puntual en prácticamente todos los lagos del planeta, pero no todas estas secuencias son varvas lacustres. Os repito la clave de estos depósitos: esa alternancia de una capa blanca y una negra tiene que tener una periodicidad anual. Y es esta propiedad la que transforma a las varvas lacustres en una de las herramientas geológicas más importantes para realizar reconstrucciones paleoambientales en medios continentales durante los últimos miles y cientos de miles de años con una resolución temporal increíble: se pueden detectar cambios en el régimen de lluvias, la cobertera de hielo o la actividad biológica en estos lagos a escala estacional, diferenciando lo que ocurre en verano con lo que ocurre en invierno.
Como os decía al principio, este proceso geológico no es exclusivo del Cuaternario, también se han preservado varvas lacustres en otros periodos geológicos del pasado. Como ejemplo, se acaban de descubrir unos depósitos del Cretácico Inferior en China que han permitido describir cambios climáticos a escala estacional regulados por monzones y ciclos solares que afectaron a la fauna de dinosaurios que habitaron esta área hace más de 100 Millones de años. Y estas varvas lacustres no son las más antiguas que se han descubierto en el registro geológico.
Gracias a estas herramientas sedimentológicas, podemos realizar unas reconstrucciones paleoambientales con una resolución inferior a la anual en depósitos de hace millones de años de antigüedad, pudiendo identificar procesos climáticos muy concretos y, sobre todo, analizando con detalle cómo afectaron a la biodiversidad de la zona y cuánto tardó esta biota en responder ante estos cambios ambientales. Y esa información nos permite inferir cómo se comportarán los ecosistemas lacustres actuales si se ven afectados por eventos similares. Conocer nuestro pasado geológico nos permite tomar decisiones basadas en el rigor científico para poder protegernos y adaptarnos a los cambios climáticos que nos están afectando en el presente y, seguramente, nos afectarán en el futuro. Como veis, nuestro planeta también tiene códigos de barras con toda su información importante y, aunque muchos lagos luzcan largas varvas, no necesitan maquinillas de afeitar para acicalarse.
Referencias:
Corella, J.P., Valero-Garcés, B.L., Brauer, A., Moreno, A. y Pérez-Sanz, A. (2009). Facies laminadas en la secuencia sedimentaria del lago de Montcortés (Lleida) durante los últimos 6.000 años. Geogaceta 46, 103-106.
Tian, X., Gao, Y., Ma, J., Huang, H., Pan, J. y Wang, C. (2024). Lacustrine varves in the Lower Cretaceous Yixian Formation of western Liaoning, Northeast China: Implications for seasonal to sub-decadal palaeoclimate variability associated with the Jehol Biota and “Dinosaur Pompeii”. Palaeogeography, Palaeoclimatology, Palaeoecology 646, 112241.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo ¿Los lagos también necesitan afeitarse? se ha escrito en Cuaderno de Cultura Científica.
Una tabla de multiplicar japonesa de 1300 años de antigüedad
El 4 de septiembre de 2024, el Instituto Nacional de Investigación de Bienes Culturales de la prefectura de Nara (Japón) anunció que había descubierto un fragmento de madera de unos 1300 años de antigüedad que contenía una tabla de multiplicar que sería la más antigua de Japón.
De izquierda a derecha: fotografía en color de la parte superior del fragmento de la tablilla encontrada, fotografía con infrarrojos de la misma parte de la tablilla (donde aparecería escrito «9 x 9 = 81») y multiplicaciones que aparecería en la tablilla completa. Fuente: Arkeonews.En realidad, ese fragmento fue hallado en 2001 en el sitio de Fujiwara-kyo, la capital imperial de Japón entre los años 694 y 710, al final del periodo Asuka. Se encontró en lo que se cree que fue el lugar donde se ubicaba una oficina de guardias Emon-fu (Cuartel General de la Guardia de la Puerta Exterior del Palacio) del gobierno central de Fujiwara-kyo.
Las excavaciones arqueológicas de este sitio comenzaron en 1934; se han encontrado desde entonces unas 13 000 tablillas de madera, las mokkan, con inscripciones en chino clásico.
Un descubrimiento que llega gracias a la tecnologíaAl principio, en 2001, este fragmento de madera (de 16,2 cm de largo y 1,2 cm de ancho) no llamó la atención de los investigadores, que pensaban que se trataba de un simple tablero de práctica.
Se observaban en ella tres columnas de caracteres kanji (los sinogramas utilizados en la escritura en japonés) escritos verticalmente en una línea, con cinco caracteres legibles a simple vista: «10», «1», «6», otro «6» y «8». Inicialmente, el instituto de Nara planteó la hipótesis de que la primera columna decía «9 x 9 = 81» y la tercera «6 x 8 = 48”.
En julio de 2023, Kuniya Kuwata, investigador jefe de historia antigua del Instituto Nacional de Investigación de Bienes Culturales en Nara, volvió a analizar la tablilla con el equipo de observación infrarroja más moderno, que reveló el contenido de la segunda columna que no se había leído anteriormente: «4 x 9 = 36». Al observar el patrón de estas tres columnas, concluyó que la tablilla no era una nota, sino la sección superior derecha de un tablero de cálculo (un kuku). Kuwata comentaba en una entrevista:
Si la tabla de multiplicar estuviera completa, la tablilla de madera tendría 33 centímetros de largo con todas las ecuaciones escritas.
La tabla original enumeraría 37 datos clave de multiplicación desde «1 x 1 = 1» hasta «9 x 9 = 81». Kuwata concluyó (observar la imagen arriba) que estos datos se habrían escrito en la tablilla original en cinco filas y ocho columnas, de mayor a menor, de derecha a izquierda.
La más antigua tabla de multiplicar japonesaEsta tablilla presenta una estructura de multiplicación más compleja que la observada anteriormente en Japón. Como hemos comentado, posee cinco líneas de ecuaciones, escritas de derecha a izquierda. Evocan directamente los métodos matemáticos utilizados durante las dinastías Qin (desde 221 a. C. hasta el 206 a. C) y Han (desde 206 a. C. hasta el 220 d. C.) en China. Estas dinastías establecieron sistemas matemáticos estructurados para gestionar las tareas administrativas y fiscales de sus imperios. En Corea también se utilizaban sistemas similares en aquella época.
En palabras de Kuwata:
Al principio pensaba que las tablas de multiplicar japonesas solo tenían de dos a tres ecuaciones por línea, por lo que me sorprendió genuinamente encontrar una con tantas, similar a las de China y Corea.
En efecto, las tablillas descubiertas anteriormente en Japón mostraban ecuaciones organizadas en sólo dos o tres líneas, lo que sugería un enfoque más elemental para los cálculos. De aquí se comprende la importancia de este descubrimiento.
Este vínculo con los modelos chino y coreano sugiere, además, la existencia de una fuerte influencia cultural y técnica entre estas civilizaciones y el antiguo Japón.
Una herramienta en las funciones administrativasEsta tabla encontrada en Fujiwara-kyo parece haber sido una herramienta importante en las funciones administrativas de la época, en particular en la oficina de guardia de Emon-fu. Este cuartel se encargaba de la seguridad en la corte imperial y en los alrededores del palacio Fujiwara-kyo; no solo garantizaba la protección física de los locales, sino también la gestión de diferentes tareas administrativas relacionadas con la organización diaria del gobierno. Entre otros, era responsable de planificar la jornada laboral de los funcionarios y coordinar los servicios dentro de la corte imperial; de allí la necesidad de calcular. Estas tablas de multiplicar habrían permitido la gestión eficaz del tiempo de trabajo, de las ausencias y de la rotación del personal.
Los cálculos rigurosos y normalizados habrían ayudado también a supervisar la recaudación de impuestos.
Aunque la fecha del fragmento de esta tablilla está bien establecida, algunos expertos especulan que podría remontarse al período Kofun (desde el año 250 al 538), período se caracteriza por la construcción de túmulos monumentales, entierros destinados a la élite japonesa.
El dominio de las matemáticas podría haber desempeñado un papel clave en el diseño de estas gigantescas estructuras en las que los cálculos de proporciones, volúmenes y alineaciones eran imprescindibles. Esta hipótesis refuerza la idea de que la cultura matemática estaba establecida en la antigua sociedad japonesa.
Kuwata comentaba al anunciar este descubrimiento:
Este artefacto demuestra que en Fujiwara-kyo, el kuku no solo lo utilizaban ciertos ingenieros, sino también los funcionarios comunes en su trabajo diario. Al igual que hoy, gestionar los turnos en las antiguas oficinas gubernamentales era una tarea difícil, y los empleados debían tener dificultades para hacer los cálculos, utilizando la tablilla como referencia.
Referencias
- Tablet unearthed in Japan’s Nara Pref. was 13-century-old multiplication chart: research, The Mainichi, 11 septiembre 2024
- Laurie Henry, Trouvaille d’une importance majeure : la plus ancienne table de multiplication japonaise découverte, Science&Vie, 9 septiembre 2024
- Nathan Falde, Piece of 1,300-Year-Old Wood Came from Japanese Multiplication Table, Ancien Origins, 9 septiembre 2024
- oguz kayra, Japan’s Oldest Multiplication Table Discovered in Nara, Dating Back 1,300 Years, Arkeonews, 7 septiembre 2024
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia
El artículo Una tabla de multiplicar japonesa de 1300 años de antigüedad se ha escrito en Cuaderno de Cultura Científica.
El origen cuántico del efecto invernadero
El poderoso efecto de retención de calor del dióxido de carbono se ha encontrado que se debe a una peculiaridad de su estructura cuántica. El hallazgo podría explicar el cambio climático mejor que cualquier modelo informático.
Un artículo de Joseph Howlett. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
https://culturacientifica.com/app/uploads/2024/09/Video-CO2.mp4 Una coincidencia numérica ayuda a que las moléculas de CO2 se muevan de una determinada manera, atrapando mucha más radiación infrarroja de la Tierra de lo que lo harían de otra forma. Fuente: Kristina Armitage/Quanta Magazine; Matt Twombly para Quanta MagazineEn 1896, el físico sueco Svante Arrhenius se dio cuenta de que el dióxido de carbono (CO2) atrapa el calor en la atmósfera terrestre, fenómeno que hoy se denomina efecto invernadero. Desde entonces, los modelos climáticos modernos, cada vez más sofisticados, han confirmado la conclusión central de Arrhenius: cada vez que se duplica la concentración de CO2 en la atmósfera, la temperatura de la Tierra aumenta entre 2 y 5 grados Celsius.
Aun así, la razón física por la que el CO2 se comporta de esta manera había seguido siendo un misterio hasta hace poco.
En primer lugar, en 2022, los físicos resolvieron una disputa sobre el origen de la “escala logarítmica” del efecto invernadero, es decir, la forma en que la temperatura de la Tierra aumenta en la misma cantidad en respuesta a cualquier duplicación del CO2, sin importar las cifras brutas.
Esta primavera, un equipo dirigido por Robin Wordsworth, de la Universidad de Harvard, descubrió por qué la molécula de CO2 es tan eficaz para atrapar el calor. Los investigadores identificaron una extraña peculiaridad de la estructura cuántica de la molécula que explica por qué es un gas de efecto invernadero tan potente y por qué el aumento de la emisión de carbono al cielo impulsa el cambio climático. Los hallazgos aparecieron en The Planetary Science Journal.
“Es un artículo realmente interesante”, comenta Raymond Pierrehumbert, un físico atmosférico de la Universidad de Oxford que no ha participado en el trabajo. “Es una buena respuesta a todas aquellas personas que dicen que el calentamiento global es simplemente algo que surge de modelos informáticos impenetrables”.
Por el contrario, el calentamiento global está ligado a una coincidencia numérica que involucra dos formas diferentes en las que el CO2 puede moverse.
“Si no fuera por este accidente”, afirma Pierrehumbert, “muchas cosas serían diferentes”.
Una vieja conclusión Robin Wordsworth, científico del clima de la Universidad de Harvard, recurrió a la mecánica cuántica para comprender el espectro de absorción del dióxido de carbono. Fuente: ETH Zurich¿Cómo pudo Arrhenius comprender los conceptos básicos del efecto invernadero antes de que se descubriera la mecánica cuántica? Todo empezó con Joseph Fourier, un matemático y físico francés que se dio cuenta hace exactamente 200 años de que la atmósfera de la Tierra aísla al planeta del frío helado del espacio, un descubrimiento que dio inicio al campo de la ciencia del clima. Luego, en 1856, una estadounidense, Eunice Foote, observó que el dióxido de carbono es particularmente bueno para absorber la radiación. A continuación, el físico irlandés John Tyndall midió la cantidad de luz infrarroja que absorbe el CO2, mostrando el efecto que Arrhenius luego cuantificó utilizando conocimientos básicos sobre la Tierra.
La Tierra irradia calor en forma de luz infrarroja. La esencia del efecto invernadero es que parte de esa luz, en lugar de escapar directamente al espacio, choca con las moléculas de CO2 de la atmósfera. Una molécula absorbe la luz y luego la vuelve a emitir. Luego, otra lo hace. A veces, la luz vuelve a bajar hacia la superficie. A veces, sube al espacio y deja la Tierra un ápice más fría, pero sólo después de recorrer un camino irregular hasta las frías capas superiores de la atmósfera.
Utilizando una versión más rudimentaria del mismo enfoque matemático que utilizan los científicos del clima hoy en día, Arrhenius concluyó que agregar más CO2 haría que la superficie del planeta se calentara. Es como agregar aislamiento a las paredes para mantener la casa más cálida en invierno: el calor de la caldera entra al mismo ritmo, pero se escapa más lentamente.
Sin embargo, unos años después, el físico sueco Knut Ångström publicó una refutación. Argumentaba que las moléculas de CO2 solo absorben una longitud de onda específica de radiación infrarroja: 15 micras. Y ya había suficiente gas en la atmósfera para atrapar el 100% de la luz de 15 micras que emite la Tierra, por lo que agregar más CO2 no haría nada.
De lo que Ångström no se dio cuenta fue que el CO2 puede absorber longitudes de onda ligeramente más cortas o más largas que 15 micras, aunque con menos facilidad. Esta luz se captura menos veces a lo largo de su viaje al espacio.
Pero esa tasa de captura cambia si la cantidad de dióxido de carbono se duplica. Ahora la luz tiene que esquivar el doble de moléculas antes de escapar, y tiende a ser absorbida más veces en el camino. Escapa de una capa más alta y más fría de la atmósfera, por lo que la salida de calor se reduce a un goteo. Es la mayor absorción de estas longitudes de onda cercanas a las 15 micras la responsable de nuestro clima cambiante.
A pesar del error, el artículo de Ångström generó suficientes dudas sobre la teoría de Arrhenius entre sus contemporáneos como para que el debate sobre el cambio climático prácticamente dejase de ser relevante durante medio siglo. Incluso hoy, los escépticos del consenso sobre el cambio climático a veces citan el argumento erróneo de Ångström sobre la “saturación” de carbono.
De vuelta a lo básicoA diferencia de aquellos primeros tiempos, la era moderna de la ciencia climática ha avanzado en gran medida gracias a modelos computacionales que capturan las múltiples facetas complejas y caóticas de nuestra atmósfera desordenada y cambiante. Para algunos, esto hace que las conclusiones sean más difíciles de entender.
“He hablado con muchos físicos escépticos y una de sus objeciones es: ‘Ustedes simplemente ejecutan modelos informáticos y luego aceptan las respuestas de este cálculo de caja negra, y no lo entienden en profundidad’”, explica Nadir Jeevanjee, físico atmosférico de la Administración Nacional Oceánica y Atmosférica de los Estados Unidos (NOAA, por sus siglas en inglés). “Es un poco insatisfactorio no poder explicarle a alguien en una pizarra por qué obtenemos los números que obtenemos”.
Jeevanjee y otros como él se han propuesto construir una comprensión más sencilla del impacto de la concentración de CO2 en el clima.
El científico sueco Svante Arrhenius fue, en 1896, la primera persona que determinó la sensibilidad de la temperatura de la Tierra a los cambios en los niveles de dióxido de carbono en la atmósfera. Fuente: Chronicle/AlamyUna pregunta clave fue el origen de la escala logarítmica del efecto invernadero (el aumento de temperatura de 2 a 5 grados que los modelos predicen que ocurrirá por cada duplicación del CO2). Una teoría sostenía que la escala se debía a la rapidez con la que la temperatura bajaba con la altitud. Pero en 2022, un equipo de investigadores utilizó un modelo simple para demostrar que la escala logarítmica se debía a la forma del “espectro” de absorción del dióxido de carbono (cómo su capacidad para absorber la luz varía con la longitud de onda de la luz).
Volvemos a aquellas longitudes de onda que son ligeramente más largas o más cortas que 15 micras. Un detalle crítico es que el dióxido de carbono es peor (pero no mucho peor) a la hora de absorber la luz con esas longitudes de onda. La absorción cae a ambos lados del pico a la velocidad justa para dar lugar a la escala logarítmica.
“La forma de ese espectro es esencial”, afirma David Romps, físico climático de la Universidad de California en Berkeley, coautor del artículo de 2022. “Si la cambias, no obtienes la escala logarítmica”.
La forma del espectro del carbono es inusual: la mayoría de los gases absorben un rango mucho más estrecho de longitudes de onda. “La pregunta que tenía en el fondo de mi mente era: ¿por qué tiene esta forma?”, cuenta Romps. “Pero no podía precisar la razón”.
Movimientos consecuentesWordsworth y sus coautores Jacob Seeley y Keith Shine recurrieron a la mecánica cuántica para encontrar la respuesta.
La luz está formada por paquetes de energía llamados fotones. Las moléculas como el CO2 pueden absorberlos solo cuando los paquetes tienen exactamente la cantidad de energía adecuada para llevar a la molécula a un estado mecánico cuántico diferente.
El dióxido de carbono suele encontrarse en su “estado fundamental”, en el que sus tres átomos forman una línea con el átomo de carbono en el centro, equidistante de los otros. La molécula también tiene estados “excitados”, en los que sus átomos ondulan o se balancean.
Un fotón de luz de 15 micras contiene la energía exacta necesaria para que el átomo de carbono gire alrededor del punto central en una especie de movimiento de hula-hula. Los científicos del clima han culpado durante mucho tiempo a este estado de hula-hula del efecto invernadero, pero, como anticipó Ångström, el efecto requiere una cantidad de energía demasiado precisa, como han descubierto Wordsworth y su equipo. El estado de hula-hula no puede explicar la disminución relativamente lenta de la tasa de absorción de fotones más allá de las 15 micras, por lo que no puede explicar el cambio climático por sí solo.
La clave, según han descubierto, es otro tipo de movimiento, en el que los dos átomos de oxígeno se mueven repetidamente hacia y desde el centro de carbono, como si estiraran y comprimieran un resorte que los conecta. Este movimiento requiere demasiada energía para ser inducido por los fotones infrarrojos de la Tierra por sí solos.
Pero los autores han encontrado que la energía del movimiento de estiramiento es casi el doble de la del movimiento de hula-hula, por lo que ambos estados de movimiento se mezclan. Existen combinaciones especiales de ambos movimientos que requieren un poco más o un poco menos de la energía exacta del movimiento del hula-hula.
Este fenómeno único se llama resonancia de Fermi en honor al famoso físico Enrico Fermi, quien lo dedujo en un artículo de 1931. Pero su conexión con el clima de la Tierra solo se ha establecido por primera vez el año pasado en un artículo de Shine y su estudiante, y el artículo de esta primavera es el primero en exponerlo por completo.
“El momento en que escribimos los términos de esta ecuación y vimos que todo encajaba, fue increíble”, dijo Wordsworth. “Es un resultado que finalmente nos muestra cuán directamente se vincula la mecánica cuántica con la visión de conjunto”.
En cierto modo, dice, el cálculo nos ayuda a entender el cambio climático mejor que cualquier modelo informático. “Parece ser algo fundamentalmente importante poder decir en un campo que podemos demostrar a partir de principios básicos de dónde proviene todo”.
Joanna Haigh, física atmosférica y profesora emérita del Imperial College de Londres, está de acuerdo y añade que el artículo agrega poder retórico a la defensa del cambio climático al mostrar que está “basado en conceptos fundamentales de la mecánica cuántica y la física establecida”.
En enero de este año, el Laboratorio de Monitoreo Global de la NOAA informó que la concentración de CO2 en la atmósfera aumentó desde su nivel preindustrial de 280 partes por millón a un récord de 419,3 partes por millón en 2023, lo que ha provocado un calentamiento estimado de 1 grado Celsius hasta el momento.
El artículo original, Physicists Pinpoint the Quantum Origin of the Greenhouse Effect, se publicó el 7 de agosto de 2024 en Quanta Magazine.
Traducido por César Tomé López
El artículo El origen cuántico del efecto invernadero se ha escrito en Cuaderno de Cultura Científica.
Blastocystis, ¿parásito intestinal o buena noticia para tu salud?
La microbiota intestinal es la comunidad de organismos microscópicos que viven en nuestro intestino, una comunidad compuesta por numerosas variedades de bacterias, virus, hongos y protistas unicelulares (eucariotas). Se trata de un ecosistema esencial para nuestra salud, ya que protegen contra patógenos, sintetizan vitaminas (K, ácido fólico), neurotransmisores (serotonina) y otros metabolitos beneficiosos. Además, son esenciales para la digestión de carbohidratos complejos. En los últimos años se está prestando mucha atención a la composición de la microbiota, ya que sus alteraciones pueden estar asociadas a enfermedades muy diversas: autoinmunes, inflamatorias, metabólicas o neurodegenerativas.
Los estudios sobre la microbiota intestinal se centran sobre todo en las bacterias, su principal componente. En nuestro intestino hay alrededor de cien billones de bacterias de unas mil especies diferentes. Los virus pueden ser cinco veces más abundantes, mientras que los hongos son una décima parte de esa cifra. Los protistas son mucho menos abundantes y están menos estudiados. Algunos de ellos causan enfermedades como la amebiasis o la giardiasis, mientras que otros no suponen ningún inconveniente.
Figura 1. Cuatro formas en las que se presenta Blastocystis: vacuolar, granular, ameboide y quística. Todavía no se conocen las razones de esta variabilidad morfológica. De Valentia Lim Zhining (Valzn) – Trabajo propio, CC BY-SA 3.0Vamos a ocuparnos del protista intestinal más abundante en la población mundial, llamado Blastocystis hominis. Se trata de un pequeño organismo (5-40 micrómetros) que despliega una gran variabilidad morfológica (Figura 1), y cuyo ciclo vital es todavía poco conocido (Figura 2).
Figura 2. Ciclo vital de Blastocystis propuesto por el microbiólogo Kevin Tan Shyong-Wei. De Valentia Lim Zhining (Valzn) – Trabajo propio, CC BY-SA 3.0Nuestros lectores tienen un 25% de probabilidades de albergarlo en su intestino, como veremos luego. Si buscan información en Internet sobre este organismo se inquietarán, ya que se le ha achacado ser el causante de una enfermedad, la blastocistosis, caracterizada por diarrea, dolor abdominal, náuseas y pérdida de peso. Sin embargo, otras fuentes indican que su patogenicidad es muy dudosa. El tema acaba de ser aclarado por un artículo recién publicado en la revista Cell que ha dado un sorprendente giro de guion a este asunto. Blastocystis podría ser incluso beneficioso para la salud de sus portadores.
La investigación ha sido realizada por un equipo internacional liderado desde la universidad de Trento (Italia). El estudio incluyó 56 989 metagenomas (conjunto de genomas de la microbiota) secuenciados a partir de heces de individuos de 32 países. 41 428 de los individuos fueron considerados sanos, mientras que 15 561 padecían algún tipo de patología.
Blastocystis fue detectado en 8 190 muestras. La prevalencia media fue por tanto del 14,4%, una cifra que ascendía al 16% considerando solo los individuos sanos. Esta cifra varió mucho entre continentes y países. América del Norte no llegó al 7%, mientras la media europea fue del 22%, similar a la de África y América del Sur. Asia ocupó una posición intermedia, con el 16% de portadores. Entre los países, los valores extremos se dieron en Fiji (56%) y Japón (2,5%). En España, Blastocystis fue detectado en un 25,4% de las muestras. Prevalencias muy altas (>35%) fueron halladas en países como Etiopía, Camerún y Tanzania.
Podría pensarse a primera vista que la presencia de Blastocystis en el intestino humano estaría asociada a un menor nivel de desarrollo, pero la situación se reveló más compleja cuando se analizaron otros datos de las poblaciones estudiadas. Existía una relación significativa entre la presencia de Blastocystis y el tipo de alimentación. Las personas vegetarianas y veganas mostraban una mayor prevalencia de Blastocystis que las omnívoras. Además esa prevalencia se asociaba positivamente al consumo de verduras, aguacate, frutos secos o legumbres, y negativamente a la ingesta de pizza, hamburguesas o bebidas azucaradas.
Más sorprendente resultó la asociación positiva de la presencia de Blastocystis con indicadores de buena salud cardiometabólica, como colesterol total y triglicéridos bajos, elevado HDL-colesterol (el llamado “bueno”) o reducidos marcadores de inflamación. Los individuos con un índice de masa corporal correcto tenían más probabilidad de portar Blastocystis que los que tenían sobrepeso u obesidad.
Los investigadores diseñaron un experimento de intervención de la dieta en un total de 1 124 individuos. Tras seis meses de dieta saludable, tanto la prevalencia como la abundancia de Blastocystis aumentaron significativamente en la población, de forma paralela a una mejora en indicadores de salud cardiometabólica.
Estos resultados parecen descartar que Blastocystis constituya un problema desde el punto de vista clínico. Más aventurado resulta considerarlo un agente beneficioso. La asociación con mejores marcadores de salud cardiometabólica se puede interpretar de dos formas. Por un lado sería la dieta sana la que genera un estado favorable de salud en el que Blastocystis prolifera cómodamente, sin ser responsable directo de los beneficios. Pero los autores del artículo plantean otra interesante hipótesis, ya que comprobaron que la presencia de Blastocystis se asocia a una composición más saludable de la microbiota. Según esta idea, Blastocystis podría favorecer la proliferación de microorganismos intestinales más convenientes para la salud o prevenir la expansión de microbios perjudiciales.
Una forma de comprobar esto sería el transplante de Blastocystis en humanos o al menos en modelos animales. De hecho, una serie de patologías se están tratando en la actualidad mediante el transplante de microbiota intestinal. Curiosamente, la presencia de Blastocystis en las muestras de microbiota las invalidaba hasta ahora para ser trasplantadas, por las sospechas de que pudiera ser un patógeno. El estudio publicado en Cell abre nuevas posibilidades para la intervención en la microbiota intestinal con fines clínicos.
No obstante, ¡prudencia! Es importante recordar que correlación no implica causalidad. Un profesor y buen amigo explicaba en sus clases que existía una correlación negativa y significativa entre el número de paraguas desplegados en París y el precio de las sardinas en sus mercados. El nexo es obvio, el mal tiempo implica menos barcos faenando. Lo que no tendría sentido es creer que abriendo paraguas puede abaratarse el pescado.
Referencias
Piperni, E., Nguyen, L.H., Manghi, P., et al. (2024). Intestinal Blastocystis is linked to healthier diets and more favorable cardiometabolic outcomes in 56,989 individuals from 32 countries. Cell. doi: 10.1016/j.cell.2024.06.018
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga
El artículo Blastocystis, ¿parásito intestinal o buena noticia para tu salud? se ha escrito en Cuaderno de Cultura Científica.
Cómo hacer un queso de pasta blanda y corteza tratada en casa
Comparándolos con los quesos duros, la fabricación de quesos de pasta blanda en sí es un proceso más sencillo. A cambio, su affinage puede ser más complejo y el trato a sus cortezas da lugar a múltiples variedades de quesos, dependiendo de las levaduras, mohos y bacterias que se incluyen y las técnicas que se utilizan.
Templado de la leche al baño maría a 30.7ºC constantes, para efectuar la siembra. Foto: Victor Etxebarria
De la misma manera que comenzamos el proceso de fabricación de quesos duros, partimos del laboratorio perfectamente ordenado y limpio, y usamos el baño maría mostrado en la Figura 1 para colocar la leche a una temperatura cercana a los 30ºC, ideal para los Lactococcus mesófilos, que comienzan a consumir lactosa y acidificar la leche a pleno rendimiento. Para regular la acidificación, añadimos a la leche al menos Lactococcus lactis, cremoris y quizás diacetylactis, que son las lactobacterias más utilizadas en la fabricación de queso y las más fáciles de obtener en el mercado. La dosis aproximada es un gramo de fermento por cada 10 litros de leche.
Incorporamos ahora también los mohos y levaduras que usaremos para tratar la superficie de la corteza del queso. Uno de los casos más comunes es la adición de hongos Penecillium camemberti y Geotrichum candidum, utilizados en los conocidos quesos Brie o Camembert, entre muchos otros. Dependiendo del tipo de queso que queremos obtener, se pueden incluir en este caso otros hongos e incluso bacterias aerobias. Microorganismos muy empleados en este momento son Brevibacterium aurantiacum, Arthrobacter nicotianae y Debaryomyces hansenii. La posterior técnica del lavado de la corteza que a veces se lleva a cabo emplea típicamente estas bacterias y hongos.
Distribuimos la siembra completa en la leche templada con la espumadera y dejamos actuar a los microorganismos añadidos alrededor de una hora, lo cual nos debe permitir detectar un ligero descenso inicial del pH de la leche, primer indicador fácilmente medible de la actividad de los fermentos lácticos.
Una vez detectado el inicio de fermentación de la leche, es el momento de coagularla. Un paso adicional justo antes de ello es rectificar el balance químico de la leche añadiendo cloruro cálcico saturado en agua. Sobre todo, si se emplea leche procesada (homogeneizada o pasteurizada), esta sal de calcio es ingrediente imprescindible para garantizar una coagulación firme, ya que los iones de calcio Ca++ forman sólidos puentes entre moléculas de proteínas de la leche.
Preparada una dosis de 1ml de cloruro cálcico saturado en agua por cada 4l de leche, más un extra de 10-20 ml de agua no clorada, se añade esta mezcla a la leche y se distribuye con la espumadera. Ahora se trata de cuajar la leche mediante la quimosina o el cuajo natural. Estas peptidasas -en misma dosis que el cloruro cálcico- se distribuyen también por todo el volumen de la leche con la espumadora durante un minuto. Después se tapa y se deja todo en reposo absoluto durante 45 minutos.
Como en todos los quesos, debemos probar la firmeza de la cuajada con la espátula. Si la coagulación es aún débil, se debe aumentar unos 10 minutos el tiempo. Obtenida la cuajada firme, la cortamos en grandes cubos de 2-3 cm de lado con la misma espátula. Dejamos reposar los cuajos unos 30 minutos y verificamos que el pH continúa descendiendo. Si el pH del suero es 6.4 o inferior, observamos que los Lactococcus están acidificando el queso a buen ritmo.
Removemos muy suavemente los cuajos con la espumadera durante 10 minutos, dejando al baño maría descender la temperatura lentamente por debajo de 30ºC. De esta forma los cuajos se van homogeneizando. Después de otro reposo de pocos minutos, podemos pasar ya los cuajos a los moldes. Si se quiere, puede retirarse directamente la parte superior del suero sobrante, aunque no es necesario.
Cuajos transvasados a moldes cilíndricos y separación del suero sobrante por gravedad. Foto: Victor Etxebarria
El paso de la delicada cuajada a los moldes se realiza como se ilustra en la Figura 2. Se usan moldes cilíndricos ligeramente agujereados y sin tapa inferior ni superior. Para comenzar el proceso, se cubren las bases con rejillas de plástico aptas para la alimentación. Con cuidado y usando la espumadera llenamos los moldes hasta el borde. Observamos que, de esta forma, el suero va separándose por gravedad y los quesos van compactándose.
Una vez llenos los moldes, a intervalos de una o dos horas los volteamos cubiertos por rejillas y vamos así igualando la forma y la humedad de ambas caras de los quesos, a medida que se va escurriendo el suero sobrante por gravedad. En 24 horas los quesos resultan unos discos sólidos, compactos, ligeramente húmedos y elásticos. En este tiempo el pH habrá descendido hasta menos de 5 y la acidificación habrá terminado, puesto que las Lactococcus dejan de reproducirse en este ámbito ácido.
Los quesos pueden ahora salarse en seco, frotando sal común gruesa no yodada por todas sus superficies. La dosis de sal es 2% de la masa de cada queso que se sala. Se observa que la sal se adhiere fácilmente, se disuelve y se absorbe en pocos minutos. Los quesos están ya fabricados (pero no terminados).
Inicio de la maduración de la corteza y de la masa de los quesos en vinoteca. Temperatura en torno a 15ºC y humedad superior al 90% en las cajas cerradas. Foto: Victor Etxebarria
El siguiente paso es el afinado (affinage) de estos quesos de masa blanda. En primer lugar, los introducimos en cajas de plástico bien desinfectadas y usamos una rejilla plástica como base, para que cierta cantidad de suero que aún pueda separarse quede en el fondo de la caja. Tal y como se ilustra en la Figura 3, se introducen estas cajas en una cava o en una vinoteca a 15ºC. Esta cava puede emplearse simultáneamente para madurar quesos duros y para afinar la corteza de los quesos de masa blanda. La humedad del interior de las cajas de plástico cerradas es superior al 90%, pero no afecta al exterior.
Cada uno o dos días los quesos deben voltearse para garantizar su desarrollo uniforme. Dependiendo de los hongos y bacterias aerobias añadidas para afinar su corteza, en menos de dos semanas se comenzará a observar su desarrollo por toda la superficie del queso. Estos microorganismos no se desarrollan en el interior, sino solo en la corteza. Normalmente, con las manos desinfectadas abrimos las cajas, observamos la evolución de mohos y levaduras y volteamos los quesos.
Inspección visual, táctil y olfativa del desarrollo de las cortezas, volteo de los quesos y renovación de la atmósfera de las cajas. Foto: Victor Etxebarria
En la Figura 4 se ilustra un proceso de supervisión del desarrollo de la corteza de quesos blandos. Los mohos se visualizan rápidamente, el tacto resbaladizo o pegajoso de las levaduras y el aroma generado por todos los microorganismos nos indican la evolución del afinado. El volteo uniformiza todas las superficies, y alrededor de tres o cuatro semanas la corteza debería haberse desarrollado por completo.
Una técnica especial para producir quesos de pasta blanda de fuerte sabor y aroma es el lavado de la corteza. Como decíamos, los simples quesos mohosos como el Brie o Camembert no necesitan lavado. Sin embargo, los quesos de fuerte aroma y sabor como Epoisses, Reblochon o Stinking Bishop basan sus características en el lavado de sus cortezas. Para ello se emplea una salmuera débil (5% de sal no yodada disuelta en agua no clorada) a la que se añaden los mismos microorganismos (mohos, levaduras y bacterias aerobias) que decidimos utilizar en el sembrado de la leche. Así, aunque los hongos pueden comenzar a aparecer en la superficie, el lavado refuerza el desarrollo de la corteza, incluyendo olorosos gases característicos producidos por las bacterias aerobias introducidas, al descomponer aminoácidos azufrados presentes en las proteínas de los quesos.
Técnica de lavado de la corteza para quesos de fuerte aroma y sabor. Foto: Victor Etxebarria
En la Figura 5 se muestra el proceso del lavado de la corteza. Se empapa un pañuelo limpio en la salmuera débil con los microorganismos elegidos y se lavan las cortezas. Ello -dos veces por semana- mantiene la corteza dando prioridad a las levaduras, mohos y bacterias aerobias deseadas. En la Figura 5, se utiliza un baño salino débil con Brevibacterium aurantiacum, Arthrobacter nicotianae, Debaryomyces hansenii y Geotrichum candidum. Este lavado produce un fuerte aroma (olor a pies, más interesante de lo que parece) cuando va desarrollándose.
El affinage por tanto incluye el tratamiento de las cortezas, proceso de la máxima importancia en el desarrollo de distintas variedades de quesos de masa blanda. Sea con lavado de corteza o sin ello, falta un último paso para un afinado completo de estos quesos. Dependiendo de la textura interior final que se desea para consumir el queso, la maduración puede durar varias semanas más.
El proceso de la afinación de la masa interior se produce mediante una serie de reacciones químicas muy interesantes. Una vez formada la corteza, los hongos metabolizan el ácido láctico generado (o su versión ionizada, el lactato) en dióxido de carbono y agua (en presencia de oxígeno). Esto aumenta el pH de la superficie. Cuando el lactato superficial se consume, el lactato interno comienza a moverse hacia la superficie y va consumiéndose también.
El aumento de pH hace que las proteínas del queso pierdan su punto isoeléctrico y dejan de ser hidrofóbicas (vuelven a ser cada vez más solubles en agua cuanto más se alejan de su punto isoeléctrico). Así, este pH de la superficie va haciendo más cremosa la masa interior del queso. Globalmente el pH de la superficie es cercano a 7, el interior inmediato es algo más ácido (6.5) y cremoso, y el núcleo central del queso puede ser más ácido (5.5) y sólido, si el afinado no ha durado el tiempo suficiente.
Queso tipo camembert semi-affiné (afinado corto) para sabor y aroma suave. Foto: Victor Etxebarria
Dependiendo del nivel de afinado que queremos, este proceso de maduración interior puede durar típicamente entre dos y cinco semanas (siempre contando tras formar la corteza). Cuando es corto el afinado interior, como el mostrado en la Figura 6 de un camembert, el sabor y aroma que se obtiene no es tan fuerte y el interior es blando pero sólido. Esto puede llamarse un camembert semi-affiné que muchas personas prefieren.
Queso blando de cabra affiné à point (en su punto) para sabor y aroma excelentes. Foto: Victor Etxebarria
Cuando el afinado es más largo, el sabor y aroma es más fuerte, como el mostrado en la Figura 7, en un queso de cabra con el interior más cremoso, en un afinado à point. La corteza y la masa cremosa amplifican los sabores y olores del queso y durante unos pocos días está en su mejor momento.
Los quesos de pasta blanda y corteza tratada pueden degustarse suaves, más fuertes -en su punto- o hay personas que prefieren mantener aún más tiempo la maduración en el frigorífico. Esto implica que los hongos descompongan los aminoácidos de las proteínas, generen amoniaco y por tanto ambiente aún más alcalino en el interior del queso. Esto puede dar lugar a un sabor extrafuerte, una textura casi líquida y un olor cuyo carácter quesero empieza a alterarse, al dominar el amoniaco. Esta situación es del gusto de amantes de sabores fuertes, pero pasado de este límite, el queso deja de ser comestible.
Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)
El artículo Cómo hacer un queso de pasta blanda y corteza tratada en casa se ha escrito en Cuaderno de Cultura Científica.
Orriak
- « lehenengoa
- ‹ aurrekoa
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- …
- hurrengoa ›
- azkena »