Cuando matemáticas, histopatología y genómica coinciden
Las matemáticas, la histopatología y la genómica convergen para confirmar que los carcinomas renales de células claras más agresivos muestran niveles bajos de heterogeneidad intratumoral, es decir, contienen menos tipos de células distintas. El estudio, realizado por la profesora Ikerbasque de la UPV/EHU Annick Laruelle, respalda la hipótesis de que sería aconsejable aplicar estrategias terapéuticas para mantener niveles altos de heterogeneidad celular dentro del tumor para ralentizar la evolución del cáncer y mejorar la supervivencia.
Las matemáticas, la histopatología y la genómica convergen para confirmar que los carcinomas renales de células claras más agresivos muestran niveles bajos de heterogeneidad intratumoral. Fuente: CANVALos planteamientos matemáticos están cobrando impulso en la oncología moderna, ya que aportan nuevos conocimientos sobre la evolución del cáncer y nuevas oportunidades de mejora terapéutica. Así, los datos obtenidos a partir de análisis matemáticos avalan muchos de los hallazgos histológicos y los resultados genómicos. La teoría de juegos, por ejemplo, ayuda a comprender las interacciones “sociales” que se producen entre las células cancerosas. Esta novedosa perspectiva permite a la comunidad científica y clínica comprender los acontecimientos ocultos que rigen la enfermedad. En realidad, considerar un tumor como una colectividad de individuos regidos por reglas previamente definidas en ecología abre nuevas posibilidades terapéuticas para los pacientes.
En el marco de la teoría de juegos, el juego halcón-paloma (hawk-dove game) es una herramienta matemática desarrollada para analizar la cooperación y la competición en biología. Cuando se aplica a colectividades de células cancerosas explica los posibles comportamientos de las células tumorales cuando compiten por un recurso externo. “Se trata de una teoría de decisión donde el resultado no depende solamente de la decisión de uno mismo, sino también de la decisión de los otros actores —explica la profesora Ikerbasque Annick Laruelle, experta en teoría de juegos del Departamento de Análisis Económico de la Universidad del País Vasco—. En el juego, las células pueden actuar de forma agresiva, como un halcón, o pasiva, como una paloma, para adquirir un recurso”.
La profesora ha utilizado este juego para analizar las interacciones celulares bilaterales en el carcinoma renal de células claras, altamente agresivo, en dos escenarios diferentes: uno de heterogeneidad tumoral baja, cuando solo dos tipos de células tumorales compiten por un recurso; y otro de heterogeneidad tumoral alta, cuando dicha competición se produce entre tres tipos de células tumorales. El carcinoma renal de células claras recibe ese nombre debido a que las células del tumor se ven claras, como burbujas, en el microscopio. Para el estudio han tomado este tipo de carcinoma como caso representativo, por tratarse de un paradigma ampliamente estudiado de la heterogeneidad intratumoral (que hace referencia a la coexistencia en un mismo tumor de diferentes subpoblaciones de células).
Nuevo enfoque teórico para nuevas estrategias terapéuticasLaruelle ha mostrado cómo algunos fundamentos de la heterogeneidad intratumoral, corroborados desde el punto de vista de la histopatología y la genómica, se apoyan en las matemáticas utilizando el juego halcón-paloma. La investigadora Ikerbasque ha publicado en la revista Trends in Cancer el trabajo realizado en colaboración con investigadores e investigadoras de Biocruces, del Hospital San Giovanni Bosco de Turín (Italia) y de la Pontificia Universidade Catolica do Rio de Janeiro.
El grupo de investigadoras e investigadores considera que “esta convergencia de hallazgos obtenidos desde disciplinas muy diferentes refuerza el papel clave de la investigación traslacional en la medicina moderna y confiere a la heterogeneidad intratumoral una posición central en el enfoque de nuevas estrategias terapéuticas” y conjeturan que “la heterogeneidad intratumoral se comporta siguiendo vías similares en muchos otros tumores”.
La cuestión puede tener importantes consecuencias prácticas en el tratamiento clínico de los tumores malignos. La llegada constante de nuevas moléculas enriquece las oportunidades de tratamiento del cáncer en la era de la oncología de precisión. Sin embargo, los investigadores afirman que “una cosa es descubrir una nueva molécula y otra encontrar la mejor estrategia para utilizarla. Hasta ahora el enfoque propuesto se basa en la administración al paciente de la dosis máxima tolerable. Sin embargo, esta estrategia obliga a las células tumorales a desarrollar resistencias lo antes posible, transformando así el tumor original en una neoplasia de baja heterogeneidad intratumoral compuesta únicamente por células resistentes”. Por lo tanto, una terapia dirigida específicamente a preservar la heterogeneidad intratumoral alta puede tener sentido según este enfoque teórico, ya que puede ralentizar el crecimiento del cáncer y obtener así supervivencias más prolongadas. Esta perspectiva está ganando interés actualmente en oncología.
Referencia:
Claudia Manini, Annick Laruelle, André Rocha, José I. López (2023) Convergent insights into intratumor heterogeneity Trends in Cancer doi: 10.1016/j.trecan.2023.08.009
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Cuando matemáticas, histopatología y genómica coinciden se ha escrito en Cuaderno de Cultura Científica.
Comunicaciones inalámbricas del sistema nervioso
Muchos lectores seguramente conocerán las sinapsis, que podríamos definir como la forma de comunicación “por cable” entre las neuronas. Pocos, sin embargo, habrán oído hablar de las conexiones “sin cable” o wireless en el sistema nervioso.
Yo me encontré con ellas después de años de estudio, al escuchar la charla de una colega neurocientífica que investiga a los gusanos. Y me quedé boquiabierta.
Les pondré un símil. Imagínense que son extraterrestres infiltrados en el planeta Tierra que tratan de entender cómo nos comunicamos los humanos a distancia. Llevan años siguiendo las conexiones por cable de los teléfonos fijos, pero, de pronto, se enteran de que los terrícolas también podemos intercambiar información sin necesidad de cables con teléfonos móviles, tabletas, ordenadores…
Se quedarían tan boquiabiertos como yo. Preguntándose cómo demonios no se enteraron antes. Prefiriendo no saber. De pronto, me di cuenta de que la tarea de entender cómo se conectan las neuronas se complicaba considerablemente.
Un cerebro muy cableado (o no tanto)Parece que el sistema nervioso usa comunicaciones tanto por cable como inalámbricas. Las primeras son las citadas sinapsis, que encontramos descritas en cualquier libro de texto. Santiago Ramón y Cajal predijo su existencia y las mencionó en su discurso del Nobel en 1906. Fue el neurocientífico británico Charles S. Sherrington quien las bautizó ese mismo año recalcando su “probable importancia fisiológica”.
Como ocurre con internet, donde la información a veces viaja por fibra óptica, la sinapsis también incorpora un cableado de fibras. En este caso, lo que conecta la neurona que emite y la que recibe son los axones y las dendritas. Pero este sistema no es continuo: casi siempre, entre el final de un cable y el inicio del siguiente hay una minúscula distancia, apenas unos nanómetros (un nanómetro es la millonésima parte de un milímetro). Entonces, se necesita que un mensajero químico –el neurotransmisor– salve la diminuta distancia.
Los impulsos nerviosos salvan los diminutos espacios (sinapsis) entre neurona y neurona gracias a los neurotransmisores.adike/Shutterstock
Este sistema de comunicación es bastante privado. Es decir, siguiendo el símil con internet, aquí es difícil que nos intercepten el mensaje. Las sinapsis son, hasta donde sabemos, la principal forma de comunicación de las neuronas y en la que nos hemos centrado los científicos hasta ahora.
Por contra, en la comunicación sin cables –llamada a veces comunicación no sináptica o extrasináptica– no hay conexión por fibras. Aunque se ha estudiado mucho menos, sabemos que el mensajero químico puede viajar grandes distancias por el espacio entre las células.
El camino que recorren los mensajeros wireless es tortuoso y no da garantías de privacidad: aquí es más fácil que el mensaje sea hackeado.
Primeros conectomasHay un gusano con nombre casi impronunciable que nos está enseñando mucho sobre las conexiones inalámbricas y, en general, sobre cómo funciona el sistema nervioso: el Caenorhabditis elegans (abreviadamente, C. elegans). Mide aproximadamente un milímetro y era el protagonista de la conferencia a la que me refería al principio del artículo.
Quizá alguien se sorprenda de que un gusano diminuto esté enseñándonos cómo se comunican nuestras neuronas. Pero la ciencia básica es así: recuerden que aprendimos mucho sobre herencia genética gracias a Mendel y unas plantas de guisante. Y que hemos averiguado mucho sobre nuestro cerebro gracias al calamar.
El primer conectoma, el mapa de todas las conexiones de las neuronas de un organismo, se publicó en el C. elegans en 1986. Los investigadores describieron todas las conexiones por cable de las neuronas: es como seguir los fideos en un plato de espaguetis y generar un mapa. Este gusano cuenta con algo más de 300 neuronas (es un plato muy pequeño), por lo que no es casual que fuera el elegido para inaugurar este campo científico.
Bastante después se pudo generar el mapa de las conexiones en animales más complejos, como la mosca o la larva del pez cebra. El conectoma del cerebro humano tardará mucho, si es que llegamos a verlo algún día. Nosotros tenemos unos 100 000 millones de neuronas: ¡un plato inmenso de espaguetis!
Llegan los mapas de las conexiones inalámbricasHasta ahora, todos los conectomas eran mapas de las conexiones por cable. Pero dos grupos de científicos acaban de publicar el primer inventario de todos los nexos wireless en el C. elegans. De nuevo, nuestro gusano lleva la delantera.
Las investigaciones se fijaron en un tipo concreto de conexiones, las que utilizan unas moléculas llamadas neuropéptidos (similares a las proteínas) como mensajero químico. Se cree que modulan la función de otras conexiones. El primer grupo de expertos predijo el mapa de nexos inalámbricos basándose en la expresión de genes en la neuronas. Y comprobaron que es sorprendentemente diferente al entramado de conexiones por cable o sinapsis.
Los autores del segundo artículo usaron optogenética, una técnica que permite encender o apagar las células nerviosas y estudiaron qué les pasaba a sus vecinas. Tras analizar más de 23 433 pares de neuronas vieron que la comunicacion inalámbrica tiene mucho más importancia de lo que se pensaba hasta ahora. Al menos en el gusano, parece que la red wireless es tan necesaria, compleja y diversa como el sistema por cables.
Sabemos que la comunicación sin cables no es solo cosa de gusanos: también se ha encontrado, por ejemplo, en el cerebro de ratas y ratones. Aunque su relevancia en el cerebro humano aún está por investigar, quizá podrían ser muy importantes para entender cómo funciona nuestro sistema nervioso y cómo aparecen ciertas enfermedades. Y también qué ocurre cuando tomamos medicamentos o fármacos, pues pueden llegar a nuestro sistema nervioso y hackear nuestras conexiones inalámbricas.
Ya veremos en unos años a dónde nos llevan el gusano y el resto de animales que utilizamos en la investigación del sistema nervioso. Y es que, al final, para ciertas cosas, tampoco somos tan diferentes.
Sobre la autora: Monica Folgueira Otero, Profesora Contratada Doctora- Área Biología Celular, Universidade da Coruña
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Comunicaciones inalámbricas del sistema nervioso se ha escrito en Cuaderno de Cultura Científica.
Los números parásitos
Mi libro La gran familia de los números (2021), de la colección Miradas matemáticas (Catarata, ICMAT, FESPM), está dedicado a algunas importantes familias de números naturales, entre los que están los números figurados, primos, capicúas, cíclicos, perfectos, amigos, intocables, narcisistas, felices o vampiros, entre muchos otros. Sin embargo, algunas curiosas familias de números quedaron fuera del mismo, ya que el espacio de un libro es limitado, como los llamados números parásitos, que van a ser presentados en esta entrada del Cuaderno de Cultura Científica, y de los que muchos aprendimos leyendo el libro El prodigio de los números, del divulgador científico estadounidense Clifford A. Pickover.
Portadas de los libros La gran familia de los números (Raúl Ibáñez, 2021) y El prodigio de los números (Clifford A. Pickover, 2002)¿Cómo se definen los números parásitos?Un número se dice que es un número parásito, o también número n-parásito, si al multiplicarlo por su último dígito -el de las unidades-, n, se obtiene un número con los mismos dígitos y en el mismo orden, salvo el último dígito que ha pasado a ser el primero. Por ejemplo, el número 102.564 es un número 4-parásito, puesto que si lo multiplicamos por 4 se obtiene el número 410.256.
Pickover explica el nombre que ha dado a estos números de la siguiente forma:
“Este tipo de números recuerda la idea de un organismo biológico que contiene un parásito (dígito) que vaga por el cuerpo del organismo anfitrión (el número de varios dígitos en el cual reside el parásito), mientras gana energía alimentándose (la operación de multiplicación)”.
Si pensamos en un caso simple, cuando el número de las unidades, luego también el número por el que lo multiplicamos, es 1, se obtienen los números repitunos 1, 11, 111, 1.111, 11.1111, etcétera (de estos números hemos escrito en la entrada ¿Tienen algún interés los números repitunos, cuyos dígitos son todos unos?). Por este motivo, normalmente se habla de números n-parásitos, para n entre 2 y 9.
Mostremos un par de ejemplos más de números parásitos, el número 102.564.102.564 y el número 1.012.658.227.848 (que hemos tomado de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, en concreto, la sucesión A081463, formada por los números parásitos):
Cuando el número por el que multiplicamos, n, no coincide con el dígito de las unidades, Pickover habla de números seudoparásitos (o n-seudoparásitos), como el número 128.205, que multiplicado por 4 (que no es el dígito de las unidades, que es 5), da como resultado 512.820.
Algunos otros ejemplos de números seudoparásitos son:
Existen una serie de números que están en la frontera de ser seudoparásitos, aquellos para los que podemos interpretar que tienen un cero a la izquierda, aunque en su representación claramente aparezca. Normalmente, no se considera que estos números, como el 25.641, sean números seudoparásitos, aunque se cumpla que al multiplicarlo por 4, el resultado sea 102.564, que como podemos interpretar que 25.641 es lo mismo que 025.641, se podría decir entonces que es un número 4-seudoparásito. Sin embargo, como comentábamos, lo usual es no considerar que pueda utilizarse el cero de esta manera.
En la literatura matemática actual, algunos autores utilizan el término “número parásito” para los dos tipos anteriores de números (parásitos y seudoparásitos), es decir, el número por el que multiplicamos no tiene que coincidir con el dígito de las unidades.
¿Cómo construir números parásitos?Para ver cómo construir números parásitos, vamos a analizar primero cómo son estos números. Como sabemos, todo número N de m cifras, cuya representación decimal es N = am–1 am–2 … a2 a1 a0, tiene el valor
Ahora, si el número N es un número n-parásito o n-seudoparásito, entonces al multiplicarlo por el número de un solo dígito n (que en el caso de los parásitos es igual al dígito de las unidades a0), se obtiene el número A = a0am–1 am–2 … a2 a1, cuyo valor es
Luego, la condición de que N sea n-seudoparásito (parásito si n = a0) es que N multiplicado por n es igual a A. A partir de esta expresión y de los valores anteriores de N y A, se obtiene que la condición de que el número natural N sea n-seudoparásito es equivalente a que
Luego ya tenemos la primera información útil, puesto que, si tenemos un número natural N expresado de esta forma, entonces es un número n-seudoparásito, con digito de las unidades a0.
Bueno, vamos a ver cómo construir números n-parásitos. Empecemos considerando el número racional n / (10 n – 1), que aparece en la expresión anterior, pero veámoslo en un caso particular, por ejemplo, n = 2. En tal caso, el número racional asociado a la construcción del número parásito es 2/19, que es el número decimal periódico, cuyo periodo es 105263157894736842, es decir,
que se repite de forma infinita. Ahora, recordemos que, si el periodo tiene m dígitos (en este ejemplo son 18), al multiplicar por 10m – 1 se obtiene el número natural que forma el periodo. En este caso, en particular, tenemos que
Por lo tanto, de lo anteriormente estudiado deducimos que 105.263.157.894.736.842 es un número 2-parásito.
Si volvemos al ejemplo inicial, que había propuesto Pickover, el número 4-parásito 102.564, veamos cómo lo habríamos generado. Como nuestro número de las unidades es n = 4, entonces consideramos el número racional n / (10 n – 1) = 4/39, que es un número decimal periódico, cuyo periodo es 102564, que tiene 6 dígitos. Es decir,
Y efectivamente, 102.564 es un número 4-parásito. Aprovechemos este ejemplo para comentar que del mismo se obtiene, lo que ocurre también para los demás ejemplos, que el número formado por k veces ese número n-parásito, sigue siendo n-parásito. Así, 102.564.102.564 o 102.564.102.564.102.564 también son números 4-parásitos, puesto que
Con este método de construcción podemos obtener los números n-parásitos más pequeños para los diferentes valores de n, de 2 a 9, como se muestra en la siguiente tabla. Estos forman la sucesión A092697 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS.
Tabla de los números de Dyson -los números n-parásitos más pequeños para cada n, del 2 al 9Claramente, la misma técnica sirve para crear números n-seudoparásitos. Tomemos el caso de la cifra multiplicativa n = 5, para los diferentes finales del número a0 (de 2 a 9). El resultado lo podemos ver en la siguiente imagen, en la que aparecen todos los números 5-seudoparásitos, con terminaciones entre 2 y 9 (más pequeños posibles para cada terminación). Los tres primeros pertenecen a ese grupo de números que se consideran, o no, seudoparásitos en función de si se permite jugar con el cero a la izquierda. Todos ellos tienen 42 dígitos (incluido el cero de la izquierda en los tres primeros casos), salvo uno de ellos, terminado en 7, que tiene 6 dígitos.
Algunas anécdotas parásitasLa primera anécdota, que aparece recogida en el libro El prodigio de los números, es una curiosidad relacionada con el número 5-parásito
102.040.816.326.530.612.244.897.959.183.673.469.387.755
que se puede escribir por parejas de dígitos, empezando en 1, que cada una es el doble de la siguiente (1) (02) (04) (08) (16) (32) y así se continúa. Aunque aquí tenemos que realizar cierta explicación. La siguiente pareja sería (64), sin embargo, en nuestro número parásito aparece (65), esto se debe a que la siguiente “pareja de dígitos” sería (128) que tiene tres dígitos, motivo por el cual el dígito 1 se suma a la anterior pareja, que pasa de (64) a (65). Y así se continúa con el resto, como aparece en la imagen.
Y si continuásemos añadiendo filas (cada una con el número que dobla al anterior y colocado correctamente) se irían generando más copias del número seudoparásito, cada una a continuación de la siguiente (hacia la derecha).
La siguiente curiosidad la encontramos en el número 5-seudoparásito 142.857, que resulta ser un número cíclico (para más información sobre estos, véase el capítulo 3, titulado La simetría de los números, del libro La gran familia de los números). Entre otras propiedades este número satisface la propiedad de que multiplicado por los números 1, 2, 3, 4, 5 y 6, se obtiene un número con las mismas seis cifras, el mismo orden entre ellas, pero rotado cíclicamente, como se muestra en la siguiente imagen:
Además, si se multiplica por 7 el resultado es 999.999. Pero este no es el único número seudoparásito, o parásito, que es también cíclico. Otros son el 2-parásito 105.263.157.894.736.842, el 3-parásito 1.034.482.758.620.689.655.172.413.793, o el 6-parásito 1.016.949.152.542.372.881.355.932.203.389.830.508.474.576.271.186.440.677.966. Pero de los números cíclicos ya hablaremos en otra ocasión.
Escultura Love (2021), del artista suizo Paolo GrassiBibliografía
1.- R. Ibáñez, La gran familia de los números, Libros de la Catarata – ICMAT – FESPM, 2021.
2.- Clifford A. Pickover, El prodigio de los números. Desafíos, paradojas y curiosidades matemáticas, Ma Non Troppo (ediciones Robinbook), 2002.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los números parásitos se ha escrito en Cuaderno de Cultura Científica.
Amoniaco ¿verde?
Si hablamos de hidrógeno verde, hemos de hablar necesariamente de amoniaco (NH3) verde. Por su capacidad para transportar y almacenar hidrógeno, el amoniaco es una opción preferente de cara a la descarbonización de distintos sectores en la transición energética, aunque la comparativa tecno-económica de las distintas vías de producción apunta a que su producción a partir de renovables aun no es competitiva.
En el marco de la transición energética, con el fin de descarbonizar sectores clave de la economía como la industria, la energía o el transporte, el amoniaco aparece como un vector energético idóneo, al tratarse de un portador de hidrógeno que puede transportarse y almacenarse con facilidad y seguridad. El amoniaco es el cimiento químico fundamental de la industria de los fertilizantes y es necesario para producir ácido nítrico, además de poder emplearse potencialmente en numerosas aplicaciones energéticas como combustible. En la producción del amoniaco es posible emplear bien combustibles fósiles o bien energías renovables, por lo que el uso de una vía u otra, aparte de la consecuente repercusión en la eficiencia e impacto ambiental, tiene un coste asociado que conviene analizar.
Con el objetivo de determinar la competitividad económica de los distintos modos de producción de amoniaco proyectados al año 2050, un equipo de investigadores ha realizado la modelización, simulación y evaluación tecno-económica de plantas de producción de amoniaco de gran escala (3.000 ton/día) a partir de diferentes vías. Los resultados obtenidos apuntan a que la alternativa de producción renovable tiene todavía retos que superar para resultar competitiva frente al uso de los combustibles fósiles.
Enséñame el dineroLa simulación y evaluación tecno-económica, realizadas por investigadores de la Escuela Técnica Superior de Ingenieros Industriales de la UPM y del organismo de investigación noruego SINTEF, se basan en la producción de amoniaco a gran escala empleando distintas fuentes de energía primaria: gas natural, combustibles sólidos (carbón y biomasa) y energías renovables (solar y eólica). Se han evaluado procesos con tecnologías consolidadas de referencia y diseños avanzados.
Los procesos que emplean tecnologías de referencia usando gas natural (con un coste asumido de 6,5 €/GJ) presentan un coste nivelado similar de en torno a 385 €/ton de NH3, mientras que el proceso avanzado con tecnología de conmutación de lazo químico (en inglés, GSR o “gas switching reforming”) logra reducir este coste un 14%.
Sin embargo, la vía de producción con energía renovable (solar y eólica) mediante electrolizadores tipo PEM localizada en el sur de España resulta aproximadamente un 50% más cara que a partir de gas natural con captura de CO2 mediante tecnologías convencionales.
Por otra parte, la síntesis de NH3 a través de la co-gasificación de carbón y biomasa implementando tecnologías de captura de CO2 permite alcanzar emisiones negativas. Dos procesos de referencia empleando tecnologías actualmente comerciales de gasificación GE y MHI alcanzan un coste nivelado de 391,5 y 410,1 €/ton, respectivamente.
Por otra parte, procesos de gasificación avanzada, tratamiento de syngas y reactores de membrana permiten alcanzar una reducción de coste del 15% con respecto al proceso de gasificación GE.
Del análisis se deduce que las plantas de producción de amoniaco a partir de combustibles sólidos, a pesar de presentar un coste de capital más elevado, proporcionan seguridad energética debido a que emplean combustibles locales y de bajo coste (carbón y biomasa), lo que compensa un coste nivelado relativamente superior con respecto a procesos que utilizan gas natural como energía primaria, debido a la incertidumbre de suministro y la elevada volatilidad del precio del mismo. “Debido a la naturaleza intermitente de los recursos solares y eólicos, se precisa almacenamiento intermedio de electricidad y/o hidrógeno para garantizar una producción estable, lo que encarece notablemente estos sistemas”, explica Carlos Arnaiz, investigador de la Escuela Técnica Superior de Ingenieros Industriales.
Buscando la competitividad del amoniaco verdeLa investigación sobre la producción del amoniaco no concluye aquí. Los investigadores de la UPM y SINTEF han participado en un estudio posterior, recientemente publicado, sobre el futuro de los combustibles y los costes de producción del amoniaco. Esta nueva investigación muestra, mediante un análisis estadístico de las variables tecno-económicas para una región importadora de gas natural (Europa), que la producción de amoniaco verde solo podría llegar a ser competitiva con respecto a combustibles fósiles cuando existe un recurso renovable muy abundante a bajo coste.
Alternativamente puede considerarse la vía de producción electrolítica con energía nuclear, evitando el almacenamiento de H2 o baterías al ser una fuente continua de energía, que podría tener una oportunidad si las políticas adoptadas asegurasen un coste de inversión de las plantas nucleares reducido. “En cualquier caso, resulta crítico minimizar los costes de producción de la energía primaria y el coste de capital de los electrolizadores”, apunta Arnaiz.
“Para el caso de energía renovable, la hibridación con una fuente alternativa de hidrógeno sin emisiones netas de CO2, como puede ser el biogás, permitiría reducir los costes de almacenamiento y sobredimensionamiento requerido asociados a la intermitencia del recurso solar o eólico, manteniendo una baja huella medioambiental”, concluye.
Referencias:
C.Arnaiz del Pozo, S. Cloete and ÁJ. Álvaro (2023) Ammonia from solid fuels: A cost-effective route to energy security with negative CO2 emissions Energy doi: 10.1016/j.energy.2023.127880
C. Arnaiz del Pozo and S. Cloete (2022) Techno-economic assessment of blue and green ammonia as energy carriers in a low-carbon future Energy Conversion and Management. doi: 10.1016/j.enconman.2022.115312
C. Arnaiz del Pozo, S. Cloete, J. H. Cloete and ÁJ. Álvaro (2023) The future of fuels: Uncertainty quantification study of mid-century ammonia and methanol production costs Energy Conversion and Management doi: 10.1016/j.enconman.2023.117701
Edición realizada por César Tomé López a partir de materiales suministrados por la Universidad Politécnica de Madrid
El artículo Amoniaco ¿verde? se ha escrito en Cuaderno de Cultura Científica.
El origen de los cráteres de impacto
Probablemente hayamos repetido en más de una ocasión en Planeta B que no hay una forma del relieve más habitual en nuestro Sistema Solar que los cráteres de impacto. Bueno, aunque en la Tierra, debido a que todavía es un planeta con una gran dinámica externa e interna, son pocos los que resisten al paso del tiempo, y muy pocos los que todavía conservan esa forma característica y reconocible. Mayoritariamente los más recientes.
Esto no pasa en otros lugares. Cuando miramos a la Luna a través de un telescopio -no hace falta que tenga muchos aumentos- además del contraste de los mares lunares con el color más claro de las tierras altas, se ven innumerables cráteres. Casi diría que incontables porque incluso aunque estuviésemos en su superficie y cogiésemos una muestra de roca lunar, hasta esta podría tener cráteres en miniatura fruto de los impactos de micrometeoritos con su superficie, ya que, al no tener una atmósfera protectora, cualquier cuerpo por pequeño que sea puede llegar a impactar.
El cráter Larmor Q, situado en la Luna, muestra una transición entre una morfología simple típica de cráteres más pequeños y una más compleja, que suele estar asociada a cráteres más grandes. Imagen cortesía de NASA/GSFC/Arizona State UniversityPero, ¿qué nos cuentan los cráteres más allá de una tumultuosa historia de impactos? A menudo de su forma y tamaño podemos conocer detalles sobre el objeto que impactó, sobre su velocidad, el ángulo de entrada e incluso hacernos una idea sobre su tamaño e incluso los propios cráteres pueden servirnos como una ventana geológica hacia capas más profundas que de otra manera nos serían invisibles en las superficies planetarias.
Lo cierto es que los cráteres son todavía más importantes dentro de las ciencias planetarias por muchas razones, desde su utilidad para crear dataciones de las superficies -a falta de muestras que nos puedan aportar una edad absoluta- hasta la posible existencia de antiguos ambientes habitables.
Un cráter de impacto circular en Marte. Su forma todavía bien perfilada nos indica que es relativamente reciente y, por lo tanto, ha tenido poco tiempo de sufrir cambios. Imagen cortesía de NASA/JPL-Caltech/UArizona.Hay una razón más y que a veces se menciona poco, y es que nos pueden ayudar también a comprender la historia geológica de los cuerpos de nuestro Sistema Solar. Los procesos de impacto y la dispersión de los materiales provocada por estos tienen una influencia en la evolución de sus superficies. Esta comprensión serviría para mejorar nuestras cronologías planetarias y comprender mejor la secuencia de eventos que hay superpuestos, permitiéndonos separar páginas de la historia geológica.
Un nuevo estudio publicado por investigadores brasileños aborda la perspectiva de la formación de los cráteres desde la simulación por ordenador para intentar responder a la enorme diversidad en morfologías que podemos observar y cuáles podrían ser los factores más importantes.
Del estudio es destacable como han determinado que los cuerpos con una alta velocidad de rotación -es decir, aquellos que impactan contra otro cuerpo mayor- son capaces de provocar una gran dispersión de los materiales, generando cráteres menos profundos, pero más anchos.
Pero al mismo tiempo este fenómeno también se puede observar provocado por cuerpos con menos cohesión, es decir, en los que los granos que los componen van unidos con menos fuerza entre ellos y como podría ser el caso de los asteroides de tipo pila de escombros -o rubble pile por sus siglas en inglés- y que como consecuencia de esta baja cohesión al impactar también provocan una gran dispersión de los materiales y morfologías diferentes a las que provocan cuerpos monolíticos o resistentes.
La dispersión de los materiales más allá del borde del cráter nosotros la vemos representada como la eyecta pero también podrían incluso, si los materiales expulsados lo hacen a la suficiente velocidad, formar poblaciones secundarias de cráteres a veces difíciles de discriminar y que con estos nuevos modelos podrían acotarse mejor.
No cabe duda de que estudios como este, junto con futuros ensayos experimentales, nos podrán ayudar a conocer mejor las poblaciones de los cráteres y a detectar señales que nos ayuden a conocer mejor los responsables de su formación y, con ello, a completar la historia geológica de los planetas.
Referencias:
De Carvalho, D. D., Lima, N., & De Moraes Franklin, E. (2023) Impact craters formed by spinning granular projectiles. Physical Review doi: 10.1103/physreve.108.054904
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo El origen de los cráteres de impacto se ha escrito en Cuaderno de Cultura Científica.
Capacidad lectora y grado de desarrollo de la materia blanca
La capacidad lectora de los niños y niñas, y de los adolescentes también, depende del grado de desarrollo de su materia blanca en dos áreas concretas del hemisferio cerebral izquierdo. La materia blanca está formada por axones neuronales y por las vainas mielínicas que los envuelven. Los axones transmiten rápidamente información, en forma de impulsos nerviosos, entre zonas relativamente distantes, y cumplen una función esencial en la interconexión de diferentes enclaves del sistema nervioso.
En los niños y niñas que leen mejor es mayor el desarrollo de la materia blanca en dos fascículos (haces de fibras nerviosas de cierta longitud) del hemisferio cerebral izquierdo, el arqueado y el longitudinal inferior.
Foto: Johnny McClung / UnsplashA esa conclusión han llegado los autores de un estudio realizado a lo largo de tres años con 30 niñas y 25 niños comprendidos entre los 7 y los 12 años de edad. A esos chicos y chicas se les analizó, en diferentes ocasiones, el grado de desarrollo de diferentes fascículos cerebrales, y para ello se utilizó una técnica denominada resonancia magnética de difusión, técnica de imagen que sirve para determinar la intensidad de los procesos de difusión que tienen lugar en el interior de los axones neuronales. A los mismos chicos y chicas se les evaluó también su capacidad lectora utilizando test estándares para ello. La conclusión de esas determinaciones fue, como se ha apuntado, que el desarrollo de los dos fascículos del hemisferio izquierdo citados antes (el arqueado y el longitudinal inferior) están relacionados con la habilidad lectora.
Para poder interpretar correctamente esa asociación es preciso tener en cuenta cómo se produce el desarrollo de la materia blanca en el cerebro. Durante el desarrollo prenatal las conexiones axonales de larga distancia son guiadas a sus lugares diana en la corteza cerebral mediante mecanismos de señalización molecular. Desde el final del periodo prenatal y a lo largo de la infancia y la adolescencia, los oligodendrocitos van depositando capas de mielina alrededor de esos axones (mielinización); la mielina está formada por sucesivas capas lipídicas, lo que contribuye a aislar eléctricamente a los axones del exterior y, como consecuencia de ello, a hacer más rápida la transmisión de los impulsos nerviosos. Ese proceso depende tanto de información genética como de factores educativos y ambientales de otro tipo; es un proceso plástico, en el que el nivel de actividad eléctrica de los axones también influye en la mielinización.
Conforme se desarrolla el cerebro, hay axones neuronales que se hacen cada vez mayores, van ocupando más espacio. Y, a la vez, otros son eliminados. Esa supresión selectiva de axones se denomina poda (pruning). La poda se produce, en parte al menos, como consecuencia del aprendizaje. Esto es, al aprender se descartan determinadas vías o conexiones entre neuronas y entre áreas cerebrales, a la vez que se potencian, precisamente mediante la mielinización, otras. Ese desarrollo de la materia blanca, consistente en mielinización y poda simultáneas, es lo que se caracteriza experimentalmente mediante la técnica de visualización utilizada en esta investigación.
Llegados a este punto, interesa saber cuáles son las áreas cerebrales que están conectadas por los fascículos cuyo desarrollo está vinculado con la habilidad lectora. Se trata, efectivamente, de áreas importantes para dicha actividad. El fascículo arqueado conecta la corteza frontal inferior, incluida el área de Broca y la corteza temporal lateral, incluida el área de Wernicke, y es una ruta importante para la consciencia fonológica, que es esencial para el desarrollo de la capacidad lectora. El fascículo longitudinal inferior es la vía principal para la transmisión de señales entre el lóbulo occipital y el lóbulo temporal. Una porción del fascículo longitudinal inferior se proyecta hacia el área del surco temporal occipital, que es donde se procesa la forma visual de las palabras escritas. Esa área se considera esencial para “ver” las palabras, para visualizarlas.
Así pues, las áreas conectadas por los fascículos en cuestión son áreas implicadas en el procesamiento y comprensión del lenguaje escrito. La lectura requiere una comunicación eficiente entre regiones cerebrales que procesan información de diferente naturaleza: auditiva, visual y del lenguaje, y son regiones que no se encuentran en posiciones adyacentes, sino a varios centímetros de distancia unas de las otras. De ahí la importancia de un adecuado desarrollo de los fascículos de materia blanca que conectan esas áreas, ya que son los axones que los constituyen los encargados de transmitir la información relativa a esos procesos.
Según los autores de la investigación, aprender a leer depende en parte de la capacidad de las rutas de materia blanca para desarrollarse en respuesta al entrenamiento lector. Como se ha visto, el desarrollo de los fascículos arqueado y longitudinal inferior está asociado con la habilidad lectora de chicos y chicas. Resultaría, por ello, muy útil conocer con cierta precisión las condiciones bajo las que un determinado circuito neuronal es plástico o es estable, y cómo se relaciona el grado de plasticidad o mutabilidad de un circuito con el comportamiento del individuo.
El cerebro madura de un modo secuencial, de manera que algunos circuitos se desarrollan y se estabilizan mientras otros mantienen una cierta capacidad para cambiar. Por esa razón, el aprendizaje de la lectura debiera realizarse cuando los sistemas implicados ya se han desarrollado en una medida suficiente pero manteniendo aún un cierto potencial plástico, de manera que puedan responder a la enseñanza con un desarrollo ulterior.
Fuente: Jason D. Yeatman, Robert F. Dougherty, Michal Ben-Shachar y Brian A. Wandell (2012): Development of white matter and reading skills. PNAS 109 (44): E3045-E3053
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Capacidad lectora y grado de desarrollo de la materia blanca se ha escrito en Cuaderno de Cultura Científica.
¡Ups! El éter
El éter ha tenido muchísimas funciones antes de que finalmente Einstein lo descartara cuando expuso la teoría de la relatividad especial. Fue un elemento más de la naturaleza por donde se movían los dioses y nos envolvía, dio movimiento a los elementos celestes… incluso sirvió para explicar la propagación de la luz.
Los vídeos de ¡UPS¡ presentan de forma breve y amena errores de la nuestra historia científica y tecnológica. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se han emitido en el programa de ciencia Órbita Laika (@orbitalaika_tve), en la 2 de RTVE.
Producción ejecutiva: Blanca Baena
Guion: José Antonio Pérez Ledo
Grafismo: Cristina Serrano
Música: Israel Santamaría
Producción: Olatz Vitorica
Doblaje: K 2000
Locución: José Antonio Pérez Ledo
Edición realizada por César Tomé López
El artículo ¡Ups! El éter se ha escrito en Cuaderno de Cultura Científica.
¿Encontraremos agujeros de gusano cósmicos como predice Doraemon?
Nintendo, CC BY
Doraemon, el icono pop otaku, viaja en el tiempo, sin despeinarse, desde el siglo XXII a nuestros días para cuidar a Nobita. Su máquina del tiempo, la puerta mágica, da paso a agujeros de gusano cósmicos, atajos en el universo.
Doraemon no es el único que ha encontrado el acceso. Roy Batty, el replicante de Blade Runner, vio la puerta de Tannhäuser, la que separa el mundo del bien y del mal. Y podríamos seguir enumerando ejemplos sin parar.
La ficción con poso científico hace resonar en nuestra cabeza esas locas arquitecturas espacio-temporales conocidas como agujeros de gusano. Pero ¿de verdad son tan locas?
La novela Contact, de Carl Sagan, inspiró notables avances en la física de la gravitación. Y es que la idea, científicamente, no era tan descabellada, porque los agujeros de gusano caben perfectamente en la relatividad de Einstein. De ese modo Kip Thorne, físico teórico estadounidense, ganador del Premio Nobel de Física en 2017 y el cerebro científico de la película Interstellar, convenció a uno de sus estudiantes, Charles W. Misner, para hacer cálculos que preveía relativamente sencillos. Y sobre el papel encontraron algunos ejemplos chulísimos de agujeros de gusano.
Atajos en el cosmos¿Viajarían ustedes hasta Can Mayor, la galaxia más cercana? No parece buena idea al saber que tardaríamos más de 25 000 años en llegar. A no ser que… ¡tomemos un atajo en forma de agujero de gusano!
¿Encontraremos alguna vez una de estas rarezas? ¿Descubriremos en el futuro un agujero de gusano?
Al fin y al cabo no hace tanto nos preguntábamos lo mismo sobre los agujeros negros. Y se han encontrado agujeros negros por centenares, incluso se han fotografiado.
Un agujero de gusano, básicamente, es el resultado de unir con una especie de “pegamento indeleble” dos embudos por su zona más estrecha. La garganta de ambos embudos se mantiene abierta mediante alguna versión de materia poco convencional. Esa materia sería, justamente, el pegamento.
La Relatividad General no lo es todoLa Relatividad General de Einstein es una teoría muy potente, pero no es omnipotente. Es decir, no lo explica absolutamente todo. Y lo mismo ocurre con las teorías que se han propuesto para generalizarla. A grandes rasgos solo nos dicen cuál es la geometría del agujero de gusano, y poco más.
Podríamos decir que, de alguna manera, la Relatividad General es como el código de circulación. Imaginemos que nos encontramos con esa señal del código en un viaje por una autovía entre montañas. Hay dos opciones para saber a dónde llegaremos al cruzarla. La primera, obviamente, es cruzarla. La segunda consiste en averiguar si existe un camino alternativo por una nacional larga y aburrida que suba el puerto. La Relatividad General solamente nos avisa de la existencia del túnel. Pero no nos da información anticipada.
¿Nos llevará el túnel a otro punto de nuestro universo? ¿O, por el contrario, apareceremos por sorpresa en otro universo conectado con el nuestro?
Esta incertidumbre acerca del destino de nuestro viaje se debe a que la Relatividad General no habla de la topología del universo. Saber que tenemos un túnel es competencia de la geometría, y la teoría de Einstein se maneja bien ahí. En cambio, para saber a donde nos lleva el agujero tenemos que recurrir a la topología.
Es decir, para estudiar los agujeros de gusano hay que sazonar un poco la teoría de la Relatividad con un extra de salsa matemática.
Agujeros de gusano y materia éxóticaLos agujeros de gusano son extremadamente exquisitos en sus requerimientos. Necesitan que rompamos con nuestras ideas preconcebidas para darles cabida. Esas estructuras tienen la manía de querer cerrar sus gargantas. Cualquier pequeña perturbación manda al garete la estructura. Precisamente eso ocurre con uno de los primeros modelos de agujero de gusano, el que esbozó Albert Einstein con su colega Nathan Rosen.
Una posibilidad para contrarrestar esa inestabilidad, y hacer que el agujero de gusano sea robusto, es que la materia dentro de ese universo muestre propiedades exóticas. Por ejemplo, del tipo que a ojos de un (veloz) neutrino que atravesase el agujero de gusano fuese materia con masa negativa. Pero eso es algo que nos resulta inconcebible. Si estamos de pie sujetando una manzana de masa negativa y la soltamos no la veríamos caer. ¡Subiría en lugar de caer! Obviamente nunca se ha observado tal cosa. Por eso resulta difícil aceptar una estructura en el universo que necesite algo tan raro para existir.
Torsión en el universoOtra posibilidad es salirnos de la teoría de Einstein y permitir la existencia de torsión en el Cosmos. Para entender qué pasa en un universo con esa propiedad podemos imaginarlo como si fuera un cinturón, así que tendría tan solo dos dimensiones. Si nos lo atamos mal alrededor de la cintura de manera que vemos el anverso y el reverso, entonces ese es un universo con torsión. Y si una hormiga se pasease por el cinturón, no podría avisarnos de que nos lo hemos atado mal. Solo si lo miras desde fuera tienes acceso a la tercera dimensión espacial y ves que el cinturón (o universo) está girado.
Si hubiera esa torsión en el universo, los agujeros de gusano podrían comunicar espacios-tiempos distintos, dimensiones distintas, de un lado y del otro de la torsión.
La torsión en el universo, como en una cinta de Möbius (en la imagen) permitiría la existencia de agujeros de gusano.freepng, CC BY
Permitir que el universo se tome esas libertades en sus propiedades matemáticas es muy audaz. Pero eso no detiene a los físicos.
Partículas de la gravedad mutantesLas teorías gravitatorias, no solo la de Einstein, se interpretan a menudo como una manifestación geométrica de partículas aún no descubiertas: los hipotéticos gravitones. Desde esta perspectiva se está explorando con interés una nueva posibilidad, de nuevo, sobre el papel. En estas propuestas, las leyes que gobiernan la conservación de la materia no son las habituales. En concreto, los gravitones se comportarían como tales en ciertas zonas del espacio-tiempo pero en otras se convertirían en partículas más convencionales. Es decir, mutarían. Esto no deja de ser una deliciosa locura. Y si eso puede dar lugar a agujeros de gusano, ¿por qué no entretenernos investigándolas?
Los retos que plantean esas estructuras no acaban ahí. Estudiar los agujeros de gusano es un ejercicio intelectual que requiere una apertura de mente en muchas direcciones. El reto no es solo abrir la mente, sino la garganta del agujero de gusano. Pero el desafío recuerda mucho al que permitió que tras décadas de conjeturas los agujeros negros dejasen de ser especulaciones.
Si los físicos continuamos explorando el desafío, en parte es gracias a esa motivación que regala la ciencia-(no tan de)-ficción.
¡Feliz viaje, Doraemon!
Sobre las autoras: Ruth Lazkoz, Profesora Titular de Física Teórica, UPV/EHU, e Ismael Ayuso Marazuela, Investigador de la UPV/EHU en el área de Física Teórica
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Encontraremos agujeros de gusano cósmicos como predice Doraemon? se ha escrito en Cuaderno de Cultura Científica.
Jugando a los tronos geológicos
Reconozco que me encantan las novelas de la famosa saga “Canción de Hielo y Fuego” de George R. R. Martin, por lo que no podía perderme ningún capítulo de la serie de televisión basada en estos libros y titulada como el primero, “Juego de Tronos”. Aunque, según iban avanzando las temporadas, cada vez me fueron dejando más fría que un “caminante blanco”. Así que, en muchos capítulos, ya no prestaba atención a la trama y me centraba más en analizar uno de los aspectos más destacados de esta superproducción de HBO, los paisajes en los que se rodaron.
Me parecía que la historia que me contaban esas rocas podía ser, en muchas ocasiones, más interesante que la narrada por los personajes de ficción. Por lo que hoy quiero que realicemos un viaje por aquellas localizaciones españolas cuyo paisaje las hizo merecedoras de ser el lugar elegido para albergar algunos de los momentos clave de las últimas temporadas, desvelando esa historia geológica que esconden. Y vamos a hacerlo yendo desde los más antiguos hacia los más modernos, geológicamente hablando.
Antes de seguir, un aviso por si no habéis visto la serie. Voy a intentar no desvelar demasiados spoilers en este artículo, pero indicaré los episodios en los que aparecen las localizaciones geológicas que he seleccionado junto con un breve contexto de la trama. Por tanto, si no queréis que os destripe alguna información importante, no sigáis leyendo.
Aspecto de las morfologías en bolos que adoptan las rocas graníticas en el Monumento Natural Los Barruecos de Malpartida (Cáceres).La primera parada de este viaje la realizaremos en el Monumento Natural Los Barruecos de Malpartida, Cáceres. Esta localidad aparece en los episodios 4 y 5 de la temporada 7, siendo el escenario donde se desarrolla la batalla entre los dothrakis, comandados por Daenerys montada a lomos de Drogon, y los ejércitos de los Lannister y los Tarly. Aquí nos encontramos con la presencia de granitos (roca ígnea plutónica) formados en el Carbonífero. Después de millones de años de estar sometidos a una combinación de esfuerzos tectónicos compresivos y erosión de las rocas que se depositaron por encima, estos granitos salieron a la superficie muy fracturados. Y aquí fueron sometidos a más alteración por los agentes meteorológicos, dando lugar a las curiosas estructuras que dan nombre a este paisaje: los “barruecos” o “berruecos”, que no son más que una acumulación de bolos graníticos aislados con formas caprichosas.
Castillo de Zafra (Campillo de Dueñas, Guadalajara) asentado sobre los estratos de areniscas y conglomerados de origen fluvial del Triásico Inferior. Foto: Diego Delso / Wikimedia CommonsSaltamos ahora a Campillo de Dueñas, en Guadalajara, y concretamente al Castillo de Zafra, protagonista del episodio 10 de la temporada 6, cuando Brandon Stark tiene una visión del pasado y descubre el verdadero origen de Jon Snow. Este castillo está construido sobre unos estratos de areniscas y conglomerados de origen fluvial, formados por los depósitos de materiales terrígenos y detríticos en los canales y llanuras de inundación de grandes ríos de tipo trenzado que se desarrollaron en esta zona durante el Triásico Inferior, en las denominadas facies Buntsandstein. Hoy en día, toda esta zona forma parte del Geoparque Mundial Unesco Molina-Alto Tajo.
A) Detalle de los depósitos de tipo flysch detrítico de la playa de Itzurun (Zumaia) del Paleoceno. B) Vista aérea de las escaleras de acceso a la ermita de San Juan de Gaztelugatxe (Bizkaia) construidas sobre un flysch carbonatado de finales del Cretácico; foto: Clementp1986 / Wikimedia Commons.Ahora es el turno de hablar de las localizaciones del País Vasco, ya que se eligieron dos zonas de rodaje en Bizkaia, la playa de Muriola, cerca de Barrika, y San Juan de Gaztelugatxe, y una zona en Gipuzkoa, en concreto la playa de Itzurun en Zumaia. Estas tres locaciones costeras están presentes en los episodios 1 a 4 de la temporada 7, cuando Daenerys desembarca en Rocadragón, desde donde empieza a hacer alianzas mientras planifica su táctica de asalto para conquistar los 7 Reinos. En los tres sitios afloran materiales de tipo flysch, es decir, una alternancia rítmica de rocas más resistentes y rocas más blandas que forman una especie de empaquetado que a mí siempre me recuerda a un pastel de milhojas de hojaldre. Pero el flysch de Gipuzkoa no es el mismo que el que aparece en Bizkaia, aunque hace falta tener un ojo geológico entrenado para darse cuenta.
Así que, de manera análoga a cuando Daenerys atraviesa las puertas de la fortaleza de Rocadragón y da un salto en el espacio, pasando de Gipuzkoa a Bizkaia en el mismo plano cinematográfico como si hubiese atravesado una stargate, también pega un cambio en el tiempo y en el medio ambiente en el que se depositaron esos materiales que se ven a su alrededor. En la playa de Itzurun, Zumaia, aflora un flysch de tipo detrítico formado por la alternancia de lutitas y areniscas depositadas por corrientes de turbidez en zonas de fondo de cuenca marina, a varios miles de metros de profundidad, a comienzos del Paleoceno. De hecho, esta playa, que pertenece al Geoparque Mundial Unesco de la Costa Vasca, posee dos clavos dorados que marcan los estratotipos globales de referencia para dos de las subdivisiones geológicas de este periodo temporal. Sin embargo, el flysch de las dos localidades vizcaínas es de tipo carbonatado, mostrando una sucesión de calizas y margas de fondos marinos menos profundos que los de Zumaia que se desarrollaron en esta zona unos cuantos millones de años antes, a finales del Cretácico.
A) Imagen general de una de las balsas artificiales construidas en Bárdenas Reales de Navarra que sirvió de campamento base para el ejército dothraki, con los cerros y elevaciones conformadas por depósitos detríticos del Mioceno a su alrededor. B) Detalle de la pared de arenas fluviales poco consolidadas de finales del Cuaternario del cañón excavado por el arroyo que fluye a la derecha de la imagen.Y el último lugar al que vamos a viajar es el Parque Natural de las Bardenas Reales de Navarra, que podemos disfrutar en el episodio 6 de la temporada 6, donde Daenerys recupera la confianza de los dothrakis y vuelve a comandarlos para dar comienzo a la gran batalla por gobernar en los 7 Reinos. Aquí disfrutamos de los materiales geológicos más modernos de todo nuestro viaje, ya que el paisaje está conformado por depósitos sedimentarios cenozoicos. En concreto, encontramos unas mesetas y pequeñas elevaciones montañosas con niveles de lutitas y areniscas de colores rojizos, anaranjados y amarillentos que se depositaron en zonas circundantes a unos ríos que desembocaban en humedales y márgenes de lagos durante el Mioceno. Por otro lado, Daenerys y su ejército atraviesan unos escarpados cañones cuyas paredes están compuestas por arenas poco consolidadas de colores pardos claros y amarillentos que representan diferentes fases de relleno y erosión de ríos y arroyos durante los últimos miles de años, ya a finales del Cuaternario.
Y hasta aquí ha llegado nuestro pequeño paseo. Espero haberos convencido de que esta serie, aparte de para conocer fabulosos monumentos y edificios históricos de nuestra geografía, también nos permite descubrir parte de la historia geológica de nuestro país mientras disfrutamos de unos maravillosos paisajes. Para ello, he seleccionado localizaciones muy evidentes, donde la Geología es la gran protagonista. Pero no ha sido el único criterio que he seguido a la hora de elegirlos. Si habéis visto la serie, seguro que os habéis percatado de que tengo cierta debilidad por el clan Targaryen, así que he ido a episodios clave en la historia de esta familia. Pero no voy a desvelar más spoilers.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Jugando a los tronos geológicos se ha escrito en Cuaderno de Cultura Científica.
Elizabeth Scott, entre la astronomía y la estadística
Scott nunca fue reacia a dedicar su tiempo y energía, ni a implicarse en una causa controvertida.
L. Billard y Marianne A. Ferber
Elizabeth Scott (1972). Fuente: Statistical Science.Elizabeth Scott nació el 23 de noviembre de 1917 en la base militar de Fort Sill, en Oklahoma, donde su padre prestaba servicio durante la Primera Guerra Mundial.
Cuando Elizabeth tenía cuatro años, su padre dejó su trabajo militar y la familia se mudó a Berkeley, en California, donde vivió el resto de su vida. Scott realizó su formación secundaria en Oakland, en una escuela que admitía a niñas y niños del entorno cercano a la localidad. Ella era la única alumna matriculada en los cursos avanzados de matemáticas; pronto destacó por sus capacidades en esta materia.
Los comienzos en astronomíaEn 1935 la Gran Depresión aún estaba muy presente en Estados Unidos. Como tantas otras familias, la de Elizabeth atravesaba serias dificultades económicas en el momento en el que ella se preparaba para ingresar en la universidad. La de Berkeley tenía unas tasas de matrícula bajas y estaba junto a su casa, así que Elizabeth se inscribió en el programa de astronomía de este centro de enseñanza superior. Y los estudios se convirtieron en su principal prioridad.
Durante su época de estudiante, Scott no tuvo profesoras. Aunque en contadas ocasiones, cuando los profesores titulares se ausentaban, alguna mujer los sustituía. En una de estas situaciones conoció a Pauline Sperry (1885-1967), una de las dos únicas profesoras del departamento de matemáticas. En cierta ocasión, junto a otras estudiantes, Sperry la invitó a comer en el Women’s Faculty Club. Preocupada por los problemas de las mujeres, Scott se convirtiría posteriormente en una componente activa de esta asociación.
En 1939, con solo 22 años, Scott publicó su primer artículo de investigación. Se centraba en el estudio de cometas. Publicó un total de doce trabajos sobre este tema (hasta 1946); la mayoría de ellos eran listas de elementos y tablas con las posiciones futuras de un determinado cometa a lo largo de un año. Scott escribió sobre diferentes temas astronómicos a lo largo de toda su carrera.
Se doctoró en 1949 con una tesis realizada bajo la supervisión del astrónomo Robert Julius Trumpler (1886-1956). La memoria constaba de dos partes: Contribution to the Problem of Selective Identifiability of Spectroscopic Binaries y Note on Consistent Estimates of the Linear Structural Relation Between Two Variables.
En aquella época las mujeres no podían utilizar los grandes telescopios, quedando relegadas a ejercer de ayudantes de algún astrónomo trabajando en algún observatorio. De hecho, algunas personas habían recomendado a Elizabeth no realizar una tesis doctoral; argumentaban que ese título la convertiría en una profesional excesivamente cualificada y eso le dificultaría su acceso a cualquier puesto en el campo de la astronomía.
La estadística y la investigación astronómicaComprobando las pocas oportunidades que se le presentaban en el campo de la astronomía, decidió centrase en sus estudios matemáticos. En 1951 fue nombrada profesora adjunta del Departamento de Matemáticas de Berkeley, donde trabajó durante el resto de su carrera.
En la época de su licenciatura, Scott había decidido renunciar a una ayudantía de astronomía para trabajar en un proyecto relacionado con la guerra liderado por el matemático y estadístico Jerzy Neyman (1894-1891). En ese momento quedó fascinada por la estadística y decidió combinar sus dos intereses científicos utilizando herramientas estadísticas para responder a preguntas astronómicas.
Su primer artículo uniendo ambas disciplinas fue Distribution of the longitude of periastron of spectroscopic binaries (1949) en el que examinaba la distribución de 78 sistemas binarios eclipsantes y 341 no eclipsantes teniendo en cuenta la excentricidad de la órbita y la longitud del periastro. Su análisis demostró que, para la mayoría de las estrellas binarias, la distribución no es uniforme. En particular mostraba que, con una probabilidad de error inferior a 0,02, cuando la excentricidad es superior a 0,12, la distribución de los valores del periastro en los sistemas estelares eclipsantes difiere de la de los no eclipsantes.
Elizabeth Scott con un grupo de jóvenes astrónomos (Universidad de Purdue, 1975). Fuente: Statistical Science.
Más adelante se implicó en un estudio iniciado por Charles Donald Shane (1895-1983). El astrónomo deseaba saber si la estadística podía explicar el fenómeno que él denominaba la naturaleza «grumosa» de la distribución de las galaxias. Scott publicó más de diez artículos sobre este tema, algunos en colaboración con Neyman y con Shane. En 1958, junto a Neyman, Scott publicó en el Journal of the Royal Statistical Society el artículo Statistical approach to the problems of cosmology, cuyo abstract comenzaba de este modo:
La hipótesis básica que sustenta las cosmologías deterministas actuales, a saber, el llamado principio cosmológico, sólo puede enunciarse con precisión en términos de conceptos probabilísticos. Por consiguiente, cabe esperar un progreso y una ganancia estética considerables si se abandona el determinismo y se sustituye por un tratamiento probabilístico directo de la cosmología.
La estadística aplicada a otros camposDurante las décadas de 1960 y 1970, Scott investigó sobre la modificación del clima, centrándose en experimentos para estimular la lluvia mediante la siembra de nubes. La mayor parte de su trabajo consistió en el análisis estadístico de los datos de estudios meteorológicos conocidos, como el experimento de Santa Bárbara (1957-1959), el experimento Grossversuch III (1957-1963, sobre supresión del granizo) o el experimento Whitetop (1960-1964). Scott elaboró más de veinte trabajos sobre la siembra de nubes, casi todos con Neyman y el grupo de Berkeley, concluyendo que este sistema podía provocar tanto grandes aumentos como grandes disminuciones de las precipitaciones en zonas a arbitrariamente extensas.
Scott participó también en el Committee on National Statistics del National Research Council. Entre otros, colaboró en un estudio sobre la relación entre el cáncer de piel y el aumento de la intensidad de la radiación ultravioleta. Los modelos estadísticos que elaboró se han utilizado durante años para evaluar las amenazas derivadas del agotamiento de la capa de ozono.
En 1970, Elizabeth Scott copresidió un subcomité del Senado de Berkeley que publicó un exhaustivo estudio sobre la situación de las mujeres en el mundo académico. Se examinaban los salarios, la contratación, la promoción, las oportunidades de investigación y los nombramientos en comités. Se documentaron considerables disparidades entre mujeres y hombres. Scott se centró de inmediato en buscar soluciones; sus resultados fueron utilizados por las universidades para realizar ajustes salariales y otras mejoras para sus trabajadoras.
El intenso y variado trabajo de Elizabeth Scott le valió un amplio reconocimiento a nivel internacional. Falleció repentinamente el 20 de diciembre de 1988.
Referencias
- L. Billard and Marianne A. Ferber, Elizabeth Scott : Scholar, Teacher, Administrator, Statistical Science 6 (2) (1991), 206-216
- Francesca Webb and Edmund Robertson, Elizabeth Scott, MacTutor History of Mathematics Archives, University of St Andrews
- Larry Riddle, Elizabeth Scott, Biographies of Women Mathematicians, Agnes Scott College
- David Blackwell, Elizabeth Colson, Susan Ervin-Tripp, Lucien Le Cam, Erich Lehmann, Laura Nader, Elizabeth Leonard Scott, Statistics: Berkeley, University of California, 1991
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Elizabeth Scott, entre la astronomía y la estadística se ha escrito en Cuaderno de Cultura Científica.
Un célebre algoritmo criptográfico se actualiza
Dos investigadores han mejorado una técnica bien conocida para la reducción de bases de retículos, abriendo nuevas vías para experimentos prácticos en criptografía y matemáticas.
Un artículo de Madison Goldberg. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Kristina Armitage / Quanta MagazineEn nuestras vidas cada vez más digitales la seguridad depende de la criptografía. Envía un mensaje privado o paga una factura en línea y dependerás de algoritmos diseñados para mantener tus datos secretos. Naturalmente, algunas personas quieren descubrir estos secretos, por lo que los investigadores trabajan para probar la robustez de estos sistemas y asegurarse de que no se desmoronen a manos de un atacante inteligente.
Una herramienta importante en este trabajo es el algoritmo LLL, que lleva el nombre de los investigadores que lo publicaron en 1982: Arjen Lenstra, Hendrik Lenstra Jr. y László Lovász. LLL, junto con sus numerosos descendientes, puede desbaratar ardides criptográficos en algunos casos; estudiar cómo se comportan ayuda a los investigadores a diseñar sistemas que sean menos vulnerables a los ataques. Y los talentos del algoritmo van más allá de la criptografía: también es una herramienta útil en campos matemáticos avanzados como la teoría de números computacional.
A lo largo de los años, los investigadores han perfeccionado variantes de LLL para hacer que el enfoque sea más práctico, pero sólo hasta cierto punto. Ahora, un par de criptógrafos han creado un nuevo algoritmo estilo LLL con un aumento significativo en la eficiencia. La nueva técnica, que ganó el premio al Mejor Artículo en la Conferencia Internacional de Criptología de 2023, amplía la gama de escenarios en los que informáticos y matemáticos pueden utilizar enfoques similares a LLL.
«Fue realmente emocionante», comenta Chris Peikert, criptógrafo de la Universidad de Michigan que no participó en el artículo. La herramienta ha sido objeto de estudio durante décadas, afirma. «Siempre es agradable cuando un objetivo en el que se ha trabajado durante tanto tiempo… demuestra que todavía hay sorpresas por encontrar».
Los algoritmos de tipo LLL operan en el mundo de los retículos: colecciones infinitas de puntos espaciados regularmente. Como una forma de visualizar esto, imagina que estás enbaldosando un suelo. Podrías cubrirlo con baldosas cuadradas y las esquinas de esas baldosas formarían un retículo. Alternativamente, puedes elegir una forma de baldosa diferente (por ejemplo, un paralelogramo alargargado) para crear un retículo diferente.
Un retículo se puede describir utilizando su «base». Esta es un conjunto de vectores (esencialmente, listas de números) que puedes combinar de diferentes maneras para obtener cada punto del retículo. Imaginemos un retículo con una base formada por dos vectores: [3, 2] y [1, 4]. El retículo es simplemente todos los puntos a los que puedes llegar sumando y restando copias de esos vectores.
Ese par de vectores no es la única base del retículo. Todo retículo con al menos dos dimensiones tiene infinitas bases posibles. Pero no todas las bases son iguales. Una base cuyos vectores son más cortos y más cercanos a ángulos rectos entre sí suele ser más fácil de trabajar y más útil para resolver algunos problemas computacionales, por lo que los investigadores llaman a esas bases «buenas». Un ejemplo de esto es el par de vectores azules en la siguiente figura. Las bases que consisten en vectores más largos y menos ortogonales, como los vectores rojos, pueden considerarse «malas».
Merrill Sherman / Quanta MagazineEste es un trabajo para LLL: dale (o a sus hermanos) una base de un retículo multidimensional y encontrará una mejor. Este proceso se conoce como reducción de base de retículos.
¿Qué tiene todo esto que ver con la criptografía? Resulta que la tarea de romper un sistema criptográfico puede, en algunos casos, reformularse como otro problema: encontrar un vector relativamente corto en un retículo. Y, a veces, ese vector se puede extraer de la base reducida generada por un algoritmo de estilo LLL. Esta estrategia ha ayudado a los investigadores a tumbar sistemas que, en apariencia, parecen tener poco que ver con los retículos.
En un sentido teórico, el algoritmo LLL original se ejecuta rápidamente: el tiempo que lleva la ejecución no escala exponencialmente con el tamaño de la entrada, es decir, la dimensión del retículo y el tamaño (en bits) de los números en los vectores de la base. Pero sí aumenta como función polinómica, y “si realmente quieres hacerlo, el tiempo polinómico no siempre es tan factible”, apunta Léo Ducas, criptógrafo del instituto nacional de investigación CWI de los Países Bajos.
En la práctica, esto significa que el algoritmo LLL original no puede manejar entradas demasiado grandes. “Los matemáticos y criptógrafos querían tener la capacidad de hacer más”, dice Keegan Ryan, estudiante de doctorado de la Universidad de California en San Diego. Los investigadores han trabajado para optimizar los algoritmos de estilo LLL para acomodar entradas más grandes, logrando a menudo un buen rendimiento. Aún así, algunas tareas han permanecido obstinadamente fuera de alcance.
El nuevo artículo, escrito por Ryan y su directora de tesis, Nadia Heninger, combina múltiples estrategias para mejorar la eficiencia de su algoritmo estilo LLL. Por un lado, la técnica utiliza una estructura recursiva que divide la tarea en partes más pequeñas. Por otro lado, el algoritmo gestiona cuidadosamente la precisión de los números involucrados, encontrando un equilibrio entre velocidad y un resultado correcto. El nuevo trabajo permite a los investigadores reducir las bases de retículos de miles de dimensiones.
Trabajos anteriores han seguido un enfoque similar: un artículo de 2021 también combina la recursividad y la gestión de la precisión para agilizar el trabajo con retículos grandes, pero funciona solo para tipos específicos de retículos, y no para todos las que son importantes en criptografía. El nuevo algoritmo se comporta bien en un rango mucho más amplio. «Estoy muy feliz de que alguien lo haya hecho», comenta Thomas Espitau, investigador en criptografía de la empresa PQShield y uno de los autores de la versión de 2021. El trabajo de su equipo ofreció una “prueba de concepto”, dice; el nuevo resultado muestra que «se puede realizar una reducción de retículo muy rápida de forma robusta».
La nueva técnica ya ha comenzado a resultar útil. Aurel Page, matemático del instituto nacional de investigación francés INRIA, ha dicho que él y su equipo han puesto en marcha una adaptación del algoritmo en algunas tareas computacionales de teoría de números.
Los algoritmos de estilo LLL también pueden desempeñar un papel en la investigación relacionada con sistemas de criptografía basados en retículos diseñados para permanecer seguros incluso en un futuro con potentes ordenadores cuánticos. No representan una amenaza para estos sistemas, ya que tumbarlos requiere encontrar vectores más cortos que los que estos algoritmos pueden lograr. Pero los mejores ataques que los investigadores conocen utilizan un algoritmo de estilo LLL como “elemento básico”, explica Wessel van Woerden, criptógrafo de la Universidad de Burdeos. En experimentos prácticos para estudiar estos ataques, ese elemento básico puede ralentizarlo todo. Con la nueva herramienta, los investigadores podrán ampliar la gama de experimentos que pueden ejecutar con los algoritmos de ataque, ofreciendo una imagen más clara de su rendimiento.
El artículo original, Celebrated Cryptography Algorithm Gets an Upgrade, se publicó el 14 de diciembre de 2023 en Quanta Magazine.
Traducido por César Tomé López
El artículo Un célebre algoritmo criptográfico se actualiza se ha escrito en Cuaderno de Cultura Científica.
La carrera de obstáculos para el diagnóstico de la endometriosis
La endometriosis es una dolencia crónica muy frecuente en las mujeres. Se estima que una de cada diez está afectada por ella, lo que supone un total de más de 2 millones de casos en España. En todo el mundo, se estiman alrededor de 190 millones de mujeres afectadas. No obstante, su causa es desconocida: ¿por qué el tejido endometrial, que normalmente recubre el interior de la superficie del útero, empieza a crecer en lugares tan extraños como la vejiga, el ovario o el recto? A día de hoy, la respuesta es todo un misterio y la limitada investigación científica que se ha realizado sobre esta dolencia no ayuda a resolverlo.
Fuente: Wikimedia Commons8 años para el diagnósticoA pesar de que la endometriosis es muy frecuente, se puede tardar más años en diagnosticar esta dolencia que una enfermedad rara. Tanto es así que las pacientes que sufren endometriosis tienen que esperar una media de 7- 8 años para la identificación de su enfermedad, según datos del Ministerio de Sanidad . Este gran retraso en el diagnóstico no es un fenómeno aislado en nuestro país, sino generalizado a lo largo del mundo.
La larga espera para recibir un diagnóstico implica consecuencias para las mujeres, que pueden sufrir incomprensión y estigmatización durante años por una afectación sin etiqueta médica. Durante todo ese tiempo, aquellas que no reciben tratamiento deben soportar diversos síntomas (especialmente dolor, fatiga y dificultades para conseguir un embarazo) que, en los casos más graves, pueden afectar de forma importante a su calidad de vida, al trabajo y a las relaciones sociales. Además, la enfermedad puede progresar a lo largo de dicho periodo. Las causas que están detrás de este retraso diagnóstico son múltiples y no se comprende bien en qué medida contribuyen a ello. Recientemente, científicos de la Universidad de Aston (Inglaterra) han publicado en la revista Obstetrics & Gynaecology los resultados de su investigación sobre cómo diferentes factores contribuyen en retrasar el diagnóstico de la endometriosis.
El estudio, que consiste en una revisión sistemática y un análisis cualitativo del asunto, examinó un total de 13 artículos científicos realizados en los últimos 20 años en países ricos (con asistencia sanitaria universal en su mayoría). Los factores que contribuyen al retraso del diagnóstico de la endometriosis se relacionan con las características del sistema sanitario y de la endometriosis, así como también por las influencias interpersonales y los rasgos individuales. Los autores clasificaron en 4 grupos las barreras que impiden un diagnóstico temprano de dicha dolencia:
- La dificultad para distinguir los síntomas patológicos de la menstruación normal y el uso de técnicas de autocuidado.
- El estigma de la menstruación y la normalización del dolor menstrual.
- Ciertas actitudes y falta de conocimiento de los profesionales sanitarios, retraso en la derivación a los especialistas y explicaciones deficientes sobre el uso de las pastillas anticonceptivas orales en el proceso diagnóstico.
- Variabilidad en la presentación de los síntomas, que se solapan con otras dolencias, la ausencia de un método no invasivo de diagnóstico de la endometriosis y preocupaciones sobre la importancia del diagnóstico.
Un hallazgo llamativo fue que muchos médicos de familia, en varios de los estudios analizados, reconocían saber poco sobre la endometriosis. Esto, unido a los síntomas variables, poco específicos, que pueden aparecer por esta dolencia (diarrea, estreñimiento, reglas intensas, fatiga crónica, dolor durante el sexo, urgencia para orinar…) complica su diagnóstico. Por otro lado, muchas mujeres que padecían endometriosis y un porcentaje importante de los médicos de familia normalizaban el dolor por esta enfermedad, achacándolo a la regla y no a un problema de salud, lo que impedía investigar en profundidad el origen de este. En su lugar, las mujeres recurrían a medidas de autocuidado para aliviar el dolor, asumiendo que este sufrimiento era inherente a la regla y algo que debían soportar.
Identificar los diferentes factores que contribuyen al retraso diagnóstico de la endometriosis es un primer paso para tomar medidas al respecto. Además, difundir información sobre la endometriosis, derribando sus mitos, al público general puede contribuir a minimizar dicho retraso por una mejor comprensión del problema. En ese sentido, Sophie Davenport, responsable principal del estudio, explica que «la sociedad ha normalizado tradicionalmente el dolor menstrual, así que tenemos que repensar qué significan menstruaciones anormales. Si los síntomas afectan a la vida diaria, y la mujer no acude al trabajo o a la escuela, o es incapaz de continuar con su vida social, eso es un claro signo de que se necesita intervención médica». La experta espera que el artículo científico «anime a las pacientes a buscar ayuda si sienten que sus reglas son anormales o que les provocan un dolor o un sufrimiento importante, y que anime a los clínicos a tomar en serio sus preocupaciones y a derivar al especialista de forma temprana».
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo La carrera de obstáculos para el diagnóstico de la endometriosis se ha escrito en Cuaderno de Cultura Científica.
Salud Global
Las enfermedades tienen su ecología. El de la borreliosis de Lyme es un ejemplo magnífico. El aumento de la temperatura hace las delicias de las garrapatas, ya que su supervivencia y velocidad de desarrollo son más altas a temperaturas elevadas. A estos ácaros hematófagos se les da bien parasitar ratones de campo; al alimentarse de su sangre les inoculan bacterias del género Borrelia. Además, las bellotas también abundan más en años de inviernos suaves y primaveras benignas, de manera que las poblaciones de roedores también progresan; ambos fenómenos –crecimiento rápido de garrapatas y mayor abundancia de bellotas– facilitan que las garrapatas se multipliquen y expandan. Y, con ellas, las bacterias.
De esa forma, los años de bonanza para los ratones, también lo son para las garrapatas y para las bacterias. Pero son años malos para las personas que frecuentan los bosques y campos de las zonas templadas. A las garrapatas no solo les gusta la sangre de los ratones, también les gusta la sangre de otros mamíferos, incluida la humana, por lo que en los años de invierno suave y primavera benigna, al haber más ratones (porque han comido más bellotas) y más garrapatas (porque han sobrevivido al invierno en mayor número), es más probable que les pique uno de esos detestables ácaros y les transmita la bacteria que provoca una enfermedad –borreliosis de Lyme– que puede revestir cierta gravedad.
Otro magnífico ejemplo de ecología de una enfermedad es el de la cadena que forman cinco especies pertenecientes a taxones de lo más diversos. El hongo Batrachochytrium dendrobatidis provoca a los anfibios una quitridiomicosis que diezma sus poblaciones. Como consecuencia de la menor abundancia de anfibios, disminuye la presión sobre los mosquitos del género Anopheles. Estos son el vector que transmite el protozoo del género Plasmodium a los seres humanos y les provocan la malaria. Por tanto, cualquier factor que favorezca la expansión del hongo en una zona donde la malaria sea endémica, provocará, automáticamente, una aumento de la prevalencia de esta enfermedad. Hay condiciones ambientales sobre las que no se puede actuar, pero sobre otras si es posible. Por ejemplo, cualquier medida que se revele eficaz para dificultar la expansión del hongo, redundará en una menor incidencia de la malaria.
Estos no son más que dos casos que ejemplifican la forma en que interactúan diferentes organismos de manera que dan lugar a que exista una relación íntima entre la salud de los ecosistemas, la de los seres vivos que los pueblan y la de los seres humanos. Y es por esa imbricación por lo que durante los últimos años ha venido ganando peso la noción “Salud Global” (“One Health”).
Salud GlobalMediante la expresión “One Health” se quiere expresar, precisamente, que no es posible tratar de resolver de manera duradera algunos de los más importantes problemas de salud cuya resolución afronta la humanidad sin tener en cuenta la intrincada red de relaciones que hay entre los seres vivos y el modo en que la salud humana depende de la de aquellos y de un normal y saludable funcionamiento de los ecosistemas.
Y ese es, precisamente el tema que han decidido desarrollar el microbiólogo Ignacio López-Goñi, la viróloga veterinaria Elisa Pérez-Ramírez y el farmacólogo Gorka Orive en su libro “Salud Global”.
Tras presentar el tema en su primer capítulo, los autores abordan, en el segundo, la relación entre el clima y la salud humana a través, principalmente, de los efectos de aquel sobre las posibilidades de expansión de las enfermedades infecciosas. Al fin y al cabo, la humedad y la temperatura tienen claros efectos sobre los seres vivos, por lo que el clima, a través de esas dos variables, ejerce una influencia intensa sobre la biología de las especies y las relaciones entre ellas.
Por otro lado, es muy significativo –y de importancia crucial– que un 60% de las enfermedades infecciosas humanas que se conocen tengan origen animal; y ese porcentaje se eleva a un 75% en el caso de las enfermedades emergentes. Por esa razón es importante no perder de vista que las actuaciones humanas que modifican el patrón de comportamiento de otras especies –cambios en las rutas migratorias de aves, alteraciones en la densidad de poblaciones de roedores, reducción de la distancia de los seres humanos a otros animales, salvajes o domésticos, y otras– también cambian las condiciones para que se produzca la transmisión de patógenos entre ellas.
Amenaza para la salud humanaEn los capítulos que siguen, los autores repasan la situación de las enfermedades infecciosas y los patógenos que las provocan que suponen una mayor amenaza para la salud humana: el VIH, la malaria, la viruela del mono, las que se transmiten a través del agua o el aire, la gripe aviar y las que provocan los coronavirus. De cada una de ellas se ofrece información muy actual acerca de su extensión de su forma de transmisión, de su prevención y de su tratamiento.
También se analiza el papel de los vectores que transmiten y propagan enfermedades; el papel de otras especies animales como fuente de los patógenos que amenazan nuestra salud (roedores, insectos y otros), así como la forma en que nosotros mismos –los seres humanos– podemos transmitir patógenos a otras especies. Finalmente, se aborda la espinosa cuestión de la resistencia a los antibióticos, así como el papel de las vacunas –cuando se dispone de ellas– como mecanismo efectivo para prevenir las enfermedades infecciosas.
En resumen, el lector o lectora de este libro se encontrará con un repaso muy completo de la compleja relación entre el medio ambiente, los microorganismos patógenos y la salud humana. El libro expone con claridad y profusión de datos la gran importancia de abordar estas relaciones de forma holística, porque no es realista pensar que la solución a los grandes retos de salud que se nos presentan pueden ser abordados fuera de su contexto ambiental global.
Nota final: Si tiene usted interés en información adicional, la puede encontrar en este artículo firmado por los tres coautores del libro.
Título: Salud Global. La nueva estrategia frente a la amenaza medioambiental.
Autores: Ignacio López-Goñi, Elisa Pérez-Ramírez y Gorka Orive
Ed. B, Penguin Random House, 2023.
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
Una versión de este texto de Juan Ignacio Pérez Iglesias apareció anteriormente en Lecturas y Conjeturas (Substack).
El artículo Salud Global se ha escrito en Cuaderno de Cultura Científica.
La evaluación de competencias en el marco de la LOMLOE
La jornada Las Pruebas de la Educación tuvo lugar con el objetivo de analizar la validez de las estrategias educativas puestas en marcha durante los últimos años. El enfoque STEAM o las clases virtuales fueron analizados desde la evidencia científica por un grupo de expertos y expertas que se reunió en la Facultad de Educación de Bilbao de la Universidad del País Vasco. La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la facultad de Educación de Bilbao, tuvo lugar el 27 de octubre pasado.
Esta sexta edición volvió a estar dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. Su objetivo ha sido reflexionar, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día. El seminario ha contado, una vez más, con la dirección académica de la vicedecana de Investigación y Transferencia de la Universidad Autónoma de Madrid, Marta Ferrero González.
Javier Cortés de las Heras, doctor en Educación y profesor asociado de la Universidad de Valencia, explica en esta charla cómo se supone que han de evaluarse las competencias según la Ley Orgánica por la que se modifica la LOE de 2006 (LOMLOE).
Edición realizada por César Tomé López
El artículo La evaluación de competencias en el marco de la LOMLOE se ha escrito en Cuaderno de Cultura Científica.
La historia genómica del primer milenio de la península balcánica
Los Balcanes fueron una región fronteriza de la antigua Roma tan cosmopolita como el centro imperial; la migración eslava que llegó a los Balcanes a partir del siglo VI representa entre el 30 % y el 60 % de la ascendencia de los pueblos balcánicos en la actualidad. Estas son dos de las conclusiones de la primera reconstrucción de la historia genómica del primer milenio de la península balcánica.
Cráneo de un individuo de origen subsahariano encontrado en Viminacium. La lámpara legionaria fue encontrada en su tumba. Foto: Miodrag GrbicIñigo Olalde, investigador Ikerbasque y Ramón y Cajal de la Universidad del País Vasco, ha liderado junto con el Instituto de Biología Evolutiva (IBE: CSIC-UPF) y la Universidad de Harvard, un estudio en el que han reconstruido por primera vez la historia genómica del primer milenio de la península balcánica. Para ello, el equipo ha recuperado y analizado el genoma antiguo de 146 personas que habitaron las actuales Croacia y Serbia durante ese período. El trabajo, publicado en la prestigiosa revista Cell, desvela los Balcanes como una frontera global y cosmopolita del Imperio Romano y reconstruye la llegada de los pueblos eslavos a esta región.
Por primera vez, el equipo ha identificado tres individuos de origen africano que vivieron en los Balcanes bajo el dominio imperial de Roma. Por otro lado, la investigación corrobora que la migración de los pueblos eslavos a partir del siglo VI representó uno de los mayores cambios demográficos permanentes en toda Europa, cuya influencia cultural perdura hasta nuestros días.
El Imperio Romano transformó los Balcanes en una región globalLa República Romana primero y el Imperio Romano después incorporaron los Balcanes y convirtieron esta región fronteriza en una encrucijada de comunicaciones y un crisol de culturas. Así lo confirma el estudio, que desvela que la vitalidad económica del imperio atrajo a inmigrantes de lugares lejanos hasta esta región.
Grupos genéticos de la península balcánica durante el primer milenio de la era común. Imagen: Pablo Carrión e Íñigo OlaldeA través del análisis de ADN antiguo, el equipo ha podido identificar que, durante el dominio romano de la región, hubo un gran aporte demográfico proveniente de la península anatólica (localizada en la actual Turquía) que dejó huella genética en las poblaciones balcánicas. Sin embargo, no se observa rastro de ascendencia itálica en los genomas analizados. “Estas poblaciones venidas del este se integraron totalmente en la sociedad local de los Balcanes. En Viminacium, por ejemplo (una de las principales ciudades de los romanos, localizada en la actual Serbia), encontramos un sarcófago excepcionalmente rico en el que fueron enterrados un hombre de ascendencia local y una mujer de ascendencia anatólica”, comenta Olalde.
Sarcófago de Viminacium. Foto: Ilija MikićEl equipo también ha revelado la movilidad esporádica de larga distancia de tres individuos de ascendencia africana a la península balcánica durante su dominio imperial. Uno de ellos era un adolescente cuyo origen genético radica en la región del actual Sudán, fuera de los límites del antiguo Imperio. “De acuerdo con el análisis isotópico de las raíces de sus dientes, en su niñez tuvo una dieta marina muy distinta a la del resto de individuos analizados”, comenta Carles Lalueza-Fox, investigador principal del Instituto de Biología Evolutiva (IBE) y director del Museo de Ciencias Naturales de Barcelona (MCNB).
Además, fue enterrado con una lámpara de aceite que representa una iconografía del águila relacionada con Júpiter, uno de los dioses más importantes para los romanos. “El análisis arqueológico de su entierro revela que pudo formar parte de las fuerzas militares romanas, por lo que estaríamos hablando de un inmigrante que viajó desde muy lejos a los Balcanes del siglo II d.C.”, apunta Lalueza-Fox. “Esto nos muestra un Imperio Romano diverso y cosmopolita, que acogía poblaciones mucho más allá del continente europeo”.
El Imperio Romano acogió a poblaciones bárbaras mucho antes de su caídaEl estudio ha identificado algunos individuos de ascendencia del Norte de Europa y de las estepas que habitaron la península balcánica durante el siglo III, en plena ocupación romana. El análisis antropológico de sus cráneos revela que algunos de ellos fueron artificialmente deformados, una costumbre propia de algunas poblaciones de las estepas y de los hunos, a menudo denominados como “bárbaros”.
Cráneo deformado del siglo IV de la era común, atribuido a un individuo de las estepas. Posible gépido o godo, si bien los hunos también practicaban la deformación craneal. Foto: Carles Lalueza-FoxEstos resultados apoyan las investigaciones históricas y arqueológicas y muestran la presencia de individuos provenientes de fuera de las fronteras del Imperio, más allá del Danubio, mucho tiempo antes de la caída del Imperio occidental. “Las fronteras del Imperio eran mucho más difusas que las fronteras de los estados nación actuales. El Danubio servía como límite geográfico del Imperio, pero actuaba como vía de comunicación y era muy permeable al movimiento de personas”, comenta Pablo Carrión, investigador del IBE y co-primer autor del estudio.
Las poblaciones eslavas cambiaron la demografía de la península balcánicaTras la caída del Imperio Romano de Occidente, y especialmente a partir del siglo VI, el estudio revela la llegada a gran escala a los Balcanes de individuos genéticamente similares a las poblaciones modernas de habla eslava de Europa del Este. Su huella genética representa entre el 30 y el 60 % de la ascendencia de los pueblos balcánicos actuales, lo que supone uno de los mayores cambios demográficos permanentes en cualquier lugar de Europa durante el período de las Grandes Migraciones.
Aunque el estudio detecta la llegada esporádica de individuos procedentes del Este de Europa en periodos anteriores, es a partir del siglo VI cuando se observa una fuerte oleada migratoria. “Según nuestros análisis de ADN antiguo, esta llegada de poblaciones de habla eslava a los Balcanes tuvo lugar a lo largo de varias generaciones e involucró a grupos familiares completos que incluían hombres y mujeres”, explica Carrión.
Proporciones de poblaciones de ascendencia eslava, en negro, en los países actuales de la península balcánica y el Egeo. Imagen: Íñigo Olalde y Pablo CarriónEl estudio también identifica que el establecimiento de las poblaciones eslavas en los Balcanes fue mayor en el norte, con una contribución genética de entre el 50 % y el 60 % en la actual Serbia, y gradualmente menor hacia el sur, con entre un 30 y un 40 % de representación genética en la Grecia continental y hasta un 20 % en las islas del Egeo. “Su legado genético es visible no solo en poblaciones balcánicas actuales de habla eslava, sino también en otros grupos que incluyen regiones donde actualmente no se habla lenguas eslavas, como Rumanía y Grecia», puntualiza David Reich, investigador de la Universidad de Harvard en cuyo laboratorio se llevó a cabo la recuperación y secuenciación del ADN antiguo.
Coordinación y cooperación para reescribir la historia de los BalcanesLa guerra de Yugoslavia en 1991 provocó la separación de los pueblos balcánicos en los distintos países que conforman la región hoy en día y sus consecuencias perduran en la actualidad. Sin embargo, investigadores de toda la región han colaborado en el estudio. «En el estudio han estado colaborando investigadores croatas y serbios. Se trata de un gran ejemplo de cooperación, teniendo en cuenta la historia reciente de la península balcánica. Al mismo tiempo, este tipo de trabajos son un ejemplo de cómo datos genómicos objetivos pueden contribuir a dejar atrás problemas sociales y políticos ligados a identidades colectivas que han estado basadas en narraciones épicas del pasado», comenta Lalueza-Fox.
El equipo elaboró una base de datos genética de la población Serbia de novo, con el fin de poder reconstruir la historia de los Balcanes. «Nos encontramos con la situación de que no existía una base de datos genómica de la población serbia actual. Para construirla y utilizarla como referencia comparativa en este estudio, tuvimos que buscar a personas que se autodenominaban como serbias en base a determinados rasgos culturales compartidos, aunque vivieran en otros países como Montenegro o Macedonia del Norte”, comenta Miodrag Grbic, profesor de la Universidad de Western Ontario y profesor visitante en la Universidad de La Rioja.
Pese a la cuestión identitaria, marcada por la historia más reciente de los Balcanes, los genomas de los croatas y serbios analizados hablan de una herencia compartida en igual medida entre las poblaciones eslavas y las poblaciones del mediterráneo.
“Creemos que el análisis del ADN antiguo puede contribuir, junto con los datos arqueológicos y los registros históricos, a la reconstrucción de la historia de los pueblos balcánicos y la formación de los denominados pueblos eslavos del sur de Europa”, apunta Lalueza-Fox.
«La imagen que surge no es de división, sino de historia compartida. Las personas que en la Edad del Hierro habitaban la región de los Balcanes se vieron afectadas de manera similar por las migraciones durante la época del Imperio Romano y por las migraciones eslavas más tarde. Juntas, estas influencias dieron como resultado el perfil genético de los Balcanes modernos, independientemente de las fronteras nacionales», concluye Grbic.
Referencia:
Olalde, I., Carrión, P., Mikić. I. et al. (2023) A genetic history of the Balkans from Roman frontier to Slavic migrations Cell doi: 10.1016/j.cell.2023.10.018
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La historia genómica del primer milenio de la península balcánica se ha escrito en Cuaderno de Cultura Científica.
Estrellas de mar: de no tener cabeza a tener solo cabeza
Las estrellas y los erizos de mar forman parte de uno de los grupos más enigmáticos de seres vivos: los equinodermos. Un estudio publicado recientemente los convierte en criaturas todavía más enigmáticas. Al menos, si las contemplamos con nuestros ojos humanos.
Foto: Adrian Pingstone / Wikimedia CommonsLa inmensa mayoría de los animales, nosotros incluidos, somos bilaterales: nuestra simetría divide el cuerpo en dos mitades casi idénticas. En otras palabras, estamos organizados sobre la base de un eje anteroposterior y otro dorsoventral. Hacia finales del siglo pasado se descubrió que los genes que controlan la formación de estos ejes durante el desarrollo son los mismos en todos los animales bilaterales. Es decir, el mecanismo que determina qué región va a ser anterior, media o posterior es el mismo en una mosca y en un ser humano.
Una organización bilateral parece la más lógica en animales que tienen un tubo digestivo y se desplazan en una dirección determinada. Lo razonable es que alrededor del extremo anterior, donde está la boca, se concentren los órganos de los sentidos y los centros nerviosos. En pocas palabras, que se desarrolle una cabeza.
Esta es la razón por la que nos resultan fascinantes los equinodermos. Sus ancestros eran bilaterales con todas sus ventajas, cabeza incluida. Sin embargo, en algún momento de su evolución perdieron esta característica y desarrollaron una organización pentámera. Dejaron de tener un único plano de simetría para contar con nada menos que cinco, dispuestos alrededor de un eje oral-aboral, el eje que pasa por la boca y por el lado opuesto del cuerpo.
Esta innovación evolutiva se refleja en el desarrollo de los equinodermos: su larva es bilateral, pero tras una metamorfosis compleja adquiere la simetría pentámera.
La organización pentámera, sin eje anteroposterior ni centros nerviosos, implica la ausencia de una cabeza. O, al menos, esto se creía hasta ahora. Un artículo recientemente publicado en la revista Nature sugiere lo contrario de lo que se pensaba. Los equinodermos no solo tienen cabeza, sino que no tienen nada más. Son cabezas sin cuerpo.
Cuatro hipótesis, todas inválidasHasta ahora se habían formulado cuatro hipótesis para explicar cómo el eje presente en todos los animales bilaterales pudo transformarse en los cinco planos de simetría de los equinodermos. Estos modelos eran la bifurcación, circularización, duplicación y el apilamiento.
Las cuatro hipótesis formuladas sobre la transición de un eje anteroposterior (A-P) a una simetría pentámera en los Equinodermos.Un equipo de biólogos de la Universidad de Stanford (EE UU) propone en su artículo un modelo nuevo y diferente, que supone una nueva concepción de cómo evolucionaron los equinodermos.
Su estrategia consistió en seleccionar una serie de marcadores genéticos típicos del eje anteroposterior de los bilaterales. Estos han sido conservados a lo largo de la evolución, por lo que es interesante saber dónde se expresan en un animal pentámero. Entre los 36 marcadores seleccionados los había de la región más anterior del cuerpo, de la media y de la posterior. También se incluyeron los genes del complejo Hox, que son fundamentales en la organización del eje de todos los animales bilaterales.
La técnica utilizada fue la tomografía de ARN aplicada a los pequeños estados juveniles de una estrella de mar abundante en la costa de California, Patiria miniata. Esta avanzada técnica molecular consiste en seccionar brazos de la estrella en tres planos diferentes: a lo largo del eje del brazo, en un plano horizontal y de forma transversal. En las distintas secciones fue detectada la expresión de los diferentes marcadores.
El sorprendente resultado obtenido fue que los genes más anteriores se expresaban en la línea media de los brazos, y los más posteriores en sus márgenes laterales. Como la línea media de los brazos está ocupada por los surcos ambulacrales, en los que se localizan los pequeños pies con los que las estrellas de mar se desplazan, este nuevo modelo de organización se ha denominado ambulacral-anterior.
La estrategia consistió en seccionar los brazos de la estrella en tres planos y comprobar la expresión de genes anteriores, medios y posteriores en animales bilaterales. Los más anteriores se expresaban en la línea media de los brazos y los posteriores en sus márgenes.Un resultado inesperadoQue el centro de los brazos corresponda a la parte anterior de los demás animales y los márgenes a la posterior, no era un resultado esperado. Pero menos todavía lo fue la ausencia de marcadores típicos del tronco de los animales bilaterales.
En el ectodermo de la estrella de mar solo se expresa uno de los trece genes del complejo Hox, Hox1, y lo hace en el margen de los brazos, lo que corresponde a la zona posterior de su cuerpo. Dicho de otra forma, lo más posterior que encontramos en el cuerpo de la estrella corresponde al límite posterior de la cabeza de los vertebrados. El cuerpo de la estrella de mar se corresponde con nuestra cabeza, pero no hay evidencia molecular de que haya nada semejante a un tronco.
Los genes Hox se expresan ordenadamente a lo largo del cuerpo de los animales bilaterales. En el ectodermo de la estrella de mar sólo se expresa el más anterior, Hox1, y lo hace en el margen de los brazos. Vertebrados y hemicordados sirven como comparación.Queda por comprobar si estos resultados son exclusivos de las estrellas de mar o, como parece muy probable, son aplicables a todos los equinodermos. Si se confirma esto, se trataría de una concepción completamente novedosa de la forma en que los equinodermos reorganizaron su eje bilateral y construyeron su cuerpo. Una constatación final que nos confirma este estudio: la biología, y en particular la evolución, mantiene intacta su capacidad de asombrarnos.
Sobre el autor: Ramón Muñoz-Chápuli Oriol, Catedrático de Biología Animal (jubilado), Universidad de Málaga
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Estrellas de mar: de no tener cabeza a tener solo cabeza se ha escrito en Cuaderno de Cultura Científica.
El cuento de la ruleta rusa
Cuando presento alguno de mis libros en una librería, aunque la verdad es que esto no ocurre tantas veces como uno desearía, me gusta pedir a las personas que trabajan en la misma que me recomienden algunos libros, principalmente, novelas. En octubre (de 2023) presenté mi último libro “Las matemáticas como herramienta de creación artística” (Catarata / FESPM, 2023) en la librería Zubieta-TROA, de Donostia/San Sebastián. El responsable de esta librería, Adolfo López Chocarro, me recomendó varios libros, entre los cuales estaba el cuento El Ruletista (Impedimenta), del escritor rumano Mircea Cartarescu (Bucarest, 1956), en el cual se menciona, de pasada, la probabilidad de morir jugando a la ruleta rusa, en su versión en solitario. Y es de esto precisamente de lo que vamos a hablar en esta entrada del Cuaderno de Cultura Científica.
Portada del cuento El Ruletista (Impedimenta, 2010), del escritor rumano Mircea CartarescuMircea CartarescuEl escritor y crítico literario Mircea Cartarescu está considerado el mejor escritor rumano de la actualidad y uno de los grandes escritores de la literatura europea contemporánea. La editorial Impedimenta ha traducido al español y publicado muchos de sus libros, como El Levante (Impedimenta, 2015), una epopeya heroico-cómica, que es también una aventura a través de la historia de la literatura rumana; el libro de relatos Nostalgia (Impedimenta, 2012), que se habría precisamente con el cuento El ruletista, y que consagró a Cartarescu como uno de los grandes escritores actuales de Rumanía; la novela Solenoide (Impedimenta, 2017), incluida en el listado de los mejores libros de ese año por la prensa cultural española e iberoamericana (que es parte de mi “tsundoku”, es decir, descansa en mi mesilla a la espera de ser leída); o Poesía esencial (Impedimental 2021), una recopilación de poemas escritos durante sus primeros años creativos. Para describir su filosofía como escritor, podemos acudir a una de sus citas, “Escribo porque quiero entender mi situación en el mundo”.
Fotografía del escritor rumano Mircea Cartarescu, en la editorial ImpedimentaEl Ruletista, un cuento de CartarescuAprovechemos la contraportada de la publicación en español, por parte de la editorial Impedimenta, para introducir brevemente el cuento del que vamos a escribir en esta entrada del Cuaderno de Cultura Científica.
Prohibido durante años en Rumanía por lo explícito de su argumento, El Ruletista constituye uno de los más brillantes hitos narrativos de la reciente literatura europea. Esta pieza, tan breve como intensa, narra la improbable historia de un hombre al que nunca le ha sonreído la suerte, un desarraigado que sorprendentemente hace fortuna participando en letales sesiones de ruleta rusa. Multitudes enfervorecidas, presas del morbo, guardan cola para participar en las ceremonias de muerte y redención en que se convierten sus apariciones, y que dan paso a la histeria colectiva. Un escritor moribundo que conoció al Ruletista en su juventud intenta explicar cómo ese hombre insulso termina convirtiéndose en alguien inmortal y aparentemente inexpugnable, cuando en realidad en él solo anida el más desesperado espíritu de la autodestrucción.
Expliquemos en primer lugar en qué consiste el macabro juego de la ruleta rusa que es un elemento principal de este cuento. Mientras que en la ruleta rusa que hemos visto en duras películas como El cazador (1978), dirigida por Michael Cimino e interpretada por Robert de Niro, Christopher Walken, Meryl Streep, John Savage y John Cazale, se juega entre dos, o más jugadores, en el cuento El ruletista es una ruleta rusa solitaria, de un solo jugador.
Cartel de la película El cazador (1978), dirigida por el director estadounidense Michael CiminoLos principales protagonistas de la ruleta rusa de este relato son los siguientes. Por un lado, la persona que se juega la vida en la ruleta rusa, el ruletista, que en el cuento se explica que suele ser alguna persona que por diferentes circunstancias vitales no le importa jugarse la vida a cambio de dinero, normalmente, algún borracho, vagabundo o expresidiario, como se menciona más arriba “un desarraigado”. Luego está el patrón, que es quien contrata, o convence, al ruletista y que va a apostar a su favor, es decir, va a apostar a que esa persona que se juega la vida a la ruleta rusa va a sobrevivir a la misma. Y finalmente están los accionistas que son quienes apuestan en contra del patrón, esto es, ganan si muere el ruletista.
El juego consiste en lo siguiente. Primero se introduce una bala en el tambor de un revólver, que tiene capacidad para alojar seis balas (aunque hay revólveres que admiten otra cantidad de balas, cinco, seis, siete, ocho o diez balas), luego se gira el tambor y se cierra rápidamente para que la bala quede colocada en una posición al azar, entonces el ruletista coge el revólver, se apunta a la sien y dispara. Si tiene la suerte de que no salga la bala (lo cual ocurre en 5 de las 6 posiciones posibles del tambor, es decir, la probabilidad de que sea un disparo fallido es de 5 de cada 6 veces, el 83,33 %) el patrón gana, se queda con el dinero de los accionistas y le da al ruletista un diez por ciento de las ganancias. Por otra parte, si se dispara la bala (lo cual ocurre 1 de cada 6 veces, esto es, una probabilidad del 16,66 %), el ruletista muere y el patrón debe pagar a los accionistas entre diez y veinte veces la cantidad apostada por ellos, según hayan acordado. Es cierto, que el peso de la bala modifica algo estas probabilidades, pero no vamos a tenerlo en cuenta en esta entrada.
En el cuento hay dos protagonistas, el viejo escritor que escribe la historia del Ruletista y este, que se ha ganado el derecho a ser nombrado con la inicial mayúscula, ya que, como escribe el viejo escritor, “ha sido el único hombre al que fue concedido vislumbrar al infinito Dios matemático y luchar cuerpo a cuerpo con él”, refiriéndose a que este hombre ha jugado muchísimas veces a la ruleta rusa solitaria y siempre ha salido indemne, saltándose la “alta” probabilidad de morir. Como escribe el viejo escritor, referente a esto último:
“… el ruletista solo tenía cinco posibilidades entre seis de salvarse en la primera partida. Según el cálculo de probabilidades, si volvía a llevarse la pistola a la sien, sus posibilidades disminuían. En el sexto intento, esas posibilidades se reducían a cero. De hecho, hasta que mi amigo entró en el mundo de la ruleta, en el que llegaría a convertirse en el Ruletista con mayúscula, no se conocían casos de supervivencia ni siquiera tras cuatro intentos. La mayoría de los ruletistas lo eran, por supuesto, de forma ocasional, y no volverían a repetir esa terrible experiencia por nada del mundo…”
Y continuaba:
“… supongo que los accionistas apenas se fijaron en él cuando escapó con vida la primera o la segunda vez, puede que incluso la tercera. Fue considerado, como mucho, un ruletista afortunado. Pero después de la cuarta y de la quinta, se convirtió en la figura central del juego, un verdadero mito llamado a alcanzar proporciones gigantescas en los años posteriores. Durante dos años, hasta nuestro reencuentro en el restaurante, el Ruletista se había llevado el revólver a la sien en ocho ocasiones…”
Antes de entrar en el tema de las probabilidades, al que dedicaremos la siguiente sección de esta entrada, presentemos brevemente al Ruletista, a quien el viejo escritor conocía desde que eran niños. Desde siempre este perdía a todos los juegos, de pequeño a las canicas o el lanzamiento de herradura, cuando estuvo en la cárcel siempre perdía al póquer y cuando al salir de la misma se dedicó a la bebida e iba mendigando un trago de cerveza de mesa en mesa por las tabernas, los parroquianos de las mismas se lo jugaban con él al palillo más largo y, de nuevo, siempre perdía. El Ruletista era un candidato ideal para ser jugador de la ruleta rusa, pero, además, su malísima suerte en todo tipo de juegos hacía que en el caso de la ruleta rusa jugase a su favor, ya que podríamos decir que nunca “acertaba” con la bala en la posición de disparo y salía ileso del juego.
Un poco de probabilidadRealmente hay diferentes cuestiones de probabilidad que se pueden analizar relacionadas con la ruleta rusa, pero vayamos exactamente a la situación descrita en este cuento. Empecemos por lo que ya sabemos y es evidente. Si un ruletista solo juega una vez a la ruleta rusa de un solo jugador, la probabilidad de sobrevivir es del 83,33 %, esto es, 5 de cada 6, mientras que la probabilidad de morir durante el juego es, la complementaria de la anterior, es decir, el 16,67 %, solo 1 de cada 6.
La probabilidad de que el ruletista viva o muera si juega solo una vez a la ruleta rusa
La siguiente cuestión que nos planteamos, siguiendo lo escrito en este pequeño relato, en extensión, no en calidad literaria, es la siguiente. Si el ruletista juega dos veces a la ruleta rusa, ¿cuál será la probabilidad de que muera o viva?
Pero cuidado, cada vez que se juega a la ruleta rusa la probabilidad es la misma que hemos comentado arriba, no cambia, ya que el juego, o el revólver, no tiene memoria. Lo que queremos conocer es la probabilidad de salir indemne, o respectivamente, morir, si se arriesga a jugar dos veces. Aunque no es necesario, podéis pensar en que ha decidido previamente jugarse la vida a la ruleta rusa solitaria en dos ocasiones. Calculemos esta probabilidad.
Recordemos brevemente, aunque realmente ya lo hemos utilizado, que la probabilidad de un evento es igual al número de casos favorables (del evento) dividido el número de casos posibles (del evento). Por ejemplo, si queremos conocer cual es la probabilidad de que salga un múltiplo de 3 si tiramos un dado, el número de casos favorables sería dos -que salga 3 o 6-, mientras que hay seis casos posibles -los seis valores del dado 1, 2, 3, 4, 5, 6-. Por lo tanto, la probabilidad de que salga un múltiplo de tres (3 o 6) al tirar el dado es 2 / 6 = 0,3333…, esto es, una probabilidad del 33,33 %.
Volvamos a la probabilidad de que el ruletista viva o muera si juega dos veces a la ruleta rusa. Primero veamos los casos posibles. Como en el primer disparo tenemos seis posibles posiciones del tambor del revólver o, dicho de otra forma, seis agujeros para disparar (que en la siguiente imagen hemos numerado como 1, 2, 3, 4, 5, 6) y en el segundo disparo tenemos otros seis posibles agujeros (de nuevo del 1 al 6 en la imagen), entonces el número de posiciones posibles de los tambores en los dos disparos o, mejor dicho, parejas de agujeros sobre los que disparamos son 6 x 6 = 36 (que podemos pensarlos como parejas de números, desde el (1, 1), (1, 2), (1, 3), hasta el (6,6)).
Ahora contemos cuántas parejas de agujeros serían favorables, si queremos calcular la probabilidad de que el ruletista salga indemne de las dos sesiones de la ruleta rusa. Como en el primer revolver hay 5 agujeros para los que el jugador vive, serán estos los que hay que tener en cuenta en la primera posición de la pareja de agujeros (en el ejemplo de la anterior imagen son los agujeros 1, 2, 3, 4, 5) y para cada uno de esos 5 agujeros, tenemos otros 5 agujeros en la segunda pistola que no contienen la bala de la muerte. Por lo tanto, el número de casos favorables, es decir, parejas de agujeros para los que el ruletista no muere, son 5 x 5 = 25. Por lo tanto, la probabilidad de que el ruletista quede con vida si juega dos veces a la ruleta rusa es 25/36 = 0,6944, es decir, una probabilidad del 69,44 %, mientras que la probabilidad de que muera es su complementario, 11/36 = 0,3056, esto es, el 30,56%.
La probabilidad de que el ruletista viva o muera si juega dos veces a la ruleta rusa
Aunque, si lo pensamos un poco, la probabilidad de salir indemne de las dos partidas de la ruleta rusa es la probabilidad de vivir en la primera partida (5/6) por la probabilidad de vivir en la segunda partida (5/6), es decir, (5/6)2 = 25 / 36.
Esta forma de entenderlo nos permite obtener fácilmente la respuesta a la cuestión de qué probabilidades tiene el ruletista de vivir, o morir, si juega k veces a la ruleta rusa (para k = 1, 2, 3, 4, 5, …). De hecho, podemos obtener una fórmula en función del número k de partidas jugadas a la ruleta rusa por el ruletista.
La probabilidad de que el ruletista viva o muera si juega un número k de veces a la ruleta rusaAhora es fácil ir calculando la probabilidad de vivir o morir en función de cuantas veces juegue el ruletista a la ruleta rusa solitaria, que precisamente es de lo que habla, sin calcular probabilidades, el viejo profesor en los párrafos que hemos incluido más arriba. A continuación, incluimos una tabla con estas probabilidades para los casos en los que el ruletista juega entre una y diez veces, en la cual podemos apreciar la velocidad a la que la probabilidad de que el ruletista salga vivo va disminuyendo, y creciendo la probabilidad de morir.
Tabla con las probabilidades de que el ruletista viva o muera si juega k veces a la ruleta rusa, para k = 1, 2, 3, …, 9, 10Podemos sacar entonces algunas conclusiones. Para empezar la probabilidad de morir es menor que el 50 % para los casos de una sola partida de la ruleta rusa (16,67 %), dos partidas (30,56 %) e incluso tres partidas (42,13 %). Luego en esos casos hay más probabilidades de ganar que de perder. El problema es que, si el jugador pierde, ha perdido algo tan importante e irrecuperable como es su propia vida. Además, cuando se dice que después de la tercera partida era considerado un ruletista afortunado, aun estando de acuerdo -ya que se está jugando la vida- podemos decir que no era tan excepcional, ya que la probabilidad de salir con vida seguía siendo, como hemos comentado, menor que el 50 %.
Justo se supera la probabilidad del 50 %, es decir, la misma que de sacar cara, o cruz, al tirar una moneda al aire, cuando se juegan cuatro partidas a la ruleta rusa. En concreto, hay una probabilidad del 51,77 % de morir y una probabilidad del 48,23 % de vivir. De hecho, cuando en el relato se escribe que “no se conocían casos de supervivencia ni siquiera tras cuatro intentos”, esto podríamos explicarlo como que los ruletistas no se atrevían a arriesgarse con la cuarta partida, porque lo que nos dicen los fríos números es que, a la larga, entre todos los jugadores que jugasen cuatro partidas, más o menos la mitad de los mismos vivirían y la otra mitad moriría.
Si continuamos, cuando se juegan seis partidas, la probabilidad de vivir no es cero, de hecho, es todavía relativamente alta, ya que es, más o menos, uno de cada tres casos. Aunque, como hemos dicho antes, el jugador no se juega dinero, sino su propia vida, por lo que la apuesta es demasiado arriesgada para él.
Por otra parte, el viejo escritor cuenta que cuando él se encontró con el Ruletista ya había superado 8 partidas de la ruleta rusa solitaria. Salir con vida de ocho partidas, como se ve en la anterior tabla es, más o menos, del 25 %, es decir, uno de cada cuatro casos. Luego, aun siendo algo excepcional, no es tan raro. Dicho de otra forma, si jugasen muchas personas a la ruleta rusa solitaria en ocho ocasiones, de media, una de cada cuatro viviría, aunque eso sí, tres de cada cuatro, moriría. A partir de ahí la probabilidad continúa cayendo cada vez más y más.
Por otra parte, en cierto momento del relato, el Ruletista empieza a incluir más balas en el revólver, aunque el cálculo de las probabilidades, para una cantidad de balas entre 1 y 6, es similar al realizado previamente, lo dejamos como diversión para las personas que están leyendo esto, si así lo desean.
Para terminar, me gustaría comentar que el objetivo de escribir esta entrada del Cuaderno de Cultura Científica no es corregir el cuento de Mircea Cartarescu, que es un cuento de una calidad excepcional, sino de aprovechar la mención a la probabilidad para hablar de la misma y calcular con exactitud cuál es esa probabilidad mencionada. De hecho, mi recomendación es que, si no lo habéis hecho ya, leáis este magnífico cuento.
Terminaremos con un poco de humor negro de la mano de El Mundo Today y la noticia en clave de humor cuyo titular es: Uno de cada ocho jugadores de la ruleta rusa no llega a fin de mes; así como con el cortometraje, también en clave de humor, Ruleta (2015), de Álvaro Carmona, que podéis ver aquí.
Fotograma del corto Ruleta (2015), dirigido por Álvaro CarmonaBibliografía
1.- Mircea Cartarescu, El ruletista, Impedimenta, 2010.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El cuento de la ruleta rusa se ha escrito en Cuaderno de Cultura Científica.
La comprobación experimental de la teoría postcuántica de la gravedad clásica
El pasado 4 de diciembre se publicaron un par de artículos científicos en los que se introducía el concepto de teoría postcuántica para referirse a la gravedad clásica. Un titular típico en la prensa para recoger estas publicaciones podría ser el de Xataka: Esta teoría reconcilia la relatividad general y la mecánica cuántica. Y lo que propone es revolucionario. Los científicos proponen un experimento para comprobar la nueva teoría consistente en “medir la masa de un objeto con muchísima precisión para determinar si su peso fluctúa con el tiempo.” Pero esa no es la única posibilidad, hay una más radical.
Pesando una masa. Ilustración: Isaac YoungLa mejor teoría de la materia que tenemos es la mecánica cuántica, que describe el comportamiento discreto (cuantizado) de las partículas microscópicas mediante ecuaciones de ondas. La mejor teoría de la gravedad es la relatividad general, que describe el movimiento continuo (clásico) de los cuerpos con masa a través de la curvatura del espaciotiempo. Estas dos teorías de gran éxito chocan a la hora de describir la naturaleza del espacio-tiempo: las ecuaciones de ondas cuánticas se definen en un espacio-tiempo fijo, pero la relatividad general dice que el espacio-tiempo es dinámico y se curva en respuesta a la distribución de la materia.
La mayoría de los intentos de resolver este conflicto se han centrado en la cuantificación de la gravedad, siendo las dos propuestas principales la teoría de cuerdas y la gravedad cuántica de bucles. El nuevo trabajo teórico de Jonathan Oppenheim y sus colaboradores lo que hace es dejar la gravedad como una teoría clásica y acoplarla a la teoría cuántica mediante un mecanismo probabilístico. Esta estrategia híbrida ha sido considera tradicionalmente como estéril, ya que llevaría a inconsistencias. Oppenheim las evita a costa de tener que insertar la probabilidad –una “tirada de dados”– en la evolución del espacio-tiempo.
Comprobando la teoría postcuánticaUna forma de ir delimitando qué modelo es más adecuado es lo que proponen los investigadores, medir las fluctuaciones de la masa de un objeto. Esto supone en realidad medir el tiempo de coherencia de un objeto masivo en una superposición cuántica, ya que el tiempo de coherencia puede relacionarse con la evolución de la métrica del espacio-tiempo. Los datos de tiempo de coherencia existentes ya se han utilizado para descartar ciertos rangos de parámetros para modelos híbridos clásico-cuánticos como el de Oppenheim. Pero, como decimos, estos experimentos no descartarían, solo limitarían.
Es mucho más radical y, por tanto, mucho más interesante, contestar a la pregunta fundamental: ¿la gravedad es cuántica o no? Una forma de hacerlo es detectando gravitones directamente, otra sería entrelazar dos objetos masivos solo con su interacción gravitacional. Esto que se resume así de fácil en una frase, tiene una complejidad enorme.
Ilustración: G. W. Morley/University of Warwick and APS/Alan StonebrakerSin embargo, ha habido avances significativos en la segunda idea. En 2017 se hicieron dos propuestas en este sentido que, si bien difieren en los detalles, se basan en el mismo concepto: dos masas (microesferas, por ejemplo) interactúan solo a través de su atracción gravitacional mutua. Si estas masas se entrelazan mecanocuánticamente, entonces la gravedad debe ser la culpable. Para quedar entrelazadas por la gravedad, las masas deben estar en una superposición de estados cuánticos.
Si cada masa se coloca en uno de dos interferómetros próximos, que crearían la superposición. Si las masas están entrelazadas cuando salen de los interferómetros, esto implicaría que la gravedad es inherentemente cuántica, ya que solo un campo cuántico puede inducir el entrelazamiento.
Los experimentos están plagados de obstáculos técnicos, entre ellos cómo garantizar que la gravedad sea la única forma en que las masas interactúen. Pero están más cerca de realizarse que otros métodos propuestos, como la detección directa de gravitones. Para que estos experimentos se realicen, los investigadores deben descubrir cómo crear y mantener superposiciones cuánticas de objetos relativamente masivos y cómo reducir los efectos de fuerzas distintas a la gravedad.
Referencias:
Oppenheim, J. (2023) A Postquantum Theory of Classical Gravity? Physical Review X doi: 10.1103/PhysRevX.13.041040
Oppenheim, J., Sparaciari, C., Šoda, B. et al. (2023) Gravitationally induced decoherence vs space-time diffusion: testing the quantum nature of gravity. Nat Commun doi: 10.1038/s41467-023-43348-2
Marletto, C. and Vedral, V. (2017) Gravitationally Induced Entanglement between Two Massive Particles is Sufficient Evidence of Quantum Effects in Gravity Phys. Rev. Lett. doi: 10.1103/PhysRevLett.119.240402
Bose, S. et al. (2017) Spin Entanglement Witness for Quantum Gravity Phys. Rev. Lett. doi: 10.1103/PhysRevLett.119.240401
Galley, T. (2023) Might There Be No Quantum Gravity After All? Physics 16, 203
Para saber más:
Teoría de la invariancia (serie)
Incompletitud y medida en física cuántica (serie)
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La comprobación experimental de la teoría postcuántica de la gravedad clásica se ha escrito en Cuaderno de Cultura Científica.
Eris, de planeta enano a planeta “blandito”
Aunque un gran desconocido para el público, Eris es el segundo planeta enano más grande de nuestro Sistema Solar, solo por detrás de Plutón. Fue descubierto en 2005, trayendo la discordia y un fuerte debate al mundo de la astronomía que obligó a repensar a que llamábamos planeta.
Esta disputa concluiría con la aparición de una nueva categoría -la de planeta enano- que nos devolvió a un Sistema Solar de ocho planetas… pero en el que ya hay nueve planetas enanos de los cuales -salvo en los casos de Ceres y Plutón- hemos podido ver muy poco debido a las enormes distancias que nos separan y el exiguo número de misiones dedicadas a estos cuerpos.
A pesar de las dificultades que impone la distancia y el tamaño de estos cuerpos, las observaciones de Eris realizadas desde los mejores telescopios nos permiten conocer algunos detalles interesantes que nos dan una idea sobre como podía ser este planeta enano.
Secuencia de imágenes donde se descubrió Eris en 2005 tomadas desde el observatorio del Monte Palomar, en California. Imagen Cortesía de NASA/JPL/Caltech.Estos datos apuntan a una superficie muy blanca y reflectante -refleja el 96% de la luz solar- algo que contrasta con la de Plutón, que refleja mucha menos luz y que -a grandes rasgos-es de un color bastante rojizo, algo que podría indicar que el hielo que cubre Eris se renueva -ahora mismo sería difícil de saber si por procesos internos o externos- y que, por lo tanto, existe cierta dinámica activa en el planeta.
Eris tiene un satélite llamado Disnomia, con un diámetro aproximado de 615 kilómetros, lo que viene a ser una cuarta parte del de Eris, y que orbita a una distancia de este de unos 37.000 kilómetros. La existencia de este satélite fue la que permitió a los científicos calcular la masa de Eris con gran precisión y empezar a hacer asunciones sobre su composición y estructura interna.
Pues bien, un nuevo estudio publicado en la revista Science Advances ha analizado la relación orbital entre Eris y Disnomia para arrojar algo de luz sobre la estructura interna de Eris o, al menos, para construir una serie de modelos muy interesantes que nos permitan conocer más detalles sobre su interior y evolución, algo que a su vez nos daría pistas sobre una posible dinámica interna.
Para hablar de las conclusiones de este estudio, tenemos que remontarnos prácticamente a la formación del Sistema Solar, hace unos 4500 millones de años. En esta infancia de nuestro sistema planetario, Eris habría sufrido un gran impacto, bien arrebatándole una gran cantidad de materia de su manto -en torno a un 15%- o bien, debido al enorme calor generado por el impacto, se podría haber perdido un porcentaje importante de los elementos volátiles que lo componían. Este impacto resultaría en la formación de Disnomia.
Imagen tomada por el telescopio espacial Hubble donde se puede apreciar a Eris y a Disnomia, junto con una escala para hacernos a la idea de la distancia. Cortesía de NASA, ESA y M. Brown.La consecuencia más inmediata para Eris sería el haberse convertido en un planeta enano más denso y que destaca tanto con respecto a Plutón, por ejemplo, y otros objetos, ya que ese calor habría sublimado o evaporado un gran volumen de elementos volátiles y alterado la proporción hielo/roca del planeta.
Pero hay más: Disnomia se habría formado mucho más cerca de Eris de lo que lo está ahora, provocando importantes mareas sobre Eris (y viceversa). Esta energía generada por las mareas se transformaría, en primer lugar, en calor, pudiendo alimentar fenómenos criovolcánicos y el rejuvenecimiento de la superficie e incluso, quién sabe, si la formación de un océano de agua líquida debajo de su corteza al poder mantener unas temperaturas más elevadas que las que podría haber hoy en día.
Pero esta disipación de la energía generada por las mareas también tendría un componente digamos que… astronómico, capaz de alterar, por un lado, la órbita de Disnomia, que progresivamente se ha ido alejando de Eris y, por otro, provocando el acoplamiento de mareas entre ambos cuerpos.
Este acoplamiento provoca que Eris y Disnomia siempre se “vean” la misma cara, ya que el periodo de rotación de ambos cuerpos y el de traslación de Disnomia están sincronizados, como ocurre con nuestra Tierra y la Luna. Aunque nos parezca algo extraño, es bastante común en nuestro sistema planetario.
Impresión artística del sistema Eris-Disnomia. Cortesía de NASA/JPL-Caltech.Este detalle sugiere que el sistema ha alcanzado una configuración estable a lo largo de millones -probablemente miles de millones- de años y que Eris es un cuerpo que es capaz de disipar una gran cantidad de energía generada por su interacción con Disnomia, lo que hace pensar a los científicos que no es un cuerpo totalmente rígido, sino que todavía podría sufrir cierta convección en su capa intermedia de hielo gracias al calor de generado por la disipación de la energía de mareas y también de la desintegración de elementos radioactivos que todavía podrían quedar en su núcleo rocoso, que transferiría ese calor hacia la superficie. De aquí la broma del título de planeta “blandito”.
Precisamente, esta mayor disipación también apuntaría a que Eris sería un cuerpo totalmente diferenciado, es decir, formado por distintas capas -en este caso probablemente una corteza más rígida de hielo en la superficie, un manto de hielo en estado viscoso y en convección y por último un núcleo rocoso- como ocurre en nuestro planeta, en vez de ser una mezcla más o menos homogénea de roca y de hielo como se piensa que podrían ser otros planetas enanos.
Conocer la estructura de estos cuerpos podría ayudarnos en el futuro a estudiar detalles sobre su habitabilidad -presente y pasada- o a reconstruir su historia, algo muy valioso de cara a comprender la compleja dinámica de nuestro Sistema Solar, especialmente durante sus primeras etapas.
Referencias:
Nimmo, F. and Brown, M.E. (2023) The internal structure of Eris inferred from its spin and Orbit Evolution Science Advances doi: 10.1126/sciadv.adi9201
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Eris, de planeta enano a planeta “blandito” se ha escrito en Cuaderno de Cultura Científica.
Comunismo originario en la prehistoria ibérica
Al leer el libro que les traigo hoy, he tenido la impresión de estar ante un (breve y muy bien escrito) tratado de arqueología de la Prehistoria Reciente.
El tratado comienza con unas consideraciones acerca de la naturaleza de la historia como disciplina. El autor quiere indagar acerca del origen de las desigualdades y las relaciones de dominación. Le interesan las sociedades en las que no habían surgido estados y en las que las relaciones entre sus miembros no eran de dominación. Y se remite –para glosar brevemente sus obras– a los autores de los siglos XVII, XVIII y XIX, aunque sus aportaciones no sean hoy consideradas fuentes fidedignas, sino que han de ser valoradas por las preguntas que se hicieron, las ideas que empezaron a hacer circular y por seguir siendo fuente de inspiración.
Dominación y desigualdadEn una de sus primeras aseveraciones, el autor, Rodrigo Villalobos García, sostiene que la dominación y la desigualdad no son relaciones sociales necesarias, eternas o inevitables, sino consecuencia de circunstancias históricas concretas. La afirmación me llamó la atención porque hacía unos pocos años había leído Against the grain: A Deep History of the Earlier States, de James C. Scott, y hace unos meses, The Dawn of Everything: A New History of Humanity, de David Graeber y David Wengrow. En ambos libros se sostienen, expresadas de forma diferente, tesis similares.
Si se me permite un inciso, la obra de Scott, aunque menos conocida en España que la de Graeber y Wengrow, y no tan extensa, me pareció más profunda y mejor documentada. Creo que no está traducida al español (la de los dos David, sí lo está). Scott estudia los albores del sedentarismo y las primeras aldeas en el Creciente Fértil, sobre todo en Mesopotamia.
Su conclusión es que lo que conocemos como neolitización no fue algo lineal, que hubiese obedecido a una trayectoria preestablecida (como se nos enseñó en la escuela), sino que fue un proceso irregular, con idas y vueltas, en el que las sociedades cambiaron de unas formas de vida a otras. Los cereales, su cultivo y las posibilidades de ser almacenados, generando excedentes, fue lo que, según el autor, acabó conduciendo a la aparición de las desigualdades estructurales y los estados.
Graeber y Wengrow no difieren demasiado –al menos para las entendederas de un humilde fisiólogo de animales– de lo que sostiene Scott, pero basan su análisis, sobre todo, en los pueblos originarios de Norteamérica y, en especial, de la costa Oeste. Me pareció que incurrieron en un cierto cherry picking. Sea como fuere, todos ellos, Scott, Graeber y Wengrow, y Villalobos García, vienen a coincidir en esa idea fundamental. Hasta aquí el inciso.
Comunismo originario en la PrehistoriaTras la introducción de las nociones fundamentales, Villalobos García aborda la noción del comunismo originario (que califica de esquiva) y caracteriza los diferentes tipos de sociedades sin gobierno: igualitarias, de rango y estratificadas, que no deben entenderse como peldaños en una escalera que conduce a sociedades con estados. A continuación se ocupa de los orígenes de la familia (el patriarcado), la propiedad privada y el estado. Sostiene que los estados arcaicos han sido menos poderosos, jerarquizados, desiguales y patriarcales que muchos otros estados desarrollados con posterioridad, aunque las semillas de esas desigualdades ya se encontraban en aquellos.
En ciertas sociedades sin estado los recursos se gestionan de forma colectiva, el trabajo se desempeña mediante asociación libre, hay democracia directa y aplican el principio «de cada uno según sus capacidades y a cada cual según sus necesidades»; esto es, se cumplen los requisitos para ser consideradas sociedades comunistas, aunque haya gran diversidad entre ellas. Pero, por otro lado, otras sociedades sin estado son patriarcales, explotan a parte de sus integrantes y practican la conquista. En otras palabras, la ausencia del estado no conlleva ausencia de opresión.
No hay sociedades naturalesConcluye el autor el capítulo dedicado al comunismo originario con una idea muy poderosa: no hay sociedades naturales. Añade: «Nunca las ha habido. Si acaso habrá una base de instintos biológicos que se pueden manifestar de distintas maneras en distintas personas de una sociedad y que, según el caso, pueden ser fomentados o desincentivados por condicionantes medioambientales varios, así como, también, por la propia cultura o subcultura en cada caso.»
Este aspecto me interesa especialmente porque, en efecto, los seres humanos no estamos dotados de serie con unos rasgos que nos hacen comportarnos de una u otra forma. Y, por lo tanto, las sociedades que conformamos no son consecuencia de decisiones o actuaciones condicionadas por esos rasgos. La falacia naturalista, también en aspectos como este, ha sido fuente de inspiración para estudiosos (y para muchos amateurs). No hay una sociedad natural. Y si la hubiera, no tendría por qué ser la buena.
Bipolos como generosidad/egoísmo, belicosidad/pacifismo, individualismo/colectivismo, y cualesquiera otros que se nos puedan ocurrir se encuentran en diferente grado en todas o casi todas las personas. Y si bien es cierto que hay personas más inclinadas a la compasión que a la indiferencia, por ejemplo, también lo es que la situación en que nos encontramos es el factor que más suele influir en nuestro comportamiento y, por tanto, el que inclina el bipolo hacia uno de los componentes. Las sociedades son, en consecuencia, una amalgama diversa de las interacciones entre personas entre las que suele haber bastante diversidad.
No hay una sociedad natural. Aunque también podría decirse que todas las sociedades humanas lo son. En otras palabras, la naturaleza no aboca a un único modelo social.
La observación manchada de teoríaLa arqueología, durante las últimas décadas, ha actualizado su arsenal metodológico, incorporando técnicas propias de las ciencias naturales. Esa transición, no obstante, no ha modificado el carácter básico de la disciplina. Sus practicantes, en función de su particular visión de la realidad, formulan modelos explicativos que pretenden dar cuenta de las observaciones (hallazgos) poniéndolas en un contexto narrativo coherente. En otras palabras, en arqueología hacen algo muy parecido a lo que hacemos en ciencias experimentales y naturales.
En estas disciplinas, en muchas ocasiones, hacemos experimentos en los que controlamos las condiciones y fijamos potenciales fuentes de variación para determinar la existencia e intensidad de los efectos cuya existencia pretendemos establecer, pero en otras ocasiones trabajamos como la haría un historiador. De hecho, hay disciplinas –en geología y biología, principalmente–que son intrínsecamente históricas.
Por otro lado, en determinadas ciencias experimentales y naturales, la visión de la realidad, las teorías en que se enmarcan los estudios, las hipótesis de las que parten las investigaciones, también influyen en los modelos que proponemos para explicar las observaciones. Esto extrañará a más de uno de mis colegas, pero es así. La observación (prácticamente) siempre está manchada de teoría.
Interpretando la PrehistoriaEn el cuarto capítulo se describen las principales líneas de pensamiento que durante el siglo XX han interpretado la Prehistoria reciente –en especial la de Occidente–, a cargo de autores como Childe, Renfrew, Gimbutas y Sherratt. Me ha alegrado ver el nombre de Colin Renfrew entre los autores de referencia, porque siendo estudiante universitario (a caballo entre los setenta y los ochenta del pasado siglo) leí un artículo suyo en Investigación y Ciencia que no he olvidado: trataba de la expansión simultánea, de carácter démico, de las lenguas indoeuropeas y el Neolítico por Europa.
Por fin en el último capítulo, cuyo título es el del libro, se presentan y discuten los hallazgos arqueológicos más relevantes y lo que de ellos cabe inferir sobre las relaciones de poder entre hombres y mujeres, entre clases sociales y entre grupos humanos, en la península Ibérica durante la Prehistoria Reciente.
Finaliza el autor remarcando la idea de que no hay trayectorias históricas prefijadas, y que, dado que en el pasado el futuro estuvo abierto, igualmente abierto lo está en la actualidad. En otras palabras, las sociedades no están condenadas a transitar por cauces preestablecidos. El autor deja clara su posición ideológica –lo que es de agradecer–, sin que esa posición sesgue el contenido de un texto que me ha parecido muy interesante.
Ficha:
Título: Comunismo originario y lucha de clases en la Iberia prehistórica. Arqueología social del neolítico, Calcolítico y Bronce Antiguo
Autor: Rodrigo Villalobos García
Ed. Sabotabby Press, 2022.
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
Una versión de este texto apareció anteriormente en Lecturas y Conjeturas (Substack).
El artículo Comunismo originario en la prehistoria ibérica se ha escrito en Cuaderno de Cultura Científica.