El secado de la pintura y las epidemias estacionales
Parece lógico pensar que las soluciones poliméricas, como la pintura, se secan más lentamente en un día húmedo que en un día seco. Pero acaba de comprobarse experimentalmente un modelo que explica por qué la tasa de evaporación del agua u otro disolvente en una solución polimérica puede ser independiente de la humedad ambiental. Los experimentos muestran que la evaporación del agua impulsa a las moléculas de polímero hacia la superficie, donde forman una capa densa que termina dificultando la evaporación y protege a la superficie de los efectos de la humedad. Este fenómeno puede afectar a la velocidad con la que se evaporan los aerosoles respiratorios (gotitas que emitimos al respirar, hablar, estornudar o toser) que contienen virus y, por lo tanto, podría ayudar a explicar la dependencia estacional de las infecciones virales.
Imagen: Sergei A / UnsplashLa evaporación independiente de la humedad ambiente es una ventaja en muchas situaciones. Por ejemplo, para preservar la hidratación del cuerpo la piel humana mantiene una tasa de evaporación casi constante gracias a las membranas celulares cuyas moléculas lipídicas se pueden reconfigurar para ajustar la tasa de evaporación del sudor. Esta reconfiguración es un ejemplo de un proceso activo.
Ilustración: M. Huisman & S. Titmuss / University of EdinburghEn 2017, Jean-Baptiste Salmon, ingeniero químico de la Universidad de Burdeos en Francia, propuso que la evaporación independiente de la humedad no requiere una respuesta activa [2]. Su modelo sugería que ocurre cada vez que un disolvente se evapora de una solución de macromoléculas (moléculas grandes, como los polímeros), un proceso que ya se sabía que mueve esas macromoléculas hacia la interfaz de secado. Predijo que, una vez que las macromoléculas terminan forman una capa densa, la tasa de evaporación del disolvente permanecerá sin cambios, independientemente de que el entorno esté completamente seco o con una humedad del 100%. El modelo no había podido comprobarse hasta ahora con una disolución polimérica no activa.
El modelo es especialmente interesante porque podría tener implicaciones para la evaporación de los aerosoles que contienen virus respiratorios y también biopolímeros, es decir, macromoléculas. Los modelos de propagación viral ignoran la influencia de estos biopolímeros en la evaporación de las gotas. Como no cabe esperar que estas moléculas participen en un proceso activo, el primer paso es probar el modelo de Salmon usando una disolución polimérica simple, no activa y no biológica, y determinar los rangos de parámetros en los que funciona.
Los investigadores construyeron un aparato para medir las tasas de evaporación de una disolución común de agua y polímero (alcohol polivinílico o PVA) a diferentes humedades. Para ello perforaron cinco agujeros en las paredes de un depósito cilíndrico de plástico y conectaron un tubo capilar de vidrio a cada agujero. Los tubos rectangulares se extendían horizontalmente alejándose del depósito. Los investigadores llenaron el depósito con una solución de PVA. Para garantizar que la evaporación sólo se produjera en los extremos de los tubos, depositaron una capa de aceite en la superficie superior de la solución. El depósito estaba sobre una báscula y todo el conjunto estaba dentro de una caja con humedad controlada. Para la humedad mantenida en valores que oscilaban entre el 25% y el 90%, los investigadores monitorearon la masa de agua perdida del depósito en experimentos que duraron aproximadamente 17 horas cada uno.
En cada experimento la tasa de evaporación permaneció constante durante aproximadamente las tres primeras horas. Después la tasa comenzaba a disminuir, como predecía el modelo de Salmon, porque se acumulaba una capa de polímero en la interfaz disolución-aire.
Sin embargo, el modelo no explica dos observaciones. En primer lugar, la tasa de evaporación constante de la etapa inicial (antes de que se forme una capa de polímero) no disminuía con el aumento de la humedad. En segundo lugar, después de las tres horas iniciales, la tasa de evaporación caía, como se esperaba, pero era independiente de la humedad solo para valores de humedad de hasta el 80%. A humedades más altas, la tasa de evaporación disminuía al aumentar la humedad, lo que es un indicio de que hay otros mecanismos que entran en juego.
Fuente: M. Huisman et al. (2023)El examen de los extremos abiertos de los tubos de vidrio bajo un microscopio proporcionó una pista. En la superficie más externa de la disolución, una capa parecía haberse deformado y despegado de las paredes. Los investigadores proponen que esta capa era una capa de gel que cubría una capa de polímero más delgada y elástica y que la combinación de las dos reducía aún más la capacidad de las moléculas de agua para alcanzar la superficie. El modelo de Salmon no incluye esta capa adicional, pero los cálculos de sus efectos explican ambas discrepancias con el modelo.
Se ha observado recientemente una capa gelatinosa en la interfaz líquido-aire de las gotitas respiratorias, que contienen biopolímeros, por lo que puede ocurrir que existan efectos similares en los aerosoles.
Referencias:
M. Huisman et al. (2023) Evaporation of concentrated polymer solutions is insensitive to relative humidity Phys. Rev. Lett. doi: 10.1103/PhysRevLett.131.248102
J.-B. Salmon et al. (2017) Humidity-insensitive water evaporation from molecular complex fluids Phys. Rev. E doi: 10.1103/PhysRevE.96.032612
R. Berkowitz (2023) Why Humidity Doesn’t Affect Drying Paint Physics 16, 211
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El secado de la pintura y las epidemias estacionales se ha escrito en Cuaderno de Cultura Científica.
Efecto nocebo y gluten
En nuestra sociedad, la alimentación es un terreno plagado de modas pasajeras y falsas creencias. El desconocimiento y diversas estrategias de marketing fomentan la aparición y difusión de ideas erróneas entre las personas. Un ejemplo de ello, es el concepto de «superalimentos» que se emplea para promocionar ciertos alimentos, otorgándoles unas propiedades saludables exageradas o irreales. En ocasiones, sin embargo, se demonizan a ciertos nutrientes, como la lactosa y el gluten, que se asocian, erróneamente, con efectos negativos para la salud en la población general sana, que no sufre ningún tipo de problema frente a estas, como pudieran ser la intolerancia a la lactosa, la celiaquía, la alergia al trigo o la sensibilidad al gluten no celíaca (SGNC).
Lo anterior lleva a algunas personas a rechazar alimentos con gluten o lactosa y a sustituirlos por productos alternativos sin estas moléculas, que son más caros, a pesar de que no tienen ninguna dolencia que les impida tomarlos. Entre las justificaciones que se dan para ello destacan conceptos erróneos como que la leche sin lactosa es más ligera y digestiva (es decir, que provoca menos síntomas gastrointestinales) o que los alimentos sin gluten son más saludables y naturales y ayudan a adelgazar. En realidad, ocurre justo lo contrario: los productos que no contienen gluten suelen tener una composición nutricional más pobre: con un porcentaje más elevado de sal, azúcar y grasas saturadas y más bajo en minerales, vitaminas y fibra. Por otro lado, la ausencia de lactosa en la leche lleva a una menor absorción de minerales como el calcio, el fósforo o el magnesio tras su ingesta, en comparación con la leche con este azúcar.
Foto: Towfiqu barbhuiya / Unsplash¿Podría ser que las expectativas negativas que tienen ciertos individuos, sanos, frente a nutrientes como el gluten les llevasen a experimentar o sentir efectos negativos para su salud tras ingerirlos, produciéndose así una especie de profecía autocumplida? En medicina, sabemos que este fenómeno ocurre con frecuencia entre los pacientes, tanto en los ensayos clínicos como en la práctica diaria. Independientemente de que estén ingiriendo un medicamento o un placebo, algunas personas experimentan ciertos síntomas o signos, no por el efecto activo de estos, sino por las creencias o expectativas negativas que tienen de ellos cuando van a tomarlos. Este peculiar suceso se denomina «efecto nocebo», el polo opuesto del efecto placebo.
El efecto nocebo a ensayoRecientemente, un ensayo clínico de alta calidad (con selección al azar de los participantes en uno de los grupos, controlado con placebo y realizado en múltiples países) ha vuelto a reforzar la idea de que las expectativas negativas de las personas frente al gluten influyen en la aparición de sus problemas de salud. Los resultados de dicho estudio se han publicado en la revista The Lancet, Gastroenterology & Hepatology. Los 84 participantes, entre 18 y 70 años, no sufrían ni alergia al trigo ni celiaquía, pero sí informaban ellos mismos de que padecían SGNC por presentar diversos síntomas gastrointestinales dentro de las 8 horas posteriores a consumir gluten. Es decir, estos voluntarios no habían recibido una confirmación diagnóstica médica, sino que eran ellos mismos los que referían este problema de salud.
Antes de participar en el estudio, los individuos tenían que seguir una dieta libre baja o libre de gluten durante al menos una semana y también a lo largo del estudio. Esto se hacía con la intención de asegurarse de que los individuos no tenían síntomas gastrointestinales por otros motivos y, por tanto, tenían que estar libres de ellos o con síntomas leves mientras hacían dicha dieta. Los participantes se dividieron al azar en 4 grupos, según si había alta o baja expectativa de consumir pan con gluten para desayunar y para comer (dos rebanadas en total) o si recibían, de verdad, pan con gluten o no. Ni los investigadores ni los voluntarios sabían si el pan que estaban consumiendo los participantes contenía esta molécula.
Alta expectativa de glutenEl grupo que más síntomas gastrointestinales sufrió fue aquel que recibía pan con gluten y que tenía una alta expectativa de estar consumiéndolo. Estos sufrían significativamente más síntomas que aquellos que comían pan con gluten, pero que tenían una baja expectativa de estar comiéndolo. Además, no se vieron diferencias significativas en la magnitud de los síntomas en aquellos con expectativas bajas de comer plan gluten, lo estuvieran tomando en realidad o no. Curiosamente, dos participantes que tenían expectativas altas de consumir gluten y que, en realidad, ingirieron pan libre de este, informaban de sufrir eventos adversos. Uno aseguró que sufría picor en la mandíbula y el otro ruido de tripas y mareos.
Contrario a lo que dictaría el sentido común, este estudio muestra que no era la presencia de gluten en el pan lo que más problemas gastrointestinales provocaba en los pacientes que creían que tenían SGNC, sino que era la expectativa en sí misma de estar consumiéndolo. Los autores destacan en sus conclusiones que la combinación de las expectativas negativas y la ingesta real de gluten era lo que provocaba más síntomas gastrointestinales, lo que indica un efecto nocebo, pero no es posible descartar cierto efecto activo del propio gluten. Javier Molina, médico del Servicio de Aparato Digestivo del Hospital San Pedro de Alcántara (Cáceres), explica en Science Media Centre que «Este estudio aporta evidencia sólida científica para apoyar la terapia psicológica con la intención de corregir expectativas y creencias erróneas en el tratamiento multidisciplinar de los trastornos del eje cerebro-intestino».
Este ensayo clínico nos recuerda que nunca hay que subestimar a la mente en la generación de problemas de salud. Aunque no exista un problema orgánico, el daño que las expectativas negativas pueden causar en la vida de los pacientes puede ser muy real.
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo Efecto nocebo y gluten se ha escrito en Cuaderno de Cultura Científica.
Ciencia idiota
Muy probablemente ya conozca usted los Ig Nobel, esos premios que concede la revista de humor científico Annals of Improbable Research (AIR). El acto de entrega se realiza en el Sanders Theatre de la Universidad de Harvard y los premios son entregados por científicos que han sido galardonados con los premios Nobel de verdad.
Los Ig Nobel reconocen investigaciones en apariencia absurdas o irrelevantes. Ese carácter ha conducido a muchas personas a pensar que es un desdoro ser galardonado con el premio. Sin embargo, dudo mucho que esa sea la percepción mayoritaria en la comunidad científica. Diría, es más, que los Ig Nobel gozan de un prestigio creciente y la lista de las investigaciones premiadas concita, año tras año, un interés cada vez mayor.
De los Ig Nobel se dice que «primero hacen reír a la gente y luego la hacen pensar.» Y de eso va, precisamente, el libro que reseño hoy.
Su autor, Pablo Palazón, recoge cuarenta de esas investigaciones y, en efecto, unas más y otras menos, hacen reír. Si quien tiene acceso a sus contenidos se queda ahí, en la gracia que causa un proyecto de investigación aparentemente absurdo y unos resultados hilarantes o, cuando menos, de una cierta gracia, tendrían razón quienes critican que haya científicos que se dediquen a hacer esas investigaciones. Pero Pablo Palazón no se queda en la anécdota.
El mérito del libro es, precisamente, que el autor presenta las investigaciones en un contexto más amplio que el de los experimentos o estudios por el que fueron premiadas y, de esa forma, facilita así que se cumpla la segunda parte del aserto anterior («luego la hacen pensar»). Por esa razón, Ciencia idiota permite, a la persona lega en esta materia, acercarse de una forma amable y, en casi todos los casos, divertida, a la investigación científica.
No son las personas neófitas o las legas las únicas que tienen algo útil que extraer de la lectura de este libro. A quienes, como es mi caso, se dedican a la ciencia profesionalmente, también les ayudará a ser más conscientes de las debilidades y fortalezas de su propia actividad. El relato de los experimentos o de los estudios que se comentan y la exposición de los resultados contienen, de forma implícita, claves que permiten caracterizar el empeño científico. De hecho, la lectura del libro resulta instructiva para personas de perfiles muy variados.
A modo de sugerencia, incluso, creo que Ciencia idiota puede, sin abusar del recurso, aportar materiales útiles a las y los docentes de ciencia en secundaria. Aunque puedan parecer absurdas las preguntas a que responde, la ciencia que cuenta el Dr. Palazón no es precisamente absurda, ni, por cierto, tampoco idiota.
Ciencia idiota está estructurado en tres partes, con doce casos en la primera y en la segunda, y dieciséis en la tercera. Las doce primeras historias son de índole muy variada; entre ellas podemos encontrar desde una especulación acerca de las posibles formas en que el mundo se puede ir al carajo, hasta las entretelas de la homeopatía. En la segunda parte, los casos tienen animales como protagonistas; quizás por ello (la fisiología de los animales es mi campo de especialización científica) algunas de las historias me han resultado familiares. Y en la tercera se han incluido experimentos y estudios en los que la especie animal concernida es la nuestra, la humana. Todas las historias resultan muy amenas.
En síntesis, Ciencia idiota muestra el lado más inesperado, más gamberro del mundo de la ciencia, el más iconoclasta. No estoy seguro de que “idiota” sea el calificativo que mejor describe lo que el lector o lectora se va a encontrar en su interior; quizás sería más indicado calificar esa ciencia como “insólita”, “absurda”, “gamberra” u otra por el estilo. Sea como fuere, el contenido es muy recomendable y la lectura, gracias a la escritura clara, directa y amena del autor, muy fluida.
Título: Ciencia idiota. Respuestas científicas a preguntas rematadamente absurdas
Autor: Pablo Palazón
Editorial: Next Door (2023)
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
Una versión de este texto de Juan Ignacio Pérez Iglesias apareció anteriormente en Lecturas y Conjeturas (Substack).
El artículo Ciencia idiota se ha escrito en Cuaderno de Cultura Científica.
¡Ups! La expansión de la Tierra
Los continentes tal y como hoy los conocemos no han estado siempre así. Hace más de 175 millones de años formaban un supercontinente. Darwin fue uno de los primeros en darse cuenta al encontrar especies idénticas en lugares distantes entre sí. Fueron varios científicos los que trataron de dar respuesta a la situación de los continentes. En 1889 el geólogo italiano Roberto Mantovano propuso que en el pasado la Tierra era más pequeña y que todos los continentes estaban juntos. Luego se produjo una dilatación térmica que aumentó el tamaño del planeta y desgarró la superficie. Alfred Wegener pensaba muy parecido, solo que, según él, la Tierra no había aumentado su tamaño y lo que había resquebrajado aquel supercontinente fue un fenómeno al que llamó deriva continental.
Los vídeos de ¡UPS¡ presentan de forma breve y amena errores de la nuestra historia científica y tecnológica. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se han emitido en el programa de ciencia Órbita Laika (@orbitalaika_tve), en la 2 de RTVE.
Producción ejecutiva: Blanca Baena
Guion: José Antonio Pérez Ledo
Grafismo: Cristina Serrano
Música: Israel Santamaría
Producción: Olatz Vitorica
Doblaje: K 2000
Locución: José Antonio Pérez Ledo
Edición realizada por César Tomé López
El artículo ¡Ups! La expansión de la Tierra se ha escrito en Cuaderno de Cultura Científica.
Cuando matemáticas, histopatología y genómica coinciden
Las matemáticas, la histopatología y la genómica convergen para confirmar que los carcinomas renales de células claras más agresivos muestran niveles bajos de heterogeneidad intratumoral, es decir, contienen menos tipos de células distintas. El estudio, realizado por la profesora Ikerbasque de la UPV/EHU Annick Laruelle, respalda la hipótesis de que sería aconsejable aplicar estrategias terapéuticas para mantener niveles altos de heterogeneidad celular dentro del tumor para ralentizar la evolución del cáncer y mejorar la supervivencia.
Las matemáticas, la histopatología y la genómica convergen para confirmar que los carcinomas renales de células claras más agresivos muestran niveles bajos de heterogeneidad intratumoral. Fuente: CANVALos planteamientos matemáticos están cobrando impulso en la oncología moderna, ya que aportan nuevos conocimientos sobre la evolución del cáncer y nuevas oportunidades de mejora terapéutica. Así, los datos obtenidos a partir de análisis matemáticos avalan muchos de los hallazgos histológicos y los resultados genómicos. La teoría de juegos, por ejemplo, ayuda a comprender las interacciones “sociales” que se producen entre las células cancerosas. Esta novedosa perspectiva permite a la comunidad científica y clínica comprender los acontecimientos ocultos que rigen la enfermedad. En realidad, considerar un tumor como una colectividad de individuos regidos por reglas previamente definidas en ecología abre nuevas posibilidades terapéuticas para los pacientes.
En el marco de la teoría de juegos, el juego halcón-paloma (hawk-dove game) es una herramienta matemática desarrollada para analizar la cooperación y la competición en biología. Cuando se aplica a colectividades de células cancerosas explica los posibles comportamientos de las células tumorales cuando compiten por un recurso externo. “Se trata de una teoría de decisión donde el resultado no depende solamente de la decisión de uno mismo, sino también de la decisión de los otros actores —explica la profesora Ikerbasque Annick Laruelle, experta en teoría de juegos del Departamento de Análisis Económico de la Universidad del País Vasco—. En el juego, las células pueden actuar de forma agresiva, como un halcón, o pasiva, como una paloma, para adquirir un recurso”.
La profesora ha utilizado este juego para analizar las interacciones celulares bilaterales en el carcinoma renal de células claras, altamente agresivo, en dos escenarios diferentes: uno de heterogeneidad tumoral baja, cuando solo dos tipos de células tumorales compiten por un recurso; y otro de heterogeneidad tumoral alta, cuando dicha competición se produce entre tres tipos de células tumorales. El carcinoma renal de células claras recibe ese nombre debido a que las células del tumor se ven claras, como burbujas, en el microscopio. Para el estudio han tomado este tipo de carcinoma como caso representativo, por tratarse de un paradigma ampliamente estudiado de la heterogeneidad intratumoral (que hace referencia a la coexistencia en un mismo tumor de diferentes subpoblaciones de células).
Nuevo enfoque teórico para nuevas estrategias terapéuticasLaruelle ha mostrado cómo algunos fundamentos de la heterogeneidad intratumoral, corroborados desde el punto de vista de la histopatología y la genómica, se apoyan en las matemáticas utilizando el juego halcón-paloma. La investigadora Ikerbasque ha publicado en la revista Trends in Cancer el trabajo realizado en colaboración con investigadores e investigadoras de Biocruces, del Hospital San Giovanni Bosco de Turín (Italia) y de la Pontificia Universidade Catolica do Rio de Janeiro.
El grupo de investigadoras e investigadores considera que “esta convergencia de hallazgos obtenidos desde disciplinas muy diferentes refuerza el papel clave de la investigación traslacional en la medicina moderna y confiere a la heterogeneidad intratumoral una posición central en el enfoque de nuevas estrategias terapéuticas” y conjeturan que “la heterogeneidad intratumoral se comporta siguiendo vías similares en muchos otros tumores”.
La cuestión puede tener importantes consecuencias prácticas en el tratamiento clínico de los tumores malignos. La llegada constante de nuevas moléculas enriquece las oportunidades de tratamiento del cáncer en la era de la oncología de precisión. Sin embargo, los investigadores afirman que “una cosa es descubrir una nueva molécula y otra encontrar la mejor estrategia para utilizarla. Hasta ahora el enfoque propuesto se basa en la administración al paciente de la dosis máxima tolerable. Sin embargo, esta estrategia obliga a las células tumorales a desarrollar resistencias lo antes posible, transformando así el tumor original en una neoplasia de baja heterogeneidad intratumoral compuesta únicamente por células resistentes”. Por lo tanto, una terapia dirigida específicamente a preservar la heterogeneidad intratumoral alta puede tener sentido según este enfoque teórico, ya que puede ralentizar el crecimiento del cáncer y obtener así supervivencias más prolongadas. Esta perspectiva está ganando interés actualmente en oncología.
Referencia:
Claudia Manini, Annick Laruelle, André Rocha, José I. López (2023) Convergent insights into intratumor heterogeneity Trends in Cancer doi: 10.1016/j.trecan.2023.08.009
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Cuando matemáticas, histopatología y genómica coinciden se ha escrito en Cuaderno de Cultura Científica.
Comunicaciones inalámbricas del sistema nervioso
Muchos lectores seguramente conocerán las sinapsis, que podríamos definir como la forma de comunicación “por cable” entre las neuronas. Pocos, sin embargo, habrán oído hablar de las conexiones “sin cable” o wireless en el sistema nervioso.
Yo me encontré con ellas después de años de estudio, al escuchar la charla de una colega neurocientífica que investiga a los gusanos. Y me quedé boquiabierta.
Les pondré un símil. Imagínense que son extraterrestres infiltrados en el planeta Tierra que tratan de entender cómo nos comunicamos los humanos a distancia. Llevan años siguiendo las conexiones por cable de los teléfonos fijos, pero, de pronto, se enteran de que los terrícolas también podemos intercambiar información sin necesidad de cables con teléfonos móviles, tabletas, ordenadores…
Se quedarían tan boquiabiertos como yo. Preguntándose cómo demonios no se enteraron antes. Prefiriendo no saber. De pronto, me di cuenta de que la tarea de entender cómo se conectan las neuronas se complicaba considerablemente.
Un cerebro muy cableado (o no tanto)Parece que el sistema nervioso usa comunicaciones tanto por cable como inalámbricas. Las primeras son las citadas sinapsis, que encontramos descritas en cualquier libro de texto. Santiago Ramón y Cajal predijo su existencia y las mencionó en su discurso del Nobel en 1906. Fue el neurocientífico británico Charles S. Sherrington quien las bautizó ese mismo año recalcando su “probable importancia fisiológica”.
Como ocurre con internet, donde la información a veces viaja por fibra óptica, la sinapsis también incorpora un cableado de fibras. En este caso, lo que conecta la neurona que emite y la que recibe son los axones y las dendritas. Pero este sistema no es continuo: casi siempre, entre el final de un cable y el inicio del siguiente hay una minúscula distancia, apenas unos nanómetros (un nanómetro es la millonésima parte de un milímetro). Entonces, se necesita que un mensajero químico –el neurotransmisor– salve la diminuta distancia.
Los impulsos nerviosos salvan los diminutos espacios (sinapsis) entre neurona y neurona gracias a los neurotransmisores.adike/Shutterstock
Este sistema de comunicación es bastante privado. Es decir, siguiendo el símil con internet, aquí es difícil que nos intercepten el mensaje. Las sinapsis son, hasta donde sabemos, la principal forma de comunicación de las neuronas y en la que nos hemos centrado los científicos hasta ahora.
Por contra, en la comunicación sin cables –llamada a veces comunicación no sináptica o extrasináptica– no hay conexión por fibras. Aunque se ha estudiado mucho menos, sabemos que el mensajero químico puede viajar grandes distancias por el espacio entre las células.
El camino que recorren los mensajeros wireless es tortuoso y no da garantías de privacidad: aquí es más fácil que el mensaje sea hackeado.
Primeros conectomasHay un gusano con nombre casi impronunciable que nos está enseñando mucho sobre las conexiones inalámbricas y, en general, sobre cómo funciona el sistema nervioso: el Caenorhabditis elegans (abreviadamente, C. elegans). Mide aproximadamente un milímetro y era el protagonista de la conferencia a la que me refería al principio del artículo.
Quizá alguien se sorprenda de que un gusano diminuto esté enseñándonos cómo se comunican nuestras neuronas. Pero la ciencia básica es así: recuerden que aprendimos mucho sobre herencia genética gracias a Mendel y unas plantas de guisante. Y que hemos averiguado mucho sobre nuestro cerebro gracias al calamar.
El primer conectoma, el mapa de todas las conexiones de las neuronas de un organismo, se publicó en el C. elegans en 1986. Los investigadores describieron todas las conexiones por cable de las neuronas: es como seguir los fideos en un plato de espaguetis y generar un mapa. Este gusano cuenta con algo más de 300 neuronas (es un plato muy pequeño), por lo que no es casual que fuera el elegido para inaugurar este campo científico.
Bastante después se pudo generar el mapa de las conexiones en animales más complejos, como la mosca o la larva del pez cebra. El conectoma del cerebro humano tardará mucho, si es que llegamos a verlo algún día. Nosotros tenemos unos 100 000 millones de neuronas: ¡un plato inmenso de espaguetis!
Llegan los mapas de las conexiones inalámbricasHasta ahora, todos los conectomas eran mapas de las conexiones por cable. Pero dos grupos de científicos acaban de publicar el primer inventario de todos los nexos wireless en el C. elegans. De nuevo, nuestro gusano lleva la delantera.
Las investigaciones se fijaron en un tipo concreto de conexiones, las que utilizan unas moléculas llamadas neuropéptidos (similares a las proteínas) como mensajero químico. Se cree que modulan la función de otras conexiones. El primer grupo de expertos predijo el mapa de nexos inalámbricos basándose en la expresión de genes en la neuronas. Y comprobaron que es sorprendentemente diferente al entramado de conexiones por cable o sinapsis.
Los autores del segundo artículo usaron optogenética, una técnica que permite encender o apagar las células nerviosas y estudiaron qué les pasaba a sus vecinas. Tras analizar más de 23 433 pares de neuronas vieron que la comunicacion inalámbrica tiene mucho más importancia de lo que se pensaba hasta ahora. Al menos en el gusano, parece que la red wireless es tan necesaria, compleja y diversa como el sistema por cables.
Sabemos que la comunicación sin cables no es solo cosa de gusanos: también se ha encontrado, por ejemplo, en el cerebro de ratas y ratones. Aunque su relevancia en el cerebro humano aún está por investigar, quizá podrían ser muy importantes para entender cómo funciona nuestro sistema nervioso y cómo aparecen ciertas enfermedades. Y también qué ocurre cuando tomamos medicamentos o fármacos, pues pueden llegar a nuestro sistema nervioso y hackear nuestras conexiones inalámbricas.
Ya veremos en unos años a dónde nos llevan el gusano y el resto de animales que utilizamos en la investigación del sistema nervioso. Y es que, al final, para ciertas cosas, tampoco somos tan diferentes.
Sobre la autora: Monica Folgueira Otero, Profesora Contratada Doctora- Área Biología Celular, Universidade da Coruña
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Comunicaciones inalámbricas del sistema nervioso se ha escrito en Cuaderno de Cultura Científica.
Los números parásitos
Mi libro La gran familia de los números (2021), de la colección Miradas matemáticas (Catarata, ICMAT, FESPM), está dedicado a algunas importantes familias de números naturales, entre los que están los números figurados, primos, capicúas, cíclicos, perfectos, amigos, intocables, narcisistas, felices o vampiros, entre muchos otros. Sin embargo, algunas curiosas familias de números quedaron fuera del mismo, ya que el espacio de un libro es limitado, como los llamados números parásitos, que van a ser presentados en esta entrada del Cuaderno de Cultura Científica, y de los que muchos aprendimos leyendo el libro El prodigio de los números, del divulgador científico estadounidense Clifford A. Pickover.
Portadas de los libros La gran familia de los números (Raúl Ibáñez, 2021) y El prodigio de los números (Clifford A. Pickover, 2002)¿Cómo se definen los números parásitos?Un número se dice que es un número parásito, o también número n-parásito, si al multiplicarlo por su último dígito -el de las unidades-, n, se obtiene un número con los mismos dígitos y en el mismo orden, salvo el último dígito que ha pasado a ser el primero. Por ejemplo, el número 102.564 es un número 4-parásito, puesto que si lo multiplicamos por 4 se obtiene el número 410.256.
Pickover explica el nombre que ha dado a estos números de la siguiente forma:
“Este tipo de números recuerda la idea de un organismo biológico que contiene un parásito (dígito) que vaga por el cuerpo del organismo anfitrión (el número de varios dígitos en el cual reside el parásito), mientras gana energía alimentándose (la operación de multiplicación)”.
Si pensamos en un caso simple, cuando el número de las unidades, luego también el número por el que lo multiplicamos, es 1, se obtienen los números repitunos 1, 11, 111, 1.111, 11.1111, etcétera (de estos números hemos escrito en la entrada ¿Tienen algún interés los números repitunos, cuyos dígitos son todos unos?). Por este motivo, normalmente se habla de números n-parásitos, para n entre 2 y 9.
Mostremos un par de ejemplos más de números parásitos, el número 102.564.102.564 y el número 1.012.658.227.848 (que hemos tomado de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, en concreto, la sucesión A081463, formada por los números parásitos):
Cuando el número por el que multiplicamos, n, no coincide con el dígito de las unidades, Pickover habla de números seudoparásitos (o n-seudoparásitos), como el número 128.205, que multiplicado por 4 (que no es el dígito de las unidades, que es 5), da como resultado 512.820.
Algunos otros ejemplos de números seudoparásitos son:
Existen una serie de números que están en la frontera de ser seudoparásitos, aquellos para los que podemos interpretar que tienen un cero a la izquierda, aunque en su representación claramente aparezca. Normalmente, no se considera que estos números, como el 25.641, sean números seudoparásitos, aunque se cumpla que al multiplicarlo por 4, el resultado sea 102.564, que como podemos interpretar que 25.641 es lo mismo que 025.641, se podría decir entonces que es un número 4-seudoparásito. Sin embargo, como comentábamos, lo usual es no considerar que pueda utilizarse el cero de esta manera.
En la literatura matemática actual, algunos autores utilizan el término “número parásito” para los dos tipos anteriores de números (parásitos y seudoparásitos), es decir, el número por el que multiplicamos no tiene que coincidir con el dígito de las unidades.
¿Cómo construir números parásitos?Para ver cómo construir números parásitos, vamos a analizar primero cómo son estos números. Como sabemos, todo número N de m cifras, cuya representación decimal es N = am–1 am–2 … a2 a1 a0, tiene el valor
Ahora, si el número N es un número n-parásito o n-seudoparásito, entonces al multiplicarlo por el número de un solo dígito n (que en el caso de los parásitos es igual al dígito de las unidades a0), se obtiene el número A = a0am–1 am–2 … a2 a1, cuyo valor es
Luego, la condición de que N sea n-seudoparásito (parásito si n = a0) es que N multiplicado por n es igual a A. A partir de esta expresión y de los valores anteriores de N y A, se obtiene que la condición de que el número natural N sea n-seudoparásito es equivalente a que
Luego ya tenemos la primera información útil, puesto que, si tenemos un número natural N expresado de esta forma, entonces es un número n-seudoparásito, con digito de las unidades a0.
Bueno, vamos a ver cómo construir números n-parásitos. Empecemos considerando el número racional n / (10 n – 1), que aparece en la expresión anterior, pero veámoslo en un caso particular, por ejemplo, n = 2. En tal caso, el número racional asociado a la construcción del número parásito es 2/19, que es el número decimal periódico, cuyo periodo es 105263157894736842, es decir,
que se repite de forma infinita. Ahora, recordemos que, si el periodo tiene m dígitos (en este ejemplo son 18), al multiplicar por 10m – 1 se obtiene el número natural que forma el periodo. En este caso, en particular, tenemos que
Por lo tanto, de lo anteriormente estudiado deducimos que 105.263.157.894.736.842 es un número 2-parásito.
Si volvemos al ejemplo inicial, que había propuesto Pickover, el número 4-parásito 102.564, veamos cómo lo habríamos generado. Como nuestro número de las unidades es n = 4, entonces consideramos el número racional n / (10 n – 1) = 4/39, que es un número decimal periódico, cuyo periodo es 102564, que tiene 6 dígitos. Es decir,
Y efectivamente, 102.564 es un número 4-parásito. Aprovechemos este ejemplo para comentar que del mismo se obtiene, lo que ocurre también para los demás ejemplos, que el número formado por k veces ese número n-parásito, sigue siendo n-parásito. Así, 102.564.102.564 o 102.564.102.564.102.564 también son números 4-parásitos, puesto que
Con este método de construcción podemos obtener los números n-parásitos más pequeños para los diferentes valores de n, de 2 a 9, como se muestra en la siguiente tabla. Estos forman la sucesión A092697 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS.
Tabla de los números de Dyson -los números n-parásitos más pequeños para cada n, del 2 al 9Claramente, la misma técnica sirve para crear números n-seudoparásitos. Tomemos el caso de la cifra multiplicativa n = 5, para los diferentes finales del número a0 (de 2 a 9). El resultado lo podemos ver en la siguiente imagen, en la que aparecen todos los números 5-seudoparásitos, con terminaciones entre 2 y 9 (más pequeños posibles para cada terminación). Los tres primeros pertenecen a ese grupo de números que se consideran, o no, seudoparásitos en función de si se permite jugar con el cero a la izquierda. Todos ellos tienen 42 dígitos (incluido el cero de la izquierda en los tres primeros casos), salvo uno de ellos, terminado en 7, que tiene 6 dígitos.
Algunas anécdotas parásitasLa primera anécdota, que aparece recogida en el libro El prodigio de los números, es una curiosidad relacionada con el número 5-parásito
102.040.816.326.530.612.244.897.959.183.673.469.387.755
que se puede escribir por parejas de dígitos, empezando en 1, que cada una es el doble de la siguiente (1) (02) (04) (08) (16) (32) y así se continúa. Aunque aquí tenemos que realizar cierta explicación. La siguiente pareja sería (64), sin embargo, en nuestro número parásito aparece (65), esto se debe a que la siguiente “pareja de dígitos” sería (128) que tiene tres dígitos, motivo por el cual el dígito 1 se suma a la anterior pareja, que pasa de (64) a (65). Y así se continúa con el resto, como aparece en la imagen.
Y si continuásemos añadiendo filas (cada una con el número que dobla al anterior y colocado correctamente) se irían generando más copias del número seudoparásito, cada una a continuación de la siguiente (hacia la derecha).
La siguiente curiosidad la encontramos en el número 5-seudoparásito 142.857, que resulta ser un número cíclico (para más información sobre estos, véase el capítulo 3, titulado La simetría de los números, del libro La gran familia de los números). Entre otras propiedades este número satisface la propiedad de que multiplicado por los números 1, 2, 3, 4, 5 y 6, se obtiene un número con las mismas seis cifras, el mismo orden entre ellas, pero rotado cíclicamente, como se muestra en la siguiente imagen:
Además, si se multiplica por 7 el resultado es 999.999. Pero este no es el único número seudoparásito, o parásito, que es también cíclico. Otros son el 2-parásito 105.263.157.894.736.842, el 3-parásito 1.034.482.758.620.689.655.172.413.793, o el 6-parásito 1.016.949.152.542.372.881.355.932.203.389.830.508.474.576.271.186.440.677.966. Pero de los números cíclicos ya hablaremos en otra ocasión.
Escultura Love (2021), del artista suizo Paolo GrassiBibliografía
1.- R. Ibáñez, La gran familia de los números, Libros de la Catarata – ICMAT – FESPM, 2021.
2.- Clifford A. Pickover, El prodigio de los números. Desafíos, paradojas y curiosidades matemáticas, Ma Non Troppo (ediciones Robinbook), 2002.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los números parásitos se ha escrito en Cuaderno de Cultura Científica.
Amoniaco ¿verde?
Si hablamos de hidrógeno verde, hemos de hablar necesariamente de amoniaco (NH3) verde. Por su capacidad para transportar y almacenar hidrógeno, el amoniaco es una opción preferente de cara a la descarbonización de distintos sectores en la transición energética, aunque la comparativa tecno-económica de las distintas vías de producción apunta a que su producción a partir de renovables aun no es competitiva.
En el marco de la transición energética, con el fin de descarbonizar sectores clave de la economía como la industria, la energía o el transporte, el amoniaco aparece como un vector energético idóneo, al tratarse de un portador de hidrógeno que puede transportarse y almacenarse con facilidad y seguridad. El amoniaco es el cimiento químico fundamental de la industria de los fertilizantes y es necesario para producir ácido nítrico, además de poder emplearse potencialmente en numerosas aplicaciones energéticas como combustible. En la producción del amoniaco es posible emplear bien combustibles fósiles o bien energías renovables, por lo que el uso de una vía u otra, aparte de la consecuente repercusión en la eficiencia e impacto ambiental, tiene un coste asociado que conviene analizar.
Con el objetivo de determinar la competitividad económica de los distintos modos de producción de amoniaco proyectados al año 2050, un equipo de investigadores ha realizado la modelización, simulación y evaluación tecno-económica de plantas de producción de amoniaco de gran escala (3.000 ton/día) a partir de diferentes vías. Los resultados obtenidos apuntan a que la alternativa de producción renovable tiene todavía retos que superar para resultar competitiva frente al uso de los combustibles fósiles.
Enséñame el dineroLa simulación y evaluación tecno-económica, realizadas por investigadores de la Escuela Técnica Superior de Ingenieros Industriales de la UPM y del organismo de investigación noruego SINTEF, se basan en la producción de amoniaco a gran escala empleando distintas fuentes de energía primaria: gas natural, combustibles sólidos (carbón y biomasa) y energías renovables (solar y eólica). Se han evaluado procesos con tecnologías consolidadas de referencia y diseños avanzados.
Los procesos que emplean tecnologías de referencia usando gas natural (con un coste asumido de 6,5 €/GJ) presentan un coste nivelado similar de en torno a 385 €/ton de NH3, mientras que el proceso avanzado con tecnología de conmutación de lazo químico (en inglés, GSR o “gas switching reforming”) logra reducir este coste un 14%.
Sin embargo, la vía de producción con energía renovable (solar y eólica) mediante electrolizadores tipo PEM localizada en el sur de España resulta aproximadamente un 50% más cara que a partir de gas natural con captura de CO2 mediante tecnologías convencionales.
Por otra parte, la síntesis de NH3 a través de la co-gasificación de carbón y biomasa implementando tecnologías de captura de CO2 permite alcanzar emisiones negativas. Dos procesos de referencia empleando tecnologías actualmente comerciales de gasificación GE y MHI alcanzan un coste nivelado de 391,5 y 410,1 €/ton, respectivamente.
Por otra parte, procesos de gasificación avanzada, tratamiento de syngas y reactores de membrana permiten alcanzar una reducción de coste del 15% con respecto al proceso de gasificación GE.
Del análisis se deduce que las plantas de producción de amoniaco a partir de combustibles sólidos, a pesar de presentar un coste de capital más elevado, proporcionan seguridad energética debido a que emplean combustibles locales y de bajo coste (carbón y biomasa), lo que compensa un coste nivelado relativamente superior con respecto a procesos que utilizan gas natural como energía primaria, debido a la incertidumbre de suministro y la elevada volatilidad del precio del mismo. “Debido a la naturaleza intermitente de los recursos solares y eólicos, se precisa almacenamiento intermedio de electricidad y/o hidrógeno para garantizar una producción estable, lo que encarece notablemente estos sistemas”, explica Carlos Arnaiz, investigador de la Escuela Técnica Superior de Ingenieros Industriales.
Buscando la competitividad del amoniaco verdeLa investigación sobre la producción del amoniaco no concluye aquí. Los investigadores de la UPM y SINTEF han participado en un estudio posterior, recientemente publicado, sobre el futuro de los combustibles y los costes de producción del amoniaco. Esta nueva investigación muestra, mediante un análisis estadístico de las variables tecno-económicas para una región importadora de gas natural (Europa), que la producción de amoniaco verde solo podría llegar a ser competitiva con respecto a combustibles fósiles cuando existe un recurso renovable muy abundante a bajo coste.
Alternativamente puede considerarse la vía de producción electrolítica con energía nuclear, evitando el almacenamiento de H2 o baterías al ser una fuente continua de energía, que podría tener una oportunidad si las políticas adoptadas asegurasen un coste de inversión de las plantas nucleares reducido. “En cualquier caso, resulta crítico minimizar los costes de producción de la energía primaria y el coste de capital de los electrolizadores”, apunta Arnaiz.
“Para el caso de energía renovable, la hibridación con una fuente alternativa de hidrógeno sin emisiones netas de CO2, como puede ser el biogás, permitiría reducir los costes de almacenamiento y sobredimensionamiento requerido asociados a la intermitencia del recurso solar o eólico, manteniendo una baja huella medioambiental”, concluye.
Referencias:
C.Arnaiz del Pozo, S. Cloete and ÁJ. Álvaro (2023) Ammonia from solid fuels: A cost-effective route to energy security with negative CO2 emissions Energy doi: 10.1016/j.energy.2023.127880
C. Arnaiz del Pozo and S. Cloete (2022) Techno-economic assessment of blue and green ammonia as energy carriers in a low-carbon future Energy Conversion and Management. doi: 10.1016/j.enconman.2022.115312
C. Arnaiz del Pozo, S. Cloete, J. H. Cloete and ÁJ. Álvaro (2023) The future of fuels: Uncertainty quantification study of mid-century ammonia and methanol production costs Energy Conversion and Management doi: 10.1016/j.enconman.2023.117701
Edición realizada por César Tomé López a partir de materiales suministrados por la Universidad Politécnica de Madrid
El artículo Amoniaco ¿verde? se ha escrito en Cuaderno de Cultura Científica.
El origen de los cráteres de impacto
Probablemente hayamos repetido en más de una ocasión en Planeta B que no hay una forma del relieve más habitual en nuestro Sistema Solar que los cráteres de impacto. Bueno, aunque en la Tierra, debido a que todavía es un planeta con una gran dinámica externa e interna, son pocos los que resisten al paso del tiempo, y muy pocos los que todavía conservan esa forma característica y reconocible. Mayoritariamente los más recientes.
Esto no pasa en otros lugares. Cuando miramos a la Luna a través de un telescopio -no hace falta que tenga muchos aumentos- además del contraste de los mares lunares con el color más claro de las tierras altas, se ven innumerables cráteres. Casi diría que incontables porque incluso aunque estuviésemos en su superficie y cogiésemos una muestra de roca lunar, hasta esta podría tener cráteres en miniatura fruto de los impactos de micrometeoritos con su superficie, ya que, al no tener una atmósfera protectora, cualquier cuerpo por pequeño que sea puede llegar a impactar.
El cráter Larmor Q, situado en la Luna, muestra una transición entre una morfología simple típica de cráteres más pequeños y una más compleja, que suele estar asociada a cráteres más grandes. Imagen cortesía de NASA/GSFC/Arizona State UniversityPero, ¿qué nos cuentan los cráteres más allá de una tumultuosa historia de impactos? A menudo de su forma y tamaño podemos conocer detalles sobre el objeto que impactó, sobre su velocidad, el ángulo de entrada e incluso hacernos una idea sobre su tamaño e incluso los propios cráteres pueden servirnos como una ventana geológica hacia capas más profundas que de otra manera nos serían invisibles en las superficies planetarias.
Lo cierto es que los cráteres son todavía más importantes dentro de las ciencias planetarias por muchas razones, desde su utilidad para crear dataciones de las superficies -a falta de muestras que nos puedan aportar una edad absoluta- hasta la posible existencia de antiguos ambientes habitables.
Un cráter de impacto circular en Marte. Su forma todavía bien perfilada nos indica que es relativamente reciente y, por lo tanto, ha tenido poco tiempo de sufrir cambios. Imagen cortesía de NASA/JPL-Caltech/UArizona.Hay una razón más y que a veces se menciona poco, y es que nos pueden ayudar también a comprender la historia geológica de los cuerpos de nuestro Sistema Solar. Los procesos de impacto y la dispersión de los materiales provocada por estos tienen una influencia en la evolución de sus superficies. Esta comprensión serviría para mejorar nuestras cronologías planetarias y comprender mejor la secuencia de eventos que hay superpuestos, permitiéndonos separar páginas de la historia geológica.
Un nuevo estudio publicado por investigadores brasileños aborda la perspectiva de la formación de los cráteres desde la simulación por ordenador para intentar responder a la enorme diversidad en morfologías que podemos observar y cuáles podrían ser los factores más importantes.
Del estudio es destacable como han determinado que los cuerpos con una alta velocidad de rotación -es decir, aquellos que impactan contra otro cuerpo mayor- son capaces de provocar una gran dispersión de los materiales, generando cráteres menos profundos, pero más anchos.
Pero al mismo tiempo este fenómeno también se puede observar provocado por cuerpos con menos cohesión, es decir, en los que los granos que los componen van unidos con menos fuerza entre ellos y como podría ser el caso de los asteroides de tipo pila de escombros -o rubble pile por sus siglas en inglés- y que como consecuencia de esta baja cohesión al impactar también provocan una gran dispersión de los materiales y morfologías diferentes a las que provocan cuerpos monolíticos o resistentes.
La dispersión de los materiales más allá del borde del cráter nosotros la vemos representada como la eyecta pero también podrían incluso, si los materiales expulsados lo hacen a la suficiente velocidad, formar poblaciones secundarias de cráteres a veces difíciles de discriminar y que con estos nuevos modelos podrían acotarse mejor.
No cabe duda de que estudios como este, junto con futuros ensayos experimentales, nos podrán ayudar a conocer mejor las poblaciones de los cráteres y a detectar señales que nos ayuden a conocer mejor los responsables de su formación y, con ello, a completar la historia geológica de los planetas.
Referencias:
De Carvalho, D. D., Lima, N., & De Moraes Franklin, E. (2023) Impact craters formed by spinning granular projectiles. Physical Review doi: 10.1103/physreve.108.054904
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo El origen de los cráteres de impacto se ha escrito en Cuaderno de Cultura Científica.
Capacidad lectora y grado de desarrollo de la materia blanca
La capacidad lectora de los niños y niñas, y de los adolescentes también, depende del grado de desarrollo de su materia blanca en dos áreas concretas del hemisferio cerebral izquierdo. La materia blanca está formada por axones neuronales y por las vainas mielínicas que los envuelven. Los axones transmiten rápidamente información, en forma de impulsos nerviosos, entre zonas relativamente distantes, y cumplen una función esencial en la interconexión de diferentes enclaves del sistema nervioso.
En los niños y niñas que leen mejor es mayor el desarrollo de la materia blanca en dos fascículos (haces de fibras nerviosas de cierta longitud) del hemisferio cerebral izquierdo, el arqueado y el longitudinal inferior.
Foto: Johnny McClung / UnsplashA esa conclusión han llegado los autores de un estudio realizado a lo largo de tres años con 30 niñas y 25 niños comprendidos entre los 7 y los 12 años de edad. A esos chicos y chicas se les analizó, en diferentes ocasiones, el grado de desarrollo de diferentes fascículos cerebrales, y para ello se utilizó una técnica denominada resonancia magnética de difusión, técnica de imagen que sirve para determinar la intensidad de los procesos de difusión que tienen lugar en el interior de los axones neuronales. A los mismos chicos y chicas se les evaluó también su capacidad lectora utilizando test estándares para ello. La conclusión de esas determinaciones fue, como se ha apuntado, que el desarrollo de los dos fascículos del hemisferio izquierdo citados antes (el arqueado y el longitudinal inferior) están relacionados con la habilidad lectora.
Para poder interpretar correctamente esa asociación es preciso tener en cuenta cómo se produce el desarrollo de la materia blanca en el cerebro. Durante el desarrollo prenatal las conexiones axonales de larga distancia son guiadas a sus lugares diana en la corteza cerebral mediante mecanismos de señalización molecular. Desde el final del periodo prenatal y a lo largo de la infancia y la adolescencia, los oligodendrocitos van depositando capas de mielina alrededor de esos axones (mielinización); la mielina está formada por sucesivas capas lipídicas, lo que contribuye a aislar eléctricamente a los axones del exterior y, como consecuencia de ello, a hacer más rápida la transmisión de los impulsos nerviosos. Ese proceso depende tanto de información genética como de factores educativos y ambientales de otro tipo; es un proceso plástico, en el que el nivel de actividad eléctrica de los axones también influye en la mielinización.
Conforme se desarrolla el cerebro, hay axones neuronales que se hacen cada vez mayores, van ocupando más espacio. Y, a la vez, otros son eliminados. Esa supresión selectiva de axones se denomina poda (pruning). La poda se produce, en parte al menos, como consecuencia del aprendizaje. Esto es, al aprender se descartan determinadas vías o conexiones entre neuronas y entre áreas cerebrales, a la vez que se potencian, precisamente mediante la mielinización, otras. Ese desarrollo de la materia blanca, consistente en mielinización y poda simultáneas, es lo que se caracteriza experimentalmente mediante la técnica de visualización utilizada en esta investigación.
Llegados a este punto, interesa saber cuáles son las áreas cerebrales que están conectadas por los fascículos cuyo desarrollo está vinculado con la habilidad lectora. Se trata, efectivamente, de áreas importantes para dicha actividad. El fascículo arqueado conecta la corteza frontal inferior, incluida el área de Broca y la corteza temporal lateral, incluida el área de Wernicke, y es una ruta importante para la consciencia fonológica, que es esencial para el desarrollo de la capacidad lectora. El fascículo longitudinal inferior es la vía principal para la transmisión de señales entre el lóbulo occipital y el lóbulo temporal. Una porción del fascículo longitudinal inferior se proyecta hacia el área del surco temporal occipital, que es donde se procesa la forma visual de las palabras escritas. Esa área se considera esencial para “ver” las palabras, para visualizarlas.
Así pues, las áreas conectadas por los fascículos en cuestión son áreas implicadas en el procesamiento y comprensión del lenguaje escrito. La lectura requiere una comunicación eficiente entre regiones cerebrales que procesan información de diferente naturaleza: auditiva, visual y del lenguaje, y son regiones que no se encuentran en posiciones adyacentes, sino a varios centímetros de distancia unas de las otras. De ahí la importancia de un adecuado desarrollo de los fascículos de materia blanca que conectan esas áreas, ya que son los axones que los constituyen los encargados de transmitir la información relativa a esos procesos.
Según los autores de la investigación, aprender a leer depende en parte de la capacidad de las rutas de materia blanca para desarrollarse en respuesta al entrenamiento lector. Como se ha visto, el desarrollo de los fascículos arqueado y longitudinal inferior está asociado con la habilidad lectora de chicos y chicas. Resultaría, por ello, muy útil conocer con cierta precisión las condiciones bajo las que un determinado circuito neuronal es plástico o es estable, y cómo se relaciona el grado de plasticidad o mutabilidad de un circuito con el comportamiento del individuo.
El cerebro madura de un modo secuencial, de manera que algunos circuitos se desarrollan y se estabilizan mientras otros mantienen una cierta capacidad para cambiar. Por esa razón, el aprendizaje de la lectura debiera realizarse cuando los sistemas implicados ya se han desarrollado en una medida suficiente pero manteniendo aún un cierto potencial plástico, de manera que puedan responder a la enseñanza con un desarrollo ulterior.
Fuente: Jason D. Yeatman, Robert F. Dougherty, Michal Ben-Shachar y Brian A. Wandell (2012): Development of white matter and reading skills. PNAS 109 (44): E3045-E3053
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Capacidad lectora y grado de desarrollo de la materia blanca se ha escrito en Cuaderno de Cultura Científica.
¡Ups! El éter
El éter ha tenido muchísimas funciones antes de que finalmente Einstein lo descartara cuando expuso la teoría de la relatividad especial. Fue un elemento más de la naturaleza por donde se movían los dioses y nos envolvía, dio movimiento a los elementos celestes… incluso sirvió para explicar la propagación de la luz.
Los vídeos de ¡UPS¡ presentan de forma breve y amena errores de la nuestra historia científica y tecnológica. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se han emitido en el programa de ciencia Órbita Laika (@orbitalaika_tve), en la 2 de RTVE.
Producción ejecutiva: Blanca Baena
Guion: José Antonio Pérez Ledo
Grafismo: Cristina Serrano
Música: Israel Santamaría
Producción: Olatz Vitorica
Doblaje: K 2000
Locución: José Antonio Pérez Ledo
Edición realizada por César Tomé López
El artículo ¡Ups! El éter se ha escrito en Cuaderno de Cultura Científica.
¿Encontraremos agujeros de gusano cósmicos como predice Doraemon?
Nintendo, CC BY
Doraemon, el icono pop otaku, viaja en el tiempo, sin despeinarse, desde el siglo XXII a nuestros días para cuidar a Nobita. Su máquina del tiempo, la puerta mágica, da paso a agujeros de gusano cósmicos, atajos en el universo.
Doraemon no es el único que ha encontrado el acceso. Roy Batty, el replicante de Blade Runner, vio la puerta de Tannhäuser, la que separa el mundo del bien y del mal. Y podríamos seguir enumerando ejemplos sin parar.
La ficción con poso científico hace resonar en nuestra cabeza esas locas arquitecturas espacio-temporales conocidas como agujeros de gusano. Pero ¿de verdad son tan locas?
La novela Contact, de Carl Sagan, inspiró notables avances en la física de la gravitación. Y es que la idea, científicamente, no era tan descabellada, porque los agujeros de gusano caben perfectamente en la relatividad de Einstein. De ese modo Kip Thorne, físico teórico estadounidense, ganador del Premio Nobel de Física en 2017 y el cerebro científico de la película Interstellar, convenció a uno de sus estudiantes, Charles W. Misner, para hacer cálculos que preveía relativamente sencillos. Y sobre el papel encontraron algunos ejemplos chulísimos de agujeros de gusano.
Atajos en el cosmos¿Viajarían ustedes hasta Can Mayor, la galaxia más cercana? No parece buena idea al saber que tardaríamos más de 25 000 años en llegar. A no ser que… ¡tomemos un atajo en forma de agujero de gusano!
¿Encontraremos alguna vez una de estas rarezas? ¿Descubriremos en el futuro un agujero de gusano?
Al fin y al cabo no hace tanto nos preguntábamos lo mismo sobre los agujeros negros. Y se han encontrado agujeros negros por centenares, incluso se han fotografiado.
Un agujero de gusano, básicamente, es el resultado de unir con una especie de “pegamento indeleble” dos embudos por su zona más estrecha. La garganta de ambos embudos se mantiene abierta mediante alguna versión de materia poco convencional. Esa materia sería, justamente, el pegamento.
La Relatividad General no lo es todoLa Relatividad General de Einstein es una teoría muy potente, pero no es omnipotente. Es decir, no lo explica absolutamente todo. Y lo mismo ocurre con las teorías que se han propuesto para generalizarla. A grandes rasgos solo nos dicen cuál es la geometría del agujero de gusano, y poco más.
Podríamos decir que, de alguna manera, la Relatividad General es como el código de circulación. Imaginemos que nos encontramos con esa señal del código en un viaje por una autovía entre montañas. Hay dos opciones para saber a dónde llegaremos al cruzarla. La primera, obviamente, es cruzarla. La segunda consiste en averiguar si existe un camino alternativo por una nacional larga y aburrida que suba el puerto. La Relatividad General solamente nos avisa de la existencia del túnel. Pero no nos da información anticipada.
¿Nos llevará el túnel a otro punto de nuestro universo? ¿O, por el contrario, apareceremos por sorpresa en otro universo conectado con el nuestro?
Esta incertidumbre acerca del destino de nuestro viaje se debe a que la Relatividad General no habla de la topología del universo. Saber que tenemos un túnel es competencia de la geometría, y la teoría de Einstein se maneja bien ahí. En cambio, para saber a donde nos lleva el agujero tenemos que recurrir a la topología.
Es decir, para estudiar los agujeros de gusano hay que sazonar un poco la teoría de la Relatividad con un extra de salsa matemática.
Agujeros de gusano y materia éxóticaLos agujeros de gusano son extremadamente exquisitos en sus requerimientos. Necesitan que rompamos con nuestras ideas preconcebidas para darles cabida. Esas estructuras tienen la manía de querer cerrar sus gargantas. Cualquier pequeña perturbación manda al garete la estructura. Precisamente eso ocurre con uno de los primeros modelos de agujero de gusano, el que esbozó Albert Einstein con su colega Nathan Rosen.
Una posibilidad para contrarrestar esa inestabilidad, y hacer que el agujero de gusano sea robusto, es que la materia dentro de ese universo muestre propiedades exóticas. Por ejemplo, del tipo que a ojos de un (veloz) neutrino que atravesase el agujero de gusano fuese materia con masa negativa. Pero eso es algo que nos resulta inconcebible. Si estamos de pie sujetando una manzana de masa negativa y la soltamos no la veríamos caer. ¡Subiría en lugar de caer! Obviamente nunca se ha observado tal cosa. Por eso resulta difícil aceptar una estructura en el universo que necesite algo tan raro para existir.
Torsión en el universoOtra posibilidad es salirnos de la teoría de Einstein y permitir la existencia de torsión en el Cosmos. Para entender qué pasa en un universo con esa propiedad podemos imaginarlo como si fuera un cinturón, así que tendría tan solo dos dimensiones. Si nos lo atamos mal alrededor de la cintura de manera que vemos el anverso y el reverso, entonces ese es un universo con torsión. Y si una hormiga se pasease por el cinturón, no podría avisarnos de que nos lo hemos atado mal. Solo si lo miras desde fuera tienes acceso a la tercera dimensión espacial y ves que el cinturón (o universo) está girado.
Si hubiera esa torsión en el universo, los agujeros de gusano podrían comunicar espacios-tiempos distintos, dimensiones distintas, de un lado y del otro de la torsión.
La torsión en el universo, como en una cinta de Möbius (en la imagen) permitiría la existencia de agujeros de gusano.freepng, CC BY
Permitir que el universo se tome esas libertades en sus propiedades matemáticas es muy audaz. Pero eso no detiene a los físicos.
Partículas de la gravedad mutantesLas teorías gravitatorias, no solo la de Einstein, se interpretan a menudo como una manifestación geométrica de partículas aún no descubiertas: los hipotéticos gravitones. Desde esta perspectiva se está explorando con interés una nueva posibilidad, de nuevo, sobre el papel. En estas propuestas, las leyes que gobiernan la conservación de la materia no son las habituales. En concreto, los gravitones se comportarían como tales en ciertas zonas del espacio-tiempo pero en otras se convertirían en partículas más convencionales. Es decir, mutarían. Esto no deja de ser una deliciosa locura. Y si eso puede dar lugar a agujeros de gusano, ¿por qué no entretenernos investigándolas?
Los retos que plantean esas estructuras no acaban ahí. Estudiar los agujeros de gusano es un ejercicio intelectual que requiere una apertura de mente en muchas direcciones. El reto no es solo abrir la mente, sino la garganta del agujero de gusano. Pero el desafío recuerda mucho al que permitió que tras décadas de conjeturas los agujeros negros dejasen de ser especulaciones.
Si los físicos continuamos explorando el desafío, en parte es gracias a esa motivación que regala la ciencia-(no tan de)-ficción.
¡Feliz viaje, Doraemon!
Sobre las autoras: Ruth Lazkoz, Profesora Titular de Física Teórica, UPV/EHU, e Ismael Ayuso Marazuela, Investigador de la UPV/EHU en el área de Física Teórica
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Encontraremos agujeros de gusano cósmicos como predice Doraemon? se ha escrito en Cuaderno de Cultura Científica.
Jugando a los tronos geológicos
Reconozco que me encantan las novelas de la famosa saga “Canción de Hielo y Fuego” de George R. R. Martin, por lo que no podía perderme ningún capítulo de la serie de televisión basada en estos libros y titulada como el primero, “Juego de Tronos”. Aunque, según iban avanzando las temporadas, cada vez me fueron dejando más fría que un “caminante blanco”. Así que, en muchos capítulos, ya no prestaba atención a la trama y me centraba más en analizar uno de los aspectos más destacados de esta superproducción de HBO, los paisajes en los que se rodaron.
Me parecía que la historia que me contaban esas rocas podía ser, en muchas ocasiones, más interesante que la narrada por los personajes de ficción. Por lo que hoy quiero que realicemos un viaje por aquellas localizaciones españolas cuyo paisaje las hizo merecedoras de ser el lugar elegido para albergar algunos de los momentos clave de las últimas temporadas, desvelando esa historia geológica que esconden. Y vamos a hacerlo yendo desde los más antiguos hacia los más modernos, geológicamente hablando.
Antes de seguir, un aviso por si no habéis visto la serie. Voy a intentar no desvelar demasiados spoilers en este artículo, pero indicaré los episodios en los que aparecen las localizaciones geológicas que he seleccionado junto con un breve contexto de la trama. Por tanto, si no queréis que os destripe alguna información importante, no sigáis leyendo.
Aspecto de las morfologías en bolos que adoptan las rocas graníticas en el Monumento Natural Los Barruecos de Malpartida (Cáceres).La primera parada de este viaje la realizaremos en el Monumento Natural Los Barruecos de Malpartida, Cáceres. Esta localidad aparece en los episodios 4 y 5 de la temporada 7, siendo el escenario donde se desarrolla la batalla entre los dothrakis, comandados por Daenerys montada a lomos de Drogon, y los ejércitos de los Lannister y los Tarly. Aquí nos encontramos con la presencia de granitos (roca ígnea plutónica) formados en el Carbonífero. Después de millones de años de estar sometidos a una combinación de esfuerzos tectónicos compresivos y erosión de las rocas que se depositaron por encima, estos granitos salieron a la superficie muy fracturados. Y aquí fueron sometidos a más alteración por los agentes meteorológicos, dando lugar a las curiosas estructuras que dan nombre a este paisaje: los “barruecos” o “berruecos”, que no son más que una acumulación de bolos graníticos aislados con formas caprichosas.
Castillo de Zafra (Campillo de Dueñas, Guadalajara) asentado sobre los estratos de areniscas y conglomerados de origen fluvial del Triásico Inferior. Foto: Diego Delso / Wikimedia CommonsSaltamos ahora a Campillo de Dueñas, en Guadalajara, y concretamente al Castillo de Zafra, protagonista del episodio 10 de la temporada 6, cuando Brandon Stark tiene una visión del pasado y descubre el verdadero origen de Jon Snow. Este castillo está construido sobre unos estratos de areniscas y conglomerados de origen fluvial, formados por los depósitos de materiales terrígenos y detríticos en los canales y llanuras de inundación de grandes ríos de tipo trenzado que se desarrollaron en esta zona durante el Triásico Inferior, en las denominadas facies Buntsandstein. Hoy en día, toda esta zona forma parte del Geoparque Mundial Unesco Molina-Alto Tajo.
A) Detalle de los depósitos de tipo flysch detrítico de la playa de Itzurun (Zumaia) del Paleoceno. B) Vista aérea de las escaleras de acceso a la ermita de San Juan de Gaztelugatxe (Bizkaia) construidas sobre un flysch carbonatado de finales del Cretácico; foto: Clementp1986 / Wikimedia Commons.Ahora es el turno de hablar de las localizaciones del País Vasco, ya que se eligieron dos zonas de rodaje en Bizkaia, la playa de Muriola, cerca de Barrika, y San Juan de Gaztelugatxe, y una zona en Gipuzkoa, en concreto la playa de Itzurun en Zumaia. Estas tres locaciones costeras están presentes en los episodios 1 a 4 de la temporada 7, cuando Daenerys desembarca en Rocadragón, desde donde empieza a hacer alianzas mientras planifica su táctica de asalto para conquistar los 7 Reinos. En los tres sitios afloran materiales de tipo flysch, es decir, una alternancia rítmica de rocas más resistentes y rocas más blandas que forman una especie de empaquetado que a mí siempre me recuerda a un pastel de milhojas de hojaldre. Pero el flysch de Gipuzkoa no es el mismo que el que aparece en Bizkaia, aunque hace falta tener un ojo geológico entrenado para darse cuenta.
Así que, de manera análoga a cuando Daenerys atraviesa las puertas de la fortaleza de Rocadragón y da un salto en el espacio, pasando de Gipuzkoa a Bizkaia en el mismo plano cinematográfico como si hubiese atravesado una stargate, también pega un cambio en el tiempo y en el medio ambiente en el que se depositaron esos materiales que se ven a su alrededor. En la playa de Itzurun, Zumaia, aflora un flysch de tipo detrítico formado por la alternancia de lutitas y areniscas depositadas por corrientes de turbidez en zonas de fondo de cuenca marina, a varios miles de metros de profundidad, a comienzos del Paleoceno. De hecho, esta playa, que pertenece al Geoparque Mundial Unesco de la Costa Vasca, posee dos clavos dorados que marcan los estratotipos globales de referencia para dos de las subdivisiones geológicas de este periodo temporal. Sin embargo, el flysch de las dos localidades vizcaínas es de tipo carbonatado, mostrando una sucesión de calizas y margas de fondos marinos menos profundos que los de Zumaia que se desarrollaron en esta zona unos cuantos millones de años antes, a finales del Cretácico.
A) Imagen general de una de las balsas artificiales construidas en Bárdenas Reales de Navarra que sirvió de campamento base para el ejército dothraki, con los cerros y elevaciones conformadas por depósitos detríticos del Mioceno a su alrededor. B) Detalle de la pared de arenas fluviales poco consolidadas de finales del Cuaternario del cañón excavado por el arroyo que fluye a la derecha de la imagen.Y el último lugar al que vamos a viajar es el Parque Natural de las Bardenas Reales de Navarra, que podemos disfrutar en el episodio 6 de la temporada 6, donde Daenerys recupera la confianza de los dothrakis y vuelve a comandarlos para dar comienzo a la gran batalla por gobernar en los 7 Reinos. Aquí disfrutamos de los materiales geológicos más modernos de todo nuestro viaje, ya que el paisaje está conformado por depósitos sedimentarios cenozoicos. En concreto, encontramos unas mesetas y pequeñas elevaciones montañosas con niveles de lutitas y areniscas de colores rojizos, anaranjados y amarillentos que se depositaron en zonas circundantes a unos ríos que desembocaban en humedales y márgenes de lagos durante el Mioceno. Por otro lado, Daenerys y su ejército atraviesan unos escarpados cañones cuyas paredes están compuestas por arenas poco consolidadas de colores pardos claros y amarillentos que representan diferentes fases de relleno y erosión de ríos y arroyos durante los últimos miles de años, ya a finales del Cuaternario.
Y hasta aquí ha llegado nuestro pequeño paseo. Espero haberos convencido de que esta serie, aparte de para conocer fabulosos monumentos y edificios históricos de nuestra geografía, también nos permite descubrir parte de la historia geológica de nuestro país mientras disfrutamos de unos maravillosos paisajes. Para ello, he seleccionado localizaciones muy evidentes, donde la Geología es la gran protagonista. Pero no ha sido el único criterio que he seguido a la hora de elegirlos. Si habéis visto la serie, seguro que os habéis percatado de que tengo cierta debilidad por el clan Targaryen, así que he ido a episodios clave en la historia de esta familia. Pero no voy a desvelar más spoilers.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Jugando a los tronos geológicos se ha escrito en Cuaderno de Cultura Científica.
Elizabeth Scott, entre la astronomía y la estadística
Scott nunca fue reacia a dedicar su tiempo y energía, ni a implicarse en una causa controvertida.
L. Billard y Marianne A. Ferber
Elizabeth Scott (1972). Fuente: Statistical Science.Elizabeth Scott nació el 23 de noviembre de 1917 en la base militar de Fort Sill, en Oklahoma, donde su padre prestaba servicio durante la Primera Guerra Mundial.
Cuando Elizabeth tenía cuatro años, su padre dejó su trabajo militar y la familia se mudó a Berkeley, en California, donde vivió el resto de su vida. Scott realizó su formación secundaria en Oakland, en una escuela que admitía a niñas y niños del entorno cercano a la localidad. Ella era la única alumna matriculada en los cursos avanzados de matemáticas; pronto destacó por sus capacidades en esta materia.
Los comienzos en astronomíaEn 1935 la Gran Depresión aún estaba muy presente en Estados Unidos. Como tantas otras familias, la de Elizabeth atravesaba serias dificultades económicas en el momento en el que ella se preparaba para ingresar en la universidad. La de Berkeley tenía unas tasas de matrícula bajas y estaba junto a su casa, así que Elizabeth se inscribió en el programa de astronomía de este centro de enseñanza superior. Y los estudios se convirtieron en su principal prioridad.
Durante su época de estudiante, Scott no tuvo profesoras. Aunque en contadas ocasiones, cuando los profesores titulares se ausentaban, alguna mujer los sustituía. En una de estas situaciones conoció a Pauline Sperry (1885-1967), una de las dos únicas profesoras del departamento de matemáticas. En cierta ocasión, junto a otras estudiantes, Sperry la invitó a comer en el Women’s Faculty Club. Preocupada por los problemas de las mujeres, Scott se convirtiría posteriormente en una componente activa de esta asociación.
En 1939, con solo 22 años, Scott publicó su primer artículo de investigación. Se centraba en el estudio de cometas. Publicó un total de doce trabajos sobre este tema (hasta 1946); la mayoría de ellos eran listas de elementos y tablas con las posiciones futuras de un determinado cometa a lo largo de un año. Scott escribió sobre diferentes temas astronómicos a lo largo de toda su carrera.
Se doctoró en 1949 con una tesis realizada bajo la supervisión del astrónomo Robert Julius Trumpler (1886-1956). La memoria constaba de dos partes: Contribution to the Problem of Selective Identifiability of Spectroscopic Binaries y Note on Consistent Estimates of the Linear Structural Relation Between Two Variables.
En aquella época las mujeres no podían utilizar los grandes telescopios, quedando relegadas a ejercer de ayudantes de algún astrónomo trabajando en algún observatorio. De hecho, algunas personas habían recomendado a Elizabeth no realizar una tesis doctoral; argumentaban que ese título la convertiría en una profesional excesivamente cualificada y eso le dificultaría su acceso a cualquier puesto en el campo de la astronomía.
La estadística y la investigación astronómicaComprobando las pocas oportunidades que se le presentaban en el campo de la astronomía, decidió centrase en sus estudios matemáticos. En 1951 fue nombrada profesora adjunta del Departamento de Matemáticas de Berkeley, donde trabajó durante el resto de su carrera.
En la época de su licenciatura, Scott había decidido renunciar a una ayudantía de astronomía para trabajar en un proyecto relacionado con la guerra liderado por el matemático y estadístico Jerzy Neyman (1894-1891). En ese momento quedó fascinada por la estadística y decidió combinar sus dos intereses científicos utilizando herramientas estadísticas para responder a preguntas astronómicas.
Su primer artículo uniendo ambas disciplinas fue Distribution of the longitude of periastron of spectroscopic binaries (1949) en el que examinaba la distribución de 78 sistemas binarios eclipsantes y 341 no eclipsantes teniendo en cuenta la excentricidad de la órbita y la longitud del periastro. Su análisis demostró que, para la mayoría de las estrellas binarias, la distribución no es uniforme. En particular mostraba que, con una probabilidad de error inferior a 0,02, cuando la excentricidad es superior a 0,12, la distribución de los valores del periastro en los sistemas estelares eclipsantes difiere de la de los no eclipsantes.
Elizabeth Scott con un grupo de jóvenes astrónomos (Universidad de Purdue, 1975). Fuente: Statistical Science.
Más adelante se implicó en un estudio iniciado por Charles Donald Shane (1895-1983). El astrónomo deseaba saber si la estadística podía explicar el fenómeno que él denominaba la naturaleza «grumosa» de la distribución de las galaxias. Scott publicó más de diez artículos sobre este tema, algunos en colaboración con Neyman y con Shane. En 1958, junto a Neyman, Scott publicó en el Journal of the Royal Statistical Society el artículo Statistical approach to the problems of cosmology, cuyo abstract comenzaba de este modo:
La hipótesis básica que sustenta las cosmologías deterministas actuales, a saber, el llamado principio cosmológico, sólo puede enunciarse con precisión en términos de conceptos probabilísticos. Por consiguiente, cabe esperar un progreso y una ganancia estética considerables si se abandona el determinismo y se sustituye por un tratamiento probabilístico directo de la cosmología.
La estadística aplicada a otros camposDurante las décadas de 1960 y 1970, Scott investigó sobre la modificación del clima, centrándose en experimentos para estimular la lluvia mediante la siembra de nubes. La mayor parte de su trabajo consistió en el análisis estadístico de los datos de estudios meteorológicos conocidos, como el experimento de Santa Bárbara (1957-1959), el experimento Grossversuch III (1957-1963, sobre supresión del granizo) o el experimento Whitetop (1960-1964). Scott elaboró más de veinte trabajos sobre la siembra de nubes, casi todos con Neyman y el grupo de Berkeley, concluyendo que este sistema podía provocar tanto grandes aumentos como grandes disminuciones de las precipitaciones en zonas a arbitrariamente extensas.
Scott participó también en el Committee on National Statistics del National Research Council. Entre otros, colaboró en un estudio sobre la relación entre el cáncer de piel y el aumento de la intensidad de la radiación ultravioleta. Los modelos estadísticos que elaboró se han utilizado durante años para evaluar las amenazas derivadas del agotamiento de la capa de ozono.
En 1970, Elizabeth Scott copresidió un subcomité del Senado de Berkeley que publicó un exhaustivo estudio sobre la situación de las mujeres en el mundo académico. Se examinaban los salarios, la contratación, la promoción, las oportunidades de investigación y los nombramientos en comités. Se documentaron considerables disparidades entre mujeres y hombres. Scott se centró de inmediato en buscar soluciones; sus resultados fueron utilizados por las universidades para realizar ajustes salariales y otras mejoras para sus trabajadoras.
El intenso y variado trabajo de Elizabeth Scott le valió un amplio reconocimiento a nivel internacional. Falleció repentinamente el 20 de diciembre de 1988.
Referencias
- L. Billard and Marianne A. Ferber, Elizabeth Scott : Scholar, Teacher, Administrator, Statistical Science 6 (2) (1991), 206-216
- Francesca Webb and Edmund Robertson, Elizabeth Scott, MacTutor History of Mathematics Archives, University of St Andrews
- Larry Riddle, Elizabeth Scott, Biographies of Women Mathematicians, Agnes Scott College
- David Blackwell, Elizabeth Colson, Susan Ervin-Tripp, Lucien Le Cam, Erich Lehmann, Laura Nader, Elizabeth Leonard Scott, Statistics: Berkeley, University of California, 1991
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Elizabeth Scott, entre la astronomía y la estadística se ha escrito en Cuaderno de Cultura Científica.
Un célebre algoritmo criptográfico se actualiza
Dos investigadores han mejorado una técnica bien conocida para la reducción de bases de retículos, abriendo nuevas vías para experimentos prácticos en criptografía y matemáticas.
Un artículo de Madison Goldberg. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Kristina Armitage / Quanta MagazineEn nuestras vidas cada vez más digitales la seguridad depende de la criptografía. Envía un mensaje privado o paga una factura en línea y dependerás de algoritmos diseñados para mantener tus datos secretos. Naturalmente, algunas personas quieren descubrir estos secretos, por lo que los investigadores trabajan para probar la robustez de estos sistemas y asegurarse de que no se desmoronen a manos de un atacante inteligente.
Una herramienta importante en este trabajo es el algoritmo LLL, que lleva el nombre de los investigadores que lo publicaron en 1982: Arjen Lenstra, Hendrik Lenstra Jr. y László Lovász. LLL, junto con sus numerosos descendientes, puede desbaratar ardides criptográficos en algunos casos; estudiar cómo se comportan ayuda a los investigadores a diseñar sistemas que sean menos vulnerables a los ataques. Y los talentos del algoritmo van más allá de la criptografía: también es una herramienta útil en campos matemáticos avanzados como la teoría de números computacional.
A lo largo de los años, los investigadores han perfeccionado variantes de LLL para hacer que el enfoque sea más práctico, pero sólo hasta cierto punto. Ahora, un par de criptógrafos han creado un nuevo algoritmo estilo LLL con un aumento significativo en la eficiencia. La nueva técnica, que ganó el premio al Mejor Artículo en la Conferencia Internacional de Criptología de 2023, amplía la gama de escenarios en los que informáticos y matemáticos pueden utilizar enfoques similares a LLL.
«Fue realmente emocionante», comenta Chris Peikert, criptógrafo de la Universidad de Michigan que no participó en el artículo. La herramienta ha sido objeto de estudio durante décadas, afirma. «Siempre es agradable cuando un objetivo en el que se ha trabajado durante tanto tiempo… demuestra que todavía hay sorpresas por encontrar».
Los algoritmos de tipo LLL operan en el mundo de los retículos: colecciones infinitas de puntos espaciados regularmente. Como una forma de visualizar esto, imagina que estás enbaldosando un suelo. Podrías cubrirlo con baldosas cuadradas y las esquinas de esas baldosas formarían un retículo. Alternativamente, puedes elegir una forma de baldosa diferente (por ejemplo, un paralelogramo alargargado) para crear un retículo diferente.
Un retículo se puede describir utilizando su «base». Esta es un conjunto de vectores (esencialmente, listas de números) que puedes combinar de diferentes maneras para obtener cada punto del retículo. Imaginemos un retículo con una base formada por dos vectores: [3, 2] y [1, 4]. El retículo es simplemente todos los puntos a los que puedes llegar sumando y restando copias de esos vectores.
Ese par de vectores no es la única base del retículo. Todo retículo con al menos dos dimensiones tiene infinitas bases posibles. Pero no todas las bases son iguales. Una base cuyos vectores son más cortos y más cercanos a ángulos rectos entre sí suele ser más fácil de trabajar y más útil para resolver algunos problemas computacionales, por lo que los investigadores llaman a esas bases «buenas». Un ejemplo de esto es el par de vectores azules en la siguiente figura. Las bases que consisten en vectores más largos y menos ortogonales, como los vectores rojos, pueden considerarse «malas».
Merrill Sherman / Quanta MagazineEste es un trabajo para LLL: dale (o a sus hermanos) una base de un retículo multidimensional y encontrará una mejor. Este proceso se conoce como reducción de base de retículos.
¿Qué tiene todo esto que ver con la criptografía? Resulta que la tarea de romper un sistema criptográfico puede, en algunos casos, reformularse como otro problema: encontrar un vector relativamente corto en un retículo. Y, a veces, ese vector se puede extraer de la base reducida generada por un algoritmo de estilo LLL. Esta estrategia ha ayudado a los investigadores a tumbar sistemas que, en apariencia, parecen tener poco que ver con los retículos.
En un sentido teórico, el algoritmo LLL original se ejecuta rápidamente: el tiempo que lleva la ejecución no escala exponencialmente con el tamaño de la entrada, es decir, la dimensión del retículo y el tamaño (en bits) de los números en los vectores de la base. Pero sí aumenta como función polinómica, y “si realmente quieres hacerlo, el tiempo polinómico no siempre es tan factible”, apunta Léo Ducas, criptógrafo del instituto nacional de investigación CWI de los Países Bajos.
En la práctica, esto significa que el algoritmo LLL original no puede manejar entradas demasiado grandes. “Los matemáticos y criptógrafos querían tener la capacidad de hacer más”, dice Keegan Ryan, estudiante de doctorado de la Universidad de California en San Diego. Los investigadores han trabajado para optimizar los algoritmos de estilo LLL para acomodar entradas más grandes, logrando a menudo un buen rendimiento. Aún así, algunas tareas han permanecido obstinadamente fuera de alcance.
El nuevo artículo, escrito por Ryan y su directora de tesis, Nadia Heninger, combina múltiples estrategias para mejorar la eficiencia de su algoritmo estilo LLL. Por un lado, la técnica utiliza una estructura recursiva que divide la tarea en partes más pequeñas. Por otro lado, el algoritmo gestiona cuidadosamente la precisión de los números involucrados, encontrando un equilibrio entre velocidad y un resultado correcto. El nuevo trabajo permite a los investigadores reducir las bases de retículos de miles de dimensiones.
Trabajos anteriores han seguido un enfoque similar: un artículo de 2021 también combina la recursividad y la gestión de la precisión para agilizar el trabajo con retículos grandes, pero funciona solo para tipos específicos de retículos, y no para todos las que son importantes en criptografía. El nuevo algoritmo se comporta bien en un rango mucho más amplio. «Estoy muy feliz de que alguien lo haya hecho», comenta Thomas Espitau, investigador en criptografía de la empresa PQShield y uno de los autores de la versión de 2021. El trabajo de su equipo ofreció una “prueba de concepto”, dice; el nuevo resultado muestra que «se puede realizar una reducción de retículo muy rápida de forma robusta».
La nueva técnica ya ha comenzado a resultar útil. Aurel Page, matemático del instituto nacional de investigación francés INRIA, ha dicho que él y su equipo han puesto en marcha una adaptación del algoritmo en algunas tareas computacionales de teoría de números.
Los algoritmos de estilo LLL también pueden desempeñar un papel en la investigación relacionada con sistemas de criptografía basados en retículos diseñados para permanecer seguros incluso en un futuro con potentes ordenadores cuánticos. No representan una amenaza para estos sistemas, ya que tumbarlos requiere encontrar vectores más cortos que los que estos algoritmos pueden lograr. Pero los mejores ataques que los investigadores conocen utilizan un algoritmo de estilo LLL como “elemento básico”, explica Wessel van Woerden, criptógrafo de la Universidad de Burdeos. En experimentos prácticos para estudiar estos ataques, ese elemento básico puede ralentizarlo todo. Con la nueva herramienta, los investigadores podrán ampliar la gama de experimentos que pueden ejecutar con los algoritmos de ataque, ofreciendo una imagen más clara de su rendimiento.
El artículo original, Celebrated Cryptography Algorithm Gets an Upgrade, se publicó el 14 de diciembre de 2023 en Quanta Magazine.
Traducido por César Tomé López
El artículo Un célebre algoritmo criptográfico se actualiza se ha escrito en Cuaderno de Cultura Científica.
La carrera de obstáculos para el diagnóstico de la endometriosis
La endometriosis es una dolencia crónica muy frecuente en las mujeres. Se estima que una de cada diez está afectada por ella, lo que supone un total de más de 2 millones de casos en España. En todo el mundo, se estiman alrededor de 190 millones de mujeres afectadas. No obstante, su causa es desconocida: ¿por qué el tejido endometrial, que normalmente recubre el interior de la superficie del útero, empieza a crecer en lugares tan extraños como la vejiga, el ovario o el recto? A día de hoy, la respuesta es todo un misterio y la limitada investigación científica que se ha realizado sobre esta dolencia no ayuda a resolverlo.
Fuente: Wikimedia Commons8 años para el diagnósticoA pesar de que la endometriosis es muy frecuente, se puede tardar más años en diagnosticar esta dolencia que una enfermedad rara. Tanto es así que las pacientes que sufren endometriosis tienen que esperar una media de 7- 8 años para la identificación de su enfermedad, según datos del Ministerio de Sanidad . Este gran retraso en el diagnóstico no es un fenómeno aislado en nuestro país, sino generalizado a lo largo del mundo.
La larga espera para recibir un diagnóstico implica consecuencias para las mujeres, que pueden sufrir incomprensión y estigmatización durante años por una afectación sin etiqueta médica. Durante todo ese tiempo, aquellas que no reciben tratamiento deben soportar diversos síntomas (especialmente dolor, fatiga y dificultades para conseguir un embarazo) que, en los casos más graves, pueden afectar de forma importante a su calidad de vida, al trabajo y a las relaciones sociales. Además, la enfermedad puede progresar a lo largo de dicho periodo. Las causas que están detrás de este retraso diagnóstico son múltiples y no se comprende bien en qué medida contribuyen a ello. Recientemente, científicos de la Universidad de Aston (Inglaterra) han publicado en la revista Obstetrics & Gynaecology los resultados de su investigación sobre cómo diferentes factores contribuyen en retrasar el diagnóstico de la endometriosis.
El estudio, que consiste en una revisión sistemática y un análisis cualitativo del asunto, examinó un total de 13 artículos científicos realizados en los últimos 20 años en países ricos (con asistencia sanitaria universal en su mayoría). Los factores que contribuyen al retraso del diagnóstico de la endometriosis se relacionan con las características del sistema sanitario y de la endometriosis, así como también por las influencias interpersonales y los rasgos individuales. Los autores clasificaron en 4 grupos las barreras que impiden un diagnóstico temprano de dicha dolencia:
- La dificultad para distinguir los síntomas patológicos de la menstruación normal y el uso de técnicas de autocuidado.
- El estigma de la menstruación y la normalización del dolor menstrual.
- Ciertas actitudes y falta de conocimiento de los profesionales sanitarios, retraso en la derivación a los especialistas y explicaciones deficientes sobre el uso de las pastillas anticonceptivas orales en el proceso diagnóstico.
- Variabilidad en la presentación de los síntomas, que se solapan con otras dolencias, la ausencia de un método no invasivo de diagnóstico de la endometriosis y preocupaciones sobre la importancia del diagnóstico.
Un hallazgo llamativo fue que muchos médicos de familia, en varios de los estudios analizados, reconocían saber poco sobre la endometriosis. Esto, unido a los síntomas variables, poco específicos, que pueden aparecer por esta dolencia (diarrea, estreñimiento, reglas intensas, fatiga crónica, dolor durante el sexo, urgencia para orinar…) complica su diagnóstico. Por otro lado, muchas mujeres que padecían endometriosis y un porcentaje importante de los médicos de familia normalizaban el dolor por esta enfermedad, achacándolo a la regla y no a un problema de salud, lo que impedía investigar en profundidad el origen de este. En su lugar, las mujeres recurrían a medidas de autocuidado para aliviar el dolor, asumiendo que este sufrimiento era inherente a la regla y algo que debían soportar.
Identificar los diferentes factores que contribuyen al retraso diagnóstico de la endometriosis es un primer paso para tomar medidas al respecto. Además, difundir información sobre la endometriosis, derribando sus mitos, al público general puede contribuir a minimizar dicho retraso por una mejor comprensión del problema. En ese sentido, Sophie Davenport, responsable principal del estudio, explica que «la sociedad ha normalizado tradicionalmente el dolor menstrual, así que tenemos que repensar qué significan menstruaciones anormales. Si los síntomas afectan a la vida diaria, y la mujer no acude al trabajo o a la escuela, o es incapaz de continuar con su vida social, eso es un claro signo de que se necesita intervención médica». La experta espera que el artículo científico «anime a las pacientes a buscar ayuda si sienten que sus reglas son anormales o que les provocan un dolor o un sufrimiento importante, y que anime a los clínicos a tomar en serio sus preocupaciones y a derivar al especialista de forma temprana».
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo La carrera de obstáculos para el diagnóstico de la endometriosis se ha escrito en Cuaderno de Cultura Científica.
Salud Global
Las enfermedades tienen su ecología. El de la borreliosis de Lyme es un ejemplo magnífico. El aumento de la temperatura hace las delicias de las garrapatas, ya que su supervivencia y velocidad de desarrollo son más altas a temperaturas elevadas. A estos ácaros hematófagos se les da bien parasitar ratones de campo; al alimentarse de su sangre les inoculan bacterias del género Borrelia. Además, las bellotas también abundan más en años de inviernos suaves y primaveras benignas, de manera que las poblaciones de roedores también progresan; ambos fenómenos –crecimiento rápido de garrapatas y mayor abundancia de bellotas– facilitan que las garrapatas se multipliquen y expandan. Y, con ellas, las bacterias.
De esa forma, los años de bonanza para los ratones, también lo son para las garrapatas y para las bacterias. Pero son años malos para las personas que frecuentan los bosques y campos de las zonas templadas. A las garrapatas no solo les gusta la sangre de los ratones, también les gusta la sangre de otros mamíferos, incluida la humana, por lo que en los años de invierno suave y primavera benigna, al haber más ratones (porque han comido más bellotas) y más garrapatas (porque han sobrevivido al invierno en mayor número), es más probable que les pique uno de esos detestables ácaros y les transmita la bacteria que provoca una enfermedad –borreliosis de Lyme– que puede revestir cierta gravedad.
Otro magnífico ejemplo de ecología de una enfermedad es el de la cadena que forman cinco especies pertenecientes a taxones de lo más diversos. El hongo Batrachochytrium dendrobatidis provoca a los anfibios una quitridiomicosis que diezma sus poblaciones. Como consecuencia de la menor abundancia de anfibios, disminuye la presión sobre los mosquitos del género Anopheles. Estos son el vector que transmite el protozoo del género Plasmodium a los seres humanos y les provocan la malaria. Por tanto, cualquier factor que favorezca la expansión del hongo en una zona donde la malaria sea endémica, provocará, automáticamente, una aumento de la prevalencia de esta enfermedad. Hay condiciones ambientales sobre las que no se puede actuar, pero sobre otras si es posible. Por ejemplo, cualquier medida que se revele eficaz para dificultar la expansión del hongo, redundará en una menor incidencia de la malaria.
Estos no son más que dos casos que ejemplifican la forma en que interactúan diferentes organismos de manera que dan lugar a que exista una relación íntima entre la salud de los ecosistemas, la de los seres vivos que los pueblan y la de los seres humanos. Y es por esa imbricación por lo que durante los últimos años ha venido ganando peso la noción “Salud Global” (“One Health”).
Salud GlobalMediante la expresión “One Health” se quiere expresar, precisamente, que no es posible tratar de resolver de manera duradera algunos de los más importantes problemas de salud cuya resolución afronta la humanidad sin tener en cuenta la intrincada red de relaciones que hay entre los seres vivos y el modo en que la salud humana depende de la de aquellos y de un normal y saludable funcionamiento de los ecosistemas.
Y ese es, precisamente el tema que han decidido desarrollar el microbiólogo Ignacio López-Goñi, la viróloga veterinaria Elisa Pérez-Ramírez y el farmacólogo Gorka Orive en su libro “Salud Global”.
Tras presentar el tema en su primer capítulo, los autores abordan, en el segundo, la relación entre el clima y la salud humana a través, principalmente, de los efectos de aquel sobre las posibilidades de expansión de las enfermedades infecciosas. Al fin y al cabo, la humedad y la temperatura tienen claros efectos sobre los seres vivos, por lo que el clima, a través de esas dos variables, ejerce una influencia intensa sobre la biología de las especies y las relaciones entre ellas.
Por otro lado, es muy significativo –y de importancia crucial– que un 60% de las enfermedades infecciosas humanas que se conocen tengan origen animal; y ese porcentaje se eleva a un 75% en el caso de las enfermedades emergentes. Por esa razón es importante no perder de vista que las actuaciones humanas que modifican el patrón de comportamiento de otras especies –cambios en las rutas migratorias de aves, alteraciones en la densidad de poblaciones de roedores, reducción de la distancia de los seres humanos a otros animales, salvajes o domésticos, y otras– también cambian las condiciones para que se produzca la transmisión de patógenos entre ellas.
Amenaza para la salud humanaEn los capítulos que siguen, los autores repasan la situación de las enfermedades infecciosas y los patógenos que las provocan que suponen una mayor amenaza para la salud humana: el VIH, la malaria, la viruela del mono, las que se transmiten a través del agua o el aire, la gripe aviar y las que provocan los coronavirus. De cada una de ellas se ofrece información muy actual acerca de su extensión de su forma de transmisión, de su prevención y de su tratamiento.
También se analiza el papel de los vectores que transmiten y propagan enfermedades; el papel de otras especies animales como fuente de los patógenos que amenazan nuestra salud (roedores, insectos y otros), así como la forma en que nosotros mismos –los seres humanos– podemos transmitir patógenos a otras especies. Finalmente, se aborda la espinosa cuestión de la resistencia a los antibióticos, así como el papel de las vacunas –cuando se dispone de ellas– como mecanismo efectivo para prevenir las enfermedades infecciosas.
En resumen, el lector o lectora de este libro se encontrará con un repaso muy completo de la compleja relación entre el medio ambiente, los microorganismos patógenos y la salud humana. El libro expone con claridad y profusión de datos la gran importancia de abordar estas relaciones de forma holística, porque no es realista pensar que la solución a los grandes retos de salud que se nos presentan pueden ser abordados fuera de su contexto ambiental global.
Nota final: Si tiene usted interés en información adicional, la puede encontrar en este artículo firmado por los tres coautores del libro.
Título: Salud Global. La nueva estrategia frente a la amenaza medioambiental.
Autores: Ignacio López-Goñi, Elisa Pérez-Ramírez y Gorka Orive
Ed. B, Penguin Random House, 2023.
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
Una versión de este texto de Juan Ignacio Pérez Iglesias apareció anteriormente en Lecturas y Conjeturas (Substack).
El artículo Salud Global se ha escrito en Cuaderno de Cultura Científica.
La evaluación de competencias en el marco de la LOMLOE
La jornada Las Pruebas de la Educación tuvo lugar con el objetivo de analizar la validez de las estrategias educativas puestas en marcha durante los últimos años. El enfoque STEAM o las clases virtuales fueron analizados desde la evidencia científica por un grupo de expertos y expertas que se reunió en la Facultad de Educación de Bilbao de la Universidad del País Vasco. La jornada, fruto de la colaboración entre la Cátedra de Cultura Científica de la Universidad del País Vasco y la facultad de Educación de Bilbao, tuvo lugar el 27 de octubre pasado.
Esta sexta edición volvió a estar dirigida a profesionales del ámbito de la educación y a quienes, en un futuro, formarán parte de este colectivo. Su objetivo ha sido reflexionar, desde la evidencia científica, sobre la validez de las estrategias utilizadas hoy en día. El seminario ha contado, una vez más, con la dirección académica de la vicedecana de Investigación y Transferencia de la Universidad Autónoma de Madrid, Marta Ferrero González.
Javier Cortés de las Heras, doctor en Educación y profesor asociado de la Universidad de Valencia, explica en esta charla cómo se supone que han de evaluarse las competencias según la Ley Orgánica por la que se modifica la LOE de 2006 (LOMLOE).
Edición realizada por César Tomé López
El artículo La evaluación de competencias en el marco de la LOMLOE se ha escrito en Cuaderno de Cultura Científica.
La historia genómica del primer milenio de la península balcánica
Los Balcanes fueron una región fronteriza de la antigua Roma tan cosmopolita como el centro imperial; la migración eslava que llegó a los Balcanes a partir del siglo VI representa entre el 30 % y el 60 % de la ascendencia de los pueblos balcánicos en la actualidad. Estas son dos de las conclusiones de la primera reconstrucción de la historia genómica del primer milenio de la península balcánica.
Cráneo de un individuo de origen subsahariano encontrado en Viminacium. La lámpara legionaria fue encontrada en su tumba. Foto: Miodrag GrbicIñigo Olalde, investigador Ikerbasque y Ramón y Cajal de la Universidad del País Vasco, ha liderado junto con el Instituto de Biología Evolutiva (IBE: CSIC-UPF) y la Universidad de Harvard, un estudio en el que han reconstruido por primera vez la historia genómica del primer milenio de la península balcánica. Para ello, el equipo ha recuperado y analizado el genoma antiguo de 146 personas que habitaron las actuales Croacia y Serbia durante ese período. El trabajo, publicado en la prestigiosa revista Cell, desvela los Balcanes como una frontera global y cosmopolita del Imperio Romano y reconstruye la llegada de los pueblos eslavos a esta región.
Por primera vez, el equipo ha identificado tres individuos de origen africano que vivieron en los Balcanes bajo el dominio imperial de Roma. Por otro lado, la investigación corrobora que la migración de los pueblos eslavos a partir del siglo VI representó uno de los mayores cambios demográficos permanentes en toda Europa, cuya influencia cultural perdura hasta nuestros días.
El Imperio Romano transformó los Balcanes en una región globalLa República Romana primero y el Imperio Romano después incorporaron los Balcanes y convirtieron esta región fronteriza en una encrucijada de comunicaciones y un crisol de culturas. Así lo confirma el estudio, que desvela que la vitalidad económica del imperio atrajo a inmigrantes de lugares lejanos hasta esta región.
Grupos genéticos de la península balcánica durante el primer milenio de la era común. Imagen: Pablo Carrión e Íñigo OlaldeA través del análisis de ADN antiguo, el equipo ha podido identificar que, durante el dominio romano de la región, hubo un gran aporte demográfico proveniente de la península anatólica (localizada en la actual Turquía) que dejó huella genética en las poblaciones balcánicas. Sin embargo, no se observa rastro de ascendencia itálica en los genomas analizados. “Estas poblaciones venidas del este se integraron totalmente en la sociedad local de los Balcanes. En Viminacium, por ejemplo (una de las principales ciudades de los romanos, localizada en la actual Serbia), encontramos un sarcófago excepcionalmente rico en el que fueron enterrados un hombre de ascendencia local y una mujer de ascendencia anatólica”, comenta Olalde.
Sarcófago de Viminacium. Foto: Ilija MikićEl equipo también ha revelado la movilidad esporádica de larga distancia de tres individuos de ascendencia africana a la península balcánica durante su dominio imperial. Uno de ellos era un adolescente cuyo origen genético radica en la región del actual Sudán, fuera de los límites del antiguo Imperio. “De acuerdo con el análisis isotópico de las raíces de sus dientes, en su niñez tuvo una dieta marina muy distinta a la del resto de individuos analizados”, comenta Carles Lalueza-Fox, investigador principal del Instituto de Biología Evolutiva (IBE) y director del Museo de Ciencias Naturales de Barcelona (MCNB).
Además, fue enterrado con una lámpara de aceite que representa una iconografía del águila relacionada con Júpiter, uno de los dioses más importantes para los romanos. “El análisis arqueológico de su entierro revela que pudo formar parte de las fuerzas militares romanas, por lo que estaríamos hablando de un inmigrante que viajó desde muy lejos a los Balcanes del siglo II d.C.”, apunta Lalueza-Fox. “Esto nos muestra un Imperio Romano diverso y cosmopolita, que acogía poblaciones mucho más allá del continente europeo”.
El Imperio Romano acogió a poblaciones bárbaras mucho antes de su caídaEl estudio ha identificado algunos individuos de ascendencia del Norte de Europa y de las estepas que habitaron la península balcánica durante el siglo III, en plena ocupación romana. El análisis antropológico de sus cráneos revela que algunos de ellos fueron artificialmente deformados, una costumbre propia de algunas poblaciones de las estepas y de los hunos, a menudo denominados como “bárbaros”.
Cráneo deformado del siglo IV de la era común, atribuido a un individuo de las estepas. Posible gépido o godo, si bien los hunos también practicaban la deformación craneal. Foto: Carles Lalueza-FoxEstos resultados apoyan las investigaciones históricas y arqueológicas y muestran la presencia de individuos provenientes de fuera de las fronteras del Imperio, más allá del Danubio, mucho tiempo antes de la caída del Imperio occidental. “Las fronteras del Imperio eran mucho más difusas que las fronteras de los estados nación actuales. El Danubio servía como límite geográfico del Imperio, pero actuaba como vía de comunicación y era muy permeable al movimiento de personas”, comenta Pablo Carrión, investigador del IBE y co-primer autor del estudio.
Las poblaciones eslavas cambiaron la demografía de la península balcánicaTras la caída del Imperio Romano de Occidente, y especialmente a partir del siglo VI, el estudio revela la llegada a gran escala a los Balcanes de individuos genéticamente similares a las poblaciones modernas de habla eslava de Europa del Este. Su huella genética representa entre el 30 y el 60 % de la ascendencia de los pueblos balcánicos actuales, lo que supone uno de los mayores cambios demográficos permanentes en cualquier lugar de Europa durante el período de las Grandes Migraciones.
Aunque el estudio detecta la llegada esporádica de individuos procedentes del Este de Europa en periodos anteriores, es a partir del siglo VI cuando se observa una fuerte oleada migratoria. “Según nuestros análisis de ADN antiguo, esta llegada de poblaciones de habla eslava a los Balcanes tuvo lugar a lo largo de varias generaciones e involucró a grupos familiares completos que incluían hombres y mujeres”, explica Carrión.
Proporciones de poblaciones de ascendencia eslava, en negro, en los países actuales de la península balcánica y el Egeo. Imagen: Íñigo Olalde y Pablo CarriónEl estudio también identifica que el establecimiento de las poblaciones eslavas en los Balcanes fue mayor en el norte, con una contribución genética de entre el 50 % y el 60 % en la actual Serbia, y gradualmente menor hacia el sur, con entre un 30 y un 40 % de representación genética en la Grecia continental y hasta un 20 % en las islas del Egeo. “Su legado genético es visible no solo en poblaciones balcánicas actuales de habla eslava, sino también en otros grupos que incluyen regiones donde actualmente no se habla lenguas eslavas, como Rumanía y Grecia», puntualiza David Reich, investigador de la Universidad de Harvard en cuyo laboratorio se llevó a cabo la recuperación y secuenciación del ADN antiguo.
Coordinación y cooperación para reescribir la historia de los BalcanesLa guerra de Yugoslavia en 1991 provocó la separación de los pueblos balcánicos en los distintos países que conforman la región hoy en día y sus consecuencias perduran en la actualidad. Sin embargo, investigadores de toda la región han colaborado en el estudio. «En el estudio han estado colaborando investigadores croatas y serbios. Se trata de un gran ejemplo de cooperación, teniendo en cuenta la historia reciente de la península balcánica. Al mismo tiempo, este tipo de trabajos son un ejemplo de cómo datos genómicos objetivos pueden contribuir a dejar atrás problemas sociales y políticos ligados a identidades colectivas que han estado basadas en narraciones épicas del pasado», comenta Lalueza-Fox.
El equipo elaboró una base de datos genética de la población Serbia de novo, con el fin de poder reconstruir la historia de los Balcanes. «Nos encontramos con la situación de que no existía una base de datos genómica de la población serbia actual. Para construirla y utilizarla como referencia comparativa en este estudio, tuvimos que buscar a personas que se autodenominaban como serbias en base a determinados rasgos culturales compartidos, aunque vivieran en otros países como Montenegro o Macedonia del Norte”, comenta Miodrag Grbic, profesor de la Universidad de Western Ontario y profesor visitante en la Universidad de La Rioja.
Pese a la cuestión identitaria, marcada por la historia más reciente de los Balcanes, los genomas de los croatas y serbios analizados hablan de una herencia compartida en igual medida entre las poblaciones eslavas y las poblaciones del mediterráneo.
“Creemos que el análisis del ADN antiguo puede contribuir, junto con los datos arqueológicos y los registros históricos, a la reconstrucción de la historia de los pueblos balcánicos y la formación de los denominados pueblos eslavos del sur de Europa”, apunta Lalueza-Fox.
«La imagen que surge no es de división, sino de historia compartida. Las personas que en la Edad del Hierro habitaban la región de los Balcanes se vieron afectadas de manera similar por las migraciones durante la época del Imperio Romano y por las migraciones eslavas más tarde. Juntas, estas influencias dieron como resultado el perfil genético de los Balcanes modernos, independientemente de las fronteras nacionales», concluye Grbic.
Referencia:
Olalde, I., Carrión, P., Mikić. I. et al. (2023) A genetic history of the Balkans from Roman frontier to Slavic migrations Cell doi: 10.1016/j.cell.2023.10.018
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La historia genómica del primer milenio de la península balcánica se ha escrito en Cuaderno de Cultura Científica.
Estrellas de mar: de no tener cabeza a tener solo cabeza
Las estrellas y los erizos de mar forman parte de uno de los grupos más enigmáticos de seres vivos: los equinodermos. Un estudio publicado recientemente los convierte en criaturas todavía más enigmáticas. Al menos, si las contemplamos con nuestros ojos humanos.
Foto: Adrian Pingstone / Wikimedia CommonsLa inmensa mayoría de los animales, nosotros incluidos, somos bilaterales: nuestra simetría divide el cuerpo en dos mitades casi idénticas. En otras palabras, estamos organizados sobre la base de un eje anteroposterior y otro dorsoventral. Hacia finales del siglo pasado se descubrió que los genes que controlan la formación de estos ejes durante el desarrollo son los mismos en todos los animales bilaterales. Es decir, el mecanismo que determina qué región va a ser anterior, media o posterior es el mismo en una mosca y en un ser humano.
Una organización bilateral parece la más lógica en animales que tienen un tubo digestivo y se desplazan en una dirección determinada. Lo razonable es que alrededor del extremo anterior, donde está la boca, se concentren los órganos de los sentidos y los centros nerviosos. En pocas palabras, que se desarrolle una cabeza.
Esta es la razón por la que nos resultan fascinantes los equinodermos. Sus ancestros eran bilaterales con todas sus ventajas, cabeza incluida. Sin embargo, en algún momento de su evolución perdieron esta característica y desarrollaron una organización pentámera. Dejaron de tener un único plano de simetría para contar con nada menos que cinco, dispuestos alrededor de un eje oral-aboral, el eje que pasa por la boca y por el lado opuesto del cuerpo.
Esta innovación evolutiva se refleja en el desarrollo de los equinodermos: su larva es bilateral, pero tras una metamorfosis compleja adquiere la simetría pentámera.
La organización pentámera, sin eje anteroposterior ni centros nerviosos, implica la ausencia de una cabeza. O, al menos, esto se creía hasta ahora. Un artículo recientemente publicado en la revista Nature sugiere lo contrario de lo que se pensaba. Los equinodermos no solo tienen cabeza, sino que no tienen nada más. Son cabezas sin cuerpo.
Cuatro hipótesis, todas inválidasHasta ahora se habían formulado cuatro hipótesis para explicar cómo el eje presente en todos los animales bilaterales pudo transformarse en los cinco planos de simetría de los equinodermos. Estos modelos eran la bifurcación, circularización, duplicación y el apilamiento.
Las cuatro hipótesis formuladas sobre la transición de un eje anteroposterior (A-P) a una simetría pentámera en los Equinodermos.Un equipo de biólogos de la Universidad de Stanford (EE UU) propone en su artículo un modelo nuevo y diferente, que supone una nueva concepción de cómo evolucionaron los equinodermos.
Su estrategia consistió en seleccionar una serie de marcadores genéticos típicos del eje anteroposterior de los bilaterales. Estos han sido conservados a lo largo de la evolución, por lo que es interesante saber dónde se expresan en un animal pentámero. Entre los 36 marcadores seleccionados los había de la región más anterior del cuerpo, de la media y de la posterior. También se incluyeron los genes del complejo Hox, que son fundamentales en la organización del eje de todos los animales bilaterales.
La técnica utilizada fue la tomografía de ARN aplicada a los pequeños estados juveniles de una estrella de mar abundante en la costa de California, Patiria miniata. Esta avanzada técnica molecular consiste en seccionar brazos de la estrella en tres planos diferentes: a lo largo del eje del brazo, en un plano horizontal y de forma transversal. En las distintas secciones fue detectada la expresión de los diferentes marcadores.
El sorprendente resultado obtenido fue que los genes más anteriores se expresaban en la línea media de los brazos, y los más posteriores en sus márgenes laterales. Como la línea media de los brazos está ocupada por los surcos ambulacrales, en los que se localizan los pequeños pies con los que las estrellas de mar se desplazan, este nuevo modelo de organización se ha denominado ambulacral-anterior.
La estrategia consistió en seccionar los brazos de la estrella en tres planos y comprobar la expresión de genes anteriores, medios y posteriores en animales bilaterales. Los más anteriores se expresaban en la línea media de los brazos y los posteriores en sus márgenes.Un resultado inesperadoQue el centro de los brazos corresponda a la parte anterior de los demás animales y los márgenes a la posterior, no era un resultado esperado. Pero menos todavía lo fue la ausencia de marcadores típicos del tronco de los animales bilaterales.
En el ectodermo de la estrella de mar solo se expresa uno de los trece genes del complejo Hox, Hox1, y lo hace en el margen de los brazos, lo que corresponde a la zona posterior de su cuerpo. Dicho de otra forma, lo más posterior que encontramos en el cuerpo de la estrella corresponde al límite posterior de la cabeza de los vertebrados. El cuerpo de la estrella de mar se corresponde con nuestra cabeza, pero no hay evidencia molecular de que haya nada semejante a un tronco.
Los genes Hox se expresan ordenadamente a lo largo del cuerpo de los animales bilaterales. En el ectodermo de la estrella de mar sólo se expresa el más anterior, Hox1, y lo hace en el margen de los brazos. Vertebrados y hemicordados sirven como comparación.Queda por comprobar si estos resultados son exclusivos de las estrellas de mar o, como parece muy probable, son aplicables a todos los equinodermos. Si se confirma esto, se trataría de una concepción completamente novedosa de la forma en que los equinodermos reorganizaron su eje bilateral y construyeron su cuerpo. Una constatación final que nos confirma este estudio: la biología, y en particular la evolución, mantiene intacta su capacidad de asombrarnos.
Sobre el autor: Ramón Muñoz-Chápuli Oriol, Catedrático de Biología Animal (jubilado), Universidad de Málaga
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Estrellas de mar: de no tener cabeza a tener solo cabeza se ha escrito en Cuaderno de Cultura Científica.