ZientZinema 2: El día de mañana
Dirección: Roland Emmerich. USA. 2004. 124 min. Intérpretes: Dennis Quaid (Profesor Jack Hall), Jake Gyllenhaal (Sam Hall), Ian Holm (Terry Rapson), Emmy Rossum (Laura), Sela Ward (Dra. Lucy Hall), Dash Mihok (Jason Evans), Jay O. Sanders (Frank Harris), Austin Nichols (J.D.), Arjay Smith (Brian Parks), Tamlyn Tomita (Janet Tokada). Guion: Roland Emmerich y Jeffrey Nachmanoff; basado en un argumento de Roland Emmerich. Producción: Mark Gordon y Roland Emmerich. Música: Harald Kloser. Fotografía: Ueli Steiger. Montaje: David Brenner. Diseño de producción: Barry Chusid. Dirección artística: Martin Gendron, Michele Laliberte, Claude Paré, Réal Proulx, Tom Reta y Gerald Sullivan.
¿Y si estuviéramos al borde de una nueva era glacial? Éste es el asunto que obsesiona al climatólogo Jack Hall (Dennis Quaid). Las investigaciones llevadas a cabo por Hall indican que el calentamiento global del planeta podría desencadenar un repentino y catastrófico cambio climático de la Tierra. Las perforaciones realizadas en la Antártida muestran que es algo que ya ha ocurrido con anterioridad, hace diez mil años. Y ahora está alertando a los dirigentes de que podría ocurrir de nuevo si no se adoptan medidas de forma inmediata. Pero sus advertencias llegan demasiado tarde. Todo empieza cuando Hall presencia cómo un bloque de hielo del tamaño de Rhode Island se desgaja completamente de la masa de hielo de la Antártida. Posteriormente, una serie de fenómenos climatológicos cada vez más drásticos empiezan a ocurrir en distintas partes del globo: granizos del tamaño de una ciruela destrozan Tokio, vientos huracanados que rompen todos los récords machacan Hawai; la nieve cae en Nueva Delhi; una serie de devastadores tornados azotan la ciudad de Los Ángeles. Una llamada de teléfono de un colega suyo de Escocia, el profesor Terry Rapson, confirma los peores temores de Jack: estos intensos fenómenos meteorológicos son síntomas de un cambio climatológico masivo y, además, se ha detectado una bajada súbita de la temperatura en las aguas del Atlántico Norte. El derretimiento de la capa de hielo polar ha vertido recientemente demasiada agua dulce a los océanos y ha afectado a las corrientes que dan estabilidad a nuestro sistema climático. La disminución de la salinidad en el mar provoca que la corriente se detenga, la temperatura global cae y lleva al planeta a una nueva edad glacial. El cambio climático ha puesto el planeta al borde del precipicio y, en la película, todo ocurrirá durante una supertormenta de extensión planetaria.
La premisa central del guion se basa en una hipótesis científica legítima pero adornada con episodios de obvias inexactitudes científicas: tornados que destruyen Los Angeles; inundación de Nueva York con olas gigantes; y, sobre todo, el enfriamiento del planeta se completa en una semana.
La película de Emmerich combina con acierto melodrama y cine de catástrofes en un intento de comprometer a los espectadores cognitiva y emocionalmente con una historia espectacular sobre un abrupto cambio climático, escribía en 2012 Alexa Weik von Mossner, de la Universidad de Klagenfurt, en Austria.
La recaudación que obtuvo el film después de su estreno muestra que tuvo gran aceptación, no solo de críticos y periodistas, sino también de climatólogos, sociólogos, ecologistas y miembros del gobierno y la administración. Fue una película alabada, criticada e, incluso, despreciada. Pero, además, fue la primera película popular que promocionó el interés público por el cambio climático. Para la autora, el interés de la película está en que apela al pensamiento racional y, también, a las emociones cuando relata el rápido y catastrófico cambio climático.
El guion se basa en propuestas de la década de los noventa sobre la emisión de dióxido de carbono, su disolución en el agua del mar y su influencia sobre las corrientes marinas tal como aparece en el artículo de 1997 de Thomas Stocker y Andreas Schmitter en Nature. El estudio de los cambios en las corrientes se inició con la del Golfo y se amplió a todos los movimientos de agua en los océanos. Anuncian cambios en 100 años si la emisiones de dióxido de carbono aumentan con rapidez y provocarían la detención permanente de las corrientes. Si la emisión de dióxido de carbono disminuye, las corrientes no se detendrán pero serán más lentas.
La conocida Corriente del Golfo es parte de un sistema de corrientes del Atlántico que, en conjunto, se conocen como AMOC (en inglés, Atlantic Meridional Overturning Circulation, o Circulación Meridional de Retorno del Atlántico). Está compuesta por corrientes superficiales y profundas, como explica Montserrat Alonso, de la Universidad de Salamanca, en El País.
Las aguas superficiales del hemisferio sur pasan por el trópico donde se calientan, llegan al Caribe, se dirigen al norte por la costa este de Norteamérica, cruzan el Atlántico por el sur de Groenlandia y llegan a Europa frente a Noruega. Parte de este sistema es la Corriente del Golfo que sale del Caribe, se mueve hacia el norte paralela a la costa de Norteamérica y se convierte en la corriente Noratlántica.
Todo este sistema de movimientos de agua llega al Atlántico subpolar, se enfría, y como las aguas son muy salinas y con menos temperatura, se hunden y retornan hacia el sur como corrientes profundas. Por eso se le llama circulación de retorno: las aguas del sur, calientes, llegan a la zona polar, se enfrían y vuelven al sur.
Además de agua, AMOC mueve energía en forma de cambios de temperatura del agua. Según estudios recientes, todo el sistema se ha ralentizado en un 15% desde la mitad del siglo pasado. Sin embargo, en 2006 faltaban evidencias de que la circulación fuese más lenta, como escribía Richard Kerr en Science. En una reunión de expertos se constató que más del 95% de los asistentes consideraba que no había cambios significativos en las corrientes atlánticas. Añadían que no había pruebas de un riesgo inmediato y piden más datos, durante quizá décadas, para demostrar la circulación lenta por el cambio climático.
En aquellos años hay más expertos que consideran que una nueva edad glaciar en Europa no es un escenario probable a corto o medio plazo. Carl Wunsch, del MIT, plantea que la corriente del Golfo se produce por el sistema de vientos a gran escala del Atlántico y por el movimiento de rotación del planeta. Por tanto concluye que o se detiene el sistema de vientos o la rotación de la Tierra, o ambos a la vez, para llegar a una nueva edad glaciar dentro de millones de años.
La táctica del director se basa en los efectos especiales de un guion que relata la historia de un científico cuyos avisos de lo que puede ocurrir son ignorados. La ciencia avisa, es una profecía, y cuando se cumple es la visión del desastre lo que vemos en la pantalla. Algunos modelos predicen que si Groenlandia se deshiela, la corriente podría detenerse lo que haría caer la temperatura en el sur de Europa. En la película, en enfriamiento ocurre en cuestión de horas. Es poco probable pero puede comenzar una época más fría, una nueva edad de hielo.
El mismo año del estreno comenzó el debate la película. Bogi Hansen y su grupo, del Laboratorio de Pesquerías de las Islas Feroe, escriben, en 2004, que el debilitamiento de la AMOC durante este siglo puede tener efectos sobre el clima, quizá con el enfriamiento del norte de Europa como aparece en la película. El grupo de Hansen tiene datos de temperaturas más bajas en el mar, con la salinidad en aumento desde mediados de los 70 y menos flujo de agua, hasta un 20% desde 1950. Sin embargo, como muchos otros expertos concluyen que faltan datos a más largo plazo.
Para 2018 comienza a aceptarse, con datos y modelos, que AMOC se ha debilitado. Levke Caesar y su grupo, del Instituto Postdam de Investigación sobre el Impacto del Clima, en Alemania, plantean que la reducción es del 15% desde mediados del siglo XX. Añaden, para el futuro, que si continua el calentamiento global, seguirá debilitándose la AMOC, con cambios en los flujos de agua, pérdidas en la cubierta de hielo de Groenlandia y caída de las temperaturas en el Atlántico Norte.
La propuesta del grupo de Caesar se confirma con los datos de David Thornalley y su equipo, del Colegio Universitario de Londres, con participación de Pablo Ortega del Centro de Biocomputación de Barcelona. Es un estudio sobre el Mar del Labrador, entre Groenlandia y Norteamérica y, para los autores, las evidencias apuntan a los últimos 150 años, desde 1850, al final de la Pequeña Edad del Hielo, con una reducción de la corriente en 15%-20%. Sugieren más datos para delimitar el papel de la variabilidad natural del clima y de la actividad humana con el resultado actual del debilitamiento de la AMOC. Aunque también encuentran que los cambios en la AMOC no coinciden siempre con las variaciones en la temperatura. Parece que la AMOC responde a los cambios en el clima pero que no los dirige.
De nuevo Levke Caesar y su grupo, ahora desde la Universidad de Maynooth, en Irlanda, confirmaron que AMOC había perdido fuerza según la revisión de 11 series de datos desde el año 400 a la actualidad. Al principio, AMOC permanecía estable hasta comienzos del siglo XIX. Después, se acelera el proceso desde mediados del siglo XX hasta la actualidad.
Para resumir, en 2021, Niklas Boers, después de analizar ocho índices de la AMOC sobre la temperatura en la superficie del mar y la salinidad en el Atlántico, concluye que hay evidencias empíricas consistentes de que, en el pasado siglo, AMOC ha pasado de condiciones estables a un punto crítico de transición a una circulación más lenta que puede provocar un impacto severo en el sistema climático del planeta.
Una revisión final, publicada en 2021, sobre los indicadores del cambio climático en los océanos la firma Carlos García-Soto, del Instituto Español de Oceanografía en Santander, con otros once expertos y, entre ellos, Ainhoa Caballero, de AZTI en Pasaia.Según esta:
– La temperatura del agua en la superficie del mar ha crecido, de media, 0.062ºC al año en los últimos 120 años. En la última década, de 2010 a 2019, el aumento se ha acelerado a los 0.280ºC al año.
– El contenido de calor del océano en los 2000 metros superiores, de media y a nivel mundial, ha sido de 0.35 watios por metro cuadrado en los últimos 65 años. Durante la última década, de 2010 a 2019, la tasa es el doble con 0.70.
– El pH global de la superficie del océano ha disminuido, de media, 0.1 unidades desde 1770 con la revolución industrial. El nivel medio global del mar ha aumentado de 1993 a 2019 una tasa de 3.17 milímetros por año. Entre 1900 y 2015, en 115 años, ha aumentado en 19 centímetros.
– Los niveles de oxígeno disuelto han bajado el 2% en los últimos 50 años. La extensión de hielo marino en el Ártico ha disminuido un 13.1% por década en verano y un 2.6% por década en invierno.
– Y la AMOC está en su punto más débil de varios cientos de años y se ha ralentizado más en el último siglo.
Después del estreno en Gran Bretaña, el grupo de Thomas Lowe, de la Universidad de East Anglia en Norwich, organizó un estudio para conocer si los espectadores, después de la película, diferenciaban en ella la ciencia y la ficción. Los autores preguntan a los espectadores sobre su concepto del calentamiento global antes y después del film, así como su percepción sobre si la ciencia que aparece se basa en hechos. Entrevistan a 301 espectadores, de 12 a 60 años o más, y son mujeres el 55%.
La audiencia no consigue determinar la precisión de la ciencia que aparece en la película. Según los autores, los espectaculares efectos especiales y su gran calidad hacen difícil distinguir dónde termina la ciencia y comienza la ficción. Para el 30%, los efectos especiales les ayudan a entender los hechos y, por ello, aumentó su compromiso con lo que significa el cambio climático. Casi el 44% está dispuesto a hacer algo para reducir el cambio climático.
Otro estudio sobre el efecto de la película en el público y su percepción del cambio climático lo firma Anthony Leiserowitz, de la Universidad de Yale, e incluye entrevistas a 529 espectadores. Encuentra cambios en su percepción del riesgo, los modelos conceptuales del cambio climático, las intenciones de su conducta, las prioridades políticas e, incluso, en su intención de voto en futuras elecciones. En conclusión, la representación en una película popular de riesgos ambientales puede influir en la actitud y la conducta de los ciudadanos.
Uno de los cambios en que está implicada la temperatura del agua y la AMOC es la distribución de las especies pesqueras. Ocurre, por ejemplo, con las migraciones de anguilas y angulas desde Europa y Norteamérica al Mar de los Sargazos para la reproducción. La deriva hacia el norte de la isoterma de 22.5ºC, que marca el límite norte de la reproducción de las anguilas, más la disminución del viento y la mezcla de temperaturas en profundidad afectan a la distribución de las larvas. Según Kevin Friedland y sus colegas, del Servicio Nacional de Pesquerías Marinas de Estados Unidos, la relación entre estos datos y los cambios en la AMOC sugiere que la caída en el número de angulas y anguilas que llegan a nuestros ríos en Europa y, quizá, en Norteamérica, está causada, por lo menos en parte, por el cambio climático.
En conclusión, esta película busca provocar en los espectadores una reacción ante el desastre global que puede suponer el cambio climático y, en parte, lo consigue.
Referencias:
Alonso García, M. 2021. ¿Han cambiado la temperatura y la dirección de la corriente del Golfo? El País 3 marzo.
Boers, N. 2021. Observation-based early-warning signals for a collapse of the Atlantic Meridional Overturning Circulation. Nature Climate Change 11: 680-688.
Caesar, L. et al. 2018. Observed fingerprint of a weakening Atlantic Ocean Overturning Circulation. Nature 556: 191-198.
Caesar, L. et al. 2021. Current Atlantic Meridional Overturning Circulation weakest in last millenium. Nature Geoscience 14: 118-120.
Criado, M.A. 2018. El sistema circulatorio del planeta se debilita. El País 12 abril.
Cubitt, S. 2005. Eco Media. Rodopi. Amsterdam-New York. 168 pp.
Friedland, K.D. et al. 2007. Oceanic changes in the Sargasso Sea and declines in recruitment of the European eel. ICES Journal of Marine Science 64: 519-530.
García-Soto, C. et al. 2021. An overview of ocean climate change indicators: sea surface temperature, ocean heat content, ocean pH, dissolved oxygen concentration, Arctic Sea ice extent, thickness and volume, sea level and strength of the AMOC (Atlantic Meridional Overturning Circulation). Frontiers in Marine Science doi: 10.3389/fmars.2021.642372.
Hansen, B. et al. 2004. Already the Day After Tomorrow? Science 305: 953-954.
Kerr, R.A. 2006. Fake alarm: Atlantic conveyor belt hasn’t slowed down after all. Science 314: 1064.
Kirby, D.A. 2011. Lab coats in Hollywood. Science, scientists, and cinema. MIT Press. Cambridge & London. 265 pp.
Leiserowitz, A.A. 2004. Before and after The Day After Tomorrow: a U.S. study of climate risk perception. Environment 46: 23-37.
Lomborg, B. 2008. En frío. La guía del ecologista escéptico para el cambio climático. Ed. Espasa-Calpe. Pozuelo de Alarcón. 284 pp.
Lowe, T. et al. 2006. Does tomorrow ever come? Disaster narrative and public perceptions of climate change. Public Understanding of Science 15: 435-457.
Mulet, J.M. 2021. Ecologismo real. Ed. Destino. Barcelona. 3,83 pp.
Stocker, T.F. & A. Schmittner. 1997. Influence of CO2 emission rates on the stability of the thermohaline circulation. Nature 388: 862-865.
Thornalley, D.J.R. et al. 2018. Anomalously weak Labrador Sea convection and Atlantic overturning during the past 150 years. Nature 556: 227-232.
Weik von Mossner, A. 2012. Facing The Day After Tomorrow: Filmed disaster, emotional engagement, and climate risk perception. En “American environments: Climate-Cultures-Catastrophe”, p. 97-115. Ed. por C. Mauch & S. Mayer. Universitätverlag Winter. Heidelberg.
Wunsch, C. 2004. Gulf Stream safe if wind blows and Earth turns. Nature 428: 601.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo ZientZinema 2: El día de mañana se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2021: Amanda Sierra – Elogio de la incertidumbre
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Amanda Sierra es neurocientífica y lidera el laboratorio de biología de las células glía del Achucarro Basque Center for Neuroscience. Pero en esta charla no habla de neurociencia, sino que aporta tres mensajes muy sencillos para ayudarnos a diferenciar entre ciencia y pseudociencia, entre datos contrastados y bulos.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2021: Amanda Sierra – Elogio de la incertidumbre se ha escrito en Cuaderno de Cultura Científica.
Un parásito que contribuirá a explicar el origen de la multicelularidad animal
Bautizado como Txikispora philomaios, pertenece a un linaje cercano al punto evolutivo en el que organismos unicelulares se diferenciaron para formar animales y hongos.

El investigador Ander Urrutia del grupo de investigación Biología Celular en Toxicología Ambiental de la UPV/EHU y de Patología Animal en CEFAS/OIE, (Centre for Environment, Fisheries, and Aquaculture Science, Reino Unido) se dedica a estudiar la gran diversidad aun desconocida de organismos parasíticos unicelulares que existe en la zona intermareal en los ecosistemas costeros de climas templados. Una herramienta muy útil para ello es el ADN ambiental: se trata de una técnica que consiste en “extraer el ADN contenido bien en una matriz orgánica o ambiental, como, por ejemplo, en un organismo o en muestras de agua marina previamente filtradas”. Urrutia la usa para ver qué organismos parasitan a los invertebrados: “Existen muchísimos parásitos sin identificar; encontramos nuevas secuencias de ADN e inferimos su comportamiento en base a su similitud genética con otros parásitos, pero realmente no sabemos lo que son”, comenta el investigador.
En la tarea de clasificar los parásitos unicelulares encontrados en las muestras, Urrutia encontró un parásito a priori poco común, que en base a sus características no casaba en ningún grupo existente hasta el momento. “Tuvimos que hacer unos análisis moleculares, que nos confirmaron que era un organismo distinto. Una vez realizados varios árboles filogenéticos, es decir, una vez comparado el ADN de este organismo con sus posibles parientes más cercanos, pudimos ver que se trata de un organismo perteneciente a un linaje primitivo, que se sitúa cerca del punto en el que se diferenciaron los animales y los hongos. Está cerca del momento evolutivo en el que un organismo unicelular se diferenció para dar a todos los animales que existen, poco después de que otro organismo celular parecido se diferenciara para terminar evolucionando en todos los hongos que existen”, explica Urrutia.
El parásito, bautizado como Txikispora philomaios, es un protista (organismo eucariota unicelular) que evolucionó poco después de la división del ancestro común de animales y hongos antes de desarrollar su multicelularidad. “Todos los animales y los hongos del mundo vienen de un mismo organismo celular que presumiblemente estaba en el océano hace cientos de millones de años. En algún momento este comenzó a agregarse y duplicarse, mientras sus células se especializaban formando tejidos, y eventualmente un cuerpo, desde una microscópica medusa hasta una enorme ballena azul”, explica el investigador.
Puesto que a menudo la reordenación genética sufrida por los parásitos difiere de sus parientes de vida libre, el estudio de este parásito y su genoma contribuirá a entender cómo se desarrolló la multicelularidad animal; “es decir, en qué momento y cómo las células empezaron a comunicarse, juntarse, o especializarse entre ellas, formando organismos cada vez más complejos. El desarrollo de la multicelularidad animal es muy importante desde el punto de vista de biología básica”, añade Urrutia, que ha realizado la investigación a caballo entre CEFAS en el Reino Unido, la Estación Marina de Plentzia (PIE) y el Instituto de Biología Evolutiva (IBE/CSIC).
Según explica Urrutia, “Txikispora no solo es una especie nueva, sino que da nombre a un género nuevo, una familia nueva, y un orden nuevo. Es decir, ahora tenemos a la nueva familia Txikisporidae, una familia con bastantes secuencias crípticas, es decir, trozos de ADN desconocidos que se parecen mucho a Txikispora, que también podrían pertenecer a parásitos, pero que ni sabemos dónde están ni qué animales podrían parasitar. Muchas de ellas están en ecosistemas acuáticos de Europa, pero no sabemos nada más acerca de ellos. Esa es otra línea de investigación que me gustaría seguir”.
Los investigadores de la UPV/EHU han sido los encargados de poner nombre a dicho parásito. El nombre de Txikispora es debido a que se trata de una pequeña (txiki) espora, y philomaios es debido a que el parásito solo aparecía unos pocos días durante mayo: ‘amante de mayo’. A la dificultad de ubicarlo filogenéticamente en su correspondiente grupo se ha sumado la dificultad de encontrarlo en aguas marinas: “Estuvimos dando palos de ciego hasta darnos cuenta de que solo se encuentra en la comunidad de anfípodos unos pocos días durante este mes; es como si el resto del año el parásito desapareciera”, explica Urrutia.
Referencia:
Ander Urrutia, Konstantina Mitsi, Rachel Foster, Stuart Ross, Martin Carr, Georgia M. Ward, Ronny van Aerle, Ionan Marigomez, Michelle M. Leger, Iñaki Ruiz-Trillo, Stephen W. Feist, David Bass (2021) Txikispora philomaios n. sp., n. g., a micro-eukaryotic pathogen of amphipods, reveals parasitism and hidden diversity in Class Filasterea Journal of Eukaryotic Microbiology doi: 10.1111/jeu.12875
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Un parásito que contribuirá a explicar el origen de la multicelularidad animal se ha escrito en Cuaderno de Cultura Científica.
La distancia a las estrellas (III)

“Un misionero de la Edad Media dice haber encontrado el punto en el que el cielo se encuentra con la tierra”. Esta es la leyenda que acompaña a una de las imágenes más icónicas de la historia de la astronomía. El conocido como grabado Flammarion ilustra un pasaje de L’Atmosphere: Météorologie Populaire, un libro publicado por el astrónomo Camille Flammarion en 1888. En él, el autor describe las concepciones antiguas del mundo, con el cielo apoyado como una tienda de campaña sobre la tierra.
Durante siglos, nuestra visión del cielo nocturno fue muy parecida a esta. Las primeras representaciones del cosmos pintan el firmamento como una bóveda salpicada de luces. Todas las estrellas se sitúan a la misma distancia del observador, las constelaciones son dibujos planos sobre una pared.
Como el protagonista del grabado de Flammarion, con el paso de los siglos los astrónomos fueron asomándose más allá de esa aparente bóveda y empezaron a hacerse preguntas que les permitieron entender la lógica que daba sentido a todos esos dibujos de luz en la noche. Descubrieron que, lejos de formar una bóvida, cada estrella se sitúa a distinta profundidad y desarrollaron métodos para medir distancias cada vez más inimaginables.
Uno de los más antiguos es el método de paralaje. Se trata de un efecto visual que se produce cuando un observador se mueve. Al hacerlo, los objetos más cercanos parecen cambiar de posición en relación con los más distantes. Es un fenómeno especialmente fácil de reproducir, gracias a los dos ojos (dos puntos de observación) de nuestra cara. Basta con que extiendas tu brazo, con el pulgar alzado, y guiñes alternativamente uno de los dos ojos. El desplazamiento aparente del dedo respecto a los objetos del fondo depende de la distancia que lo separe de tus ojos y se puede usar para calcularla de manera precisa. De hecho, esto es lo que hace tu propio cerebro para que tú percibas el espacio en tres dimensiones. La diferencia entre las imágenes obtenidas desde tus dos puntos de observación (los dos ojos) es suficiente para estimar la distancia a la que se sitúan los objetos de manera intuitiva. Otros animales, con los ojos en lados opuestos de la cabeza y dos campos de visión que no se superponen, por tanto, deben utilizar el movimiento de la propia cabeza o el cuerpo para obtener este efecto del paralaje y poder ver en 3D.
Los astrónomos no tienen los ojos lo suficientemente separados como para percibir la profundidad del cielo nocturno. En cambio, aprovechan el movimiento de la propia Tierra para invocar este mismo principio y determinar la distancia a estrellas relativamente cercanas. Al igual que la punta del dedo, las estrellas que están más cerca de la Tierra cambian de posición en relación con las más distantes, que parecen fijas. Es posible medir de manera precisa el ángulo de desplazamiento de estas estrellas a lo largo del año, y así, conociendo cuánto se ha movido la Tierra (el tamaño de su órbita), calcular la distancia de la estrella usando geometría.
En términos astronómicos, el paralaje solo nos permite calcular distancias relativamente cortas. Pero gracias a él, los astrónomos pueden estimar la profundidad de otros objetos más lejanos y calibrar distintas escalas de medición. Este es el caso de las llamadas “candelas estándar”. Se trata de objetos luminosos cuya magnitud absoluta es conocida, como las cefeidas que mencionamos en el capítulo anterior de esta serie. Comparando su verdadero brillo con su magnitud aparente, es posible conocer a qué distancia se sitúan. No obstante, para calibrar esta escala, primero es necesario calcular la distancia a una cefeida cercana y determinar la relación entre su magnitud absoluta y su periodo de pulsación.
Las cefeidas son estrellas especialmente brillantes, por lo que son visibles en galaxias que se encuentran a decenas de millones de años luz de distancia. Para galaxias aún más distantes, los astrónomos confían en otro tipo de estrellas en explosión conocidas como supernovas de tipo A. Al igual que sucede con las cefeidas, la velocidad a la que se iluminan y se desvanecen estas supernovas está relacionada con su magnitud absoluta, que se puede utilizar para calcular su distancia. Pero esta técnica también requiere una buena calibración utilizando paralaje y cefeidas. Sin conocer la distancia precisa a algunas supernovas, no hay forma de determinar su brillo absoluto.
Otro tipo de método útil para calcular distancias tiene que ver con las variaciones en la propia luz de las estrellas que se alejan de nosotros: el desgaste de la botella debido al viaje del que hablábamos en el capítulo anterior. Hoy sabemos que el universo está en expansión y que las galaxias más lejanas se alejan de nosotros a mayor velocidad que las más cercanas. Esta velocidad provoca un fenómeno conocido como “desplazamiento hacia el rojo” (red shift), debido al efecto Doppler. Las longitudes de onda de la radiación electromagnética tienden a alargarse debido a que su fuente se aleja de nosotros. Si conocemos la frecuencia percibida y la frecuencia original, podemos calcular a qué velocidad se aleja su fuente1.
Para objetos celestes del espacio profundo (a partir de 10 megaparsecs, o 32 millones de años luz, que se dice pronto), la ley de Hubble2 afirma que el corrimiento al rojo de la radiación es proporcional a la distancia que nos separa de su fuente. Esta ley se considera la primera base observacional del paradigma de un universo en expansión, una de las evidencias de la teoría del Big Bang. Se diría que los astrónomos se han asomado tanto a través de la cúpula celeste, que han conseguido ver sus orígenes, quizás no su base, pero sí el punto que vio nacer nuestro cielo nocturno.
Referencias:
1P. A. Tipler, G. Mosca. Física para la ciencia y la tecnología. 6ª Edición. 2012.
2 E. Hubble. A Relation between Distance and Radial Velocity among Extra-Galactic Nebulae. 1929.
Para saber más: De la paralaje
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo La distancia a las estrellas (III) se ha escrito en Cuaderno de Cultura Científica.
El teorema de Pitágoras y los números congruentes
Los números capicúas, aquellos números tales que sus cifras leídas de izquierda a derecha y de derecha a izquierda son las mismas, llaman profundamente nuestra atención, hasta el punto que solemos buscarlos, e incluso coleccionarlos, en las matrículas de los coches, los décimos de lotería, los billetes de medios de transporte, los billetes de la moneda de cualquier país o cualquier otro lugar en el que aparezcan números de cuatro, o más dígitos. De la misma forma, cuando una fecha lleva asociada una expresión numérica capicúa nos parece una fecha curiosa y solemos prestarle atención, comentarlo e incluso darle cierta relevancia a la misma. Por este motivo, no he podido evitar empezar esta entrada del Cuaderno de Cultura Científica mencionando que ayer fue 22 de febrero de 2022, es decir, 22/02/2022, luego una fecha capicúa puesto que el número asociado a la misma, 22.022.022, es un número capicúa. Además, en esta fecha el número 22 tiene especial relevancia, ya que aparece tres veces el número 22, separado cada uno de los otros por un 0 (sobre el número 22 véase la entrada El misterioso número 22).
¿Qué pasa con el día de hoy, el 23/02/2022? Obviamente no es un número capicúa. Sin embargo, podemos obtener fácilmente un número capicúa a partir del mismo, con el simple proceso de sumarle el número simétrico, 23.022.022 + 22.022.032 = 45.044.054. Este es el algoritmo “invierte el orden y suma” del que hemos hablado en la entrada El secreto de los números que no querían ser simétricos (véase también el libro La gran familia de los números, Libros de la Catarata, 2021).
Pero, sigamos con el número asociado al día de hoy, 23.022.022 y pensemos qué propiedades numéricas tiene. Para empezar, este número se puede escribir como producto de tres números primos distintos, 23.022.022 = 2 x 79 x 145.709, es lo que se conoce en matemáticas con el nombre de “número esfénico”. Por lo tanto, tiene 8 divisores (incluyendo el 1 y él mismo: 1, 2, 79, 158, 145.709, 291.418, 11.511.011 y 23.022.022) y la suma de sus divisores propios es 11.948.378, que es una cantidad menor que nuestro número 23.022.022, luego este es un número deficiente (véase la entrada Los números enamorados o el libro La gran familia de los números). Además, es un “número aritmético” ya que, si se realiza la media aritmética de los divisores del número 23.022.022 el resultado es un número natural, en concreto, la media de los divisores de este número
es 4.371.300.
Trivialmente, no es un número primo, ya que es par, pero tampoco es un número “potencialmente primo”, ya que no se puede obtener un número primo sin más que cambiar uno de sus dígitos (por ejemplo, el número 144 es “potencialmente primo” ya que si cambiamos su último dígito obtenemos un número primo, 149).
Más aún, 23.022.022 es un número trapezoidal, ya que puede expresarse como suma de dos, o más, números consecutivos, mayores que 1. Así, nuestro número puede expresarse como suma de los números consecutivos desde 72.697 hasta 73.012. Y se dice que 2 elevado a 23.022.022 es un número apocalíptico ya que incluye el número de la bestia, 666, entre sus dígitos.
Finalmente, el número que se corresponde con el día de hoy, 23.022.022, es un “número congruente”. Y este es el concepto que analizaremos brevemente en esta entrada.
El concepto de número congruente está relacionado con el teorema de Pitágoras. Por lo tanto, como es nuestra costumbre, empecemos recordando este resultado geométrico: “dado un triángulo rectángulo, entonces el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos” (la famosa expresión a2 + b2 = c2, si a y b son los catetos y c la hipotenusa). De hecho, el teorema dice algo más, también es cierto el recíproco, es decir, que “dado un triángulo para el cual el cuadrado de uno de sus lados es igual a la suma de los cuadrados de los otros dos, entonces el triángulo es rectángulo”.
Por lo tanto, un número se llama congruente si es igual al área de un triángulo rectángulo cuyos lados, hipotenusa y catetos, son números racionales (recordemos que un número es racional si es el cociente a / b de dos números enteros a y b, como 0,5 = 1 / 2 ó 1,4 = 7 / 5). Por ejemplo, el triángulo egipcio, es decir, el triángulo rectángulo de lados (3, 4, 5), tiene área igual a 6, por lo tanto, el número 6 es un número congruente. Como puede verse en la siguiente imagen, los números 5, 6 y 7 son números congruentes (de hecho, los primeros).
Como se indica en el libro History of the Theory of Numbers (volumen II), del matemático estadounidense Leonard Eugene Dickson (1874-1954), la historia de los números congruentes se inicia con el matemático griego Diofanto (siglo III). Aunque su estudio fue el tema central de dos manuscritos árabes del siglo X, en los que ya aparecen mencionados los números 5 y 6 como números congruentes. El matemático italiano Leonardo de Pisa (aprox. 1170-1240), conocido como Fibonacci, descubrió que el 7 también es un número congruente y afirmó, aunque sin demostrarlo, que el número 1 no es un número congruente, luego ningún número cuadrado lo es (ya que si m2 fuese un número congruente con triángulo rectángulo asociado (a, b, c), entonces 1 sería un número congruente con triángulo rectángulo asociado (a / m, b / m, c / m)). El matemático francés Pierre de Permat (1601-1665) fue el primero en demostrar que el número 1 no es un número congruente –y, por lo tanto, tampoco todos los números cuadrados-, ni tampoco los números 2 y 3.
Teorema (Fermat, 1640): El número 1 no es un número congruente.
La demostración de este resultado se realiza mediante la técnica del descenso infinito de Fermat. La idea es la siguiente. Para empezar, supongamos que existe un triángulo rectángulo, de lados racionales, cuya área sea igual a 1. Entonces renombrando los lados del triángulo rectángulo como a / d, b / d y c / d, con a, b, c y d números enteros, se tiene una 4-tupla de números enteros (a, b, c, d) tales que
A continuación, si tenemos una 4-tupla de números enteros (a, b, c, d) tales que satisfacen las ecuaciones (1), entonces puede demostrarse que a y b son coprimos (es decir, a no tienen divisores comunes, salvo el 1).
Entonces, el método del descenso infinito de Fermat consiste en demostrar que si tenemos una 4-tupla de números enteros (a, b, c, d) tales que satisfacen (1) y a y b son coprimos, puede construirse otra 4-tupla de números enteros (a’, b’, c’, d’) tales que satisfacen (1) y a’ y b’ son coprimos, con 0 c’ c (es decir, que el nuevo número c’ es más pequeño que c). Si seguimos realizando este proceso llegamos a una contradicción, puesto que es imposible realizar este proceso de forma infinita, ya que c es un número positivo (finito). Por lo tanto, no existe un triángulo rectángulo de lados racionales y área igual a 1.
Para quienes estén interesados en leer la demostración completa, y no solo este bosquejo, pueden consultar, por ejemplo, el artículo The Congruent Number Problem, del matemático Keith Conrad.

La sucesión de números congruentes está recogida en la Enciclopedia On-line de Sucesiones de Números Enteros (OEIS) como la sucesión A003273, cuyos primeros elementos son:
5, 6, 7, 13, 14, 15, 20, 21, 22, 23, 24, 28, 29, 30, 31, 34, 37, 38, 39, 41, 45, 46, 47, 52, 53, 54, 55, 56, 60, 61, 62, 63, 65, 69, 70, 71, 77, 78, 79, 80, 84, 85, 86, 87, 88, 92, 93, 94, 95, 96, 101, 102, 103, 109, 110, 111, 112, 116, 117, 118, 119, 120, …
Por otra parte, volviendo al concepto de número congruente, podemos observar que la condición de que un número N sea congruente es equivalente a que exista un número racional u tal que u2 – N y u2 + N son también cuadrados, que es como consideraron originalmente el problema Diofanto, los matemáticos árabes o Fibonacci. La justificación es sencilla. Si tenemos que N es un número congruente, entonces existen números racionales (a, b, c) tales que a2 + b2 = c2 y N = ab / 2, luego u = c / 2, ya que:
De forma análoga el recíproco. Es decir, estamos diciendo que la condición de que N sea un número congruente es equivalente a que existan números racionales u, p y q tales que
Teniendo en cuenta que u, p y q son racionales, luego cocientes de números enteros, se puede probar fácilmente que la condición de que un número N sea congruente es equivalente a que existan números enteros a, b, x, y tales que

Obtener ejemplos de números congruentes no es difícil, basta con tener una terna o triple pitagórico, es decir, una terna de tres números enteros (a, b, c) que satisfacen la ecuación del teorema de Pitágoras a2 + b2 = c2, siendo uno de los números a o b par, ya que en ese caso el número N = ab / 2 es un número congruente.
Por ejemplo, si consideramos la fórmula de Euclides para generar ternas pitagóricas, es decir, dados dos números enteros n y m tales que m > n > 0, entonces
es una terna pitagórica y b siempre es par. En conclusión, a partir de este método se obtienen ejemplos de números congruentes.
Así, en la siguiente tabla podemos observar algunos ejemplos de ternas pitagóricas generadas con la fórmula de Euclides y el número congruente obtenido.
Existen otros métodos de generar ternas pitagóricas, aunque esto solo nos da algunos números congruentes, que además están generados mediante los lados enteros –no racionales en general- de un triángulo rectángulo.
Sin embargo, la cuestión importante, y más compleja, es conocer, dado un número entero cualquiera, si es, o no, un número congruente. Este es el conocido como el problema del número congruente. Este es uno de los problemas de la teoría de números que aún continúa abierto.
El problema de si un número N es congruente está relacionado con las soluciones de la ecuación y2 = x3 – N2 x (que es un ejemplo de lo que se conoce como “curva elíptica”, aunque de eso no hablaremos hoy). De hecho, estudiando esta ecuación, el matemático estadounidense Jerrold B. Tunnell (1950) obtuvo una resolución parcial del problema del número congruente.
Teorema de Tunnell: Sea N un número entero, libre de cuadrados (si es múltiplo de un número cuadrado sabemos que no es congruente, por el teorema de Fermat), y sean los conjuntos
donde el símbolo # indica la cantidad de elementos del conjunto, es decir, soluciones enteras de la correspondiente ecuación diofántica de cada conjunto. Entonces, si N es un número congruente impar, entonces f(N) = 2 g(N), y si N es un número congruente par, entonces h(N) = 2 k(N).
Además, si se verifica la conjetura de Birch y Swinnerton-Dyer (que es uno de los 7 problemas del milenio del Instituto Clay de Matemáticas, aunque en esta entrada no hablaremos de este tema) para la curva elíptica y2 = x3 – N2 x, se verificaría el recíproco, es decir, las igualdades anteriores son suficientes para afirmar que N es congruente.
En particular, si la conjetura de Birch y Swinnerton-Dyer fuese cierta, se tendría que todos los números N congruentes con 5, 6 o 7, módulo 8 (véase la entrada Un código detector de errores: la letra del DNI), serían números congruentes. En particular, los primeros números N congruentes con 5, 6 o 7, módulo 8, son: 5, 6, 7, 13, 14, 15, 21, 22, 23, 29, 30, 31, 37, 38, 39, 45, 46, 47, 53, 54, 55, … que, como podemos observar en la lista anterior, son números congruentes.
Una cuestión curiosa es la distribución de los números congruentes dentro de los números naturales. Si consideramos los 2.500 números naturales, representados en espiral, como en la espiral de Ulam (véase la entrada El poema de los números primos), y pintamos de rojo los cuadrados que se corresponden con números congruentes y de un color claro los que no lo son, la imagen que nos queda es la siguiente:

Para terminar, el número correspondiente al día de hoy, 23.022.022, se escribe en el sistema de numeración binario como:
1010111110100100111000110.
Bibliografía
1.- R. Ibáñez, La gran familia de los números, Libros de la Catarata, 2021.
2.- Página web: Numbers Aplenty.
3.- Keith Conrad, The Congruent Number Problem
4.- Wikipedia: congruent number
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El teorema de Pitágoras y los números congruentes se ha escrito en Cuaderno de Cultura Científica.
La estabilidad de la silla y tu pareja ideal
¿Hasta qué punto nuestras decisiones están determinadas por las circunstancias? Es probable que respondas que bastante pero porque asumes que eres consciente de esas circunstancias y que las sopesas, también conscientemente, a la hora de tomar una decisión que tú crees racional. Permíteme que te lo plantee de una forma ligeramente diferente: ¿hasta qué punto influye en tu posicionamiento político o en tus preferencias a la hora de elegir pareja la silla en la que estás sentado? ¿Te parece absurda la pregunta? Si influyese de alguna manera, ¿qué nos diría eso de tu libertad individual? Sigue leyendo, puede que te sorprendas.
En los últimos años se han realizado experimentos en los que se ha tratado de dilucidar cómo hechos circunstanciales, aparentemente intrascendentes, afectan a nuestra interpretación de las intenciones de los demás y a nuestra toma de decisiones, reforzando la idea (como si hiciese falta) de que buena parte de nuestros juicios y decisiones se toman a nivel inconsciente, por algo que alguien describió como automatismos de mamífero. Así, si a una persona se le ofrece una bebida con hielo en circunstancias en las que una caliente también tendría sentido, esta interpreta que los presentes no la acogen, mientras que si se le ofrece una caliente se siente bienvenida. Si esto suena extraño aún lo es más el que si haces que votantes se sienten en sillas que se inclinan hacia la izquierda consigues que simpaticen más con políticas asociadas con la izquierda [1].
Otro estudio [2] encabezado por David Kille, de la Universidad de Waterloo (Canadá), que también se centra en el efecto del mobiliario, sugiere que algo tan trivial como la estabilidad de sillas y mesas tiene su efecto en nuestras percepciones y deseos.
Los investigadores pidieron a la mitad de sus 47 voluntarios, estudiantes sin vínculos sentimentales, que se sentasen en una silla ligeramente coja frente a una mesa tampoco demasiado estable mientras realizaban la tarea asignada. La otra mitad se sentaron en sillas frente a mesas que eran idénticas a las del otro grupo pero sin que ni unas ni otras cojeasen.
Una vez sentados los participantes tenían que juzgar la estabilidad de las relaciones de cuatro parejas de famosos: Barack y Michelle Obama, David y Victoria Beckham, Jay-Z y Beyoncé y Johnny Depp y Vanessa Paradis [esta pareja existía en el momento del estudio]. Para emitir su juicio los participantes valoraban en una escala del 1 al 7 la probabilidad de que la pareja se rompiese en los próximos cinco años, siendo 1 “muy poco probable” y 7 “con toda probabilidad”.
Tras haber hecho esto, los participantes tenían que calificar sus preferencias por varios rasgos de una posible pareja. Los rasgos incluían algunos que un estudio piloto previo indicaba que se asociaban con el sentido de estabilidad psicológica (por ejemplo, digna de confianza o responsable), otros asociados con inestabilidad psicológica (espontánea, aventurera) y un tercer grupo sin asociación con la estabilidad o la inestabilidad (cariñosa, divertida). Los sujetos valoraron cada rasgo en una escala del 1 al 7, con 1 siendo “para nada deseable” y 7 “extremadamente deseable”.
Los resultados ponen de manifiesto que, igual que las bebidas frías nos llevan a la percepción de que las condiciones sociales también lo son, las sensaciones de inestabilidad física nos llevan a percepciones de inestabilidad social. Los participantes que se sentaron en sillas cojas a mesas cojas otorgaron a las parejas de famosos una puntuación de estabilidad promedio de 3,2, mientras que los que usaron mobiliario estable dieron un 2,5.
Pero lo que llama particularmente la atención es que los que se sentaban en las sillas inestables no solo veían inestabilidad en las relaciones de los demás, sino que valoraban más la estabilidad en las propias. Dieron a los rasgos que se relacionan con la estabilidad en sus posibles parejas un promedio de 5,0, mientras que los que utilizaron mobiliario estable dieron a estos mismos rasgos 4,5. No es una gran diferencia, pero es estadísticamente significativa.
Si solamente un poco de inestabilidad ambiental parece favorecer el deseo de una roca emocional a la que aferrarse, no quiero ni pensar lo que pueden estar pasando algunas parejas en los tiempos en que vivimos.
Referencias:
[1] Daniel M. Oppenheimer, & Thomas E. Trail1 (2010). Why Leaning to the Left Makes You Lean to the Left: Effect of Spatial Orientation on Political Attitudes Social Cognition, 28 (5), 651-661 : 10.1521/soco.2010.28.5.651
[2] David R. Kille, Amanda L. Forest, Joanne V. Wood (2012) Tall, Dark, and Stable: Embodiment Motivates Mate Selection Preferences Psychological Science doi: 10.1177/0956797612457392
Una versión anterior de este artículo se publicó en Experientia Docet el 7 de julio de 2012.
El artículo La estabilidad de la silla y tu pareja ideal se ha escrito en Cuaderno de Cultura Científica.
El problema difícil de la materia oscura
Bárbara Álvarez González

¿Ha llegado la hora de considerar que la materia oscura no existe?
¿Es el momento de buscar otras alternativas para explicar de qué está hecho el 80 % del Universo desconocido? En estos momentos, algunos científicos consideran la posibilidad de que la materia oscura no sea materia, sino un artefacto causado por la incompleta comprensión de la teoría de la gravedad.
En el origen del Universo
A día de hoy, existe consenso entre los científicos acerca de que la teoría que mejor describe el origen del Universo es la del Big Bang. Así, el Universo nació hace unos 13 800 millones de años a partir de una singularidad infinitamente densa que explotó. La explosión generó una gran cantidad de energía y materia. Y todo aquello ha estado expandiéndose desde entonces.
Sorprendentemente, solo conocemos y comprendemos un 5 % de la materia que existen en el Universo. Incluso de este pequeño porcentaje hay aspectos que no hemos conseguido explicar, como la diferencia entre materia y antimateria.
La física de partículas elementales y el estudio de las interacciones entre ellas intenta desvelar el estado y la evolución del Universo. Y entre todas las incógnitas por resolver, determinar la naturaleza de la materia oscura es una de las más importantes de la cosmología moderna y la física de partículas.
Sabemos que el Universo está hecho de materia visible y materia oscura. En especial, la materia visible, también conocida como materia ordinaria o materia bariónica, es todo aquello formado por leptones (partículas elementales) y bariones (formados por quarks, que son también partículas elementales). De este tipo es tan solo el 20 % de la materia del Universo, el 80 % restante es materia oscura.
Además de su composición, sabemos que debe existir un agente que explique la expansión acelerada del Universo, que por el momento se atribuye a la llamada energía oscura.
El hallazgo de Vera Rubin
La materia oscura junto con la energía oscura componen prácticamente el 95 % del Universo. No la podemos ver, ya que no emite ningún tipo de radiación electromagnética.
Muchas de las evidencias de su existencia provienen del estudio de los movimientos de las galaxias. El análisis del fondo cósmico de microondas también aporta información sobre la cantidad de materia visible y oscura que existe.
En 1933 Fritz Zwicky propuso la existencia de una masa invisible que podía influir en la velocidad de rotación de las galaxias. La pionera Vera Rubin, con sus medidas sobre la curvatura de la velocidad de rotación de las estrellas dentro de galaxias espirales, descubrió que estas curvas se mantienen planas.
El hallazgo de Vera Rubin contradecía el modelo teórico que predecía que las estrellas más alejadas del centro de la galaxia tendrían menor velocidad. Este hecho no se puede explicar solo con la existencia de materia visible y su masa gravitacional asociada, sino que tiene que existir otra forma de materia que proporcione también energía gravitacional. Esta es la evidencia más directa y robusta de la existencia de materia oscura.
A partir de ese momento, y durante las décadas posteriores, se han recopilado más evidencias relacionadas con la materia oscura, hasta el punto de que hoy la gran mayoría de los científicos aceptan su existencia.
Experimentos de primer nivel en busca de la materia oscura
La materia oscura está compuesta por partículas que no absorben, reflejan, o emiten luz, no puede ser vista directamente, y desconocemos su composición.
Los científicos han diseñado diferentes estrategias para encontrar estas posibles partículas candidatas a materia oscura. Dar con ellas es uno de los mayores desafíos actuales de la física.
Existen diferentes estrategias de búsqueda de materia oscura, directa, indirecta o con aceleradores de partículas.
El progreso tecnológico en las últimas décadas ha sido enorme. Hay decenas de experimentos activos dedicados a comprender la naturaleza de la materia oscura con instrumentos de alta precisión y sensibilidad.
Estos experimentos están repartidos por todo el mundo, incluso hay uno en la Estación Espacial Internacional (ISS), y son parte de colaboraciones internacionales de decenas de científicos.
Los experimentos ANAIS, DAMA, XENON100 y LUX utilizan técnicas de detección directa; MAGIC, HESS, VERITAS, Fermi y AMS (en la ISS), entre otros, se basan en técnicas indirectas, para la observación de lo que ocurre en la naturaleza buscando partículas elementales.
En el primer caso, a partir de medias directas, se estudian partículas que surgen de colisiones de partículas de materia visible con partículas de materia
oscura, y en el segundo caso, a partir de medias indirectas, se estudian partículas de colisiones entre partículas de materia oscura exclusivamente.
El LHC “fabrica” partículas de materia oscura
En aceleradores de partículas tan energéticos como el Gran Colisionador de Hadrones (LHC) del CERN, Organización Europea para la Investigación Nuclear, se pueden recrear las condiciones de segundos después del Big Bang y producir o “fabricar” partículas de materia oscura a partir de colisiones de protones muy energéticos.
Los aceleradores son dispositivos que permiten incrementar la energía cinética de las partículas cargadas estables.
El LHC es el último de una cadena de aceleradores que consigue alcanzar energías de hasta los casi 7 TeV (tera electrón voltios) por cada haz de protones. Alrededor de los puntos de colisión se colocan los detectores que pueden medir e identificar las partículas que se producen en cada colisión, para luego poder estudiarlas.
Los experimentos ATLAS y CMS son los encargados de estas búsquedas en el LHC del CERN. Estos experimentos son los mismos que tras una larga búsqueda descubrieron el bosón de Higgs en 2012 completando así el Modelo Estándar de la Física de Partículas y abriendo una nueva era en el campo.
Este logro fue reconocido en 2013 con el Premio Nobel de Física y con el premio Príncipe de Asturias de Investigación Científica y Técnica.
La dificultad que tiene el identificar partículas candidatas a materia oscura en estos tipos de experimentos es que la materia oscura interacciona muy débilmente con la materia y es prácticamente imposible en estos casos encontrar su rastro o traza.

CERN
Indagando en procesos desconocidos
Incorporando teorías más allá del modelo estándar como la supersimetría, modelos simplificados con bosones escalares, o modelos del sector oculto o sector oscuro, se llevan a cabo búsquedas a partir de sus desintegraciones en partículas ordinarias que sí se pueden observar. Estas búsquedas nos llevan a estudiar procesos desconocidos que quizá sean los que al fin nos permitan comprender la composición de la materia oscura, algo que sobrepasaría la frontera del conocimiento actual.
Hasta la fecha no se ha encontrado nada acerca de los posibles candidatos a materia oscura, es una gran incógnita, un misterio aún sin resolver que lleva décadas sin respuesta. Y entre los físicos empieza a haber opiniones discordantes.
No tenemos ningún resultado concluyente en ninguna de las estrategias de búsquedas empleadas en acelerados o astropartículas y todas las posibilidades están abiertas.
Hay científicos que empiezan a plantearse que no existe
El año pasado se publicó un artículo en The Astrophysical Journal que proponía definir la materia oscura como una modificación de la gravedad. Este artículo proponía que en realidad no hay materia oscura, sino que hay partes de la fuerza de la gravedad que no entendemos bien. Su publicación generó un enorme revuelo y entusiasmo, pero enseguida se publicaron respuestas señalando incongruencias que los autores del artículo no tenían en cuenta. Así que por ahora seguimos pensando que hay materia oscura.
Hay grandes expectativas para la detección de materia oscura en los próximos años, aunque, muy probablemente, la respuesta no vendrá de uno solo de estos estudios sino del conjunto de todos ellos. La búsqueda continúa.
Sobre la autora: Bárbara Álvarez González es investigadora Ramón y Cajal del Grupo Experimental de Altas Energías de la Universidad de Oviedo
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo El problema difícil de la materia oscura se ha escrito en Cuaderno de Cultura Científica.
Yamnaya

Hace cinco mil trescientos años, en el ocaso de la Edad del Cobre y los albores de la del Bronce, surgió, al norte de los mares Negro y Caspio, la que hoy denominamos cultura yamna, también llamada “del sepulcro”. El grupo humano que la desarrolló experimentó una gran expansión geográfica; los yamnaya se extendieron hacia el este hasta el territorio de la actual Mongolia y hacia el oeste por todo el subcontinente europeo. A la Península Ibérica llegaron hace, aproximadamente, cuatro mil trescientos años, diez siglos después de su aparición. Su legado genético se encuentra hoy en prácticamente toda Europa y parte de Asia. Tan grande fue su éxito demográfico.
Hasta hace relativamente poco tiempo, la mayor parte de la información relativa a esta cultura se había obtenido de investigaciones arqueológicas, por su característico método de enterramiento; de ahí el nombre “cultura del sepulcro”. Hacían las inhumaciones en túmulos (kurganes), unos sepulcros excavados en el suelo en los que se colocaba el cadáver boca arriba y con las rodillas dobladas. Además, los cuerpos eran cubiertos con ocre.
En algunos enterramientos se han hallado restos de animales domesticados y, por otro lado, los restos más antiguos de carros con ruedas se han encontrado en Europa Oriental en un kurgán en Ucrania perteneciente a la cultura yamna, precisamente. A partir de esos elementos, a los yamnaya se les ha considerado nómadas o seminómadas, que se desplazaban en carros de dos ruedas o vagones de cuatro, pastoreaban ganado y adquirieron la capacidad para consumir leche. A esas adquisiciones se les ha atribuido su fenomenal éxito demográfico.
Las dudas que pudiera haber acerca de los elementos que impulsaron su expansión se han empezado a disipar tras la publicación reciente de los resultados de una investigación. En ella han examinado el sarro de los dientes de restos humanos procedentes del periodo inmediatamente anterior al comienzo de la expansión yamnaya, durante su inicio y tras haberse producido. Han estudiado restos dentales de 56 individuos que vivieron en un periodo de tiempo que va desde hace unos 6600 a 3700 años. Y el examen ha consistido en la caracterización de los restos de proteínas presentes en ese sarro y la determinación de su origen.
Diez de los once individuos procedentes del final de la Edad del Cobre carecían de rastros de haber consumido leche o productos lácteos. Solo uno presentaba restos de proteínas lácteas, debido quizás a su consumo ocasional. Sin embrago, en quince de los dieciséis individuos procedentes del comienzo de la Edad del Bronce, la dentadura contenía abundantes restos lácteos, prueba fiable de su consumo habitual.
Además, algunas de las muestras analizadas en los restos de individuos procedentes del comienzo de la Edad del Bronce contenían proteínas de leche de yegua. Ese dato, junto con otras evidencias arqueológicas, sugiere que los yamnaya no solamente consumían leche de vacas, ovejas y cabras, sino que, además, domesticaron el caballo, lo utilizaron para cabalgar y tirar de carros de dos ruedas, y llegaron incluso a consumir leche de yegua.
Todos estos elementos refuerzan la idea de que la domesticación del caballo y el pastoreo de rebaños de diferentes especies fueron los elementos que impulsaron una transición demográfica muy intensa que permitió la expansión de los jinetes de las estepas hacia Mongolia, el norte del subcontinente indio y el extremo occidental del europeo. El genetista David Reich sostiene que los varones yamnaya llegaron incluso a sustituir la práctica totalidad de los varones de otros linajes en la Península Ibérica hace unos cuatro mil quinientos años. De ser cierta esa conjetura, pocos linajes habrían tenido un éxito tan “arrollador”.
Fuente: Wilkin, S., Ventresca Miller, A., Fernandes, R. et al. Dairying enabled Early Bronze Age Yamnaya steppe expansions. Nature (2021).
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Yamnaya se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2021: Sergio Pérez Acebrón – El comienzo más difícil
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Las probabilidades de que una concepción termine resultando en un nacimiento son muchísimo más bajas de los que te imaginas. Sergio Pérez Acebrón nos presenta qué ocurre en las primeras 6 semanas del embarazo, esos momentos en que ni siquiera muchas mujeres sospechan que pueden estar embarazadas,
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2021: Sergio Pérez Acebrón – El comienzo más difícil se ha escrito en Cuaderno de Cultura Científica.
En busca de El Dorado (en los alimentos)
Ivan Gomez-Lopez, Maitane González-Arceo y María P. Portillo
Durante el cocinado los alimentos son susceptibles de sufrir muchos cambios de color, olor y/o sabor. Estos cambios se deben a la formación de diferentes sustancias químicas que no siempre son beneficiosas, como es el caso de la acrilamida. Ésta se forma gracias a la reacción de Maillard, que se da a altas temperaturas en presencia del aminoácido asparagina e hidratos de carbono. Por ello, los alimentos en los que se puede encontrar mayor cantidad de acrilamida son los elaborados a base de patata y cereales, además del café, entre otros. Este compuesto está clasificado como probable cancerígeno por la Agencia Internacional de Investigación contra el Cáncer (IARC, International Agency for Research on Cancer), pudiendo producir efectos negativos sobre la salud. La única manera de reducir su ingesta es previniendo la formación de la misma, ya que es fácil de identificar debido al cambio de color que producen los alimentos. No obstante, cabe destacar que, siguiendo una dieta variada y equilibrada, su ingesta no debería suponer una preocupación mayor.

Introducción
La mayoría de los alimentos que consumimos hoy en día sufren una serie de procesos que modifican muchas de sus características. Estos procesos no solo se dan en la industria alimentaria; el cocinado de los alimentos que realizamos en el hogar es un procesamiento térmico con el que se producen cambios en características como el olor, el color, la textura y/o el sabor. También se puede reducir el valor nutricional de los alimentos, por ejemplo, por pérdida de vitaminas. No obstante, también se producen efectos positivos como la eliminación de microorganismos patógenos [1].
Durante el cocinado de los alimentos se dan una serie de reacciones químicas que, en ciertos casos, desencadenan en la formación compuestos tóxicos. A veces estos compuestos son fácilmente detectables a simple vista ya que van asociados a cambios de color de los alimentos. Este es el caso de la acrilamida, una sustancia química que se crea de forma natural en los productos alimenticios que contienen almidón durante procesos culinarios cotidianos a altas temperaturas, como la fritura, el tostado, el asado u otros procesos térmicos a más de 120 ºC y a baja humedad [2]. ¿Quién no ha oído decir que una tostada quemada o la carne muy hecha provoca “cáncer”? Pero, ¿Hasta qué punto es esto cierto?
¿Cómo se forma la acrilamida?
Mientras se da el procesamiento térmico de un alimento, los colores del mismo tienden a pardearse, debido a la reacción de Maillard. Esta reacción es la responsable de la formación de compuestos que dan color, sabor y olor al alimento cocinado a temperaturas altas. Además de estos cambios que hacen atractivos y apetecibles los alimentos, se puede generar, entre otros compuestos, la acrilamida. Para la formación de la acrilamida, el alimento debe tener una serie de características. En primer lugar, es necesario que el alimento sea rico en hidratos de carbono y en segundo lugar, se requiere la presencia del aminoácido asparagina (Figura 1). Cabe destacar, que la formación de este compuesto va asociado al tiempo y temperatura de cocción [3]. Cuanto más tiempo cocinamos una patata frita, particularmente mediante fritura y en menor grado en el caso del horneado, más oscura se vuelve, formándose mayor cantidad de acrilamida.

¿En qué alimentos se puede encontrar y qué presencia tiene la acrilamida en nuestra dieta?
Las fuentes más comunes de acrilamida son las patatas fritas o los productos fritos a base de patata, cereales y sus derivados como galletas, bizcochos y pan y el café tostado. En un reciente estudio de la AESAN (Agencia Española de Seguridad Alimentaria y Nutrición) se muestra que la patata y sus derivados son los alimentos que más contribuyeron a la ingesta de acrilamida en adultos, adolescentes y niños mayores de 1 año, representando un 49-62% de la exposición. En bebés menores de un año, los principales contribuyentes son los alimentos que no provienen ni de patata ni de cereales (Figura 2) [2].

¿Cuáles son los efectos negativos de la acrilamida?
La Agencia Internacional de Investigación contra el Cáncer (IARC, International Agency for Research on Cancer) ha clasificado la acrilamida como “probable cancerígeno para los humanos” [4].Pero, hasta el momento, el potencial carcinógeno (que produce cáncer o favorece su aparición) y genotóxico (que daña el ADN) de la acrilamida solo ha sido demostrado en modelos animales. Dado que en humanos sólo se han realizado unos pocos estudios epidemiológicos, no se puede establecer una clara asociación entre la exposición a la acrilamida mediante la dieta y el desarrollo del cáncer. Otros estudios preclínicos apuntan que la acrilamida tiene efectos sobre la reproducción, el sistema nervioso y el hígado [5].
Aunque es importante hacer hincapié en que estos efectos tóxicos solo se han demostrado en animales, sin embargo, es preferible actuar con precaución y tratar de reducir la exposición a la acrilamida, por ejemplo, minimizando su presencia en los alimentos.
¿Existe una “dosis tolerable” de acrilamida?
Puesto que cualquier nivel de exposición a una sustancia genotóxica puede dañar el ADN y contribuir a la aparición de cáncer, los científicos de la Autoridad Europea de Seguridad Alimentaria (EFSA, European Food Safety Authority) concluyen que no se puede establecer una ingesta diaria tolerable de acrilamida en alimentos [6]. Por ello, deberíamos reducir su ingesta lo máximo posible. La Organización de las Naciones Unidas para la Agricultura y la Alimentación (FAO, Food and Agriculture Organization) publicó en 2009 un Código de Prácticas para intentar reducir el contenido de acrilamida en los alimentos [7].
¿Cómo podemos reducir la formación e ingesta de acrilamida?
Entre otras, la Administración de Medicamentos y Alimentos de Estados Unidos (FDA, Food and Drug Administration) hace una serie de recomendaciones que se pueden seguir en casa a la hora de cocinar alimentos para minimizar la formación de acrilamida [8]:
-
Reducir el tiempo de fritura y controlar la temperatura en la medida de lo posible.
-
En el caso concreto de las patatas, se recomienda guardarlas en un lugar seco y oscuro y evitar la nevera.
-
El color es un buen indicador de la cantidad de acrilamida, por lo que se deben retirar los alimentos de la fuente de calor cuando tienen un color dorado, y evitar las tonalidades marrones oscuras (Figura 3).

Como conclusión, cabe destacar que, aunque los alimentos citados en el presente artículo puedan contener una gran cantidad de acrilamida, dado que si llevamos una dieta variada y equilibrada no van suponer la base de nuestra alimentación, la ingesta de acrilamida no debería preocuparnos en exceso.
Bibliografía
- Rifai L y Saleh FA. A Review on Acrylamide in Food: Occurrence, Toxicity, and Mitigation Strategies. International Journal of Toxicology, 39(2):93-102 (2020). doi: 10.1177/1091581820902405
-
Aesan (Agencia Española de Seguridad Alimentaria y Nutrición). Con la acrilamida no desentones, elige dorado, elige salud. (21/12/2020).
-
Teodorowicz M, van Neerven J, y Savelkoul H. Food Processing: The Influence of the Maillard Reaction on Immunogenicity and Allergenicity of Food Proteins. Nutrients, 9(8), 835 (2017). doi: 10.3390/nu9080835
-
Agencia Internacional para la Investigación en Cáncer (IARC). IARC monographs on the evaluation of carcinogenic risk to humans. Some industrial chemicals. Volumen 60 (1994).
-
Perera DN, Hewavitharana GG y Navaratne SB. Comprehensive Study on the Acrylamide Content of High Thermally Processed Foods. BioMed Research International (2021). doi: 10.1155/2021/6258508
-
Autoridad europea de seguridad alimentaria (EFSA). Scientific Opinion on acrylamide in food. EFSA Journal 13(6):4104 (2015).
-
Organización de las Naciones Unidas para la Agricultura y la Alimentación (FAO). Código de prácticas para reducir el contenido de acrilamida en los alimentos. CAC/RCP 67-2009 (2009).
-
FDA (Food and Drug Administration). You Can Help Cut Acrylamide in Your Diet (14/03/2016).
Sobre los autores:
Ivan Gomez-Lopez 1,2 , Maitane González-Arceo1, María P. Portillo1,3
1 Grupo de Nutrición y Obesidad, Departamento de Farmacia y Ciencias de los Alimentos, Universidad del País Vasco/Euskal Herriko Unibertsitatea (UPV/EHU)
2 Grupo de fitoquímica y funcionalidad de productos vegetales, Departamento de Biotecnología y Microbiología de los Alimentos, Instituto de investigación en ciencias de la alimentación (CIAL) (CSIC-UAM)
3 Centro de Investigación Biomédica en Red de la Fisiopatología de la Obesidad y Nutrición (CiberObn)
El artículo En busca de El Dorado (en los alimentos) se ha escrito en Cuaderno de Cultura Científica.
Pokepaleontología
En la primera generación de videojuegos de Pokémon nos encontrábamos con unos objetos curiosos cuando visitábamos la región de Kanto: un par de fósiles y un fragmento de ámbar o resina fósil. Hasta aquí podíamos considerarlo una anécdota, pero venía acompañada por una parte más fantasiosa. Una vez que conseguíamos esos objetos, podíamos acudir con ellos a un laboratorio científico para que reviviesen a los Pokémon que habían dejado esos restos fósiles. En el último caso, incluso, extrayendo una muestra de ADN preservado en el ámbar, al más puro estilo de la novela de Michael Crichton “Parque Jurásico”.
Esta idea de completar nuestra colección de Pokémon con ejemplares extintos reanimados por la ciencia tuvo una fantástica acogida entre los fanáticos de esta saga, de tal manera que los diseñadores decidieron incluir más fósiles en casi todas las nuevas generaciones de videojuegos. Pero el diseño de estas criaturas fósiles no surgió simplemente de una imaginación desbordada, sino que tiene una base científica sólida. Así que vamos a sacar nuestra Pokédex paleontológica y analicemos esos organismos tan particulares, considerando primero los invertebrados para pasar, a continuación, a los vertebrados.

Uno de los primeros Pokémon fósiles que podíamos revivir era Kabuto, cuya morfología responde a una mezcla entre un cangrejo herradura y un trilobites, un grupo de artrópodos marinos extintos hace unos 250 millones de años.
También podíamos hacernos con Anorith, criatura casi calcada a los Anomalocaris, un grupo de organismos relacionados con los artrópodos que poblaron los mares cámbricos hace entre 510 y 530 millones de años.

Por otro lado, nos encontrábamos con Omanyte, Pokémon directamente basado en unos cefalópodos marinos también extintos llamados ammonites.

Pero un ejemplar que podía confundirnos sobre su grupo taxonómico de origen era Lileep. Considerado de tipo planta, además de roca, lo conseguíamos a partir del fósil raíz, lo que nos hacía pensar que se trataría de algún tipo de vegetal pretérito. Pero su morfología está basada en los crinoideos, un grupo de equinodermos marinos comúnmente conocidos como “lirios de mar” porque de un simple vistazo recuerdan a una planta, pero se trata de animales.
El primer Pokémon fósil vertebrado lo encontrábamos a partir de ese ADN antiguo conservado en ámbar, ya que revivíamos a un Aerodactyl, cuyo nombre y forma recuerdan enormemente a Pterodactylus, un género de reptiles voladores mesozoicos.
En cuanto a los reptiles acuáticos, podíamos hacernos con Tirtouga, que está basado en el género extinto de tortugas marinas cretácicas Protostega, la segunda tortuga de mayor tamaño de la historia, solo superadas por el género Archelon, extintas también a finales del Cretácico. Y sí, la evolución de Tirtouga, Carracosta, mucho más grande y fuerte, tiene su inspiración precisamente en este último género de tortugas gigantes.
Por supuesto, no podían faltar los Pokémon originados a partir de géneros extintos de dinosaurios. Por un lado, revivíamos a Cranidos, una criatura similar a los paquicefalosáuridos, un grupo que tenía fusionados los huesos frontal y parietal, lo que le aportaba una resistente protuberancia ósea en la cabeza. Por su parte, Shieldon se inspira en los ceratópsidos, un grupo de dinosaurios que desarrollaron una estructura ósea en la parte trasera de la cabeza a modo de collar protector. Y no podía faltar el Pokémon basado en el Tyrannosaurus rex, Tyrunt.

Con Amaura también podíamos equivocarnos en su clasificación faunística, como en el caso de Lileep. Y es que revivía a partir del fósil aleta, por lo que nos podríamos imaginar que está inspirado en algún tipo de reptil marino. Pero, en realidad, su desarrollo está basado en la especie Amargasaurus cazaui, un dinosaurio saurópodo que tenía una hilera de espinas dorsales desde la cabeza hasta la punta de la cola.
Finalmente encontramos a Archen, la versión Pokémon de Archaeopteryx, género considerado como una forma de transición entre los dinosaurios y las aves.

Pero estas criaturas no son las únicas herramientas didácticas de paleontología aparecidas en la saga de videojuegos. En la región de Hoenn descubrimos un Pokémon que se creía extinto y al que consideran un fósil viviente, Relicanth. Esta criatura es un homenaje a los celacantos, un grupo de peces que se consideraban extintos desde finales del Cretácico ya que no se tenían evidencias ni de restos fósiles más modernos ni de su presencia en la actualidad, al habitar aguas profundas y de difícil acceso, hasta que se capturó un ejemplar vivo hace décadas.
Y el último guiño geológico lo aportan los juegos de octava generación. Aquí podemos combinar fósiles en grupos de dos piezas para revivir Pokémon híbridos. Así conseguimos un Dracozolt, que es mitad un dromeosáurido, dinosaurio de baja estatura y con el cuerpo emplumado, y mitad un estegosáurido, dinosaurio con placas óseas dorsales. Arctozolt es la combinación de un dromeosáurido y un plesiosaurio, un reptil marino. Por su parte, Dracovish representa una mezcla entre un Dunkleosteus, un género de peces acorazados de la Era Paleozoica, y un estegosáurido. Y, por último, podemos revivir a un Arctovish, parte Dunkleosteus y parte plesiosaurio.
Esta mezcla de géneros y grupos faunísticos rememora los comienzos de la paleontología de vertebrados, cuando los naturalistas de finales del s. XVIII y comienzos del s. XIX se empeñaban en montar esqueletos completos en cada yacimiento fósil, incluso mezclando restos de especies y géneros diferentes, dando lugar a formas que nunca existieron en la naturaleza.
Sin duda, la saga de videojuegos Pokémon es una manera de lo más divertida de aprender paleontología. Ahora sólo nos queda hacernos con todos los fósiles que aparecen en los mismos.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Pokepaleontología se ha escrito en Cuaderno de Cultura Científica.
El proyecto «Código Dickens»: descifrando la «carta de Tavistock»
Charles Dickens (1812-1870) fue el autor de títulos tan conocidos como Oliver Twist, David Copperfield, Historia de dos ciudades o Cuento de Navidad. El escritor inglés era aficionado a los acertijos, llegando a inventar un código propio, basado en la braquigrafía, con el que «redactó» algunos textos aún no descifrados. De hecho, Dickens usó de manera frecuente la taquigrafía como herramienta en informes parlamentarios, redacción de cartas y toma de notas, aunque se desconoce el sistema que utilizó.
El proyecto Código Dickens intenta descifrar estos documentos taquigrafiados del escritor inglés. Claire Wood, profesora de Literatura Victoriana en la Universidad de Leicester (Reino Unido), dirige este proyecto en el que colabora también Hugo Bowles, profesor de Inglés en la Universidad de Foggia (Italia).
Uno de los textos estudiados en este proyecto es la «carta Tavistock», depositada en la Biblioteca y Museo Morgan de Nueva York, llamada de esta manera por estar escrita en un papel con membrete de la casa Tavistock en la que Dickens y su familia vivieron entre 1851 y 1860.

A finales de 2021, Wood y Bowles hicieron un llamamiento internacional para intentar descubrir el significado de esta misteriosa misiva. Ofrecían un premio en metálico a quien ayudara a aclarar total o parcialmente el significado de esta carta, guardada en el museo durante más de 150 años sin que nadie descubriera su clave. Numerosas personas de todos los lugares del mundo atendieron esta solicitud, y las aportaciones recibidas han conseguido resolver parcialmente el rompecabezas. Y hago alusión a un puzle, porque aproximadamente el 70 % del contenido se ha completado uniendo las piezas que cada persona ha ido aportando. Diferentes «descifradores amateurs» han ido proponiendo trozos de texto traducido, ayudando a que el significado escondido haya tomado forma. Se han identificado en la «carta Tavistock» expresiones como «Día de la Ascensión», «la próxima semana», «anuncio», «rechazado», «devuelto», «falso e injusto» o «en audiencia pública». Todas ellas forman parte de esas piezas que han ido encajando poco a poco y que han ayudado a descubrir, entre otras, la fecha de la carta en la que Dickens aludía a algún manuscrito que alguna revista o periódico le había rechazado.
Esta hipótesis se ha visto reforzada tras encontrar en un museo de Nueva York una carta de 1859, escrita por el gerente de The Times, Mowbray Morris,en la que el directivo pedía disculpas a Dickens por la decisión de un empleado, que había rechazado el anuncio del escritor, temeroso de sus posibles consecuencias legales.
El anuncio era urgente para el escritor ya que concernía a la disolución de una sociedad: Dickens era copropietario y editor de una revista semanal llamada Household Words. El escritor había entrado en conflicto con los editores de esta publicación, Bradbury & Evans, y Dickens decidió crear una nueva revista de la que sería el único propietario y editor, y de la que tendría el control total: All The Year Round. Para él era prioritario conseguir que la transición entre las dos publicaciones fuera lo más rápida posible y, por supuesto, al mismo tiempo, pretendía atraer a los lectores de Household Words hacia su nuevo proyecto.

Descontento por la respuesta negativa del empleado, el 6 de mayo de 1859 el escritor se había dirigido al editor del periódico The Times, J.T. Delane, pidiendo su intervención. Y habría guardado una copia críptica de esa misiva, posiblemente por razones legales: esa es la «carta Tavistock».
Delane pasó la carta de Dickens a Mowbray Morris, quien se hizo responsable del malentendido al haber ordenado a sus empleados rechazar anuncios que consideraran conflictivos de alguna manera. El 9 de mayo escribió una carta de disculpa al escritor, la encontrada en el museo de Nueva York, y procedió a ordenar la publicación del anuncio de Dickens.
La comprensión, aunque sea parcial, de esta carta puede ayudar a entender mejor el método taquigráfico de Dickens, su vida y su obra. Aún quedan muchos manuscritos cifrados del autor por traducir. Esta labor detectivesca, realizada con precisión matemática, probablemente se vaya realizando gracias a las investigaciones de personas procedentes de la Academia y la colaboración de un voluntariado ávido por descubrir.
La carta de Tavistock nos da una idea de los tratos comerciales de Dickens: los otros manuscritos podrían incluir extractos de libros en los estantes de Dickens, discursos improvisados o incluso un cuento desconocido.
Claire Wood
Referencias
-
Descubierto en Handiwork, Futility Closet, 11 febrero 2022
-
The Dickens Code: Enduring mystery of Dickens shorthand letter solved with crowd-sourced research, The University of Leicester, 2 febrero 2022
-
Claire Wood, Decoding the Tavistock letter, or, Dickens and the ‘dark arts of Victorian media management’, The Dickens Code, 7 febrero 2022
-
Transcripción de la «carta Tavistock», The University of Leicester y Università di Foggia
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo El proyecto «Código Dickens»: descifrando la «carta de Tavistock» se ha escrito en Cuaderno de Cultura Científica.
Las neuronas pueden vivir más que el cuerpo que las alberga
Si tu encéfalo pudiese conseguir un cuerpo nuevo, ¿durante cuánto tiempo podría seguir viviendo? Y si ese cuerpo fuese biónico, esa ilusión que llamas yo, ¿viviría indefinidamente? En lo que sigue no encontrarás respuestas concluyentes a estas preguntas, sino los resultados de un experimento que nos dan pistas de cuáles podrían ser.
La senescencia replicativa es un proceso por el cual las células de los mamíferos sufren el acortamiento de las cadenas de los telómeros, las repeticiones de secuencias de ADN que están al final de los cromosomas y que protegen a estos durante el proceso de replicación. La longitud de los telómeros es una forma molecular de reloj biológico, reflejando el historial de las divisiones de la célula y la edad biológica de tejidos y órganos.
Pero, si esto es así, ¿qué edad biológica atribuimos a las neuronas? Porque las neuronas no se dividen. Estarán sujetas a otros factores de envejecimiento pero no a la senescencia replicativa. Por tanto, ¿cuánto puede vivir una neurona? Esta es la pregunta que un grupo de investigadores encabezado por Lorenzo Magrassi, de la Universidad de Pavía (Italia) ha intentado empezar a responder en un experimento con ratones y ratas. Los investigadores han encontrado que efectivamente las neuronas pueden vivir más tiempo que el cuerpo en el que nacieron, tanto como su organismo huésped.
El experimento, de manera muy simplificada, consistió en trasplantar precursores neuronales del cerebelo de ratones (tomados cuando estos ratones aún eran fetos) en los cerebros de unas ratas que viven más tiempo por término medio. Las neuronas trasplantadas sobrevivieron en sus huéspedes hasta tres años, el doble de la vida media del ratón.
Este resultado sugeriría que la supervivencia neuronal y el envejecimiento en un mamífero son procesos coincidentes pero separables. La primera consecuencia es que si conseguimos alargar la vida (entendemos sana, obviamente) del organismo, el sistema nervioso central la va a acompañar, las neuronas de su encéfalo seguirían activas lo que dure el cuerpo. Alargar la vida se podría conseguir siguiendo pautas específicas en lo que a dieta y comportamiento (evitar zonas contaminadas, hacer ejercicio, etc.) se refiere además de la ingestión adecuada de fármacos. En otras palabras, si se extrapolan los datos a los humanos (con todas las reservas pertinentes), las neuronas podrían aguantar hasta unos 150-160 años si, como es lógico, no media ninguna enfermedad.
Habrá quien argumente que sobrevivir no lo es todo, que también es importante cómo se sobrevive. La muerte neuronal no ocurre solo por el envejecimiento del encéfalo. Así, las neuronas del cerebelo sufren una pérdida sustancial de ramas dendríticas, espinas y sinapsis en el envejecimiento normal. ¿Qué ocurre entonces en una neurona trasplantada? Una parte de las neuronas trasplantadas por los investigadores fueron células de Purkinje para estudiar precisamente si la densidad de espinas disminuía como en los ratones donantes o como en las ratas huésped. Encontraron que la pérdida de espinas en las células trasplantadas sigue un ritmo menor del típico en ratones y más parecido al de las ratas.
Por lo tanto, si se consiguen superar los problemas inmunológicos (rechazo) las neuronas trasplantadas pueden vivir toda la vida de su huésped.
Independientemente de las oportunidades que se abrirían para los transhumanistas, entendiendo el término en sentido amplio, a largo plazo, existirían posibilidades farmacológicas muy interesantes a medio plazo si se consiguiesen desentrañar los mecanismos moleculares responsables del distinto comportamiento de las neuronas en un entorno (ratón) y otro (rata). Por otra parte, el que el envejecimiento sea algo en lo que las células no son autónomas podría tener su relevancia desde un punto de vista evolutivo o, incluso, epidemiológico.
Referencia:
Magrassi, L., Leto, K., & Rossi, F. (2013). Lifespan of neurons is uncoupled from organismal lifespan Proceedings of the National Academy of Sciences, 110 (11), 4374-4379 DOI: 10.1073/pnas.1217505110
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo se publicó en Experientia Docet el 3 de abril de 2013.
El artículo Las neuronas pueden vivir más que el cuerpo que las alberga se ha escrito en Cuaderno de Cultura Científica.
Negacionismo, anticiencia y pseudociencias: ¿en qué se diferencian?
Antonio Diéguez Lucena

A raíz de la pandemia de covid-19 se han hecho de uso común algunos términos técnicos, muchos provenientes de la medicina, que no siempre han sido utilizados con conocimiento de causa. Lo mismo ha sucedido con términos provenientes de la filosofía, sobre todo de la epistemología. Hay tres que han resultado particularmente socorridos y sobre los que, sin embargo, sigue habiendo una gran incorrección en su uso: negacionismo, anticiencia y pseudociencia.
Son tres conceptos muy relacionados y, de hecho, tienden a solaparse en ocasiones. De ahí que las actitudes de algunas personas puedan ser encajadas en más de uno de ellos. Es importante usarlos con precisión porque, como estamos viendo estos días, un uso abusivo de alguno de ellos termina por diluir su significado.
No todo el mundo es negacionista
En el ámbito académico el término negacionismo lleva tiempo cristalizando. No es tan amplio como para incluir toda crítica a los resultados científicos, puesto que esto convertiría absurdamente en un negacionista a cualquier científico que cuestionara, con buena base argumental o fáctica, una hipótesis ampliamente aceptada. Tampoco es tan estrecho como para referirse solo a los que rechazan la evidencia histórica sobre el Holocausto (aunque ese fuera su origen).
Los negacionismos más extendidos hoy se refieren al cambio climático, a la existencia del virus del sida o de la covid-19, y a la efectividad de las vacunas en general.
Los negacionistas suelen defenderse diciendo que ellos representan el sano escepticismo y actitud crítica que debe predominar en la ciencia. Sin embargo, esto es una maniobra de despiste. El negacionismo no debe confundirse con el escepticismo organizado que, como señaló hace décadas el sociólogo Robert K. Merton, constituye un atributo característico de la ciencia.
A diferencia de este, no pretende poner en cuestión hipótesis científicas que no han sido suficientemente contrastadas, sino que promueve más bien un rechazo dogmático y poco razonando, frecuentemente por motivaciones emocionales e ideológicas, de tesis científicas bien establecidas acerca de determinados fenómenos.
Una de las mejores caracterizaciones que se han dado por ahora del negacionismo está en un breve artículo de 2009 de Pascal Diethelm, un economista especializado en salud, y Martin McKee, un médico que enseña sobre salud pública.
Según ellos, el negacionismo consistiría en un rechazo del consenso científico con argumentos ajenos a la propia ciencia, o sin argumento alguno. Esto genera la impresión de que hay debate donde realmente no lo hay. Está ligado a cinco rasgos:
- el recurso a ideas conspiracionistas.
- el recurso a falsos expertos y el desprecio por los expertos reales
- la selección a conveniencia de los datos y análisis.
- la formación de expectativas imposibles sobre lo que la ciencia puede realmente proporcionar.
- el uso de falacias lógicas.
Anticiencia por la tierra plana o contra la evolución
También en la anticiencia encontramos la impugnación de hipótesis científicas o de hechos bien establecidos por la ciencia, pero hay en ella una actitud con un carácter más general.
No se limita a negar un aspecto concreto o una explicación específica de ciertos mecanismos naturales, sino que rechaza una teoría completa o incluso avances científicos fundamentales.
Dos ejemplos muy claros serían el terraplanismo y el repudio de la teoría de la evolución por parte de los creacionistas radicales. Obviamente, en la medida en que los negacionismos comportan casi siempre, al menos de forma indirecta, una oposición a teorías o hechos bien asentados por la práctica científica, asumen una actitud anticientífica, aunque no siempre sea así.
Puede haber casos de personas que nieguen esos hechos o teorías y lo hagan convencidos de que la buena ciencia es la que lleva necesariamente a dicha negación.
Sería el caso, por ejemplo, de los negacionistas del cambio climático que se aferran a ese pequeño porcentaje de climatólogos que niegan solo que el cambio climático esté causado por la actividad del ser humano.
Del mismo modo, una persona antivacunas que rechace las vacunas de ARN porque cree que pueden producir cambios en el genoma del vacunado estaría manteniendo una actitud anticientífica, puesto que esa creencia choca con lo que nos dice la ciencia.
Una persona que desconfíe de las vacunas contra la covid-19 porque considera que todavía no se conocen posibles efectos secundarios a largo plazo no necesariamente estaría comprometida con actitudes anticientíficas, aunque cabría preguntarse si no estaría llevando sus recelos más allá de lo prudente.
Uno de los pioneros en el estudio de la anticiencia ha sido el historiador de la ciencia Gerald Holton. Ya a comienzos de los 90 del pasado siglo nos avisaba del peligro de que despertara “esa bestia que dormita en el subsuelo de nuestra civilización”. Parece que la bestia ha despertado, puesto que las actitudes anticientíficas empiezan a hacerse cada vez más notables incluso en países con un nivel educativo relativamente alto.
Se ha constatado mediante diversos estudios que los negacionismos y las actitudes anticiencia van ligados por lo habitual a la aceptación de teorías conspirativas y de los llamados “hechos alternativos”. Es este un eufemismo para referirse a hechos que en realidad nunca se han producido, pero son asumidos por conveniencia.
Si alguien se opone al consenso de la ciencia sin tener genuinos argumentos científicos o datos fiables, debe articular algún tipo de explicación conspiracionista para justificar por qué existe ese consenso.
El recurso más fácil es pensar que los científicos están comprados por las grandes empresas farmacéuticas, o por las industrias biotecnológicas, o por el poder político o militar.
Esas teorías conspirativas han sido llevadas al paroxismo por movimientos como QAnon, cuya creencia en que una élite satánica y pedófila quiere controlarnos a todos e impedir que Donald Trump triunfe, y para ello utilizan cualquier medio a su alcance, incluyendo las vacunas, hace replantearse la definición del ser humano como animal racional.
Pseudociencia: falsedades disfrazadas de ciencia
Las pseudociencias son disciplinas o teorías que pretenden ser científicas sin serlo realmente. Eso les lleva inevitablemente a chocar con teorías científicas aceptadas.
Ejemplos populares hoy en día serían la astrología, la homeopatía, la parapsicología y la “medicina cuántica” (aunque esta recibe otros nombres y tiene diversas ramificaciones).
Conviene aclarar que, por mucho que a veces se confunda la homeopatía con la medicina naturista y con el herbarismo, no son la misma cosa. En estas últimas el paciente recibe al menos sustancias que tienen un efecto químico sobre su organismo. El problema aquí sería el control de las dosis.
La homeopatía, en cambio, se basa en la idea de que el poder curativo de una sustancia viene dado, entre otras cosas, por la dilución extrema con la que se administra. Pero las diluciones son tan extremas que es imposible que el paciente reciba una sola molécula del principio activo.
Para justificar esto, los defensores de la homeopatía recurren a una teoría carente por completo de base científica, por no decir simplemente contraria a la ciencia, como es la de la “memoria del agua”. Según esta teoría, el agua que ha estado en contacto con el principio activo guarda memoria de sus propiedades químicas y esa “información” es la que se mantiene en el preparado homeopático y cura al paciente.
Lo curioso es que, en la mayor parte de los casos, lo que el paciente recibe no es un tarrito con agua, sino una pastilla de azúcar.
Contra lo que algunos parecen creer, fiándose demasiado de Popper, las pseudociencias no son infalsables. Es decir, sus tesis pueden ser puestas a prueba mediante contrastación empírica. De hecho, muchas de las afirmaciones de las pseudociencias están falsadas, puesto que la ciencia ha mostrado que son falsas. Las pseudociencias pueden alegar, y de hecho lo hacen, que cuentan en su haber con muchas “confirmaciones” (en el sentido de predicciones cumplidas), lo cual puede ser cierto, pero obviamente eso no las hace científicas.
Ilustremos todo lo que acabamos de decir con el ejemplo de la pandemia:
- El que niega que exista la pandemia o el virus que la causa es un negacionista.
- El que rechaza las vacunas en general y, por ello mismo, también estas vacunas contra la covid-19, por creer que están hechas para dañar o para controlar a la gente es alguien que mantiene actitudes anticientíficas.
- Los diversos remedios que se han propuesto contra la infección como si estuvieran apoyados en la ciencia sin estarlo realmente, como los homeopáticos, son pseudociencia.
Sobre el autor: Antonio Diéguez Lucena es catedrático de Lógica y Filosofía de la Ciencia en la Universidad de Málaga
Este artículo fue publicado originalmente en The Conversation. Artículol original.
El artículo Negacionismo, anticiencia y pseudociencias: ¿en qué se diferencian? se ha escrito en Cuaderno de Cultura Científica.
Alubias, garbanzos y lentejas contra el cambio climático

Según las previsiones del Panel Intergubernamental del Cambio Climático para los próximos años, se espera que los cultivos del futuro crezcan en ambientes más secos y cálidos.
Los estreses ambientales (descenso en la precipitación, incremento en la temperatura, etc.) son factores clave en la producción y calidad de los cultivos. Por eso será necesario un mayor esfuerzo en el desarrollo de variedades mejor adaptadas a condiciones adversas para alcanzar la creciente demanda de alimentos.
La cara y la cruz de los fertilizantes
Junto con el desarrollo de variedades mejor adaptadas, en las últimas décadas se ha optado por aumentar el uso de fertilizantes nitrogenados. De esta forma se consigue incrementar la producción de manera efectiva y económica. Esto es así porque, en general, la respuesta del cultivo suele ser proporcional al nitrógeno aportado y este es relativamente barato. Tal es su éxito, que el uso global de fertilizantes nitrogenados ha aumentado casi un 800 % desde 1961.
Otro dato que da fe de nuestra actual dependencia: se estima que los abonos sintéticos permiten alimentar a la mitad de la población mundial. O dicho de otra forma, la mitad de las calorías que consumimos han sido producidas gracias a este tipo de fertilizantes.
Frente a estas indudables ventajas, existen inconvenientes.
En el mejor de los casos, solo el 50 % del nitrógeno aplicado es tomado por los cultivos. ¿El resto? Parte acaba en las aguas, tanto superficiales como subterráneas, en forma de nitrato, parte se pierde a la atmósfera en forma de óxido nitroso. La principal fuente de emisión de este gas, con un potencial de calentamiento casi 300 veces mayor que el CO₂, son los abonos nitrogenados. Por lo tanto, el uso de estos abonos participa activamente en el calentamiento global.
Leguminosas al rescate
No todos los cultivos tienen la misma dependencia del nitrógeno sintético. Hay una familia de cultivos que es capaz de aprovechar el nitrógeno atmosférico, formando para ello una relación simbiótica con ciertas bacterias presentes en el suelo. Son las leguminosas: desde las lentejas a la alfalfa pasando por alubias y garbanzos.
Esta relación tiene lugar en unos tejidos subterráneos específicos. Son los nódulos. En ellos, la planta huésped (en este caso las leguminosas) suministra al nódulo la fuente de carbono (energía) en forma de fotoasimilados. La bacteria, a cambio, le suministra el nitrógeno fijado, que puede ser usado por la planta, por ejemplo, para formar proteínas. Esto hace a las leguminosas prácticamente independientes del aporte de nitrógeno sintético.
Así, esta singular característica de las leguminosas puede ayudarnos a combatir el cambio climático de dos maneras:
- evitando el uso de abonos nitrogenados y la consiguiente emisión de óxido nitroso;
- reduciendo las emisiones de CO₂ asociadas a la producción de fertilizantes (se estiman en el 1,8 % del total de emisiones).
Además, los residuos que deja el cultivo de leguminosas (ricos en nitrógeno) enriquecen el suelo y fertilizan el cultivo siguiente de forma natural.
Entonces, ¿cuál es el problema?
Con todas estas ventajas, pueden pensar que su uso debería estar extendido. Sin embargo, aunque a nivel global ocupan el 15 % de la superficie cultivada, solo por detrás de los cereales, su éxito es mucho menor en Europa. Concretamente se cultivan en el 1,5 % de la superficie agraria europea. Esto es debido, principalmente, a tres causas:
- Falta de aceptación por parte de los consumidores. Pese a ser un alimento arraigado en la cultura mediterránea, su consumo ha descendido por la introducción de nuevos patrones de consumo.
- Alta especialización de la agricultura europea en la producción de cereales y oleaginosas (girasol y colza). Esto provoca una dependencia de los abonos nitrogenados y de las importaciones de materias primas proteicas (Europa importa el 70 %, principalmente soja).
- Poco atractivo para los agricultores. Esto es debido a los bajos precios y a que su producción (en gran parte condicionada por su capacidad para fijar nitrógeno) se ve fuertemente afectada por estreses ambientales, muchos de ellos asociados al cambio climático.
El problema limita la solución
Como hemos indicado, su independencia de los abonos nitrogenados y su baja huella de carbono hacen de los distintos cultivos de leguminosas una gran herramienta para reducir el impacto de la agricultura en el cambio climático. Sin embargo, al mismo tiempo, la producción de leguminosas se ve fuertemente condicionada por los factores climáticos adversos asociados al mismo.
Es en este punto cuando la investigación entra en escena. El funcionamiento del nódulo está estrechamente relacionado con el estado fisiológico de la planta huésped. Por lo tanto, factores ambientales que afecten a la planta lo harán también a la fijación de nitrógeno por el nódulo y, en definitiva, a la producción. Es preciso incrementar nuestros conocimientos sobre los mecanismos que condicionan la fijación de nitrógeno atmosférico y su potenciación como herramienta de fertilización natural en un contexto de cambio climático.
El trabajo continuo y cooperativo de distintos grupos de investigación (como el nuestro) está permitiendo identificar y comprender estos mecanismos. Esta información nos permite identificar las variedades y perfiles fisiológicos y moleculares implicados en una producción más sostenible en condiciones de crecimiento adversas.

David Soba, Author provided
Potenciar su producción y consumo
Como hemos visto, es imprescindible optimizar la gestión de los cultivos para alcanzar el objetivo fijado por la UE de reducir las pérdidas de nutrientes en un 50 % y el uso de fertilizantes sintéticos en un 20 % para 2030. Al mismo tiempo, estos deben satisfacer las demandas de una población creciente y con hábitos de consumo cambiantes. Todo ello bajo unas condiciones de cambio climático.
Con este fin, aprovechar las ventajas agronómicas y ambientales que nos ofrecen las leguminosas es clave. Para ello, es vital comprender el efecto que el calentamiento global tendrá sobre estos cultivos y, con esta información, seleccionar variedades más eficientes en condiciones climáticas futuras. Pero estas acciones, irremediablemente, deben ir unidas a otras medidas como incentivos al cultivo de leguminosas a través de la política agraria comunitaria y aquellas encaminadas a aumentar su consumo entre la población.
Sobre los autores: David Soba Hidalgo es investigador postdoctoral e Iker Aranjuelo Michelena, científico titular, en el Instituto de Agrobiotecnología (IdAB – CSIC – Gobierno de Navarra)
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Alubias, garbanzos y lentejas contra el cambio climático se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2021: Ignacio López Goñi – Me han dichooooooo, que hay un bichooooooo
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Ahora que España está saliendo de la sexta ola es un estupendo ejercicio intelectual echar la vista atrás, a septiembre del año 2021, antes de ómicron y la sexta ola, y recordar esta charla de Ignacio López Goñi sobre la biología del SARS-cov-2, un virus que ha mutado miles de veces. Los virus son nubes de mutantes, pero eso no tiene que llevar a la histeria, porque las vacunas… funcionan. Advertencia a quienes empleen auriculares: Nacho canta en este vídeo.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2021: Ignacio López Goñi – Me han dichooooooo, que hay un bichooooooo se ha escrito en Cuaderno de Cultura Científica.
Regla de modestia
Hoy se celebra el Día Internacional de la Mujer y la Niña en la Ciencia. En la Cátedra de Cultura Científica de la UPV/EHU este año hemos dirigido la mirada hacia el efecto que ejercen ciertos estereotipos a la hora de orientar la elección de estudios por parte de chicos y chicas.
Como señalamos aquí en su día, si se consideran en conjunto las disciplinas científicas, no hay excesivas diferencias en los números de hombres y de mujeres que cursan una carrera universitaria de ciencias. También se asemejan los porcentajes de quienes hacen un doctorado. No obstante, existen diferencias en lo relativo a las preferencias de chicos y chicas por ciertas carreras. Las más importantes se dan en las de ingeniería (con muchos más chicos) y de ciencias de la salud (con muchas más chicas). Y dentro de las carreras estrictamente científicas, la presencia femenina es menor en física y mayor en las biociencias.
Los factores que subyacen a esas diferencias no son conspicuos, no resultan evidentes, son sutiles. Así, con carácter general, las chicas no suelen optar por profesiones para cuyo desempeño se requiere una competencia intensa (tal y como se documenta, p. ej. aquí y aquí, y revisados aquí junto con otros estudios) entre sus practicantes. Ese factor, junto al efecto de ciertos estereotipos, puede estar en la base, por ejemplo, del cambio que se produjo en 2012 en los estudios de matemáticas. Antes de esa fecha se asociaban con la docencia, una actividad profesional muy común entre las mujeres, pero a partir de entonces aumentó la demanda de profesionales en matemáticas para puestos en el área tecnológica y empresarial, trabajos a los que se atribuye una mayor competitividad. El menor atractivo de esos estudios para las jóvenes sería consecuencia, así, de estereotipos de género y, además, los reforzaría.
Por otro lado, las preferencias en la elección de estudios de posgrado en función del género no parecen ajustarse a una hipotética divisoria que separaría los estudios científicos y tecnológicos del resto, sino al efecto de otros factores. Entre ellos están las expectativas del grado de brillantez considerado necesario para cursar con éxito unos y otros. Cuanto mayor es la brillantez que se supone necesaria (porque así se le atribuye) para cursar con éxito unos estudios, menor es el porcentaje de mujeres que los escogen. Y es probable que ese mismo fenómeno se produzca a la hora de elegir los estudios de grado.
Que las chicas tiendan a inclinarse por estudios para los que creen que no es necesario ser una persona “tan brillante” tiene, al parecer, origen en la niñez, a partir de los seis años, aproximadamente. A esa edad las niñas empiezan a dudar que sean tan inteligentes como los niños. Comienzan entonces a evitar actividades que se consideran propias de personas “verdaderamente inteligentes”. Parece ser que esos estereotipos se construyen en el entorno familiar y que en su génesis incide la denominada “regla de modestia”, por la que se enseña a las niñas, desde bebés, a no alardear de sus habilidades y, por el contrario, se anima a hacerlo a los niños. Se trataría, por lo tanto, de un efecto de base cultural.
A los factores anteriores, cabe añadir el efecto de lo que se denomina “incongruencia de roles” (role incongruity) y “falta de ajuste” (lack of fit). Consiste en la identificación de los rasgos propios de las personas que son consideradas buenas científicas con las características estereotípicamente masculinas (agencia, competitividad…), mientras que a las mujeres se les atribuyen rasgos que se identifican menos con los que se supone adornan a aquellas, como el carácter cooperativo (comunal), principalmente.
En definitiva, en la elección de estudios universitarios operan estereotipos ligados a la autopercepción y a la competencia que se atribuyen las chicas a sí mismas. Actúan en varias instancias en la vida académica y profesional, y contribuyen a socavar las posibilidades de desarrollo y progreso en la vida académica de las científicas. Se trata de barreras que obstaculizan el acceso de las mujeres a determinados estudios de ciencia y tecnología, por lo que, en la práctica, no gozan de las mismas oportunidades que los hombres.
El vídeo al que acompaña este texto pretende dar a conocer la existencia de esas barreras, no por sutiles poco efectivas, porque en la Cátedra de Cultura Científica pensamos que es necesario poner de relieve la existencia de los factores –esos u otros– que limitan el acceso de las mujeres a ciertos estudios. Solo así, conociéndolos, estaremos en condiciones de actuar para que dejen de existir. Lo hacemos hoy, mediante este vídeo, y lo hacemos el resto de los días del año también, a través de las publicaciones en Mujeres con Ciencia. Porque para la Cátedra de Cultura Científica de la UPV/EHU todos los días del año son días de la mujer y la niña en la ciencia.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
Más sobre el 11 de febrero- Juan Ignacio Pérez, Hoy es el día de la mujer y la niña en la ciencia, todos lo son, 11 febrero 2017.
- Juan Ignacio Pérez, No es una percepción, 11 febrero 2018.
- Juan Ignacio Pérez, Mi hija quiere ser ingeniera, 11 febrero 2019.
- Juan Ignacio Pérez, Motivos para un día internacional, 11 de febrero 2020.
- Juan Ignacio Pérez, La historia de June Almeida, 11 de febrero de 2021.
El artículo Regla de modestia se ha escrito en Cuaderno de Cultura Científica.
La distancia a las estrellas (II)
A pesar de no poder pagar las facturas que han llegado hasta su playa, el náufrago de nuestro relato se encuentra de muy buen humor. Gracias a todos esos nuevos números desperdigados sobre la arena, ahora entiende mucho mejor cómo son los continentes y países que rodean a su pequeña isla. Sin embargo, aún hay un detalle que le falta concretar. La preocupa la distancia que tendrá que recorrer para poder huir de la isla a nado. Bueno, eso y los tiburones, claro. Pero contra los tiburones tiene un buen repelente (y espera que funcione).
Para intentar calcular las distintas que le separan de otros mundos al otro lado del océano, el náufrago empieza a anotar el número de botellas que llegan a su playa en cada dirección. Se trata de un dato fácil de medir y además parece muy prometedor. Es razonable pensar que cuanto más cerca se encuentre un país, más botellas suyas alcanzarán la la isla desierta. Pero para hacer esa inferencia, hay una variable que el náufrago necesita conocer, y es el tamaño y poderío económico de las naciones que envían todos esos mensajes. Lógicamente, los países más grandes y activos económicamente generarán muchas más facturas. De modo que un país grande y relativamente lejano, podría acabar arrojando muchas más botellas en la arena que un país cercano pero chiquitín.
Volviendo a la astronomía, el problema es equivalente al de comparar la magnitud absoluta de una estrella con su magnitud aparente. La magnitud absoluta es el brillo intrínseco de la estrella, su poderío energético (el número de botellas que envía), mientras que la aparente es la luz que llega hasta nosotros. Conociendo estas dos magnitudes, es posible calcular la distancia que nos separa de ella. Lógicamente, cuanto más lejos se sitúa una estrella, menor es su magnitud aparente. La cuestión es ¿cómo podemos calcular su magnitud absoluta?
Esta pregunta permaneció sin respuesta hasta finales del siglo XIX. Fue entonces cuando Henrietta Swan Leavitt, otra de las astrónomas de Harvard, empezó a fijarse en unas curiosas estrellas intermitentes situadas en la Nube de Magallanes. Eran las llamadas estrellas variables o cefeidas, unas estrellas entre cuatro y veinte veces más masivas que el Sol, que se encienden y apagan regularmente. Sus periodos suelen estar comprendidos entre unas pocas horas a meses1, y aunque ya habían sido descritas con anterioridad, fue Leavitt quien observó por primera vez que las más brillantes eran las que tenían los periodos más largos.

Si bien la astrónoma no podía saberlo en aquel momento, esta relación no era un accidente, ni una mera casualidad. La variación de la luminosidad de las cefeidas tiene su origen en el equilibrio de fuerzas que caracterizan a toda estrella. En estas inmensas bolas de plasma, la gravedad tiende a contraer la materia y a empujarla hacia el interior. En cambio, las reacciones nucleares liberan energía y aumentan la presión de radiación dentro de la estrella, de modo que empujan la masa hacia el exterior. En la mayoría de las estrellas estas dos fuerzas se encuentran en equilibrio. Sin embargo, cuando esto no sucede, cuando una estrella se desvía respecto a su radio ideal, puede empezar a oscilar, como un corazón de luz. En estos casos, el tamaño de la estrella es lo que determina el periodo de la oscilación o “pulsación”. Cuanto más grande es la estrella, más lentos son sus latidos.
Esta fue la relación que descubrió Henrietta Leavitt mientras analizaba las estrellas de las Nubes de Magallanes2. En 1912 publicó un artículo en el que analizaba los periodos de veinticinco cefeidas. Las más luminosas eran, precisamente, las que oscilaban más lentamente. Como se suponía que todas ellas estaban a una distancia similar de la Tierra, esto significaba que cada latido estaba directamente relacionado con la magnitud absoluta de su estrella. Bastaba con estimar la distancia a la que se encontraba alguna Cefeida cercana (un elemento necesario para “calibrar” la nueva regla de medir) para empezar a situar galaxias, nebulosas y todo tipo de formaciones astronómicas sobre la profundidad inabarcable del cielo.
El texto de 1912 estaba firmado por Pickering, como casi todos los trabajos que salían del Observatorio, pero en el primer párrafo se aclara que el estudio ha sido elaborado por Leavitt. En apenas tres páginas, la astrónoma abría el camino para resolver uno de los puzzles más antiguos de la astronomía: la clave para medir distancias en el universo.
Henrietta S. Leavitt, 19122. Las gráficas representas la magnitud aparente de veinticinco cefeidas en función de su periodo. En la segunda gráfica utiliza una escala logarítmica.
Referencias:
1IAA-CSIC/FECYT. “Una regla para medir el universo”. El extraño caso de Henrietta Leavitt y Erasmus Cefeido, Instituto de Astrofísica de Andalucía, 5 de diciembre de 2012. Consultado el 6 de febrero de 2022.
2Leavitt, Henrietta Swan, and Edward Charles Pickering. “Periods of 25 Variable Stars in the Small Magellanic Cloud.” Harvard College Observatory Circular, vol. 173, 1912, pp. 1-3, https://adsabs.harvard.edu/full/1912HarCi.173….1L.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo La distancia a las estrellas (II) se ha escrito en Cuaderno de Cultura Científica.
En busca de la banda de Moebius más corta posible
La banda de Moebius es un sorprendente objeto topológico, una superficie con una sola cara y un solo borde, con propiedades muy curiosas (véanse el video La banda de Moebius de la sección Una de Mates del programa de televisión Orbita Laika; el libro La banda de Moebius, de Clifford Pickover; el libro Festival mágico-matemático de Martin Gardner; o algunas de las entradas de la sección Matemoción, del Cuaderno de Cultura Científica, que mencionamos en la bibliografía; por citar algunas referencias) que ha cautivado a muchísimas personas, tanto de dentro como de fuera de las matemáticas.

A pesar de que es el objeto topológico por excelencia, en la entrada de hoy vamos a fijarnos en un problema geométrico relacionado con su construcción con una tira de papel.
Para empezar, una banda de Moebius es una banda retorcida que podemos construir de forma sencilla de la siguiente forma. Si tomamos una tira de papel y pegamos los extremos se obtiene una banda normal con dos caras y dos bordes, pero si primero giramos uno de los extremos del papel media vuelta y después juntamos los extremos se obtiene la banda de Moebius, una superficie que solo tiene una cara y un solo borde.
El problema geométrico consiste en construir una banda de Moebius con una tira de papel lo más corta posible. Es decir, dada una tira de papel (como la de la siguiente imagen) que tiene una anchura a y una largura b, se trata de construir una banda de Moebius con una largura b lo más corta posible (dejando fija la anchura a).
Si la tira de papel es bastante larga, como la de la imagen anterior (podemos construir en casa una tira como la de la imagen que, para una anchura de 10 cm, tendría una largura de 96 cm –o también, para una anchura de 2cm, la largura es de 19,2 cm–), entonces la cinta de Moebius que se construye con ella es bastante holgada, con lo cual podemos recortarla en largura (hacerla más corta) y seguir construyendo nuestra superficie de una sola cara. La cuestión es hasta dónde podríamos ir recortando en la largura.
La banda de Moebius que hemos construido la podemos “aplanar” de la forma en la que aparece en esta imagen, que tiene una forma de tipo triangular (que nos recuerda al símbolo del reciclaje).
Vemos que efectivamente tiene holgura, hay espacio en el centro. Entonces, si vamos recortando la largura de la banda iremos cerrando ese hueco central, como se muestra en la siguiente imagen, hasta llegar el momento en que se cierre el hueco. Además, como podemos observar, en ese momento final lo que ocurre es que tenemos un hexágono.
En concreto, nuestra banda de Moebius “recogida” está formada por nueve triángulos equiláteros, como se muestra en la siguiente imagen. Los pares de triángulos equiláteros de papel 2 y 3, 5 y 6, así como 8 y 9, están superpuestos, uno encima del otro, en nuestra banda retorcida, mientras que los triángulos equiláteros 1, 4 y 7 están solos.
Para conocer cuánto hemos acortado nuestra tira de papel, o más bien, hasta que longitud (respecto de la anchura) hemos acortado, vamos a separar/cortar de nuevo nuestra tira y desplegarla. Tendremos en ella los nueve triángulos equiláteros que, si cortamos en la banda de Moebius justo por el medio de uno de ellos, quedan distribuidos en la tira como se muestra en la imagen.
Para calcular, a partir de la imagen anterior, la relación de la largura (b) respecto a la anchura (a), vamos primero a calcular el lado de cada triángulo equilátero, en función de la anchura a. Para ello vamos a utilizar el teorema de Pitágoras sobre el triángulo rectángulo de la izquierda, que es la mitad del triángulo equilátero. Si llamamos x a la longitud del lado del triángulo equilátero, tendremos el siguiente esquema.
Luego, por el teorema de Pitágoras (la suma de los cuadrados de los catetos es igual al cuadrado de la hipotenusa):
Y despejando x, en función de a, se obtiene que:
Por lo tanto, si tenemos en cuenta que la tira de papel que hemos obtenido tiene una largura (b) que es 4,5 veces el lado del triángulo equilátero (x), como se puede observar en una de las imágenes anteriores, entonces se tiene que la largura de la tira es igual a:
La largura es aproximadamente 5, 2 veces la anchura (ajustando un poco más, 5,196). Es decir, si nuestra tira de papel tuviese una anchura de 10 centímetros, la largura sería de 51,96 centímetros (recordemos que la inicial tenía una anchura de 10 cm y una largura de 96 cm).

El matemático Stephen Barr, en su interesante libro Experiments in Topology, nos cuenta que es posible reducir la largura de la tira de papel a la tercera parte.
Veamos cómo construir la banda de Moebius a partir de la tercera parte de la banda de nueve triángulos equiláteros. Ahora nos quedamos con un trozo de tira de papel con tres triángulos equiláteros, por ejemplo, los tres de la izquierda de la imagen anterior, dos enteros en el centro y dos mitades en los laterales.
Para construir la banda de Moebius debemos pegar el lateral AB con el lateral opuesto, después de dar media vuelta, es decir, con CD. En particular, el punto A se pega con el punto C y B con D. Para ello, primero doblamos por el lado común de los dos triángulos equiláteros enteros (marcado con las flechas en la imagen), de forma que el triángulo equilátero de la derecha queda sobre el de la izquierda, como se ve en la siguiente imagen.
Ahora, doblamos las dos mitades laterales de triángulo equilátero (que son triángulos rectángulos), la que tiene al lado AB y la que tiene al lado CD, colocándolas encima del triángulo equilátero entre ellos (formado por la superposición de los anteriores triángulos equiláteros), como se muestra en la imagen.
Entonces, se pegan los lados AB y CD obteniéndose una banda de Moebius. A las personas que estáis leyendo esta entrada del Cuaderno de Cultura Científica os animo a que realicéis esta construcción en vuestra casa, o donde deseéis claro.
¿Cuánto se ha reducido ahora la largura (respecto de la anchura)? Como habíamos dicho anteriormente, se reduce a la tercera parte de la anterior reducción, es decir, ahora la largura (b) es igual a:
Por ejemplo, nuestra tira original de 10 cm de anchura y 96 cm de largura, la habíamos reducido a una largura de 51,96 cm, que ahora la hemos reducido a 17,32 cm (la raíz de tres es igual a 1,732).
En el libro Experiments in Topology se plantea la cuestión de si se podría realizar una banda de Moebius, con una tira de papel cuadrada. Si consideramos la tira de papel anterior, de 10 cm de anchura, sería una largura de también 10 cm. El propio Stephen Barr nos muestra la solución.
Si partimos de una tira de papel ABCD cuadrada, como la de la imagen, se empieza doblando por una de las diagonales.
A continuación, se dobla por la otra diagonal, quedando un triángulo (isósceles y rectángulo) que es la cuarta parte del cuadrado original.
Entonces, se pegan los lados AB con CD para formar la banda de Moebius. Hemos de tener cuidado, ya que los lados a pegar están en la base del triángulo obtenido, pero en distintas capas. El lado AB está en la capa de arriba, mientras que el lado CD está en la tercera capa empezando por arriba (o en la segunda empezando por abajo). Por este motivo, si hacemos esta construcción en nuestra casa, tenemos que tener un poco de cuidado cuando vayamos a poner el celo para pegar esos lados.

A pesar de estos ingeniosos métodos de Stephen Barr para crear bandas de Moebius para tiras de papel que son bastante cortas –el caso del cuadrado es significativo- como para intentar dar medio giro a un lado y pegarlo con el opuesto, el gran divulgador de las matemáticas, el estadounidense Martin Gardner (1914-2010), en una de sus columnas de Juegos matemáticos de la revista Scientific American (recogida en el libro The Sixth Scientific American Book of Mathematical Puzzles and Diversions, publicado por vez primera en 1971), plantea el problema de hacer una banda de Moebius para tiras más cortas aún, por ejemplo, si es el doble de ancha que larga.
De nuevo, deberíamos de pegar el lado AB con su opuesto, después de girar este media vuelta, es decir, con el lado CD. El problema evidente es que el una tira de papel muy corta, necesitaríamos una mayor largura para poder pegar los lados opuestos –después de girar uno media vuelta-.
La genial idea de Martin Gardner fue conseguir que la anchura “fuese más corta aún”, de manera que con esa nueva anchura la largura nos permita girar la banda media vuelta y pegar los extremos. ¿Cómo conseguir reducir la anchura, sin modificar las dimensiones reales de nuestra tira de papel? La idea es ingeniosa. Se trata de realizar una cantidad de pliegues horizontales –igualmente espaciados- a nuestra tira de papel de forma que se generen una cantidad impar de zonas plegadas iguales.
En la anterior imagen hemos realizado 20 pliegues, que generan 21 zonas, que se pliegan en acordeón formando una tira de papel cuya anchura se ha reducido en relación a la largura.
La “nueva” tira, después de realizar completamente estos pliegues, tiene una largura suficiente (aunque recordemos que está formada por 21 capas de papel, que se han generado al realizar los pliegues) como para poder girarla media vuelta y pegar los lados plegados, AB con CD (como se muestra en la siguiente imagen, sacada del libro de Martin Gardner).
¡Qué maravilla de construcción de bandas de Moebius a partir de tiras de papel muy cortas!
Bibliografía
1.- Clifford A. Pickover, La banda de Möbius, Almuzara, 2009.
2.- Martin Gardner, Festival mágico-matemático, Alianza editorial, 1984.
3.- Marta Macho, Poesía retorcida sobre la banda de Moebius, Cuaderno de Cultura Científica, 2016.
2.- Marta Macho, Otto Spiegel, de la simetría a la teoría del caos, Cuaderno de Cultura Científica, 2019.
3.- Raúl Ibáñez, De menú para hoy, dos novelas gráficas negras con salsa matemática, Cuaderno de Cultura Científica, 2019.
4.- Raúl Ibáñez, Guía matemática para el cómic ‘Promethea’, Cuaderno de Cultura Científica, 2020.
5.- Raúl Ibáñez, Arte Moebius (I), Cuaderno de Cultura Científica, 2020.
6.- Raúl Ibáñez, Arte Moebius (II), Cuaderno de Cultura Científica, 2020.
7.- Stephen Barr, Experiments in Topology, Dover, 1989.
8.- Martin Gardner, The Sixth Scientific American Book of Mathematical Puzzles and Diversions, Simon & Schuster, 1971.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo En busca de la banda de Moebius más corta posible se ha escrito en Cuaderno de Cultura Científica.
El futuro de hace 10 años
Hace casi diez años, el 25 de julio de 2012, publiqué este artículo en Experientia docet hablando sobre las posibilidades que podría traer el futuro. El mensaje fundamental es la importancia de lo imprevisible, cosa que desarrollé algo más en la conferencia que di en Naukas Valladolid 2021 y que aparece al final. Creo que es un ejercicio interesante echar la vista atrás, contrastar, y aprender para el futuro.
El 15 de abril de 2010 volvía a casa después de asistir a una demostración de un nuevo equipo industrial en una ciudad del centro de Suecia. Cuando llegamos mi compañero y yo al aeropuerto de Estocolmo nos encontramos con el caos. Al parecer un volcán en Islandia, el Eyjafjallajökull, había entrado en erupción y las cenizas que arrojaba a a la atmósfera obligaban a cerrar el espacio aéreo por tiempo indefinido. Nuestro vuelo a Madrid aún no estaba cancelado aunque sí muchos otros. Yo, siguiendo un instinto de supervivencia peculiar, entré en la bien surtida librería a comprarme un par de libros.
Nuestro vuelo fue el último en despegar de Estocolmo antes del cierre del espacio aéreo sueco y nuestro piloto nos llevó a España dando un rodeo por Polonia. En ese tiempo comencé a leer uno de los libros que más me ha hecho pensar en los dos últimos años: The Black Swan, The Impact of the Highly Improbable, de Nassim Nicholas Taleb.
Un cisne negro, citando a Taleb, es un acontecimiento que reúne tres características. Primero, es completamente inesperado, ya que nada en el pasado puede apuntar de forma convincente a esa posibilidad. Segundo, tiene un impacto enorme. Tercero, a pesar de ser inesperado, nuestra capacidad humana para la racionalización a posteriori hace que lo veamos como algo explicable y predecible.
Los cisnes negros son el tipo de acontecimientos que marcan las revoluciones científico-técnicas; pensemos en el descubrimiento de los rayos X o en la penicilina o, y perdonad que aquí cite una afición, los cuasicristales. En las próximas décadas serán los cisnes negros los que marquen la evolución de la ciencia y la técnica concretas. Por definición no podemos saber cuáles serán. Nosotros, en lo que sigue, no vamos a intentar predecir qué desarrollos concretos habrá en la ciencia y la técnica en lo que queda de siglo, ya dejamos a otros que se equivoquen en eso, sino que vamos a explorar brevemente, y sin ánimo de ser exhaustivos, las áreas en las que podrían producirse esos avances. Puede que te sorprendan.
La instrumentalización de la química y el recorrido limitado de la física.
La química, como ciencia que permite conocer el universo, está agotada. No habrá sorpresas químicas relevantes, si bien cabe esperar de ella una enorme variedad de contribuciones prácticas. La química es como una lengua que cuesta dominar: a lo largo de los siglos hemos ido aprendiendo su gramática, su vocabulario, sus modismos, cada uno de estos descubrimientos permitiéndonos conocer más el universo y a nosotros. Pero un idioma, una vez dominado, sirve para expresar ideas. Este es el futuro papel de la química, un instrumento sofisticado que facilitará mucho de lo que sigue.
La física sólo es un poco más estimulante desde esta perspectiva que hablamos. Aunque aún haya mucho que aprender acerca de la estructura fundamental del universo, las máquinas necesarias para realizar esta exploración son cada vez más grandes y caras. Existe un concepto económico crítico para estas situaciones, el de rendimientos decrecientes y, aunque el descubrimiento de una partícula compatible con el bosón de Higgs pueda estimular durante un tiempo breve el imaginario colectivo de los que administran el dinero, no cabe esperar muchas inversiones en algo que tiene de entrada pocas aplicaciones prácticas desde su punto de vista.
En las próximas décadas, salvo hallazgos no previstos en el modelo estándar que nos depare el LHC (más improbables si la partícula descubierta se confirma que, efectivamente, es el bosón de Higgs del modelo estándar), la física fundamental estará centrada en comprender la materia oscura (partículas fundamentales que interactúan con la de materia ordinaria aparentemente sólo a través de la gravedad) y en encontrar ondas gravitacionales (lo que permitiría unir la gravedad, explicada actualmente por la torre de marfil que es la teoría general de la relatividad, con la física cuántica que explica el resto de la física). Para conseguir ambos fines bastarían en principio instrumentos relativamente baratos comparados con un megaacelerador de partículas lineal, por ejemplo.
La otra gran incógnita de la física es la energía oscura, eso que hace que el universo se expanda aceleradamente. A diferencia de las dos anteriores, su resolución requiere de una revolución teórica previa más que de nuevos datos. Y esto entra de lleno en el dominio de los cisnes negros. Puede que ahora, mientras lees esto, un parado esté garabateando, en un parque de Málaga, la que podría ser la solución a este problema.
La revolución nanobiomática.
Para el año 2050, parece bastante probable que sepamos, más allá de la certeza estadística, que la vida es abundante en el universo. El estudio de los planetas extrasolares con nuevos telescopios espaciales parece que es algo que tiene la financiación poco menos que garantizada: la pregunta de si estamos solos en el universo es fácilmente entendible por los administradores y también interesante para ellos.
Un aspecto relacionado es el origen de la vida en la Tierra. La respuesta puede que venga del mejor conocimiento del funcionamiento celular y la identificación de sus partes más primitivas, y de la experimentación, es decir, de la creación de organismos vivos en el laboratorio a partir de moléculas químicas sencillas.
Pero los descubrimientos en biología están entrando en una fase exponencial que nosotros atribuimos a cuatro motivos principales:
-
La capacidad desarrollada recientemente de secuenciar el ADN rápidamente y en cantidades enormes.
-
Las mejoras en microscopia, en el sentido más amplio, desde sistemas de tinción a fotografías a nivel atómico, que permiten una mejor comprensión de los procesos celulares.
-
Las técnicas para el estudio específico del encéfalo y su funcionamiento, probablemente el objeto de estudio científico más interesante del universo.
-
La asunción generalizada de que la investigación biológica tiene que tener una perspectiva evolutiva.
Cabe esperar que en próximo par de décadas la caracterización genética de todas las especies esté completa. Alrededor del año 2030, dependiendo de la financiación, la mayor parte de la vida conocida habrá sido caracterizada, incluyendo la microbiológica marina o la subterránea profunda (de existir). En el proceso es posible que nos encontremos grandes sorpresas (asumimos que con más fundamento que la vida basada en arsénico).
Lo anterior, completar el álbum de cromos de la vida terrestre, es fascinante e intelectualmente atractivo. Pero esta base de datos genéticos gigantesca y el conocimiento biológico derivado de ella, abriría la puerta a la explotación industrial, lo mismo que ocurrió con la química en el XIX. En esto trabajan ya activamente personas como Craig Venter, ya sea por la vía de crear de vida sintética de diseño, ya por la creación de nuevos organismos transgénicos o directamente por el uso de nuevas especies.
Pero, sin duda, el punto de inflexión lo marcará la combinación de la biología con la nanociencia y la informática: la nanobiomática.
Digámoslo claramente, y citando a un sabio malagueño: la nanotecnología ha tenido un arranque de caballo andaluz y un parón de burro manchego. Durante los últimos veinte años se ha hablado mucho de nanotecnología pero, a fin de cuentas, salvo algunas estructuras que quedan muy espectaculares en fotografía y la alteración de las propiedades de algunos materiales, ya sea por la incorporación de otros o por técnicas de encapsulación, poco más se ha conseguido. Estamos a años-luz de esos ejércitos colaborativos de micromáquinas que prometían los visionarios de los años noventa. Pero esto cambiará cuando se conozca mejor el comportamiento de las células.
Las proteínas, el ARN o el ADN son moléculas grandes y tienen exactamente el tamaño típico de los objetos con los que opera la nanociencia: mayor que el de la química tradicional, pero aún suficientemente pequeños como para que la influencia de las interacciones supramoleculares electrostáticas sea crítica impidiendo que la ingeniería mecánica clásica pueda lidiar con ellas. De hecho, fueron estas interacciones las que arruinaron las predicciones de los visionarios: los engranajes y levas de las micromáquinas se veían alterados por las fuerzas de van der Waals y otros efectos mal comprendidos.
Pero, hete aquí que los sistemas vivos, obviamente, funcionan. Una vez que se analicen apropiadamente aparecerá todo un abanico de aplicaciones tecnológicas: ya sean organismos altamente modificados, o sistemas completamente artificiales que simplemente toman sus fundamentos de la biología, como los robots de Karel Capek, el inventor del término en 1921.
Pero unos robots así requerirían también la intersección de la biología, además de con la nanotecnología, con la informática y la inteligencia artificial, lo que hemos dado en llamar nanobiomática. La unión de una mejor compresión del funcionamiento del cerebro con una capacidad de computación artificial mucho más sofisticada. Las nuevas técnicas para el estudio del cerebro pondrán de manifiesto cómo se organiza el cerebro a nivel celular (conectoma). Los ordenadores, más rápidos y potentes, permitirán modelar como software esa nueva información. Así sabremos cómo funciona el cerebro de verdad, lo que permitirá la construcción de cerebros artificiales que trabajarán con los mismos principios, pero mucho más potentes y sin errores. Cerebros artificiales nanobiomáticos que puede que funcionen conscientemente.
Curiosamente, según la teoría de Taleb, nadie podrá hacer una fortuna apostando a nada de lo anterior: lo previsible no es novedoso realmente. Y es que el futuro lo conformarán los cisnes negros.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El futuro de hace 10 años se ha escrito en Cuaderno de Cultura Científica.