Simulación experimental de una teoría gauge distinta del electromagnetismo
En la física actual, nuestra comprensión del mundo se basa en las teorías de gauge: modelos matemáticos de la física teórica que describen las interacciones entre las partículas elementales (como los electrones o los quarks) y explican de forma cuántica tres de las fuerzas fundamentales de la naturaleza: electromagnética, débil y fuerte. La cuarta, la gravedad, se describe con la teoría de la relatividad general de Einstein, que es una teoría de gauge clásica ya que aún no disponemos de otra que unifique la mecánica cuántica con la gravedad.
Las teorías gauge pueden utilizarse asimismo para explicar el comportamiento exótico de los electrones en ciertos materiales cuánticos, o los códigos de corrección de errores que necesitarán los futuros ordenadores cuánticos para funcionar de forma fiable. Por ello, estas teorías son esenciales para entender la física moderna.
Para comprenderlas mejor, una posibilidad es utilizar sistemas cuánticos. Esta estrategia recibe el nombre de simulación cuántica y constituye un tipo especial de computación cuántica. Fue propuesta por primera vez por el físico estadounidense Richard Feynman en los años 80, más de quince años después de recibir el Premio Nobel de Física por su trabajo teórico sobre las teorías de gauge.
La simulación cuántica puede entenderse como un juego de LEGO cuántico en el que los físicos experimentales dan realidad a modelos teóricos abstractos. Los construyen en el laboratorio ‘pieza cuántica a pieza cuántica’, utilizando para ello sistemas cuánticos muy bien controlados, como átomos o iones ultrafríos.
Tras montar un prototipo de este “juego” cuántico para un modelo concreto, los investigadores pueden medir con gran precisión sus propiedades en el laboratorio y utilizar sus resultados para comprender mejor la teoría que imita. Durante la última década, este tipo de simulación se ha explotado intensamente para investigar materiales cuánticos.
Sin embargo, “jugar” al LEGO cuántico con las teorías gauge es fundamentalmente más difícil, y hasta ahora sólo se había logrado investigar de ese modo la fuerza electromagnética.
Pero ahora, investigadores experimentales del Instituto de Ciencias Fotónicas (ICFO) y la Universidad Autónoma de Barcelona (UAB) han podido simular por primera vez una teoría gauge distinta del electromagnetismo, utilizando para ello átomos ultrafríos. El equipo se propuso realizar en el laboratorio una teoría gauge que se enmarca dentro de la clase de teorías de gauge topológicas, diferente de la clase de teorías gauge dinámicas a las que pertenece el electromagnetismo. Los resultados se publican en Nature.

En el lenguaje de la teoría gauge, la fuerza electromagnética entre dos electrones surge cuando intercambian un fotón: una partícula de luz que puede propagarse también en ausencia de materia. Sin embargo, en los materiales cuánticos bidimensionales sometidos a campos magnéticos intensos, los fotones intercambiados por los electrones se comportan como si fueran extremadamente pesados y sólo pueden moverse mientras estén unidos a la materia.
Esto da a los electrones propiedades muy peculiares: sólo pueden fluir a través de los bordes del material, en una dirección que está fijada por la orientación del campo magnético, y su carga se vuelve aparentemente fraccionaria. Este comportamiento se conoce como efecto Hall cuántico fraccionario, y se describe mediante la teoría de gauge de Chern-Simons (el nombre de los matemáticos que desarrollaron uno de sus elementos clave).
El comportamiento de los electrones en el borde del material también se describe por una teoría gauge, que recibe el nombre de BF quiral, propuesta en los años 90, pero que nadie la había realizado en el laboratorio hasta que los investigadores del ICFO y la UAB la sacaron del congelador.
Mil millonésimas de grado por encima del cero absolutoPara dar realidad a esta teoría gauge topológica y simularla en su experimento, el equipo utilizó una nube de átomos enfriados a temperaturas de unas mil millonésimas de grado por encima del cero absoluto. Como especie atómica eligieron el potasio, porque uno de sus isótopos tiene dos estados que interactúan con distinta fuerza y pueden utilizarse como piezas cuánticas para construir un modelo gauge BF quiral.
A continuación, aplicaron luz láser para combinar los dos estados en uno nuevo. Esta técnica, denominada “vestir los átomos con luz”, hizo que los átomos adquirieran interacciones peculiares cuya fuerza y signo dependían de la velocidad de la nube.
Por último, crearon una guía de ondas óptica que restringía el movimiento de los átomos a una línea, y utilizaron láseres adicionales para golpear la nube de forma que se moviese a diferentes velocidades a lo largo de la guía de ondas.
En condiciones normales, al dejar evolucionar libremente los átomos en la guía de onda óptica, la nube de potasio se debería haber empezado a expandir inmediatamente. Sin embargo, la “luz de vestido” modificó completamente el comportamiento de los átomos, como los investigadores vieron al tomar imágenes de la nube en el laboratorio.
Como explica Ramón Ramos, investigador del ICFO, “en nuestro sistema, cuando los átomos se mueven hacia la derecha, sus interacciones son atractivas y anulan el comportamiento de los átomos que intentan expandirse. Así que lo que se ve en realidad es que la forma de la nube sigue siendo la misma. En términos técnicos, realizamos un solitón. Pero, si los átomos se mueven hacia la izquierda, estos átomos se expanden como un gas normal”.
El hecho de que los átomos se comporten de forma diferente al moverse en direcciones opuestas demuestra que el sistema es quiral, es decir, diferente de su imagen en el espejo. “Cuando observamos por primera vez el efecto de las interacciones quirales en nuestra nube atómica, no intentábamos simular una teoría gauge. Pero los datos eran tan bonitos e intrigantes que pensamos que necesitábamos entender mejor lo que estaba pasando. Cambiaron por completo los planes de investigación del equipo”, reconoce Leticia Tarruell, investigadora principal del estudio.
Traducir la teoría al lenguaje experimentalEl equipo entendió rápidamente que sus observaciones estaban relacionadas con un artículo teórico publicado diez años antes, que proponía utilizar un montaje casi idéntico para estudiar un tipo modificado de electromagnetismo. Sin embargo, los resultados del experimento eran diferentes de los esperados.
Como recuerda Craig Chisholm, al principio “los resultados que obteníamos no parecían coincidir en absoluto con los de la teoría. El reto era comprender en qué régimen había que estar para ver realmente el efecto correcto (el procedente del lugar adecuado) y eliminar los procedentes de lugares equivocados”.
Para el equipo experimental, el significado del electromagnetismo modificado que se mencionaba en el artículo tampoco estaba muy claro. Citaba artículos de física matemática de los años 90, que explicaban de forma mucho más detallada el modelo y lo conectaban con las teorías gauge utilizadas para describir el efecto Hall cuántico fraccionario.
Sin embargo, como dice Tarruell, “para físicos atómicos experimentales como nosotros, el contenido de esos artículos era muy difícil de entender, porque estaban escritos en un lenguaje de física matemática completamente diferente al nuestro. Era realmente frustrante saber que la respuesta a nuestras preguntas estaba ahí, ¡pero no éramos capaces de entenderla! Fue entonces cuando decidimos pedir ayuda a un físico teórico”.
Según Alessio Celi (UAB), que trabajó durante muchos años en física teórica de altas energías y gravedad antes de pasarse a la simulación cuántica, leer los artículos originales sobre teorías gauge fue relativamente fácil. Al mismo tiempo, pudo discutir con el equipo del ICFO y comprender el régimen en el que se podían realizar los experimentos y sus retos. Tras varios intentos fallidos, les propuso un modelo que explicaba adecuadamente los resultados observados en el laboratorio.
Como detalla, “el principal problema que teníamos era entrar en el marco adecuado. Una vez entendimos dónde buscar, el problema se volvió fácil de resolver”. Sorprendentemente, existía un régimen de parámetros en el que este modelo era exactamente la teoría de gauge topológica propuesta 30 años antes para describir los bordes de los materiales de Hall cuántico fraccionario.
“Creo que este proyecto nos muestra el interés de las colaboraciones interdisciplinarias. Combinar métodos experimentales de física de ultrabajas temperaturas e ideas teóricas de física de altas energías ha hecho de todos nosotros mejores físicos. Y hemos logrado la primera simulación cuántica de una teoría de gauge topológica”, concluye Tarruell.
Ahora, el equipo se prepara a explorar las nuevas líneas de investigación abiertas por este proyecto. Su objetivo es intentar extender los experimentos y la teoría de una línea a un plano, lo que les permitiría observar el efecto Hall cuántico fraccionario sin necesidad de un material cuántico. De esa forma, podrían crear de forma muy controlada cuasipartículas exóticas, llamadas anyones, que en el futuro podrían utilizarse para formas más robustas de computación cuántica.
Referencia:
Anika Frölian, Craig S. Chisholm, Elettra Neri, Cesar R. Cabrera, Ramón Ramos, Alessio Celi & Leticia Terruell (2022) Realizing a 1D topological gauge theory in an optically dressed BEC Nature doi: 10.1038/s41586-022-04943-3
Para saber más:
Einstein y el condensado de Bose-Einstein
De la simetría y su rotura (I)(II)(III)
Este texto apareció originalmente en SINC.
El artículo Simulación experimental de una teoría gauge distinta del electromagnetismo se ha escrito en Cuaderno de Cultura Científica.
Teoremas geométricos sin palabras: Snover
Con esta entrada damos por terminada la serie estival de demostraciones sin palabras de interesantes y hermosos resultados geométricos, que hemos dedicado al clásico teorema de Viviani (en la entrada Teoremas geométricos sin palabras: Viviani ), al moderno, con sabor a clásico, teorema de la circunferencia de Conway (en la entrada Teoremas geométricos sin palabras: Conway) y a la fórmula de Herón para el área de un triángulo (Teoremas geométricos sin palabras: Herón), y la vamos a dedicar, como en el caso de las anteriores entradas, a un resultado geométrico sobre triángulos, pero en este caso se trata de un sencillo resultado que no tiene nombre (aunque podríamos denominarlo “teorema de Snover”, como explicaremos más adelante), pero que me parece curioso, interesante y con una demostración sin palabras simple y elegante.
Pero antes, vayamos a la resolución del problema sobre cuadrados inscritos y circunscritos a una circunferencia que dejamos planteado en la anterior entrada.
Cuadrados inscrito y circunscrito a una circunferenciaEl problema que planteamos en la anterior entrada para ser resuelto con un razonamiento visual era el siguiente.
Problema (Cuadrados inscrito y circunscrito a una circunferencia): ¿Cuál es la proporción de las áreas de los cuadrados inscrito y circunscrito a una misma circunferencia?
La solución es bastante simple, el cuadrado inscrito tiene la mitad de área que el cuadrado circunscrito, o al revés, el área del cuadrado circunscrito es el doble que la del inscrito. Como se muestra en la siguiente imagen, la diagonal del cuadrado inscrito a la circunferencia es igual al lado del cuadrado circunscrito, lo cual es suficiente para obtener la solución al problema.
Descubrí este resultado en el segundo de los libros de la serie de demostraciones sin palabras del matemático Roger B. Nelsen: Proofs Without Words II: More Exercises in Visual Thinking (MAA, 2001). Nelsen lo presentó bajo el título “Cuatro triángulos con la misma área” y mencionó al matemático Steven L. Snover como su autor (a través de una comunicación privada), motivo por el que hemos aprovechado para denominarle, en esta entrada, teorema de Snover.
Veamos en qué consiste este resultado geométrico que bien podía haber estado incluido en la gran obra de la matemática griega, y universal, Los Elementos, del matemático griego Euclides de Alejandría (aprox. 325 – 265 a.n.e.). Se parte de un triángulo cualquiera y se trazan tres cuadrados, cada uno de ellos de lado igual a uno de los lados del triángulo y apoyado en el mismo, como se muestra en la siguiente imagen.
Esta primera construcción nos recuerda a la construcción del diagrama básico del teorema de Pitágoras (véanse las entradas Pitágoras sin palabras y Paseando entre árboles de Pitágoras), pero ahora partimos de un triángulo cualquiera, no necesariamente un triángulo rectángulo.
El siguiente paso consiste en trazar los tres triángulos formados por un vértice del triángulo y los vértices externos de los cuadrados construidos apoyados en dicho vértice, como se muestra en la imagen: triángulos azul, verde y marrón.
El resultado geométrico consiste en que esos tres nuevos triángulos que se han construido (azul, verde y marrón) tienen la misma área que el triángulo original (amarillo).
Teorema (de Snover): Dado un triángulo cualquiera, para cada lado del mismo se construye un cuadrado de lado igual al lado del triángulo y apoyado en el mismo. Entonces, los tres triángulos formados, cada uno de ellos, por un vértice del triángulo y los vértices externos de los cuadrados construidos apoyados en dicho vértice, tienen la misma área que el triángulo original.
El resultado es verdadero independientemente de la forma del triángulo, ya sea equilátero (todos los lados iguales), isósceles (dos lados iguales y uno diferente), escaleno (los tres lados diferentes), acutángulo (todos los ángulos agudos, es decir, entre 0 y 90 grados), rectángulo (con un ángulo de 90 grados) u obtusángulo (con un ángulo obtuso, es decir, mayor de 90 grados). Da igual como sea el triángulo original, los tres nuevos triángulos tendrán su misma área.
Demostración sin palabrasLa demostración es muy sencilla y se basa en que cada uno de esos tres triángulos tiene la misma base y la misma altura (alguna de las tres opciones que existen para base y altura del triángulo) que el triángulo original, luego como el área de un triángulo es igual a la base por la altura dividido por dos, se concluye el resultado.
Veamos el argumento visual para el primer triángulo dibujado en esta entrada.
Espero que hayáis disfrutado de esta miniserie de cuatro entradas dedicadas a demostraciones sin palabras de interesantes y hermosos resultados geométricos sobre triángulos. Seguro que en el futuro volveremos con más hermosas demostraciones sin palabras.
Bibliografía:
1.- Roger B. Nelsen, Proofs without Words: Exercises in Visual Thinking, Mathematical Association of America, 1997.
2.- Roger B. Nelsen, Proofs Without Words II: More Exercises in Visual Thinking, Mathematical Association of America, 2001.
3.- Claudi Alsina y Roger B. Nelsen, Charming Proofs, A Journey Into Elegant Mathematics, Mathematical Association of America, 2010.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Teoremas geométricos sin palabras: Snover se ha escrito en Cuaderno de Cultura Científica.
Einstein y Hendrik Lorentz
Semanas antes de su muerte Einstein dijo que el físico holandés Hendrik Lorentz era uno de los pocos científicos que verdaderamente admiraba, y que lo consideraba como un precursor de su propio trabajo. En efecto, muchos de sus contemporáneos vieron a Lorentz casi como el cocreador de la teoría especial de la relatividad, llegando a sugerir que Lorentz y Einstein deberían haber compartido un premio Nobel por su descubrimiento. Realmente, la obra de Einstein suponía una ruptura real con la de Lorentz pero, a pesar de ello, ambos investigadores estaban estrechamente interrelacionados y eran buenos amigos. Einstein veía a Lorentz casi como a una figura paterna.

Lorentz se crió en Holanda, y durante sus estudios universitarios se sintió atraído por la teoría electromagnética de Maxwell. Su tesis doctoral versó sobre la reflexión y la refracción de la luz, y continuó estudiando la luz cuando se convirtió en catedrático de física matemática de la Universidad de Leiden en 1878. Su interés inicial estuvo en el éter, el medio indetectable que se suponía que empleaban las ondas de luz para viajar. Inicialmente Lorentz fue un firme creyente en la existencia del éter, llegando a rechazar por incorrectos los primeros resultados experimentales de Michelson, en los que no se encontraba la sustancia.
Pero para finales del siglo XIX, cuando el trabajo continuado de Michelson en colaboración con Morley seguía arrojando resultados negativos, Lorentz comenzó a preocuparse. Sus artículos científicos empezaron a mostrar intentos para modificar la teoría de la luz de manera que explicase los resultados del experimento de Michelson-Morley. La hipótesis que Lorentz creó proponía que a las altísimas velocidades a las que viajaba la luz, el espacio y el tiempo se contraían, compensando de esta manera el movimiento a través del éter, haciendo la longitud y el tiempo del viaje de la luz, y por tanto su velocidad, idénticos. Las ecuaciones que Lorentz creó para mostrar cómo cambiaban la longitud y el tiempo se conocen hoy día como las transformaciones de Lorentz.
Einstein admiraba el trabajo de Lorentz desde su época de estudiante y fue a través de él como Einstein se enteró de que había una crisis en la ciencia de la luz. Einstein siempre atribuyó su temprana fascinación por el electromagnetismo a la lectura de Lorentz; sin embargo, Einstein fue capaz de llevar el trabajo de Lorentz un paso más allá. En qué consistía este paso lo explicó admirablemente Lorentz en su Teoría de los electrones de 1915: “Mi principal fallo [para descubrir la teoría de la relatividad] fue aferrarme a la idea de que sólo la variable t puede ser considerada como el verdadero tiempo, y que mi tiempo local…debe ser considerado sólo como una cantidad matemática auxiliar”. En otras palabras, Lorentz incluía en sus ecuaciones dos conceptos de tiempo (uno para un observador externo y otro para el marco de referencia en el que la luz estaba viajando), pero asumía que esto era sólo un artificio matemático, no que el tiempo mismo era realmente diferente para ambos marcos de referencia. Einstein se atrevió a afirmar que las matemáticas no es que funcionasen “en principio”, sino que eran la representación precisa de lo que ocurría en realidad. El tiempo y el espacio eran de hecho diferentes para observadores diferentes. Esta idea es lo que permitió a Einstein dar el salto a la teoría especial de la relatividad, un salto que Lorentz no dio.
Lorentz, el puente entre dos paradigmasLa duda permanece sobre si Lorentz llegó a admitir completamente alguna vez la nueva teoría de Einstein. Si bien Lorentz era un innovador, un pensador adelantado a su tiempo (incluso antes de que se descubriese el electrón el ya había lanzado la hipótesis, ¡en los años 90 del siglo XIX!, de que la luz se formaba cuando oscilaba la carga eléctrica en un átomo; ganó el premio Nobel en 1902 por la formulación matemática del electrón) su pensamiento se movía en el marco de la física clásica. Se sentía cómodo en el mundo de la mecánica newtoniana, el electromagnetismo de Maxwell, y la forma en el que una causa llevaba limpiamente a un efecto de manera macroscópicamente observable. Max Born, décadas después de la muerte de Lorentz, escribió que él era de la opinión de que “Lorentz nunca se convirtió en un relativista, y sólo le regalaba la oreja a Einstein de vez en cuando para evitar discusiones”.
Lorentz también hizo públicas algunas reservas acerca de las teorías de Einstein acerca de los cuantos de luz: no estaba dispuesto a admitir que la luz estuviese constituida por partículas. Lorentz ciertamente estaba de acuerdo con que las nuevas teorías atómicas que decían que la energía no es continua, sino que viene en paquetes o cuantos como Planck había sugerido, parecían funcionar muy bien, pero no admitiría que esto pudiese aplicarse a la luz. Este “sí pero no” ilustra perfectamente la posición de Lorentz en la historia de la física, ya que se ubicó exactamente entre la física clásica y la nueva que se estaba creando. Vio la necesidad de cambio y comprendió que la nueva dinámica tenía mucho sentido, pero no podía aceptar que las extrañas ideas que acompañaban a la mecánica cuántica pudiesen ser correctas. Una posición similar a la que Einstein terminaría adoptando, pero éste aceptaría mucho más de la nueva física.
Equidistante como estaba entre la nueva y la vieja física, Lorentz fue el moderador perfecto para la primera Conferencia Solvay celebrada en 1911. Dedicada a la física atómica, la conferencia reunió a los más grandes físicos del momento para discutir los conflictos entre las teorías newtonianas y las nuevas. Lorentz mantuvo la paz admirablemente entre las distintas facciones, ya que podía ver el valor de ambos puntos de vista. En su discurso de apertura dijo: “En este estado de la cuestión se nos apareció como un maravilloso rayo de luz la bella hipótesis de los elementos [cuantos] de energía que fue expuesta primero por Planck y extendida después por Einstein…Nos ha abierto vistas maravillosas, incluso aquellos, que la consideran con cierta suspicacia, deben admitir su importancia y provecho”.
Independientemente de sus posiciones científicas, Einstein y Lorentz sentían el uno por el otro una admiración extrema. Einstein repetía a menudo que Lorentz era la persona más completa que había conocido en su vida y llegó a escribir a su amigo Johann Laub en 1909: “Le admiro [a Lorentz] como no admiro a nadie, diría que le quiero”.
Einstein respetaba tanto a Lorentz que estuvo a punto de sucederle en su puesto en Leiden cuando se retiró en 1911. Einstein, que ya había aceptado un puesto en Zúrich (un puesto que el prefería), parece que se hubiera ido a Leiden a poco que Lorentz hubiese insistido. Cuando rechazó la oferta escribió a Lorentz tras la Conferencia Solvay. “Le escribo esta carta con un corazón apesadumbrado, como alguien que ha cometido una injusticia con su padre…Si hubiese sabido que me quería [para el puesto] habría ido”.
En 1916, ese “padre” acudió para dar ánimos a un Einstein a punto de publicar su teoría general de la relatividad. Einstein había publicado primeras versiones de la teoría en 1915 y Lorentz era uno de los científicos que intentaban seguir su línea de razonamientos. Conforme la comprensión del propio Einstein aumentaba, y Lorentz comenzaba a ver exactamente lo que Einstein estaba intentando conseguir, alabó al joven investigador y le dijo que había llegado el momento de escribir la teoría completa de la forma más sencilla posible para el beneficio de toda la comunidad científica. Este parece haber sido uno de los factores importantes que llevaron a Einstein a publicar finalmente tanto el artículo en Annalen der Physik como un panfleto de cincuenta páginas que resumía y explicaba la teoría general de la relatividad.
Hendrik Lorentz murió en 1928 y Einstein, en representación de la Academia Prusiana de Ciencias, viajó a Holanda para el funeral. En su elogio dijo: “Estoy ante la tumba del hombre más noble y sabio de nuestros tiempos. Su genio lideró el camino desde el trabajo de Maxwell a los logros de la física contemporánea….Su trabajo y su ejemplo continuarán vivos como una inspiración”.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo se publicó en Experientia Docet el 1 de noviembre de 2009.
El artículo Einstein y Hendrik Lorentz se ha escrito en Cuaderno de Cultura Científica.
¿Qué nos dice el dióxido de silicio sobre las erupciones en Marte?
A día de hoy sabemos todavía muy poco sobre la historia de las erupciones volcánicas en Marte y sobre qué tipos de vulcanismo se dieron cuando Marte era todavía era un planeta mucho más activo -a nivel interno- que en la actualidad.
De hecho, podríamos decir que incluso tenemos una importante incertidumbre en cuanto al grado de actividad actual del planeta y si todavía sería posible la ocurrencia de erupciones volcánicas en determinados lugares de Marte. Este es el caso de Cerberus Fossae donde, según las dataciones de Horvath et al. (2021), podría haber habido algún tipo de erupción en los últimos ~50.000 años, lo que, junto a la actividad sísmica registrada por la misión InSight en la zona (Kedar et al. (2021)), hace de este lugar un sitio muy interesante para seguir estudiando la dinámica actual del planeta rojo.
Pero, ¿Cómo fueron las erupciones del pasado? ¿Fueron erupciones explosivas y violentas o por el contrario solo hubo erupciones muy efusivas y tranquilas? ¿O quizás coexistieron ambos modelos eruptivos? Anteriormente se pensaba que si no todas, la mayoría de las erupciones en Marte habían sido con una composición basáltica y tranquilas y que las rocas ígneas -aquellas formadas por el enfriamiento del magma- era un grupo de rocas poco diverso en el planeta rojo, por lo menos las volcánicas, a diferencia de la Tierra donde si hay un gran abanico composicional fruto de distintos procesos de evolución de los magmas.

Pero, antes de poder resolver esta duda, tenemos que salvar ciertos obstáculos: la mayor parte de Marte la hemos observado desde su órbita y no desde su superficie, y la capa de polvo rojo ubicua que le da ese color tan característico al planeta, a veces hace palidecer las señales químicas de los distintos minerales. Si a esto le sumamos la erosión que lentamente va eliminando como si fuese una goma de borrar algunas partes de su relieve, se hace muy complicado el identificar los procesos volcánicos, especialmente los que pasaron hace mucho más tiempo.
De ahí la importancia de poder llegar a la superficie con misiones robóticas -de momento- tomar muestras, analizarlas in situ, y si es posible, devolverlas a la Tierra para que con mejores instrumentos analíticos podamos descifrar los detalles de la historia del planeta. Pero a pesar de todos los hándicaps que supone la exploración de otro planeta, a veces se hacen hallazgos en los lugares más insospechados.
Aparece tridimita, un polimorfo del dióxido de silicioY esta historia nos obliga a remontarnos al año 2015, cuando el rover Curiosity, que se encuentra en el interior del cráter Gale de Marte, toma una muestra de una roca llamada Bucksin y detecta en ella tridimita, un polimorfo del dióxido de silicio, como el cuarzo. Los polimorfos son minerales que, con una misma composición química, tienen distintas estructuras cristalinas, algo que en ocasiones responde a las condiciones donde se ha formado el propio mineral.

La tridimita se suele formar a altas temperaturas y bajas presiones, y en nuestro planeta suele estar asociada al vulcanismo explosivo, pero también podría formarse de otras maneras… como en el interior de lagos donde hay capas de agua muy ricas en sílice o incluso por fenómenos hidrotermales. Y sabemos que el interior del cráter Gale, al menos la parte inferior, representa una antigua cuenca lacustre donde con el paso del tiempo fueron acumulándose sedimentos, lo que hizo la interpretación de la tridimita fuese un verdadero reto.
Además, la tridimita podía también haber llegado fruto de la erosión de rocas de fuera del cráter y llevada hasta su interior por los ríos que desembocaban en este. El depósito de la tridimita en los sedimentos a partir de la erosión de otras rocas se pudo descartar, ya que este mineral aparecía y desaparecía bruscamente en los sedimentos analizados, y de haber sido traídos por los ríos, se esperaría una fuente más continua y con cierta gradualidad en su aparición y desaparición, no mostrando un cambio tan sumamente brusco.
También cristobalita, otro polimorfoAcompañando a la tridimita, los científicos encontraron también cristobalita, otro de los polimorfos del dióxido de silicio, que se forma a temperaturas superiores a la de la tridimita, lo que ponía a los científicos entre la espada y la pared… ¿se habrían formado estos minerales realmente a partir de la actividad volcánica?
Para poder resolver el puzle, se pusieron a analizar en que contextos geológicos de nuestro planeta y en que porcentajes aparecían estos minerales y por supuesto, junto a que otros minerales aparecían, para ver si finalmente encajaban las piezas.
Según el último estudio publicado por Payré et al. (2022), parece que la explicación más plausible requiere de erupciones volcánicas para explicar estos dos minerales: Hace unos 3.000 millones de años -aproximadamente- el magma que había en la cámara magmática, valga la redundancia, de un volcán marciano estaba cambiando su composición por un proceso que conocemos en geología como cristalización fraccional.
Este proceso hace que los magmas vayan evolucionando con el tiempo, ya que cambios en la presión y temperatura pueden hacer que unos minerales vayan formándose y segregándose del magma, provocando que la composición del magma restante vaya cambiando, porque al formarse estos minerales “retiran” los elementos que los forman.
Esto a su vez provoca que ciertos elementos puedan concentrarse en el magma, como el silicio, y que de ocurrir una erupción puede dar lugar a la formación de minerales como la tridimita y la cristobalita.
¿Y si hubo una erupción cómo llegaron estos minerales hasta el cráter? Los autores mencionan que una erupción de este tipo podría haber generado nubes de ceniza y piroclastos que se habrían desplazado grandes distancias, y que al caer se depositarían, acabando por formar parte del registro sedimentario… pero, ¿qué volcán podría haber sido el causante de esta erupción?

Pues lo cierto es que es muy difícil encontrar cual habría sido el responsable, ya que no solo nos queda identificar todos los posibles volcanes marcianos -de algunos nos queda tan poco que a veces los confundimos con cráteres-, lo que junto con no poder establecer dataciones absolutas que nos permitan restringir el intervalo de edades de cada erupción, lo hace, por el momento, una labor muy difícil.
Pero sin duda, este estudio es muy interesante porque pone de manifiesto que fueron posibles otro tipo de erupciones en Marte y que fue un planeta con una mayor diversidad de procesos volcánicos de lo que cabría esperar, por lo que de nuevo se nos abre una nueva ventana para conocer mejor nuestro vecindario planetario.
Referencias:
1. Kedar S, Panning MP, Smrekar SE, et al. Analyzing Low Frequency Seismic Events at Cerberus Fossae as Long Period Volcanic Quakes. J Geophys Res Planets. 2021;126(4):1-28. doi:10.1029/2020JE006518
2. Morrisa R V., Vanimanb DT, Blakec DF, et al. Silicic volcanism on Mars evidenced by tridymite in high-SiO2 sedimentary rock at Gale crater. Proc Natl Acad Sci U S A. 2016;113(26):7071-7076. doi:10.1073/pnas.1607098113
3. Payré V, Siebach KL, Thorpe MT, Antoshechkina P, Rampe EB. Tridymite in a lacustrine mudstone in Gale Crater , Mars : Evidence for an explosive silicic eruption during the Hesperian. Earth Planet Sci Lett. 2022;594:117694. doi:10.1016/j.epsl.2022.117694
4. Horvath DG, Moitra P, Hamilton CW, Craddock RA, Andrews-Hanna JC. Evidence for geologically recent explosive volcanism in Elysium Planitia, Mars. Icarus. 2021;365:114499. doi:10.1016/j.icarus.2021.114499
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo ¿Qué nos dice el dióxido de silicio sobre las erupciones en Marte? se ha escrito en Cuaderno de Cultura Científica.
Cuentos de otro tiempo, y de este

Es muy posible que algunos de los cuentos populares más conocidos hundan sus raíces en la prehistoria. Han llegado a esa conclusión utilizando métodos estadísticos y computacionales que, en biología, se suelen usar para reconstruir la historia evolutiva de las especies y su procedencia de otras, anteriores.
Los análisis biológicos se basan en la comparación de las secuencias genéticas de las especies –o linajes– cuya historia se desea trazar. La información genética se transmite de generación en generación pero, en ocasiones, la cadena de ADN sufre mutaciones al replicarse y surgen nuevos linajes, por ramificaciones sucesivas del original. Con la evolución y ramificación de las lenguas se hacen análisis similares, solo que, en vez de genes, lo que se transmite son palabras. Los cambios que sufren las palabras a lo largo del tiempo propician la aparición de nuevas lenguas por ramificación de aquellas de las que proceden. Las diferencias en el momento presente entre palabras que comparten origen se utilizan como criterio para reconstruir la evolución de las lenguas.
En la investigación que nos ocupa utilizaron como referencia el árbol filogenético (la “genealogía”) de las lenguas indoeuropeas y estudiaron la presencia en cincuenta de esas lenguas de los 275 “cuentos de magia” del catálogo internacional Aarne Thompson Uther, en el que se recogen más de 2000 cuentos procedentes de más de 200 sociedades. “Hansel y Gretel” y “La bella y la bestia”, por ejemplo, son dos de esos cuentos. De los 275 descartaron 199, porque era muy probable que hubiesen sido transmitidos horizontalmente, de una sociedad a otra próxima; tenían así suficiente garantía de que los 76 restantes se habían transmitido de forma vertical, de una generación a la siguiente, dentro de una misma sociedad. “Hansel y Gretel”, por ejemplo, no pasó la criba. Sí lo hizo “La bella y la bestia”.
Calcularon después la probabilidad de que cada uno de los cuentos estuviera presente en la época en que se produjeron las ramificaciones que dieron lugar a grandes subfamilias lingüísticas. Esa probabilidad depende de la presencia en las lenguas contemporáneas de las narraciones en cuestión, teniendo en cuenta también la posición de esas lenguas en el árbol filogenético. De los 76 cuentos, a catorce –“La bella y la bestia”, entre ellos– se les estimó una probabilidad igual o superior al 50% de haber existido en la lengua de la que proceden las célticas, romances, germánicas y eslavas, y pudo haber nacido hace unos 6800 años. De esos catorce, a cuatro cuentos se les calculó una probabilidad igual o superior al 50% de haber sido creados en el origen de las lenguas indoeuropeas –en la base del árbol–, hace algo más de 7000 años.
El cuento con la probabilidad más alta (87%) de haber existido en esa época tan remota es “El herrero y el diablo”, una historia cuyo eco resuena en “Fausto”. Que un cuento de hace 7000 años incluya la figura del herrero no debe extrañar. Las primeras evidencias de fundición tienen una antigüedad de unos 8000 años y proceden de Catalhöyük, Anatolia. Hay más restos de actividades de fundición de cobre durante el VI milenio a.e.c. en la misma Anatolia y en el actual Kurdistán, zonas ricas en ese mineral.
Que ciertos cuentos tengan un origen tan antiguo indica, por un lado, que dan cuenta de situaciones o circunstancias vitales que cumplen una función educativa importante en los grupos humanos que los transmiten. Por otra parte, que lo hacen de forma que explotan características de nuestra cognición que facilitan su transmisión fiel. Son historias ejemplarizantes; también son narraciones ejemplares.
Fuente: da Silva, S.G., and Tehrani, J.J. (2016). Comparative phylogenetic analyses uncover the ancient roots of Indo-European folktales. R. Soc. Open Sci. 3, 150645. doi: 10.1098/rsos.150645
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Cuentos de otro tiempo, y de este se ha escrito en Cuaderno de Cultura Científica.
CienciaClip 2021 – La ciencia detrás de la bomba atómica
Ciencia Clip es un concurso de vídeos divulgativos de ciencia diseñados, producidos y protagonizados por estudiantes de Educación Secundaria.
El objetivo del concurso es fomentar el interés por la ciencia y la tecnología. Y ofrecer a los concursantes una oportunidad para ejercitar su creatividad y habilidades comunicativas usando herramientas que proporciona internet.
Ciencia Clip es una iniciativa de la Cátedra de Cultura Científica de la UPV/EHU y en la que colaboran Euskampus Fundazioa, Naukas, Scenio y Big Van.
Los ganadores de la edición 2022 se anunciarán en la página web del concurso a principios de septiembre. La entrega premios y el anuncio del vídeo ganador del premio especial se realizarán durante el evento Naukas Bilbao. En la edición de 2021 resultó ganador en la categoría de 1º y 2º de la ESO Iván Sánchez, de Madrid, con este vídeo:
Edición realizada por César Tomé López
El artículo CienciaClip 2021 – La ciencia detrás de la bomba atómica se ha escrito en Cuaderno de Cultura Científica.
La simetría de figuras abstractas y la adquisición de la gramática en bebés
El grupo de investigación Gogo Elebiduna de la UPV/EHU está especializado en psicolingüística. Sus investigaciones se centran en cómo se adquiere, representa y organiza la facultad del lenguaje en el cerebro, y cuáles son las características universales de la representación y el procesamiento del lenguaje.
La investigadora Ikerbasque del grupo Irene de la Cruz-Pavía ha participado en un estudio en el que se ha investigado la capacidad de los bebés de 7 meses para percibir la simetría estructural en patrones visuales abstractos de tipo mosaico. Esta investigación se llevó a cabo en la Universidad de París. “Hemos examinado los patrones de mirada espontánea de casi 100 bebés ante secuencias de tipo mosaico con estructuras simétricas y asimétricas”, explica la investigadora.
Estos mosaicos estaban compuestos por baldosas cuadradas de dos categorías (A y B) que diferían en su paleta de color y su forma interna. Estas baldosas se ordenaban creando mosaicos con estructuras simétricas (p. ej. ABA, ABABA) o asimétricas (p. ej. AAB, AABBA). En el estudio se ha podido constatar que los bebés “discriminaron los mosaicos estructuralmente simétricos de los asimétricos, y que la longitud de la secuencia (3 o 5 baldosas) o el nivel de simetría no modulaban significativamente su comportamiento”. Estos resultados sugieren que los bebés detectan rápidamente la simetría estructural en patrones visuales complejos: “Los bebés de 7 meses tienen una capacidad robusta y automática de detectar que una estructura es simétrica. Esta habilidad coincide con las encontradas en estudios que hemos realizado con otros estímulos tales como la lengua de signos, o el habla, demostrando que los bebés son simplemente muy buenos en detectar estructuras y regularidades”, afirma la investigadora del Departamento de Lingüística y Estudios Vascos de la UPV/EHU.
La habilidad de los bebés para extraer estructura y reglas“La gramática de una lengua es el conjunto de estructuras y reglas de una lengua. Quiero entender hasta qué punto las habilidades de los bebés para extraer estructuras, y detectar regularidades y aprender reglas, son específicas del lenguaje o si en cambio se encuentran en otras áreas —señala la investigadora Ikerbasque—. Hemos hecho este estudio con información que es visual pero que no es lenguaje. Con estos mosaicos, hemos podido ver la habilidad que tienen los bebés para extraer estructura de distintos medios”.
Este estudio les permite entender mejor “cuáles son las habilidades fundamentales de esos bebés, que les van a permitir empezar primero con ciertas partes más accesibles de la gramática e ir poco a poco construyendo hasta tener una cosa tan compleja como es la gramática de una lengua. Lo que nosotros queremos entender es cuáles son las habilidades fundamentales que tienen los bebés para detectar estructura”.
“Tenemos muchas más preguntas que responder —concluye—. En este estudio hemos podido determinar que los bebés son capaces de detectar estructuras espontáneamente y rápidamente. Ahora queremos entender cuándo empieza esta habilidad, y entender hasta qué grado de detalle analizan esa estructura y qué aspectos de los mosaicos les permiten detectar su estructura (la forma, el color, ambos…)”.
Referencia:
Irene de la Cruz-Pavía, Gesche Westphal-Fitch, W. Tecumseh Fitch, Judit Gervain (2022) Seven-month-old infants detect symmetrical structures in multi-featured abstract visual patterns PLOS ONE DOI: 10.1371/journal.pone.0266938
Para saber más:
Cuando los bebés comienzan a combinar gesto y habla
Las habilidades matemáticas de los bebés
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La simetría de figuras abstractas y la adquisición de la gramática en bebés se ha escrito en Cuaderno de Cultura Científica.
Reflejando el sol
Estos días de verano con intenso calor, cada vez que me subo a mi coche, completamente negro, después de tenerlo aparcado en la calle varias horas, me acuerdo de un efecto muy poco conocido, pero realmente importante para el cambio climático. Recuerdos que también me vinieron a principios de agosto, cuando me puse pantalones cortos por primera vez este año y me percaté de que el tono de piel de mis pernas le hacía honor a mi nombre, tanto que parecían incluso despedir un brillo propio. Me estoy refiriendo al efecto albedo.
De manera resumida, el albedo se refiere a la cantidad de radiación que es capaz de reflejar una superficie con respecto al total de energía que incide sobre ella. Es una propiedad que no tiene dimensiones y su valor se expresa dentro de un rango comprendido entre 0 y 1 o en su versión porcentual entre 0 y 100%, de tal manera que las superficies que reflejan poca energía (es decir, que absorben casi toda la radiación que incide sobre ellas) tendrán un albedo muy bajo, con valores cercanos a 0, mientras que las superficies que reflejan la mayoría de la radiación que les llega tendrán valores de albedo altos, próximos a 1 o al 100%.
Albedo, en latín, blancuraAlbedo es una palabra que procede de la raíz latina albus, que significa blanco. Esto ya nos da una pista de la característica física de las superficies que principalmente determina el valor del albedo de las mismas, el color. En concreto, las superficies de colores más claros tienen un valor de albedo más alto, ya que apenas absorben la radiación que incide sobre ellas, reflejando la mayoría de esa energía, mientras que las de colores más oscuros tienen un albedo muy bajo puesto que tienen una mayor capacidad de absorción de dicha radiación.

A escala planetaria, la Tierra recibe radiación directamente del Sol y, como cualquier superficie, es capaz de absorber parte de esa energía y reflejar, enviando de nuevo al espacio, la otra parte de la misma. De esta manera, el planeta tiene un valor promedio aproximado de albedo de 0.3, es decir, que refleja prácticamente el 30% de la radiación solar, absorbiendo el 70% restante.
Pero, como he dicho, esto es un promedio. Hay superficies en la Tierra de colores más oscuros, como ciertas rocas de tonalidades casi negras, frondosas masas boscosas verdes oscuras o grandes zonas oceánicas profundas de coloración azul grisácea que presentan bajos valores de albedo al absorber mayor radiación solar y, por tanto, se calientan más fácilmente. Pero otras partes de nuestro planeta tienen colores claros, incluso blancos, tales como las áreas heladas cercanas a los polos. Aquí, se refleja casi toda la radiación, por lo que el albedo es muy alto, provocando que la temperatura sea también más baja en estas zonas. Esta diferenciación en el albedo de nuestro planeta es uno de los principales mecanismos que controla la circulación atmosférica y el intercambio de calor entre las áreas ecuatoriales y las polares. Es decir, que el albedo influye directamente en el clima que tenemos en la Tierra.
Pero las actividades humanas también pueden influir en esta propiedad física de las superficies y, por tanto, provocar variaciones o alteraciones del clima a una escala temporal que nos afecta de manera directa. Una de las acciones más directas ha sido alterar el color de la nieve, que se verá reflejado en el color que tendrá el hielo acumulado en zonas de altas latitudes. Parece complicado hacer eso, pero nada más lejos de la realidad.
Desgraciadamente, ahora estamos viendo como cae ceniza de color oscuro en muchas partes de la Península Ibérica debido a los incendios forestales que azotan nuestros montes. Pues lo mismo provocamos con la quema incontrolada de carbón que tuvo lugar hace unos siglos y que todavía se mantiene en ciertas partes de nuestro planeta. Esa ceniza presente en la atmósfera es capaz de teñir la nieve de colores más oscuros que, al depositarse como capas de hielo en latitudes altas, tendrá un valor de albedo inferior al de la nieve más pura, aumentando su absorción de radiación solar y su temperatura, generando a su vez un incremento en su velocidad de fusión. Y cuando este hielo se funde, se generan masas de agua entre las capas heladas, agua que también tiene un menor albedo que el hielo blanquecino y que, nuevamente, contribuye a un aumento de su fusión. Es decir, vamos rompiendo la termorregulación atmosférica y provocamos un incremento en la velocidad de desaparición de las masas heladas polares.

Como os he comentado, el efecto albedo es uno de los factores que determinan el clima en la Tierra, pero ni mucho menos es el único. El cambio climático es un concepto muy complejo donde interfieren un montón de variables que, encima, están interrelacionadas entre sí. El problema ante el que nos enfrentamos actualmente es que, cualquier alteración provocada por la actividad humana en alguno de ellos provoca una respuesta climática que, en muchas ocasiones, no podemos prevenir, ya que no tenemos referentes o análogos en el registro geológico. Aunque a veces intentamos comparar nuestras acciones con los efectos producidos por grandes volcanes explosivos, pero tampoco podemos asegurar que la respuesta climática sea similar.
Además, ahora seguro que entendéis por qué cuando os encontráis con profesionales de la Geología en el campo generalmente llevamos gafas de sol, aunque esté nublado. No es para parecer más guay, es que las rocas de colores claros tienen un albedo alto y no queremos que el reflejo nos deslumbre mientras estamos trabajando.
Para saber más:
Ártico y Antártico se calientan a la vez
Certezas e incertidumbres sobre el cambio climático
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Reflejando el sol se ha escrito en Cuaderno de Cultura Científica.
La sucesión de Fibonacci, el teorema de Zeckendorf y un poemario magistral
En la anotación La magia del teorema de Zeckendorf hablábamos de un truco de magia realizado con diez cartas y que se basaba en una propiedad matemática relacionada con la teoría aditiva de númerosi. Esa propiedad se conoce como el teorema de Zeckendorf, y afirma que:
Todo entero positivo se escribe, de manera única, como suma de números de Fibonacci no consecutivos. A esa escritura única se le llama la descomposición de Zeckendorf del número en cuestión.

Este teorema lleva el nombre del matemático amateur Édouard Zeckendorf (1901-1983) e involucra a los números definidos por la sucesión de Fibonacci, serie que comienza con el 0 y el 1, y cada término se obtiene al sumar los dos anteriores: 0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, …
Para que quede más claro, vamos a calcular la descomposición de Zeckendorf del número 100. Para ello tomamos el mayor número de Fibonacci que es menor o igual que 100, que es el 89. Se hace la diferencia 100 – 89 = 11 y se procede del mismo modo. El mayor número de Fibonacci que es menor o igual que 11 es 8; se hace la diferencia 11 – 8 = 3, que ya es un número de Fibonacci, con lo que la descomposición de Zeckendorf de 100 es: 100 = 89 + 8 + 3.
Es cierto que hay otras descomposiciones de 100 como sumas de números de Fibonacciii, pero solo la anterior consta de números de Fibonacci no consecutivos. La demostración de este teorema, tanto la existencia como la unicidad de la descomposición, puede hacerse por recurrencia.
Poesía “a la Zeckendorf”En 1979, el matemático y miembro del grupo OuLiPo (Ouvroir de Littérature Potentielle) Paul Braffort (1923-2018) rindió homenaje al teorema de Zeckendorf a través del poemario Mes hypertropes. Vingt-et-un moins un poèmes à programme (Mis hipertropos. Veintiún menos un poemas con programa).

Se trata de una serie de veinte poemas cuya estructura interna se rige por este teorema matemático: el poema n tiene en cuenta los poemas correspondientes a la descomposición de Zeckendorf de ese número n. Por ejemplo, como el número 12 se escribe como 8 + 3 + 1 según el teorema de Zeckendorf, esto indica que el poema número 12 comparte algunos contenidos de los poemas 1, 3 y 8 de Mes hypertropes. Esta restricción oulipiana obliga a Braffort a construir marcos que permitan estas conexiones entre algunos de los poemas de la serie.
Los números 1, 2, 3, 5, 8 y 13 son su propia descomposición de Zeckendorf, así que Braffort relaciona estos poemas con los dos números de Fibonacci que lo generan. Por ejemplo, como 8 = 3 + 5, el poema 8 comparte contenido con el 3 y el 5. Eso significa que solo el primer poema L’explication préalable ou la raison des rimes (La explicación previa o el motivo de las rimas) no se ve influenciado por ninguno de la serie.
Tras el índice, el autor explica brevemente cómo se estructura el textoiii:
Los poemas que van a leer se han diseñado respetando el “principio de Roubaudiv” que se enuncia de este modo:
-
Solo se utilizará una estructura matemática como restricción clave de una obra literaria si se incluyen uno o varios teoremas relacionados con esta estructura.
Nuestra “estructura” es aquí la de la sucesión de Fibonacci, sucesión de números naturales donde todo elemento es la suma de los dos que le preceden: 1, 2, 3, 5, 8, 13, etc.
El teorema es el de Zeckendorf que permite representar todo entero natural como la suma de un cierto número de elementos de la sucesión de Fibonacci. Así, 9 = 8 + 1, 20 = 13 + 5 + 2, etc. Esto permite asociar a la sucesión de los veinte primeros enteros un grafo de dependencias que se reproduce a continuación.
La transferencia de la estructura matemática a la restricción literaria es de orden semántico: el contenido del poema en la posición n depende del contenido de los poemas cuyo puesto forma la representación “de Zeckendorf” de n.
Así, el poema número 20 depende del contenido de los poemas en la posición 13, 5 y 2. Observemos que una tal restricción, puramente semántica, lleva también a definir restricciones prosódicas.
Por supuesto, hemos añadido al sistema anterior algunas restricciones suplementarias que el lector descifrará sin esfuerzo.

Si entendéis francés, os recomiendo la lectura de este texto. Como la mayoría de los textos escritos bajo restricción oulipiana, se descubren los detalles tras varias lecturas, mirando en cada una de ellas diferentes aspectos del contenido o de la estructura. Además, Braffort incorpora en su poemario conceptos y personajes matemáticos. Es una auténtica delicia, un juego, un reto, un rompecabezas extraordinario que enlaza las matemáticas y la literatura.
Referencias
-
Maths and poetry, Futility Closet, 11 de enero de 2015.
-
Édouard Zeckendorf (1972). Représentation des nombres naturels par une somme de nombres de Fibonacci ou de nombres de Lucas. Bull. Soc. R. Sci. Liège 41: 179-182.
-
Paul Braffort (1979).Mes hypertropes. La Bibliothèque oulipienne vol. I, no. 9, Seghers
Notas:
iLa parte de la teoría de números que estudia conjuntos de enteros y su comportamiento bajo la suma.
iiPor ejemplo, 100 = 55 + 34 + 8 + 2 + 1 o 100 = 89 + 8 + 2 + 1.
iiiTraducido por la autora.
iv Se refiere a Jacques Roubaud (1932), matemático y miembro del grupo OuLiPo.
–
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo La sucesión de Fibonacci, el teorema de Zeckendorf y un poemario magistral se ha escrito en Cuaderno de Cultura Científica.
Einstein y la belleza matemática
Einstein sometía a sus propias teorías, y a las de los demás, a un sencillo test de verosimilitud: ¿había belleza en su formulación matemática?
Einstein no fue el primero en examinar la veracidad de sus ecuaciones con una luz puramente subjetiva y, por tanto, acientífica. El conocido concepto de la navaja de Occam, atribuido al filósofo del siglo XIV Guillermo de Occam, afirma que, todo lo demás igual, uno debe siempre elegir la teoría más simple. Pero Einstein llevó esta idea a un grado extremo, experimentando la belleza de una ecuación precisa de una manera tan intensa como la que se puede sentir al escuchar un concierto para violín de Mozart o un aria de Puccini. No era el único, hoy día muchos científicos hablan del profundo placer que sienten ante la elegante simplicidad de mucho del trabajo de Einstein.
Cuando Einstein habló años después acerca del descubrimiento de la teoría general de la relatividad, describió un momento en el que todos sus pensamientos se fusionaron y, de repente, las fuerzas de la gravitación tuvieron sentido. Conforme escribía sus ideas en forma matemática, él sabía que era “demasiado hermoso para estar equivocado”. Aunque tendrían que pasar todavía varios años hasta que hubiese una prueba de la relatividad general externa y objetiva, la belleza de estas ecuaciones que describían el universo de forma tan sencilla era suficiente para convencer a Einstein de que había encontrado la solución correcta.
Hemos de recalcar que esto era precisamente así: la belleza matemática era suficiente para él. Cuando en 1919 Arthur Eddington suministró el prime indicio de que la teoría podía ser correcta, alguien preguntó a Einstein qué habría hecho si su teoría no hubiera pasado esta primera prueba. Burlón, Einstein respondió que lo habría sentido por Dios, “porque la teoría era correcta”.
Numerosos científicos continúan usando el rasero de belleza y simplicidad para guiar su trabajo, y muchos han descrito la belleza que percibieron la primera vez que aprendieron la teoría de la relatividad. He aquí una ecuación que explica la forma y el movimiento de todo el universo y que, incluso incorporando la constante cosmológica lambda (Λ), es lo suficientemente corta como para escribirla en la palma de la mano. Es fácil comprender por qué puede hay quien la considera tan bella como un concierto de Bach, cada nota en su sitio. Para aquellos que trabajan con matemáticas, hay un aprecio muy parecido al placer estético para las ecuaciones que explican una faceta de la naturaleza sencilla y completamente.
Sin embargo, no hay nada inherente que sugiera que algo bello sea automáticamente bueno o verdadero. Después de todo la belleza es una construcción de la mente humana y la belleza no existe fuera de ella* (nuestros lectores saben que el ser humano no es nada especial en el universo, ni siquiera en el planeta). Fue el físico Eugene Wigner el que se lamentó de la “irracional efectividad de las matemáticas”, y es demasiado fácil ver las pautas de números como que apuntan hacia algo importante cuando lo lógico es verlas como fruto de la coincidencia. Ciertamente las ecuaciones de la mecánica de Newton o las del electromagnetismo de Maxwell son bellas, pero se ha demostrado que son incompletas.
Como la fe en el Dios de las religiones abrahámicas en siglos pasados para los científicos creyentes, que fueron muchos, la fe en la belleza de las matemáticas como patrón de veracidad fue un acicate para la creatividad de Einstein, que tuvo como resultado unas magníficas aproximaciones “al pensamiento de Dios”.
Nota filosófica:
[*] La ocurrencia de que la belleza existe externamente a la mente humana y, no solo eso, sino que el conocimiento de su existencia se debe a que la has conocido antes de nacer, mientras esperabas para reencarnarte, es de un tal Platón. Para aquellos que dicen que la filosofía no es importante, baste decir que buena parte de su concepción del mundo viene dada por las idas de olla de gente que se dedicó a ella, y que la sociedad transmite inconscientemente. Si no estudias filosofía tienes muy difícil detectar estas influencias.
Este criterio de la belleza como guía puede trazarse, por tanto, hasta el siglo V a.e.c. y no deja de ser un sesgo cultural importante. Curiosamente, el filósofo de cabecera de Einstein se supone que era Spinoza, pero Spinoza ya había advertido que la belleza, como el orden, son constructos humanos sin existencia objetiva. En este sentido, en la aproximación filosófica a la física se puede argumentar que Einstein seguía más la doctrina del neoplatónico Plotino que a Spinoza, quien, a este respecto, en el Apéndice al Libro I de la Ética (1677) de Spinoza es meridianamente claro. Una ocasión más en la que se demuestra que el criterio de la justicia penal es válido: es más importante fijarte en lo que alguien hace, que en lo que dice que hace.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo se publicó en Experientia Docet el 9 de mayo de 2010.
El artículo Einstein y la belleza matemática se ha escrito en Cuaderno de Cultura Científica.
¿Podría haber meditado un neandertal?
Emiliano Bruner, paleoneurólogo del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH), lidera un estudio sobre la evolución de la atención en el género humano en el que se analizan las evidencias paleontológicas y arqueológicas sobre la capacidad atencional de los homínidos extintos.

El estudio propone que han existido cambios evolutivos de la atención en las distintas especies del género humano, aunque solamente con Homo sapiens esta capacidad cognitiva alcanza una complejidad que revoluciona profundamente el comportamiento, la capacidad tecnológica y la estructura social de la especie.
A nivel paleoneurológico, se ha analizado el papel de la evolución de los lóbulos parietales en la atención, definida como la capacidad de mantener el proceso cognitivo centrado en un objetivo en el tiempo y en el espacio, a pesar de elementos de distracción internos y externos. A nivel arqueológico, se han evaluado las informaciones asociadas a la industria lítica y a la ecología de los homínidos extintos, considerando los comportamientos que pueden sugerir cambios evolutivos en la memoria de trabajo y en las capacidades visoespaciales.
Los lóbulos parietales, que tienen un papel fundamental en la red atencional, están también relacionados con la capacidad de imaginación visual asociada a nuestra particular habilidad de proyección en el pasado (recuerdos) y futuro (predicción). Un desajuste entre esta capacidad de proyección y la red atencional puede afectar al equilibrio entre la percepción del momento presente y las rumiaciones mentales*, principales causas de la elevada prevalencia de estrés, ansiedad y depresión en las sociedades humanas modernas.
Atención plenaLa práctica meditativa es un entrenamiento cognitivo del sistema perceptivo y atencional y, en los últimos años, ha sido ampliamente estudiada en neurociencia por sus efectos en la capacidad de dirigir y mantener la atención en el momento presente.
La forma de meditación más integrada en nuestra sociedad occidental es la llamada atención plena, quizás más conocida por el término anglosajón mindfulness. “Considerando la estrecha relación entre capacidad atencional y meditación, nos planteamos investigar, provocativamente, si los homínidos extintos hubieran sido capaces de llevar a cabo una práctica de selección y mantenimiento de los estímulos mentales», señala Bruner.
A pesar de la importancia de la atención en todos los procesos cognitivos, hasta este estudio, que ha contado con la colaboración de Roberto Colom, del Departamento de Psicología de la Universidad Autónoma de Madrid, no se había tratado esta habilidad cognitiva desde una perspectiva paleoantropológica.
Referencia:
Bruner, E. & Colom, R. (2022). Can a Neanderthal meditate? An evolutionary view of attention as a core component of general intelligence. Intelligence doi: 10.1016/j.intell.2022.101668
Para saber más:
Emiliano Bruner – Habitar un cuerpo: cognición corporal y evolución humana
La complejidad de la mente neandertal
Nota:
* El término rumiación, en psicología, es darle vueltas a un pensamiento, a una idea, o a un posible problema, de manera inconsciente y casi obsesiva, provocando cierto malestar y haciéndose realmente complicado poder parar y salir de esa situación. Fuente: IEPP
Edición realizada por César Tomé López a partir de materiales suministrados por CENIEH
El artículo ¿Podría haber meditado un neandertal? se ha escrito en Cuaderno de Cultura Científica.
¿Percibimos los colores de forma diferente según la lengua que hablamos?
Pedro Raúl Montoro Martínez

La vida es una tómbola de luz y de color, como dice la canción. Cuando abrimos los ojos, aparece inmediatamente ante nosotros un mundo teñido de infinidad de colores. Pero no son una mera decoración de nuestro mundo visual: nos permiten identificar los objetos, los materiales y las sustancias de nuestro entorno. Además, facilitan la comunicación con otras personas. Podemos diferenciar un plátano maduro de otro todavía verde. O pedir en una tienda la talla cuarenta de los zapatos rojos del escaparate.
El nombre del rosaAunque el número de matices cromáticos que podemos percibir es descomunal, la función comunicativa de los colores promueve que se utilice tan solo un limitado número de vocablos referidos a ellos. Este fenómeno se conoce como categorización del color, es decir, el agrupamiento de matices en una misma categoría asociada a una palabra: verde, rojo, azul, rosa…
Es una muestra de que el mundo de los colores, como muchos otros aspectos de la percepción, puede verse afectado por influencias culturales y por nuestras experiencias de aprendizaje.
Las nieves de los esquimalesSeguro que alguna vez ha leído que los esquimales son capaces de discriminar muchos tipos diferentes de nieve gracias a que disponen de decenas de términos en su lengua (el inuit) para referirse a ese estado físico del agua. Sin embargo, se trata de un mito pseudocientífico popularizado en la primera mitad del siglo XX por el lingüista Benjamin Whorf.
Whorf era un firme defensor de que la lengua que aprendemos afecta drásticamente a la forma en la que percibimos, recordamos y pensamos el mundo, hipótesis que se denomina determinismo lingüístico.
En realidad, la lengua inuit únicamente dispone de cuatro vocablos básicos para la nieve, de cuya combinación se derivan unos cuantos más. En castellano, por ejemplo, solo tenemos un término para nieve, pero mediante la unión con otras palabras también se puede discriminar entre diferentes estados de la misma, como aguanieve, nieve polvo, nieve primavera o nieve dura. De esta forma, los esquiadores hispanohablantes no necesitan aprender la lengua inuit para poder percibir y comunicar todos estas gradaciones de la nieve.
Cómo la lengua empaqueta los colores¿Podemos descartar entonces que nuestra lengua materna influye en cómo percibimos los colores? La forma en que los empaquetamos en categorías ha sido un campo de pruebas muy activo para contrastar la hipótesis del determinismo lingüístico.
El estudio clásico de los antropólogos Brent Berlin y Paul Kay (1969) supuso una aportación muy relevante en este campo. Estos autores investigaron los vocablos para denominar colores en cien lenguas de todo el mundo y observaron que los términos cromáticos no se repartían de forma arbitraria entre los idiomas, sino siguiendo una jerarquía predecible. Si una lengua solo tiene dos vocablos de color, entonces estos son el blanco y el negro. Si tiene tres, serán el blanco, el negro y el rojo. Con cinco términos, se suman el verde y el amarillo a los anteriores. Y así sucesivamente.
En definitiva, en contra de la hipótesis de la relatividad lingüística, lo que se encuentra es un patrón universal que pivota en torno a los seis colores básicos que proponen las teorías de la percepción cromática: blanco, negro, azul, amarillo, verde y rojo.

Shutterstock / Lewis Tse¿Cuán azul es el azul celeste?
En castellano, al igual que en inglés, solo disponemos de un término básico para aludir a los colores azulados. Sin embargo, en lenguas como el ruso, el griego o el turco cuentan con vocablos distintos para referirse a la tonalidad clara –o celeste– y oscura. Por ejemplo, en griego, los términos son ghalazio (azul claro) y ble (azul oscuro).

Shutterstock / Vector_Up
Varios estudios han mostrado que los hablantes de estas lenguas diferencian con mayor rapidez y seguridad entre azules claros y oscuros. Además, exageran las diferencias perceptivas entre matices intermedios en comparación con hablantes de inglés o castellano, como si fueran colores más distantes para ellos.
Otros resultados similares con varias categorías cromáticas permiten concluir que el empaquetado que cada lengua realiza para darle nombre a los colores influye en la forma en que estos son percibidos y recordados por sus hablantes.
Entonces, ¿vemos como hablamos?Las investigaciones recientes demuestran que, efectivamente, existe un cierto impacto de la lengua materna sobre el procesamiento de los colores. Sin embargo, este relativismo está lejos del rotundo determinismo lingüístico que proponía Whorf.
De hecho, con un entrenamiento rápido, cualquier persona puede ampliar su vocabulario cromático y aprender con facilidad a discriminar entre matices diferentes de azul o de cualquier otro color, como varios estudios han mostrado. De la misma forma, incluso personas que no están familiarizadas con los subtipos de nieve pueden aprender a discriminarlos y a adjudicarles un nombre, como hacen los esquimales o los esquiadores.
Curiosamente, en un trabajo con hablantes de griego que habían vivido una larga temporada en Reino Unido, se encontró que eran más propensos a asemejar el ghalazio y el ble por la influencia de la lengua inglesa, que, como hemos visto, los agrupa en una sola categoría lingüística.
En definitiva, la flexibilidad de nuestro sistema perceptivo nos permite ajustarnos al entorno de manera adaptativa para seguir disfrutando de la tómbola de luz y de color.
Sobre el autor: Pedro Raúl Montoro Martínez es Profesor Titular del Departamento de de Psicología Básica I de la Universidad Nacional de Educación a Distancia (España)
Este artículo fue publicado originalmente en The Conversation. Artículo original.
Para saber más:
Alucinaciones lingüísticas: los engaños de tu lengua materna
El artículo ¿Percibimos los colores de forma diferente según la lengua que hablamos? se ha escrito en Cuaderno de Cultura Científica.
Las pruebas de la educación: Marta Ferrero – ¿Jornada escolar continua o partida?
Bilbao volvió a acoger el pasado 20 de mayo de 2022 “Las pruebas de la educación”, una jornada que abordará diversas cuestiones educativas con la evidencia científica existente. Esta quinta edición está organizado por la Cátedra de Cultura Científica de la UPV/EHU y la Fundación Promaestro con la colaboración del Consejo Escolar de Euskadi, y se celebró en el Bizkaia Aretoa – UPV/EHU de la capital vizcaína.
La jornada consta de cinco ponencias de media hora de duración en la que se tratan temas como la problemática relacionada con los juegos de azar en el ámbito escolar, el impacto de la inmigración en el rendimiento del alumnado o el debate sobre la jornada escolar continua o partida, entre otras cuestiones. La dirección del seminario corrió de nuevo a cargo de Marta Ferrero profesora de la Facultad de Formación del Profesorado y Educación de la Universidad Autónoma de Madrid.
Marta Ferrero pone el foco en la nueva tendencia que apuesta por la jornada escolar continua, creciente tras la pandemia, en detrimento de la jornada partida y aporta datos e investigaciones sobre las consecuencias en términos académicos, sociales y de salud.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Las pruebas de la educación: Marta Ferrero – ¿Jornada escolar continua o partida? se ha escrito en Cuaderno de Cultura Científica.
Un tornado magnético para manipular la interfaz aire-agua
Inspirándose en materiales naturales que repelen el agua, como las hojas de loto, el estudio y desarrollo de superficies hidrofóbicas está adquiriendo un gran interés en campos como la manipulación precisa de pequeños volúmenes de fluidos. La integración de las propiedades magnéticas en los materiales hidrofóbicos favorece la manipulación remota del material al mismo tiempo que repele el agua, proporcionando nuevas perspectivas para posibles aplicaciones. En una nueva investigación, “hemos desarrollado un novedoso sistema para poder manipular la interfaz aire-agua utilizando un campo magnético externo”, señala Fernando Benito López, investigador principal del Microfluidics Cluster de la UPV/EHU.

Para ello, “hemos generado una capa de nanopartículas magnéticas hidrofóbicas capaz de flotar en la interfaz agua-aire y formar una interfaz agua-sólido-aire estable. Hemos observado que esta capa se dobla fácilmente hacia abajo por la acción de un campo magnético externo. Gracias a ello, la capa crea una estructura tipo tornado con forma cónica invertida a la que hemos bautizado como ‘Magneto Twister’ [tornado magnético]”, explica Fernando Benito López. “Esta estructura en forma de tornado se comporta como un material blando y elástico que se deforma o desaparece con el campo magnético aplicado”, añade el profesor de la UPV/EHU.
Se trata de una investigación fundamental con tres grandes aplicaciones en escenarios reales como explica Benito López: “en primer lugar, hemos utilizado el ‘Magneto Twister’ para manipular gotas de agua en un medio acuoso sin que se mezclen. Posicionamos las gotas de agua encima del cono magnético para moverlas en el medio acuoso y transportarlas a donde nos interese. Una vez que las gotas de agua estén en la zona deseada, podríamos eliminar el campo magnético para llevar a cabo una reacción química en una parte controlada de ese medio”.
Además, “el ‘tornado’ ha permitido para separar líquidos dentro de un canal de superficie abierta, lo que nos da la opción de tener reservorios independientes dentro de un canal fluídico y de almacenar reactivos que únicamente se mezclarán cuando se elimine el campo magnético externo para que una reacción química o biológica se efectúe”, explica Fernando Benito. “Sería algo similar a una válvula que se abre y se cierra para controlar el movimiento de los fluidos en dichos canales y conductos de una manera controlada en la microescala“, añade el investigador de la UPV/EHU.
Por último, “el tornado magnético se utilizó con éxito para recoger y eliminar microplásticos flotantes en la superficie del agua, simplemente moviendo el tornado hacia el microplástico para atraparlo”, señala Benito López.
Referencia:
Udara Bimendra Gunatilake, Rafael Morales, Lourdes Basabe-Desmonts eta Fernando Benito-Lopez (2022) Magneto Twister: Magneto Deformation of the Water–Air Interface by a Superhydrophobic Magnetic Nanoparticle Layer Langmuir doi: 10.1021/acs.langmuir.1c02925
Para saber más:
Formación de micelas en fase gaseosa
Nanoburbujas, un recipiente en busca de un tapón
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Un tornado magnético para manipular la interfaz aire-agua se ha escrito en Cuaderno de Cultura Científica.
Convivir con el fuego
Noches asfixiantes en zonas donde nunca lo habían sido, vientos extremadamente cálidos, intenso olor a humo, tensión en el ambiente mientras los vecinos tratan de organizarse para evitar que el fuego devore sus hogares. En el mejor de los casos, los bomberos ya están por la zona y se oyen aviones anfibios y helicópteros sobrevolando. Esta escena se está repitiendo en multitud de municipios este verano. Varias instituciones científicas hacen un llamamiento para la urgente gestión de los bosques en España.

Los datos de la superficie quemada ya otorgan a 2022 el triste récord de ser el año en el que más hectáreas de bosque se han quemado en los últimos 30 años en España. El 31 de julio superamos las 200.000 hectáreas, una extensión mayor que la provincia de Guipúzcoa. Esta pérdida de masa forestal supone un aumento directo de las emisiones de CO2, ya que el fuego libera el carbono almacenado en plantas y suelos, perder biodiversidad y los servicios ecosistémicos de los que nos provee el bosque que van desde la obtención de madera o setas hasta la recuperación del agua y el suelo o la obtención de aire para respirar. Eso sin contar lo más importante, los dramas personales que incluyen la muerte de personas y los daños materiales además de la pérdida de esperanza de quienes viven en las zonas rurales y llevan décadas advirtiendo de lo que iba a pasar, la población de la España que han vaciado muchos años de políticas enfocadas en lo urbano.
No es momento ahora de decir “esto se venía venir” y exponer lo que se debería haber hecho, sino de remangarse y ponerse a trabajar en la gestión de los hábitats primando el conocimiento. Basar las decisiones de gestión en evidencias científicas, hacer un enfoque integrado, que atienda a la multifuncionalidad de los ecosistemas y a todos los factores de los que depende. Hay que priorizar las medidas poniendo el foco en lo más básico: Prevención, prevención y prevención. Un mantra que, por más que lo repiten las personas que viven en entornos rurales y las que se dedican a la ingeniería forestal, la biología de la conservación o el estudio de los ecosistemas, los gestores de todo el espectro político olvidan en un cajón cuando llegan las primeras lluvias y, para ahorrar, deciden que la inversión para evitar incendios se pondrá en marcha en mayo, cuando se acerque el calor. Error. Quienes viven pegados al monte saben que la labor de un operativo antiincendios va mucho más allá de apagar las llamas.
Las soluciones sostenibles a la mayoría de los problemas ambientales giran en torno a la coexistencia con el fuego, es decir, adaptarnos a su presencia anticipándonos a sus efectos más devastadores minimizando el riesgo y vulnerabilidad de los sistemas forestales. Para lograr esto hay dos líneas que se deberían trabajar paralelamente: la recuperación de la población y los trabajos del campo en las zonas donde la demografía se ha desplomado y la gestión forestal de las áreas naturales.
Tierra sin genteLos ecosistemas europeos son fruto de la interacción humana desde hace miles de años. No existen bosques que mantengan las estructuras anteriores a la aparición del ser humano. Nuestra presencia ha generado los actuales paisajes culturales donde las especies que los habitan han evolucionado y a los que se han adaptado. No se puede abordar la restauración de ecosistemas como si el ser humano no existiera u obviando que debemos convivir con el resto de especies. De hecho, uno de los mayores problemas a los que se enfrenta el medioambiente en Europa es el abandono de las zonas rurales y la sustitución de las explotaciones familiares, PYMES que son las que realmente crean empleo y tejido social en España, en favor de las de producción agroalimentaria intensiva que daña los hábitats que nos rodean y dan empleo a menos personas.
Existe un consenso claro en la comunidad científica sobre cómo el abandono agrario y la expansión y densificación del bosque en esos espacios que antes se aprovechaban a través de la actividad forestal, la agricultura y la ganadería, crean paisajes cada vez más homogéneos y vulnerables al avance del fuego. Para revertir esta situación, hay que tomar iniciativas que permitan la recuperación de paisajes donde haya un mosaico de usos: bosques, cultivos herbáceos y leñosos, pastos o matorrales. Esta estructura actúa como “cortafuegos” natural mientras se genera una renta que permita a la población que los mantiene vivir dignamente de esas actividades. Se trata de tejer alianzas entre la gestión del bosque y el resto de usos rurales y que quienes viven de la agricultura y la ganadería trabajen codo con codo con los propietarios y gestores forestales para crear territorios resilientes al fuego.
Los montes que son rentables no arden, o lo hacen con menor intensidad, y rentabilidad es sinónimo de gestión activa del territorio y de personas viviendo en él. Más allá de contar con subvenciones públicas que pueden estar justificadas por el carácter también público de muchos de los servicios que esos montes nos proporcionan, hay que crear modelos de negocio sostenibles que permitan a sus poblaciones vivir dignamente de los bienes y servicios que producen.
El papel de las administraciones pasa por poner en marcha medidas de estímulo y apoyo a la economía en zonas rurales que no se queden en las simples subvenciones, sino que busquen un efecto transformador: Mejorar la fiscalidad y agilizar la burocracia a la que se enfrentan quienes emprenden en zonas rurales; proveer de servicios sanitarios, educativos y de transporte; promover la compra pública de productos sostenibles y cuya producción se integra en el territorio (como construir con madera de nuestros bosques los edificios públicos) o dar valor a los productos que favorecen la sostenibilidad del monte e identificarlos para que los consumidores sepan que su compra apoya a economías locales que ayudan a prevenir incendios y conservar la biodiversidad; pueden ser ejemplos que trascienden las subvenciones que en muchos casos ahogan la iniciativa de las personas. Así, promover un reparto más equilibrado de la población, además de ser más sostenible, se convierte en una medida de prevención de incendios.
Estas iniciativas deben adaptarse a las particularidades de cada territorio, a su paisaje y su paisanaje. Los actores locales y su territorio no son meros receptores de las ideas científicas o de las administraciones. Implicar a quienes viven y conocen el territorio es imprescindible para mejorar nuestra protección frente al fuego porque sobre un mapa, sostiene cualquier plan de actuación, pero son las personas que viven en el territorio las que lo conocen y su participación es vital si se quiere ir más allá de un proyecto escrito. En este sentido, la Comisión Europea lleva tiempo financiando procesos de cocreación que persiguen dinámicas cruzadas entre el personal de las administraciones, científicos y la población.
Ejemplos como La red de áreas pasto-cortafuegos de Andalucía (RAPCA) o la iniciativa Ramats de Foc (rebaños de fuego), que promueven el pastoreo en zonas arboladas donde los animales actúan controlando el exceso de vegetación, muestran que ya existen iniciativas que intentan ejemplificar una gestión activa del territorio donde se implican todas las partes.

La selvicultura, ciencia que estudia la gestión de los bosques y montes forestales, debe centrar sus objetivos en dirigir el ecosistema hacia la formación de bosques sostenibles cuyo valor paisajístico, económico y natural aumenta. Es una práctica cuyos resultados son visibles a largo plazo que necesita políticas estructurales enfocadas en la realidad de las zonas rurales y ecosistemas forestales; planificación y anticipación dotada con presupuesto y personal suficientes. Esta prevención se sustenta en el trabajo estable basado en la realidad de los montes en cada época del año. Hay que afanarse en la prevención con equipos formados por quienes viven y conocen la zona, técnicos, ingenieros y ecólogos que se encarguen de evaluar qué medidas hay que aplicar en cada lugar para que, al llegar el verano, estemos preparados.
Existen medidas centradas, principalmente, en la disminución del combustible (cantidad de biomasa) o cambios en su estructura (tamaño y disposición de la biomasa). La disminución de biomasa se logra eliminando parte de la vegetación arbustiva, sobre todo la más seca, mediante el desbroce, la retirada de las ramas y troncos muertos y las quemas prescritas. Los cambios en la estructura pasan por la elaboración de áreas cortafuegos en las que se disminuye gradualmente el combustible disponible partiendo de caminos y carreteras. Estas áreas, además de cortar el avance del fuego, permiten que los medios de extinción puedan actuar en caso de incendio.
Asimismo, la regulación de la densidad de árboles en edades tempranas y en alta densidad mediante claras o clareos son también medidas protectoras. Ante un futuro que se prevé más seco y con regímenes de precipitación irregular, conviene pensar también en áreas de monte bajo con especies herbáceas o arbustivas que necesitan menos agua para mantenerse hidratadas, una buena vacuna para evitar grandes incendios.
En las zonas con mayor riesgo es necesario fomentar la regeneración natural de especies con estructuras físicas defensivas (corcho o corteza gruesa) o estrategias de regeneración adaptadas al fuego. La mezcla de especies autóctonas es también excelente para aumentar la biodiversidad estableciendo masas forestales multifuncionales y de mayor resiliencia frente a nuevos incendios. En el caso de que prenda un fuego, un bosque mixto tiene más opciones de recuperación que uno donde solo crece una especie (monoespecífico) porque presenta mayor variedad de estrategias para adaptarse y regenerarse. Aunque, sin una correcta aplicación de clareos y claras no es necesariamente mejor desde el punto de vista de la propagación del fuego, la restauración con múltiples especies es sin duda un valor seguro.
La gestión del paisaje basada en la creación de mosaicos que combinen rodales con distinta densidad vegetal con áreas de pasto y campos de cultivo dan menos oportunidad al fuego para su propagación. En este sentido, combinar áreas boscosas en las que la intervención es mínima, con masas agroforestales y campos de labor es una buena estrategia que, de nuevo, necesita personas que vivan y convivan con la naturaleza que les rodea. El ejemplo del proyecto Mosaico, en Sierra de Gata y Las Hurdes (Extremadura), en el que se trabaja en terrenos públicos y privados con numerosas propuestas y donde más de la mitad de los emprendedores es menor de cuarenta años, demuestra que un cambio en la gestión del territorio es posible.
Todas estas medidas basadas en la gestión integral y multidisciplinar de los bosques son el principio para evitar que la llama prenda, sí, pero si aun así el fuego se produce es vital, una vez extinguido, analizar la situación para establecer una restauración adecuada.
Y después del fuego, ¿qué?Nos gustaría decir que después de un fuego la solución es sencilla: Se han quemado árboles así que plantamos más y listo, pero no lo es. No hay soluciones únicas para minimizar el impacto de los incendios forestales que son procesos complejos tanto ecológica como socialmente que requieren un análisis e interpretación de la información antes y después de cada caso. No es lo mismo un incendio sobre un suelo silíceo que sobre uno calizo y lo que sirve a los vecinos de El Courel no tiene por qué servir a los de Monfragüe.
El fuego forma parte de la dinámica natural del bosque mediterráneo, y como tal sus especies están adaptadas a esta perturbación. De hecho, los incendios forestales llegan a ser necesarios para garantizar su regeneración. Muchas especies vegetales lo necesitan para que sus semillas germinen, un proceso ecológico llamado serotinia, o aumente la brotación.
Dadas estas características particulares, los mediterráneos son ecosistemas que se suelen regenerar bien tras los incendios, de ahí que en muchos casos la mejor medida sea no hacer nada (restauración pasiva). Sin embargo, las características históricas de los incendios están cambiando, y los nuevos regímenes de incendios, mucho más virulentos, sobrepasan la capacidad de adaptación, llegando a reducir de forma permanente la biodiversidad y la funcionalidad del ecosistema.
Una correcta gestión pasa por desarrollar estrategias que busquen promover la capacidad para recuperarse o resiliencia del ecosistema y por asumir que la mejor solución posible en cada caso particular puede implicar un cambio de nuestra percepción sobre el papel del fuego en la estructuración del bosque. El proceso persigue acelerar la reparación de las funciones del sistema dañado y generalmente se extiende entre uno y tres (clima atlántico) o cinco años (clima mediterráneo), dependiendo de la intensidad del fuego y las características de la zona afectada.
La estabilización de emergencia tras el incendio comprende un conjunto de acciones a corto plazo (entre unos meses hasta un año después del incendio) dirigidas a identificar amenazas inminentes para la vida humana. Se trata de garantizar los servicios básicos para la población. Esta primera estabilización presta especial atención a reducir el riesgo asociado al deterioro del suelo y de las condiciones hidrológicas de las cuencas forestales afectadas. De hecho, toma a estas últimas como unidades de planificación e implementación de las tareas para paliar el impacto sufrido.
El suelo, la base sobre la que reconstruir todoLos efectos más obvios y llamativos de los incendios son los que afectan a los valores culturales y estéticos de los bosques y la desaparición de la vegetación y de la diversidad florística, que es también hábitat y fuente de recursos para la fauna. Algo que pasa más desapercibido son sus efectos sobre el suelo.
Los suelos son un gran reservorio de biodiversidad y el elemento esencial para la recuperación integral del ecosistema. Los habitantes de los suelos incluyen, entre otros, lombrices, ácaros, nematodos, bacterias y hongos. Estos organismos, esenciales para la recuperación de la funcionalidad y fertilidad de los suelos, son los responsables del secuestro de gran cantidad de carbono. Transforman la hojarasca en materia orgánica y nutrientes y modifican la estructura del suelo favoreciendo la infiltración de agua, factores esenciales para la supervivencia y recuperación de las plantas.
Entre estos microorganismos destacan los hongos micorrícicos, que forman simbiosis con las raíces de las plantas a las que facilitan la adquisición de agua y nutrientes a cambio de azúcares procedentes de la fotosíntesis. Los hongos micorrícicos pueden conectarse con múltiples plantas a la vez, generando unas redes miceliares a través de las que las plantas huésped intercambian recursos entre ellas. La recuperación del ecosistema edáfico procede de zonas forestales adyacentes no quemadas y de aquellos organismos resistentes que perduran a mayor profundidad en las capas minerales del suelo.
Si una vez apagado el fuego, se toman algunas medidas sencillas encaminadas a proteger el suelo de los procesos erosivos que causa la lluvia, las evidencias científicas apuntan a que, con el tiempo, el equilibrio de la comunidad original termina instaurándose.
Hacia un ecosistema funcional y resilienteTras abordar la situación del suelo, la eliminación de los árboles quemados es una medida controvertida pero necesaria en algunos casos para inducir que las especies broten con más vigor o para evitar infestaciones de insectos perforadores de los árboles supervivientes, que, además podrían extenderse a zonas no quemadas. Desde un punto de vista económico, la extracción de los pies antes de que se pudran por completo puede generar ingresos que reviertan en la recuperación del bosque.
No obstante, la extracción completa de todos los árboles podría aumentar la escorrentía o disminuir el hábitat para otras especies. Es importante estudiar cada situación para planificar en el espacio y en el tiempo las medidas más adecuadas, de hecho la restauración de ecosistemas quemados no debe hacerse mirando solo las especies que hubo en el pasado sino a las que mejor resistirán en el futuro. De nuevo, el análisis de cada caso es esencial.
La rehabilitación ofrece una interesante oportunidad para abordar un cambio de especie si se estima pertinente. Muchos incendios han permitido iniciar una nueva etapa en la trayectoria de la vegetación dominante en el ecosistema incendiado transformándolo en un bosque mixto. Si las condiciones fisiográficas del suelo, de erosión o de degradación previa así lo recomiendan.
El bosque, como sistema abierto que se autoorganiza se puede recuperar de un incendio. No esperemos tener el mismo hábitat, pero el ecosistema forestal seguirá existiendo. Sin embargo, dos incendios en el mismo lugar en un tiempo menor del necesario para su recuperación conllevarían, inevitablemente, la pérdida definitiva del ecosistema arbolado. La selvicultura y la gestión forestal son nuestra respuesta para ayudar al bosque y no nos engañemos, mientras vivamos en este planeta, somos los primeros interesados en mantener bosques y ecosistemas sanos.
Sobre las autoras:Cristina Aponte. Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (INIA-CSIC)
Andrés Bravo Oviedo. Museo Nacional de Ciencias Naturales (MNCN-CSIC)
Xiomara Cantera. Periodista del Museo Nacional de Ciencias Naturales (MNCN-CSIC)
Manuel Esteban Lucas Borja. Universidad de Castilla la Mancha
Javier Madrigal. Centro de Investigación Forestal (INIA-CSIC)
Leticia Pérez-Izquierdo. BC3, Basque Centre for Climate Change
Ana Rincón. Instituto de Ciencias Agrarias (ICA-CSIC)
Elsa Varela. Centro de Ciencia y Tecnología Forestal de Cataluña (CTFC)
Este texto apareció originalmente en SINC.
El artículo Convivir con el fuego se ha escrito en Cuaderno de Cultura Científica.
Teoremas geométricos sin palabras: Herón
Esta tercera entrega de la serie estival de demostraciones sin palabras de interesantes y hermosos resultados geométricos, que habíamos iniciado con el clásico teorema de Viviani (en la entrada Teoremas geométricos sin palabras: Viviani) y que habíamos continuado con un teorema actual, el teorema de la circunferencia de Conway (en la entrada Teoremas geométricos sin palabras: Conway), la vamos a dedicar a la clásica fórmula de Herón para el área de un triángulo.
Pero antes de adentrarnos en la fórmula de Herón, vayamos a la resolución del problema que dejamos planteado en la anterior entrada.
Un cuadrado inscrito en un triánguloEn la anterior entrada dejamos propuesto el siguiente problema sobre cuadrados que aparece recogido en el artículo A Round-Up of Square Problemas (Una recopilación de problemas con cuadrados), de los matemáticos Duane Detemple y Sonia Harold, publicado en Mathematics Magazine en 1996.
Problema (Un cuadrado inscrito en un triángulo rectángulo isósceles): Estos dos cuadrados han sido inscritos en un mismo triángulo rectángulo isósceles, pero de dos formas distintas, como se muestra en la imagen. ¿Cuál de los dos cuadrados tiene una mayor superficie?
La solución a este problema es sencilla, la mayor superficie corresponde al cuadrado de la izquierda, y se puede realizar con una sencilla imagen.
Todas las personas hemos estudiado en la escuela la sencilla fórmula para calcular el área de un triángulo, que no es otra que la mitad de la base por la altura del triángulo: Área = (base x altura) / 2.
A pesar de la sencillez de esta fórmula, podemos plantear algunas objeciones a la misma. Dado un triángulo ABC, con lados a, b y c, como el que aparece en la siguiente imagen, la primera objeción es que la información que solemos tener de este polígono es la longitud de sus lados, es decir, a, b y c, luego no es posible calcular el área directamente con esa información.
Además, dada la mencionada fórmula (base por altura dividido por dos) disponemos de tres opciones distintas para la base –obviamente, cada uno de los tres lados a, b o c– y, por lo tanto, también para la correspondiente altura. Por ejemplo, si en el anterior triángulo ABC tomamos como base el lado b, tendremos la altura h que aparece en la siguiente imagen.
Pero no disponemos, a priori, de la información del valor de la altura h, por lo tanto, debemos de calcularlo (en la educación primaria normalmente nos daban el valor de la altura o era un triángulo rectángulo de manera que la base y la altura eran los catetos del mismo). ¿Cómo calcular la altura h, a partir de los valores de los lados a, b y c? Este es el típico problema de aplicación del teorema de Pitágoras en educación secundaria (aunque para valores concretos de los lados). Veamos cómo se solucionaría de forma genérica.
Llamamos u a una parte de la base determinada por la intersección de esta con la altura, de forma que la otra será b – u, como en la siguiente imagen.
Entonces, se aplicaría el teorema de Pitágoras a los dos triángulos rectángulos determinados por la altura (h, u, c) y (h, b – u, a), obteniéndose las expresiones:
Restando ambas expresiones se tiene que a2 – c2 = b2 – 2bu y despejando u podemos obtener su valor en función de los lados a, b y c:
Una vez obtenido el valor de u podemos calcular h2 con la primera de las fórmulas anteriores, h2 = c2 – u2, obteniéndose la siguiente expresión (con un pequeño cálculo intermedio, que obviamos para no abusar de las fórmulas):
De esta forma hemos obtenido una expresión general para la altura h, si la base es b, en función de los lados a, b y c, haciendo uso del teorema de Pitágoras. Ahora, si llamamos s al semi-perímetro, es decir, s = (a + b + c) / 2, e introducimos el valor de h en la fórmula del área del triángulo, base b por altura h dividido por 2, se obtiene la expresión:
De esta forma, hemos obtenido una expresión para el área del triángulo en función, directamente, de los lados del mismo, a, b y c. Esta es la conocida como fórmula de Herón para el área del triángulo.
Así, si consideramos un triángulo de lados 13, 14 y 15, tendríamos que el semi-perímetro sería s = 21 y el área s, por la fórmula de Herón, sería la raíz cuadrada del producto de 21, 8, 7 y 6, luego de 7.056, que es 84.
La fórmula de Herón (sin palabras)La anterior fórmula del área del triángulo debe su nombre al matemático e ingeniero griego Herón de Alejandría (aprox. 10 – 70 a.n.e.), que la incluyó en su libro Metrica (alrededor de 60 a.n.e., aunque este manuscrito estuvo perdido hasta 1896). Esta fórmula podría ser conocida ya por el matemático e ingeniero griego Arquímedes de Siracusa (aprox. 287 – 212 a.n.e.), según aparece recogido en las obras del científico persa Al-Biruni (973 – después de 1.050).
Existen diferentes demostraciones de la fórmula de Herón, además de la mostrada en esta entrada haciendo uso del teorema de Pitágoras, pero nosotros, como corresponde a esta serie veraniega, vamos a mostrar la demostración que el matemático Roger B. Nelsen publicó en la revista College Mathematics Journal, en 2001, utilizando los argumentos de las demostraciones sin palabras.
Dado un triángulo ABC, las rectas que bisecan los ángulos en los vértices A, B y C (llamadas bisectrices) se intersecan en un punto P, que no es otro que el incentro I del triángulo ABC (el centro de la circunferencia inscrita en el triángulo ABC).
Efectivamente, si trazamos desde el punto P los tres segmentos perpendiculares a los lados a, b y c (en rojo en la siguiente imagen) se generan tres pares de triángulos semejantes (dos triángulos semejantes en cada vértice del triángulo ABC), de manera que esos tres segmentos tienen la misma longitud r, el radio de la circunferencia inscrita en el triángulo ABC. Por lo tanto, efectivamente P es el incentro I del triángulo.
Además, llamando x, y y z como en la anterior imagen, tenemos que los lados son a = y + z, b = x + z y c = x + y, que el semi-perímetro es s = x + y + z y que entonces x = s – a, y = s – b y z = s – c.
Para demostrar la fórmula de Herón vamos a demostrar primero (sin palabras) dos pequeños resultados técnicos previos (lo que en matemáticas llamamos “lemas”).
Lema 1: El área del triángulo ABC es igual al producto del semiperímetro s y el radio r de la circunferencia inscrita en el mismo (de centro I).
La demostración de este resultado es el siguiente diagrama, que consiste en una reordenación de los tres pares de triángulos semejantes de la imagen anterior.
El siguiente lema es un resultado un poco técnico sobre trigonometría (podéis saltároslo si os parece muy técnico) que describe una relación entre tres ángulos alpha α, beta β y gamma γ cuya suma sea un ángulo recto, es decir, 90 grados. Por lo tanto, luego podremos aplicar este lema a los tres ángulos alpha α, beta β y gamma γ, que son la mitad de los ángulos en los vértices A, B y C del triángulo ABC, como hemos mostrado en una imagen anterior, y que suman, por tanto, 90 grados.
Lema 2: Si alpha α, beta β y gamma γ son tres ángulos positivos cuya suma es 90 grados, entonces
Para demostrar (sin palabras) este segundo lema técnico vamos a construir el siguiente rectángulo, jugando un poco con la trigonometría, y a igualar el valor de la longitud de los dos lados paralelos, de la izquierda y la derecha, del rectángulo.
Nota: Podemos recordar algunas de las definiciones básicas de la trigonometría. Dado un ángulo alpha α se considera el triángulo rectángulo tal que alpha α es el ángulo entre uno de sus catetos y la hipotenusa, como en la siguiente imagen, entonces se definen el seno y el coseno como el cociente entre uno de los catetos y la hipotenusa, para el seno el cateto opuesto al ángulo y para el coseno el otro cateto.
Además, se definen la tangente, la secante y la cosecante del ángulo como
Por este motivo, si el triángulo anterior (de la definición del seno y el coseno), lo redimensionamos dividiendo sus lados por b, de forma que ese cateto tendrá una longitud de 1, queda el siguiente triángulo
que es uno de los que aparecen en el rectángulo de la prueba visual del lema 2.
Si ahora se aplica el lema 2 al diagrama anterior en el que se descomponía el triángulo ABC en tres pares de pequeños triángulos rectángulos de ángulos alpha α, beta β y gamma γ, que recordamos en la siguiente imagen,
entonces se tiene que:
Ahora, teniendo en cuenta el lema 1 se tiene
que demuestra la fórmula de Herón.
Cuadrados inscrito y circunscrito a una circunferenciaUna vez más, como viene siendo habitual en esta serie estival, vamos a terminar esta entrada con un sencillo problema que puede ser resuelto con un razonamiento visual.
Problema (Cuadrados inscrito y circunscrito a una circunferencia): ¿Cuál es la proporción de las áreas de los cuadrados inscrito y circunscrito a una misma circunferencia?
Bibliografía:
1.- Roger B. Nelsen, Proofs without Words: Exercises in Visual Thinking, Mathematical Association of America, 1997.
2.- Roger B. Nelsen, Proofs Without Words II: More Exercises in Visual Thinking, Mathematical Association of America, 2001.
3.- Claudi Alsina y Roger B. Nelsen, Charming Proofs, A Journey Into Elegant Mathematics, Mathematical Association of America, 2010.
4.- Wolfram MathWorld: Heron’s formula
5.- Roger B. Nelsen, Heron’s Formula via Proofs Without Words, College Mathematics Journal, September, 2001.
El artículo Teoremas geométricos sin palabras: Herón se ha escrito en Cuaderno de Cultura Científica.
Einstein y Max Born
El físico alemán Max Born fue, junto a Niels Bohr, Max Planck, Werner Heisenberg y Einstein* uno de los fundadores de la mecánica cuántica. Born y Einstein fueron amigos desde que se conocieron hasta la muerte de Einstein en 1955, y se mantuvieron frecuentemente en contacto a lo largo de varias décadas. Esta correspondencia es una fuente magnífica para historiadores e investigadores.

El primer encuentro entre Einstein y Born tuvo lugar dos meses después de que Einstein abandonase su trabajo en la Oficina de Patentes en 1909. Einstein dio una célebre conferencia en una reunión científica en Salzburgo en la que afirmó que los científicos pronto demostrarían que la luz podía ser considerada tanto una onda como una partícula. El mismo Einstein había predicho que la luz estaba constituida por partículas, los cuantos de energía que terminarían llamándose fotones, pero él sabía perfectamente que la descripción ondulatoria de la luz también parecía adecuada. Siendo un pensador creativo como era, aceptó fácilmente que podía resultar que la luz fuese ambas cosas. Born se acercó a Einstein después de la charla y, muy excitado por las ideas de Einstein, discutieron esta nueva visión “cuántica” de la luz.
Lo que Einstein no podía predecir fue la dirección que sus ideas tomarían cuando cayesen en manos de otros. En los siguientes 15 años, Niels Bohr, el mismo Born y otros aceptarían completamente esta dualidad onda-corpúsculo, y llevaron la mecánica cuántica más allá, describiendo un universo que estaba gobernado por este tipo de excentricidades. Había muchas interpretaciones de cómo la luz podía ser a la vez onda y partícula; la de Born era que la luz estaba constituida por partículas pero que su movimiento estaba guiado por una onda.
Los físicos que aceptaban la mecánica cuántica veían el mundo lleno de estas rarezas; la nueva ciencia también insistía en que todas las partículas fundamentales estaban gobernadas solamente por las leyes de la probabilidad y el azar, sin más predictibilidad que la que se puede hacer al apostar a la ruleta. Esta era una visión que Einstein no podía aceptar. Escribió a Born en 1925: “[…] la mecánica cuántica es ciertamente imponente. Pero una voz interior me dice que todavía no es la verdad. La teoría explica muchas cosas, pero no nos aproxima nada al secreto del “Viejo”. Yo, en cualquier caso, estoy convencido de que Él no lanza dados”. Conforme Einstein expresaba esta opinión cada vez con más énfasis en sus intervenciones públicas, a Born le preocupaba que Einstein se estuviese alienando él mismo de la comunidad científica.
Viviendo en Berlín en la misma época, Born y Einstein tuvieron experiencias similares en Alemania. En 1918, tras terminar la Primera Guerra Mundial, los estudiantes revolucionarios de la Universidad de Berlín tomaron un edificio y retuvieron a varios empleados como rehenes. Einstein, pensando que tenía cierta influencia sobre los estudiantes, lo que era cierto, le pidió a Born que fuese con él a negociar la liberación de los rehenes. Einstein tenía la reputación de ser muy de izquierdas, cercano a los comunistas, y a los estudiantes les sorprendió que su amado profesor no les apoyase. En su autobiografía Born escribió: “Todavía puedo ver ante mí las caras atónitas de estos ansiosos jóvenes cuando el gran Einstein, que ellos creían de todo corazón que estaba de su parte, no los seguía ciegamente en su fanatismo”. Juntos los dos científicos ayudaron a conseguir una solución pacífica al conflicto, loe rehenes fueron liberados. [En la imagen Born en esta época]
Después de la Primera Guerra Mundial, el creciente nacionalismo en Alemania llevó a un antisemitismo que afectó tanto a Einstein como a Born, también judío. Ante la hostilidad de su tierra natal, Born terminaría emigrando a Escocia, mientras que Einstein se marchó a los Estados Unidos. Continuaron escribiéndose hasta la muerte de Einstein en 1955. A Born le entristecía sobremanera, sin embargo, que Einstein rechazase cada uno de los intentos que hizo para convencerle de la validez de la mecánica cuántica. Einstein discutió, y desde su punto de vista refutó, cada artículo y cada carta que Born escribió y nunca aceptó la nueva ciencia.
Nota:
[*] Quien eche de menos en este breve listado a PAM Dirac, recuérdese que Dirac, bebiendo del trabajo de los fundacionales, crea una ciencia nueva de profundas raíces matemáticas, pero él mismo no es uno de los primeros fundadores.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Una versión anterior de este artículo se publicó en Experientia Docet el 23 de agosto de 2009.
El artículo Einstein y Max Born se ha escrito en Cuaderno de Cultura Científica.
Meteoritos interestelares, muestreando otros sistemas planetarios
Un 1% de los meteoritos de mayor tamaño podrían tener un origen interestelar, lo que apunta a que son mucho más habituales de lo que se piensa. Podrían ser una ventana para estudiar otros sistemas planetarios desde la Tierra.
Para conocer mejor los planetas y otros cuerpos de nuestro Sistema Solar es fundamental no solo llegar hasta ellos, sino traer muestras a nuestro planeta que podamos estudiar con detalle en nuestros laboratorios. Esto puede parecer paradójico porque cada vez enviamos misiones más grandes, complejas y con mejor instrumentación, pero aun así siguen estando muy lejos de las capacidades analíticas de los instrumentos con los que contamos en la Tierra.
Desgraciadamente, este tipo de misiones de retorno de muestras son tremendamente caras y complejas, en las que a veces incluso se requiere de múltiples etapas -como si de una carrera de relevos fuese- para poder llegar, recoger las muestras y volver de nuevo a la Tierra. Y es que ahora mismo nos encontramos precisamente en un momento histórico de competición entre, por un lado, el equipo formado por la ESA y la NASA y, por otro, la Agencia Espacial China por ser los primeros en traer rocas de Marte a principios de la década de 2030. Sin duda no será fácil, pero será un momento histórico.
La lista de cuerpos de los que hemos traído muestras es muy escueta: La Luna, por supuesto, a través de las misiones Apolo, pero también gracias a misiones robóticas. Asteroides como Itokawa y Ryugu… y un tercero que es Bennu, y cuyo retorno está previsto para diciembre del próximo año. Incluso tenemos alrededor de un gramo de muestras de la coma del cometa 81P/Wild.
Hasta ahora nuestra principal fuente de información sobre el resto de los cuerpos del Sistema Solar han sido los meteoritos que caen sobre nuestro planeta y que fueron arrancados de aquellos por las grandes colisiones que han sufrido a lo largo de su historia y que, por suerte para nosotros, acabaron cruzándose con la Tierra, permitiéndonos conocer mejor nuestro entorno planetario.
Pero centrémonos en el título del artículo “…muestreando otros sistemas planetarios”. Puede parecer una osadía, porque si hemos hablado de que es realmente difícil el conseguir muestrear los planetas que más cerca tenemos, ¿cómo de difícil puede ser muestrear los planetas alrededor de otras estrellas?

En 2017 se anunciaba el descubrimiento de ‘Oumuamua, el primer objeto interestelar que atravesaba nuestro Sistema Solar del que éramos conscientes. Posteriormente, el 2I/Borisov ponía de manifiesto en 2019 que quizás este tipo de objetos provenientes de otros sistemas planetarios no eran tan raros, pero que debido a su pequeño tamaño y poca luminosidad (a veces reflejan muy poca luz por su composición superficial), eran difíciles de detectar.
Peña-Asensio et al. (2022) [3] mencionan además que quizás la mayoría de los objetos interestelares que sobreviven a su viaje por el espacio tienen que estar en una escala de metros de diámetro, ya que los cuerpos más pequeños, debido al estrés térmico y a los efectos de la radiación cósmica podrían fragmentarse, haciendo su detección imposible debido a su pequeño tamaño.
Esto supone un importante sesgo a la hora de la detección, puesto que cuanto más pequeños son, más difíciles son de detectar, pero, por otro lado, nos abre una ventana a saber que tipo de objetos tenemos que seguir buscando a la hora de plantear sistemas de búsqueda y detección, especialmente en el espectro infrarrojo donde quizás serían más fáciles de encontrar.

Vayamos un poco más lejos, ¿y si ya tuviésemos en nuestro planeta algún meteorito de naturaleza interestelar? También comentan Peña-Asensio et al. (2022), que es posible que algunos meteoros observados por las redes de detección en nuestro planeta pudiesen tener un origen interestelar, pero que las incertidumbres en el cálculo de los parámetros orbitales debido a la calidad y escasez de los datos no sean capaces de descubrir esta naturaleza.
En abril de este mismo año, Siraj et al. (2022) [1] publicaron un artículo en el que describen el descubrimiento del primer meteoro de origen interestelar, pero que realmente fue detectado el 1 de enero de 2014, y que tendría un tamaño aproximado de 0,5 metros de diámetro. Los restos de este objeto, según los cálculos, habrían caído en la costa de Papúa Nueva Guinea.
Estos autores además tienen bastante confianza en que hayan podido sobrevivir fragmentos de este meteoro, ya que su composición parece ser principalmente metálica, y, de hecho, proponen en otro artículo, Siraj et al. (2022) [2], el fletar una expedición oceanográfica para poder encontrar los fragmentos de este cuerpo en una superficie aproximada de 10×10 kilómetros donde se ha calculado pudieron caer.
Se recogerían, por lo tanto, las partículas ferromagnéticas encontradas en el fondo del océano mediante un sistema de imanes que atrajesen a estas partículas. Estas se analizarían para intentar descubrir cuáles pertenecerían a este cuerpo interestelar y cuáles no, ya que hay un importante flujo de micrometeoritos que caen a nuestro planeta.
En Peña-Asensio et al. (2022) [3], se mencionan también dos posibles meteoritos interestelares más, uno de 2009 y otro de 2017, lo que implicaría que al menos un 1% de los meteoritos de mayor tamaño podrían tener un origen interestelar, lo que pone de manifiesto que este tipo de objetos podrían ser mucho más habituales de lo que se pudiera pensar.
Este nuevo campo nos podría abrir una ventana de conocimiento realmente importante: Si fuésemos capaces de conocer la procedencia de los meteoros interestelares gracias a los datos de las redes de detección y además tuviésemos la oportunidad de recoger los meteoritos que hayan sobrevivido a la reentrada en la atmósfera, podríamos empezar a comparar sistemas planetarios. Y, por supuesto, los análisis podrían revelarnos si hay diferencias isotópicas importantes entre dos sistemas planetarios diferentes, o si en el fondo somos muy parecidos.
Referencias:
1. Siraj A, Loeb A. (2019) The 2019 Discovery of a Meteor of Interstellar Origin. arXiv:1904.07224v4 [astro-ph.EP]
2. Siraj A, Loeb A, Gallaudet T. (2022) An Ocean Expedition by the Galileo Project to Retrieve Fragments of the First Large Interstellar Meteor CNEOS 2014-01-08. 2022 arXiv:2208.00092v1 [astro-ph.EP]
3. Peña-Asensio E, Trigo-Rodríguez JM, Rimola A. (2022) Orbital characterization of superbolides observed from space: Dynamical association with near-Earth objects, meteoroid streams and identification of hyperbolic projectiles. Astron J. doi: 10.3847/1538-3881/ac75d2
Para saber más:
Tomanowos: el meteorito que sobrevivió a las megainundaciones y a la insensatez humana
Los meteoritos ya no son lo que eran desde hace 466 millones de años
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Meteoritos interestelares, muestreando otros sistemas planetarios se ha escrito en Cuaderno de Cultura Científica.
Política de lobos

Desde el mes de septiembre del año pasado el lobo ya no es especie cinegética en el territorio español. Así lo estableció una orden dictada por el Ministerio de Transición Ecológica. Ya no se pueden cazar lobos. A esa decisión se han opuesto, además de las asociaciones de ganaderos, las comunidades de Galicia, Asturias, Cantabria, y Castilla y León, en las que se encuentra el 95 % de los grandes carnívoros. Se calcula que en España hay entre 2000 y 2500 lobos distribuidos en cerca de 300 manadas.
La colisión de intereses en este asunto es clara. Están, por una parte, los movimientos conservacionistas y ecologistas, que presionan para que se implanten políticas de recuperación de espacios naturales y de las especies que en el pasado los ocupaban o cuyos efectivos se han visto muy mermados por efecto de la caza y otras actividades humanas. Y por la otra, están los ganaderos que se oponen a esas medidas y que denuncian que sus animales sufren el ataque de los lobos, por lo que la protección de estos se hace a costa de la viabilidad de sus propias haciendas. En general, los partidos ecologistas y de izquierda se oponen a la caza de lobos, mientras que los de derecha y, sobre todo, de extrema derecha, son contrarios a la protección a ultranza. Aunque hay excepciones notables.
En Estados Unidos se produjo una controversia similar cuando se decidió reintroducir el lobo en el parque de Yellowstone. Los cazadores de caribús se opusieron porque veían a los lobos como competidores, y los rancheros, por las mismas razones que los ganaderos del noroeste de la Península Ibérica. También allí las posturas están relacionadas con la ideología; son los votantes republicanos los que se muestran más en contra de las políticas conservacionistas, mientras que los demócratas son más favorables.
Con la recuperación del lobo en el centro de Europa durante los últimos años también ha empezado a haber ataques al ganado. En Alemania apenas se producían antes de 2010, pero durante la segunda década del siglo XXI, cada vez se han registrado más, hasta superar el millar en 2020, con más de 3500 cabezas muertas. Ese es el motivo por el que han investigado la relación entre los ataques de los lobos y el comportamiento electoral, y lo han hecho segmentando el espacio hasta el nivel municipal y estudiando cómo han influido en los resultados de Los Verdes (Die Grünen), el partido que más énfasis pone en las políticas conservacionistas, y de la extrema derecha, la Alternative für Deutschland (AfD), el partido que con más fuerza se opone a esas medidas.
En el estudio analizaron los resultados de las elecciones federales, territoriales y municipales desde 1990 hasta 2021. Y observaron que existe un efecto significativo de los ataques sobre el voto a la AfD, muy marcado en las elecciones a los länder y menor en las federales y municipales. Por otro lado, los ataques tuvieron un efecto negativo sobre los resultados de los Grüne, también en las elecciones territoriales, aunque no tan marcado como el beneficio que reportó a la “Alternativa”.
Los especialistas barajan dos hipótesis para explicar la vinculación entre los ataques de los lobos y el auge de la extrema derecha. Una es la amenaza económica que conllevan los ataques y que la AfD esgrime como argumento electoral. Otros interpretan la oposición a los lobos como una manifestación de resentimiento a las élites urbanas por parte de aquellos que se identifican con las formas tradicionales de vida y de explotación de recursos. Intereses, pero también valores, pesan en la balanza.
Fuente: von Hohenberg, B. C., Hager, A. (2022): Wolf attacks predict far-right voting. PNAS 119 (30) e2202224119 doi: 10.1073/pnas.2202224119
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Política de lobos se ha escrito en Cuaderno de Cultura Científica.
Las pruebas de la educación: Rocío García Carrión – Impacto de la inmigración en el rendimiento escolar
Bilbao volvió a acoger el pasado 20 de mayo de 2022 “Las pruebas de la educación”, una jornada que abordará diversas cuestiones educativas con la evidencia científica existente. Esta quinta edición está organizado por la Cátedra de Cultura Científica de la UPV/EHU y la Fundación Promaestro con la colaboración del Consejo Escolar de Euskadi, y se celebró en el Bizkaia Aretoa – UPV/EHU de la capital vizcaína.
La jornada consta de cinco ponencias de media hora de duración en la que se tratan temas como la problemática relacionada con los juegos de azar en el ámbito escolar, el impacto de la inmigración en el rendimiento del alumnado o el debate sobre la jornada escolar continua o partida, entre otras cuestiones. La dirección del seminario corrió de nuevo a cargo de Marta Ferrero profesora de la Facultad de Formación del Profesorado y Educación de la Universidad Autónoma de Madrid.
Rocío García Carrión, investigadora Ikerbasque y Ramón y Cajal en la Universidad de Deusto, nos habla sobre el impacto de la inmigración en el rendimiento escolar y analiza, desde la evidencia científica disponible, si los resultados educativos dependen o no de la proporción de alumnado inmigrante que haya en el aula.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Las pruebas de la educación: Rocío García Carrión – Impacto de la inmigración en el rendimiento escolar se ha escrito en Cuaderno de Cultura Científica.