Afantasía y música
¿Te gusta imaginar cosas? ¿Tienes facilidad para recordar aquel capítulo de tu vida tan significativo? ¿Visualizas imágenes mientras escuchas música o te retrotraen muy vívidamente a algún hecho? Lo más probable es que la respuesta a estas preguntas sea sí, aunque también existe la posibilidad de que la respuesta sea un rotundo no, que te pondrían en un porcentaje minoritario de población.
Foto: RUPAM DUTTA / UnsplashLas personas usamos imágenes visuales para comprender mejor nuestro entorno. Los esquemas mentales de los recuerdos, la visualización de los eventos que nos sucedieron en el pasado es habitual en la mayoría de la población. Sin embargo, existe un pequeño grupo de personas, entre un 2% y un 5% de la población (dependiendo de los estudios), que no son capaces de hacerlo, es decir, que los intentos de visualizar algún objeto o situación no conduce a ninguna experiencia sensorial del mismo. Se dice entonces que esas personas son afantásicas o bien que experimentan afantasía. Este término es definido en 2015 por Adam Zeman1 y sus colaboradores como una imaginación voluntaria reducida o ausente.
En experimentos donde se les insta a imaginar cosas, las personas afantásicas muestran una activación de un amplio conjunto de áreas cerebrales asociadas negativamente con la viveza de las imágenes, mientras que las personas con una alta visualización mental registran predominantemente activaciones cerebrales restringidas en las cortezas posteriores. Esto implica que existen datos neurocientíficos y fisiológicos que evidencian una capacidad deficiente de visualización de imágenes. Esta capacidad deficiente significa que hay personas que tienen serias dificultades si les pidiéramos que imaginaran el rostro de algún personaje famoso o algún edificio emblemático, aunque sí podrían reconocerlos. Una especie de ceguera mental imaginaria.
Esto puede implicar una respuesta emocional atenuada hacia ciertos estímulos, ya que la inducción de emociones está asociada a las imágenes visuales. Por ejemplo, hay respuestas emocionales de baja intensidad de las personas afantásicas con respecto a recuerdos, es decir, todo lo relacionado con la memoria episódica. En la música, la visualización de imágenes evocadas también intensifica la experiencia emocional, como han demostrado algunos estudios23. Esto podría implicar que los afantásicos pueden ver reducidas sus posibilidades de experimentar emociones con la música y, por lo tanto, afectar a su juicio estético. ¿El atractivo estético está condicionado por la visualización de imágenes? ¿Sienten menos placer las personas afantásicas al escuchar música? Esto podría llevar a un menor compromiso social y en su vida cotidiana de estas personas con la música. Estas cuestiones que pueden ser relevantes se las han planteado recientemente las investigadoras Sarah Hashim y sus colaboradoras4.
Afantasía y respuesta a la músicaPara averiguar cómo afecta la afantasía a la percepción de la música realizaron dos encuestas. La primera de ellas se hizo para obtener una visión general de las diferencias de las respuestas afectivas y estéticas en dos tipos de oyentes, afantásicos y grupo control, mediante escalas Likert. A pesar de que la prevalencia de imágenes visuales y la viveza de esas imágenes fue significativamente mayor en el grupo control (no afantásicos), en los modelos que predicen el gusto por la música no se encontraron diferencias, aunque sí en los modelos de intensidad emocional sentida. Estos resultados revelan una correlación positiva entre la prevalencia de imágenes visuales, la viveza de esas imágenes y la intensidad emocional experimentada, pero que no afecta al gusto musical. Por lo tanto, las imágenes mentales puede que no sean determinantes en el gusto por la música, sino simplemente una ayuda. En la segunda encuesta, las investigadoras quisieron averiguar si la visualización atenuada característica de las personas afantásicas afecta a la capacidad para discriminar diferentes tipos de emociones que la música puede transmitir.
La conclusión es que tiene una incidencia nula, es decir, pueden discriminar perfectamente las emociones que transmite la música. Las autoras proponen ocho mecanismos5 asociados con las emociones inducidas por la música, de los cuales la visualización de imágenes es uno de ellos. Al comparar el grupo afantásico con el grupo control vieron en qué medida actúan los otros mecanismos que no usan la capacidad de visualización. Con esto se puede obtener información sobre las funciones que tiene para los oyentes la música, incluyendo factores relacionados con experiencias cotidianas emocionales (el estrés, la ansiedad) o usos de la música relacionados con la regulación cognitiva, el sueño o el recuerdo. Para lo que menos usan la música las personas afantásicas es para recordar eventos o personas, derivado de su défcit que les ocasiona dificultades para revivir recuerdos, aunque también para simular el futuro.
En resumen, las personas afantásicas pueden experimentar placer con la música, a pesar de que la falta de visualización de imágenes atenúa las emociones inducidas. La condición de no poder crear imágenes en la mente afecta a la forma en que se usa y se experimenta la música, sin embargo, no es una condición que impida el gusto y disfrute. De hecho, en estudios futuros puede que exista la posibilidad de que la música arroje más datos sobre este tipo de condición gracias a las respuestas emocionales. Una vez más la música demuestra que puede aportar datos relevantes para otras disciplinas del conocimiento, así como su transversalidad emocional, tanto en personas que pueden imaginar como en otras que tan solo pueden reconocer.
Referencias y notas:
1 Zeman, Adam, Michaela Dewar, and Sergio Della Sala (2015) Lives without imagery–Congenital aphantasia. Cortex doi: 10.1016/j.cortex.2015.05.019
2 Hashim, Sarah, Lauren Stewart, and Mats B. Küssner (2020) Saccadic eye-movements suppress visual mental imagery and partly reduce emotional response during music listening Music & Science doi: 10.1177/2059204320959580
3 Hashim, Sarah, et al. (2023) Music listening evokes story-like visual imagery with both idiosyncratic and shared content Plos one doi: 10.1371/journal.pone.0293412
4 Hashim, Sarah, et al. (2024) The Experience of Music in Aphantasia: Emotion, Reward, and Everyday Functions. Music & Science doi: 10.1177/20592043231216259
5 Los ocho mecanismos son: visualización de imágenes, reflejo del tronco encefálico, arrastre rítmico, condicionamiento evaluativo, contagio emocional, memoria episódica, expectativa musical y juicio estético.
Sobre el autor: José Manuel González Gamarro es profesor de guitarra e investigador para la Asociación para el Estudio de la Guitarra del Real Conservatorio Superior de Música “Victoria Eugenia” de Granada.
El artículo Afantasía y música se ha escrito en Cuaderno de Cultura Científica.
Ilustrando la evolución humana
La brecha de género tiene su reflejo en el ámbito científico. Tiene consecuencias en la carrera de investigación de las mujeres pero, además, conlleva la creación de contenido científico erróneo. De hecho, con el tiempo ha ocurrido que ideas y estereotipos incorrectos se hayan convertido en afirmaciones científicas.
Ejemplo de ello son algunas de las ilustraciones utilizadas en el ámbito científico. Imágenes que son muy importantes a la hora de divulgar ciencia, ya que hay que tener en cuenta que recordar información solo con datos y números es mucho más difícil que hacerlo mediante imágenes. La paleontología es un buen ejemplo.
Actualmente no tenemos muchas referencias gráficas de la época que estudia la paleontología y algunas de ellas se han confeccionado desde un punto de vista de género concreto y no son más que el reflejo de la brecha existente en la sociedad actual. Por ejemplo, sin basarse en la evidencia científica, no se ha tenido en cuenta el comportamiento humano y se han aplicado los roles sexistas actuales. Por esa razón es necesario volver a analizar los trabajos realizados hasta el momento e identificar los detalles que refuerzan la desigualdad.
Este fue el tema desarrollado por la investigadora e ilustradora científica Vega Asensio en su charla “Ilustrando la evolución humana” dentro del ciclo Zientziaren Ertzetik organizado por la Cátedra de Cultura Científica de la Universidad del País Vasco y la Biblioteca Bizenta Mogel de Durango.
Vega Asensio es doctora en Biología por la Universidad del País Vasco (UPV/EHU). Ha trabajado y estudiado en diferentes universidades europeas como investigadora. Fundó el Estudio de Ilustración Científica NorArte Visual Science en 2011. Un proyecto en el que ha podido unir sus dos pasiones, dibujo y ciencia, movida por la necesidad de mejorar la comunicación y la divulgación científica. Actualmente es coordinadora del primer posgrado de ilustración científica en la UPV/EHU.
Si no ve correctamente el vídeo, use este enlace.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Ilustrando la evolución humana se ha escrito en Cuaderno de Cultura Científica.
Terapia fotodinámica: luz y oxígeno para destruir microorganismos
La Organización Mundial de la Salud (OMS) ha declarado la resistencia antimicrobiana como uno de los principales problemas de salud mundial. El uso abusivo e incorrecto de antibióticos está provocando que bacterias, virus y hongos se vuelvan resistentes a los medicamentos que actualmente utilizamos para combatirlos.
Eso implica que enfermedades comunes que hasta ahora habían estado controladas dejen de estarlo, como infecciones urinarias provocadas por la bacteria Escherichia coli o infecciones más graves en el torrente sanguíneo causadas por el hongo Candida auris. La falta de respuesta dificulta el tratamiento, prolonga la duración de la enfermedad, incrementa el riesgo de recurrencias y propagación de dichas enfermedades y, en el peor de los casos, acrecienta el número de muertes.
Así las cosas, surge la necesidad de buscar estrategias alternativas para hacer frente a estos parásitos multirresistentes. Sin embargo, el desarrollo de nuevos antibióticos supone altos costes y, generalmente, requiere de largos periodos de tiempo hasta su regulación y aprobación. Tanto es así que, en algunos casos, los microorganismos generan resistencia a los nuevos fármacos antes de que sean aprobados para su comercialización.
Foto: John Doyle / UnsplashMatar microbios con luz y oxígenoUna de las estrategias alternativas a los antibióticos es la terapia fotodinámica. Requiere la presencia de tres elementos de manera simultánea: luz, un compuesto fotosensible generalmente de naturaleza orgánica que presenta un color intenso (fotosensibilizador) y oxígeno molecular.
La luz de una determinada longitud de onda (azul, verde, roja) activa a la molécula fotosensible, que a su vez es capaz de activar al oxígeno molecular y generar lo que se conoce como especies reactivas de oxígenos (ROS, por sus siglas en inglés).
Las ROS son capaces de dañar diversas biomoléculas esenciales para las células o microorganismos como las proteínas, lípidos y ácidos nucleicos. Como consecuencia, se genera un daño en las células, bacterias, virus u hongos, provocando su muerte.
Sin apenas efectos secundariosLo interesante de este tratamiento es que solo cuando los tres componentes están presentes simultáneamente tiene lugar el efecto terapéutico, ya que los tres elementos por separado no son tóxicos. Eso nos permite controlar y localizar el tratamiento a través de la luz: solo en las zonas donde las moléculas fotosensibles se hayan acumulado y sean irradiadas de forma local con dosis de luz controlada (en potencia y tiempo) se generarán especies reactivas de oxígeno. De ahí que podamos asegurar que se trata de un procedimiento selectivo, que actúa justo donde queremos y apenas provoca efectos secundarios.
Actualmente, esta terapia se utiliza en diversos problemas de salud localizados en superficies cutáneas, principalmente en dermatología (infecciones fúngicas, acné, psoriasis,…) y como tratamiento selectivo para algunos carcinomas de la piel, y lesiones precancerosas, como la queratosis actínica.
También se emplea en el ámbito odontológico para el tratamiento de infecciones en la cavidad bucal como la periodontitis, provocadas por la acumulación de placa bacteriana.
Imagen confocal de fluorescencia de bacterias (Escherichia coli) a las que se les ha aplicado la terapia fotodinámica. Las bacterias con fluorescencia roja son las bacterias que han muerto, mientras que las verdes son las que han resistido el tratamiento.La terapia fotodinámica también destruye virusLa terapia fotodinámica es prometedora por varios motivos. Por un lado, actúa contra diversos agentes infecciosos, incluyendo virus frente a los cuales los antibióticos no tienen ningún efecto. Además sus resultados son inmediatos y no suele desarrollar resistencia, por lo que se puede repetir el tratamiento varias veces.
Sin embargo, también presenta varias limitaciones en las que la comunidad científica está trabajando. La primera es que, normalmente, los fotosensibilizadores son compuestos orgánicos poco solubles en medios acuosos, lo que dificulta su entrada a la célula. En segundo lugar, para que no se acumulen en las células sanas hay que promover su especificidad exclusivamente hacia los agentes patológicos (virus, bacterias y hongos).
Una de las opciones que se barajan es añadirles grupos funcionales o moléculas que son solubles en agua y/o que son selectivas hacia un tipo de microorganismo (por ejemplo, azúcares) para así reducir su carácter hidrófobo inherente y aumentar su especificidad. También se plantea usar nanopartículas como transportadores de estos compuestos fotoactivos.
El uso de la nanotecnología es cada vez más común en nuestra sociedad en aplicaciones biomédicas (nanomedicina). Área ampliamente estudiada para el transporte de fármacos y en este caso de los fotosensibilizadores.
Aunque aún queda trabajo de investigación por desarrollar y realizar nuevos ensayos clínicos, todo apunta a que la luz y el oxígeno podrían transformar el futuro del tratamiento de las enfermedades infecciosas.
Sobre las autoras: Ruth Prieto-Montero, doctora en Ciencia y Tecnología de Materiales, Universidad del País Vasco / Euskal Herriko Unibertsitatea y Virginia Martínez Martínez, investigadora doctora permanente en química física, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Terapia fotodinámica: luz y oxígeno para destruir microorganismos se ha escrito en Cuaderno de Cultura Científica.
Neurociencia ¿ficción?
El pasado 29 de enero, el empresario Elon Musk anunciaba en X/Twitter que su empresa Neuralink había realizado el primer implante cerebral de uno de sus dispositivos en un ser humano. Al día siguiente, desveló que el nombre del dispositivo era Telepathy, a lo que añadió, ese mismo día, en otro tuit:
Permite controlar el teléfono o el ordenador y, a través de estos, casi cualquier dispositivo, solo con el pensamiento. Los usuarios iniciales serán aquellos que hayan perdido el uso de sus extremidades. Imaginad que Stephen Hawking hubiera podido comunicarse más rápido que el más veloz mecanógrafo o un subastador. Ese es el objetivo.
Aunque poco más se sabe por el momento, lo que es innegable es que esta maniobra del multimillonario ha reavivado el interés por un tipo de tecnología que tampoco es realmente nueva, pero cuyo germen lleva alimentando nuestros sueños ―y también nuestras pesadillas― desde, mínimo, los tiempos del Frankestein de Mary Shelley.
Neuralink representa la idea de la transformación de la naturaleza humana a través de la ciencia y la tecnología en tan solo una de sus múltiples formas, pero una de las que más poder de impacto tiene: el cíborg. La posibilidad de trascendencia más allá de lo humano. Y, aunque es posible que, sin darnos cuenta, casi todos nos hayamos convertido ya en uno desde el momento en que empezamos a ser incapaces de salir de casa sin nuestro smartphone, lo cierto es que los cíborgs «de verdad» ya llevan mucho tiempo entre nosotros ―pensemos, simplemente, en aquellas personas que utilizan prótesis mioeléctricas o implantes cocleares―. Y eso, por el momento, no lo han conseguido ni el marketing ni el hype, sino que lo ha conseguido la ciencia.
En lo referente a las pretensiones de Neuralink, si bien su planteamiento coquetea abiertamente con la ciencia ficción, su trasfondo científico no es nuevo del todo. En cuanto a lo primero, es marca de la casa de muchos de los proyectos de Elon Musk. Las futuras colonias marcianas con las que sueña SpaceX, el robot autónomo que está desarrollando Tesla e incluso la estética de su último vehículo presentado en EE. UU., la Cybertruck, están inspirados por las viejas historias de este género: la serie de La Cultura de Iain M. Banks, los amables robots positrónicos de Isaac Asimov, el movimiento y la estética del ciberpunk de los años ochenta… Y Neuralink aspira también de traspasar la línea que convierte lo que hoy es solo magia en ciencia avanzada. No está vendiendo la tecnología todavía ―personalmente no creo ni que lo pretenda―, está vendiendo una idea: la de materializar el «cordón neural» que aparece en la mencionada serie de Banks ―un dispositivo que mejora las capacidades cognitivas, monitorea y regula las funciones corporales, permite almacenar la conciencia, la comunicación con otras mentes y dispositivos, acceder a realidad virtual y aumentada…―, por eso cualquier mínimo paso que da se convierte en noticia, aunque científicamente no lo sea. En palabras de su propio fundador, Neuralink busca alcanzar la «simbiosis con la inteligencia artificial». Desde luego, se trata de un eslogan mucho más comercial que algo del tipo «entender el funcionamiento del cerebro y tratar enfermedades neurológicas».
Serie La Cultura, de Iain M. banks.No obstante, si hablamos de lo segundo, del trasfondo científico, desde luego tiene ya muy poco de ciencia ficción. La estimulación del sistema nervioso mediante impulsos eléctricos lleva entre nosotros desde los experimentos de Luigi Galvani y Alessandro Volta, aunque es cierto que poco tiene que ver lo que se hacía a finales del siglo XIX y principios del XX con las técnicas más actuales. Una de ellas, y de la que bebe Neuralink, es la estimulación cerebral profunda.
Esta técnica consiste en implantar, de forma quirúrgica, electrodos en determinadas áreas del cerebro que van conectados a un neuroestimulador situado bajo la piel ―por lo general, en la clavícula, en la parte inferior del tórax o en la zona del vientre―, como una especie de marcapasos. Los pulsos eléctricos que viajan desde el neuroestimulador hasta el cerebro son capaces de interferir o bloquear las señales del propio cerebro causantes de los síntomas de determinados trastornos o enfermedades neurológicas, como, por ejemplo, el Parkinson, y reducirlos. También se ha utilizado con éxito en el tratamiento de temblores, distonías musculares, dolor crónico, síndrome de Tourette y epilepsia, o en casos de depresión mayor resistente al tratamiento, trastorno obsesivo-compulsivo, adicciones y trastorno de estrés postraumático. Como es obvio, este tipo de intervenciones no está exenta de riegos, y por ello suele utilizarse solo en casos en los que los beneficios para el paciente y la mejora en su calidad de vida compensen los posibles perjuicios que pueda llegar a sufrir.
Radiografía de cirugía de estimulación cerebral profunda para el tratamiento del trastorno obsesivo compulsivo. Fuente: CC BY-SA 3.0 Deed/jmarchnPero la estimulación cerebral profunda es solo un miembro de la ecuación que propone Neuralink. El otro viene de la mano del desarrollo de interfaces cerebro-computadora (BCI, brain computer interface), esto es, sistemas capaces de registrar e interpretar la actividad cerebral que nos permiten controlar dispositivos externos directamente desde nuestro cerebro y que ya existen. Estos pueden ser invasivos ―implantando electrodos directamente en el cerebro―, no invasivos ―utilizando sensores que se colocan en el cuero cabelludo, aunque son menos precisos que los primeros―, o semiinvasivos ―los sensores se colocan dentro del cráneo, pero sobre el cerebro―. Entre sus posibles aplicaciones se encuentra el control de prótesis, la restauración de funciones motoras a través de exoesqueletos controlados por la mente o la comunicación en personas con parálisis severa ―seleccionando letras o palabras en una pantalla―. La streamer Perrikaryal utiliza incluso una de estas interfaces no invasivas para jugar a videojuegos.
Los métodos de Neuralink, en cualquier caso, difieren ligeramente de los que utilizan otros laboratorios de investigación a día de hoy, para bien y para mal. Según especifican en su propia página web, los 64 hilos en los que están distribuidos los 1024 electrodos del implante N1 de Neuralink son significativamente más delgados que los que se utilizan para la estimulación cerebral profunda y, por ello, el procedimiento lo lleva a cabo un robot quirúrgico, mucho más preciso que un cirujano humano. Una vez insertados estos hilos en las áreas correspondientes del cerebro, van conectados a un chip colocado por debajo del cráneo que procesa y transmite las señales hacia el exterior de forma inalámbrica. Por último, una aplicación externa se encarga de decodificarlas y llevar a cabo las acciones correspondientes. La fuente de alimentación de la batería que incorpora el implante se cargaría, también de forma inalámbrica, por inducción.
Elon Musk en una demostración de Neuralink en 2020, con el robot quirúrgico que se utiliza para colocar los implantes. Fuente: CC BY 2.0 Deed/Steve JurvetsonEn cualquier caso, la compañía no termina de ser muy transparente en las investigaciones que está llevando a cabo. PubMed y Google Scholar, dos de las bases de datos más amplias de literatura científica, apenas ofrecen un resultado en cuanto a artículos científicos publicados. Así que tal vez convendría no lanzar las campanas al vuelo antes de tiempo. Por otro lado, a finales de 2022, el Departamento de Agricultura de los Estados Unidos (USDA) inició una investigación por una posible violación de los derechos de los animales por parte de Neuralink, de la que, a día de hoy, aún no se han obtenido conclusiones ni se sabe si ha habido sanciones. Aun así, la compañía recibió la aprobación de la Administración de Alimentos y Medicamentos de EE. UU. (FDA) para realizar su primer ensayo clínico en humanos el 25 de mayo de 2023, y poco después abrió las solicitudes para participar en los ensayos clínicos. Ha sido este mes de enero cuando el magnate ha anunciado que estos ya han comenzado, aunque no han trascendido datos sobre el primer paciente que ha recibido uno de sus implantes.
El tiempo dirá si, en esta ocasión, estamos ante el delirio de un millonario o un punto de inflexión en la historia de las neurociencias. En cualquier caso, hay algo en lo que Neuralink, por el momento, sí tiene mérito: ha conseguido que muchísimas personas estén hablando de ciencia.
Referencias:
Chaudhary, U., Vlachos, I., Zimmermann, J. B. et al. (2022). Spelling interface using intracortical signals in a completely locked-in patient enabled via auditory neurofeedback training. Nat Commun, 13, 1236. https://doi.org/10.1038/s41467-022-28859-8
Fonsegrives, R. (5 de febrero de 2024). US Woman Receives Revolutionary Brain Implant For OCD And Epilepsy. Science Alert. https://www.sciencealert.com/us-woman-receives-revolutionary-brain-implant-for-ocd-and-epilepsy
MedlinePlus (25 de octubre de 2021). Estimulación cerebral profunda. https://medlineplus.gov/spanish/ency/article/007453.htm
Musk E., Neuralink (2019). An integrated brain-machine interface platform with thousands of channels. J Med Internet Res, 21(10):e16194. https://www.jmir.org/2019/10/e16194/
Neuralink (2024). Our mission. Create a generalized brain interface to restore autonomy to those with unmet medical needs today and unlock human potential tomorrow. https://neuralink.com
Perrikaryal (1 de febrero de 2023). How I Play Elden Ring With My Mind (EEG) [Vídeo]. YouTube. https://youtu.be/rIbfNUA5pWk
Schiff, N. D., Giacino, J. T., Butson, C. R. et al. (2023). EThalamic deep brain stimulation in traumatic brain injury: a phase 1, randomized feasibility study. Nat Med, 29, 3162-3174. https://doi.org/10.1038/s41591-023-02638-4
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo Neurociencia ¿ficción? se ha escrito en Cuaderno de Cultura Científica.
Los poliedros de Kepler–Poinsot
Mi anterior entrada de la sección Matemoción del Cuaderno de Cultura Científica, titulada Los sólidos platónicos, estaba dedicada a explicar qué son los poliedros regulares convexos, conocidos con el nombre de sólidos platónicos, quienes son (tetraedro, octaedro, icosaedro, cubo y dodecaedro), cuál es su origen y su relación con la cosmogonía platónica, así mismo, nos preguntamos si ya eran conocidos en el neolítico, como sugiere una conocida fotografía.
Ilustración con los cinco sólidos platónicos (tetraedro, cubo, dodecaedro, octaedro e icosaedro) del libro Ein aigentliche und grundtliche anweysung in die Geometria / Una introducción actual y completa a la geometría, del matemático y artista alemán Augustin Hirschvogel (1503–1553). Imagen del MET – The Metropolitan Museum of ArtComo explicábamos en la anterior entrada, los sólidos platónicos son los poliedros regulares convexos. Por lo tanto, para empezar, son poliedros, es decir, figuras geométricas tridimensionales formadas por caras poligonales planas, aristas rectas (que son los lados compartidos de cualesquiera dos caras poligonales planas) y vértices (que son los puntos en los que se juntan las aristas).
Pero los sólidos platónicos son un tipo especial de poliedros, en particular, son poliedros regulares, es decir, sus caras son polígonos regulares (esto quiere decir que los lados del polígono, respectivamente, sus ángulos interiores, son iguales entre sí) todos iguales y la estructura de todos los vértices es la misma. Más aún, los sólidos platónicos son poliedros regulares que además son convexos. La convexidad, como se explicaba en la anterior entrada, de define de la siguiente forma. Un poliedro (o cualquier otro objeto geométrico) es convexo si dados dos puntos cualesquiera del mismo, el segmento que los une está en el interior del poliedro. Esta definición general tiene una expresión particular en el caso de los poliedros, ya que un poliedro es convexo si para el plano en el que se apoya cualquier cara de este, el poliedro estará colocado completamente a un solo lado de dicho plano.
Si se mira la anterior imagen, puede observarse que claramente los poliedros que en ella aparecen, el tetraedro, el cubo, el dodecaedro, el octaedro y el icosaedro, son poliedros regulares convexos, luego sólidos platónicos. En la entrada Los sólidos platónicos se explicaba, y se demostraba con un sencillo argumento que se remonta a la matemática griega, que solo existen estos cinco sólidos platónicos.
Ilustración con el modelo del sistema solar que aparece en la obra Mysterium Cosmographicum / Misterio cosmográfico (1596), del astrónomo, matemático y físico alemán Johannes Kepler (1571-1630). El modelo de Kepler está basado en los sólidos platónicos y consiste en que los sólidos platónicos están inscritos y circunscritos por esferas concéntricas, de forma concatenada (de dentro hacia fuera: octaedro, icosaedro, dodecaedro, tetraedro y cubo), y cada uno de los seis planetas conocidos –Mercurio, Venus, Tierra, Marte, Jupiter y Saturno– tiene su órbita en una de las seis esferas del modelo. Imagen del portal e-rara, desarrollado por ETH-Bibliothek ZürichSin embargo, en esta entrada nos vamos a plantear si existen poliedros regulares que no sean convexos. La no convexidad se puede manifestar de dos formas distintas. La primera es que las caras del poliedro se intersequen unas con otras, con lo cual claramente el poliedro no puede ser convexo, puesto que, al intersecarse las caras, el plano que contiene a cualquiera de ellas divide al poliedro es dos partes, una a cada lado del plano. Por ejemplo, en la siguiente imagen se muestra el cubohemioctaedro, un polígono no convexo, formado por 10 caras (6 de ellas son cuadrados y el resto hexágonos), 24 aristas y 12 vértices, en cada uno de los cuales confluyen dos cuadrados y dos hexágonos, que se intersecan entre sí.
Cubohemioctaedro, poliedro no convexo, con diez caras, seis de ellas cuadrados y cuatro de ellas hexágonos, que se intersecan dos a dos. Imagen creada con el software Stella de Robert Webb
Este caso incluye que las propias caras poligonales pueden ser también estrelladas, en particular, que los lados del polígono se intersequen entre sí, como en el prisma pentagrámico, que es un poliedro no convexo formado por 7 caras (5 de ellas cuadrados y las otras 2 pentagramas o estrellas pentagonales, es decir, polígonos regulares formados por 5 vértices y 5 artistas, que no unen vértices consecutivos, sino que se van saltando uno), 15 aristas y 10 vértices.
Prisma pentagrámico, poliedro no convexo, con siete caras, dos de ellas pentagramas y las otras cinco cuadrados, que se intersecan según marcan los lados de los pentagramas. Imagen creada con el software Stella de Robert Webb
La segunda manera en que un poliedro no es convexo es que las caras del poliedro no se intersequen unas con otras, pero aun así no se cumpla la propiedad de convexidad. Un ejemplo de esta situación nos lo encontramos en el icosaedro de Jensen, que es un poliedro no convexo, con la misma cantidad que el icosaedro regular de caras triangulares (20) -aunque aquí son 8 triángulos equiláteros y 12 triángulos isósceles-, aristas (30) y vértices (12). Claramente, como se ve en la imagen, en no convexo (en muchos de los casos, el segmento que une dos vértices no está dentro del poliedro).
Icosaedro de Jensen, poliedro no convexo, con veinte caras triangulares, ocho triángulos equiláteros y doce triángulos isósceles, treinta aristas y doce vértices
Teniendo en cuenta que las caras de un poliedro regular son polígonos regulares, incluyendo los polígonos estrellados (no convexos), vamos a realizar un pequeño recorrido por estos.
Los polígonos regularesPara empezar, recordemos que un polígono es una figura geométrica plana formada por vértices y segmentos (aristas) que forman una cadena poligonal (una secuencia alternada de vértices y segmentos, tal que tres vértices consecutivos no sean colineales) cerrada, es decir, que empieza y termina en el mismo vértice.
Tres ejemplos de polígonos, el primero convexo y los otros dos, no convexos
Por otra parte, las caras de los poliedros regulares son polígonos regulares, es decir, polígonos que tienen los lados y los ángulos iguales. Además, estos pueden ser convexos o no convexos.
Los polígonos regulares convexos son, como es de sobra conocido, el triángulo equilátero (3 lados/aristas y ángulo interior de 60 grados), el cuadrado (4 lados y ángulo interior de 90 grados), el pentágono (5 lados y ángulo de 108 grados), el hexágono (6 lados, 120 grados), el heptágono (7 lados, 128,57 grados), el octógono (8 lados, 135 grados), el nonágono (9 lados, 140 grados), el decágono (10, 144 grados), el endecágono (11 lados, 147,27 grados), el dodecágono (12 lados, 150 grados), y así vamos subiendo el número de lados, cada vez uno más.
Primeros polígonos regulares convexos, en función del número de lados: triángulo equilátero (3), cuadrado (4), pentágono (5), hexágono (6), heptágono (7), octógono (8), nonágono (9), decágono (10) y endecágono (11)
Como se puede observar en la anterior imagen, todos los vértices de un polígono regular convexo se encuentran en una misma circunferencia, la circunferencia circunscrita. Recíprocamente, dada una circunferencia y n puntos regularmente distribuidos en ella, es decir, la distancia entre cada dos puntos consecutivos cualesquiera es siempre la misma, se construye el polígono regular de n lados, uniendo los puntos consecutivos mediante un segmento recto (el lado o arista), hasta cerrar el polígono.
Aunque los polígonos regulares convexos son de sobra conocidos, no lo son tanto los polígonos regulares no convexos, también llamados polígonos regulares estrellados. Veamos primero un ejemplo muy conocido de polígono regular estrellado, el pentagrama o estrella pentagonal. Para construir este polígono estrellado se toman 5 puntos distribuidos de forma regular, es decir, que equidisten los puntos consecutivos, sobre una circunferencia, y luego se trazan segmentos que unan los puntos de forma alternada (se unen cada dos vértices de forma continua hasta cerrar el polígono).
A partir de cinco puntos distribuidos regularmente en una circunferencia se puede trazar un pentágono y una estrella pentagonal, o pentagrama, como aparece en la imagen
El pentagrama es un polígono regular no convexo, o estrellado, con 5 lados y ángulos (internos) de 36 grados en los vértices. Recordemos que, en el pentágono regular (convexo), el ángulo interno de los vértices es de 108 grados.
Para clasificar los polígonos estrellados se utiliza el símbolo de Schläfli, que para el caso del pentagrama es {5/2}, que nos indica que tiene 5 vértices y están unidos, cada 2 vértices, por segmentos (aristas). En general, el polígono estrellado {p/q} estará formado por p vértices, unidos por segmentos cada q vértices.
Si queremos construir un polígono regular estrellado con seis aristas, deberíamos considerar seis puntos regularmente espaciados en una circunferencia y podríamos unir los puntos, no de forma consecutiva, ya que obtendríamos el hexágono, que es convexo, sino uniendo cada dos vértices, sería el polígono {6/2}, o cada tres vértices {6/3}. Por desgracia, en ambos casos se obtendrían “polígonos degenerados” (que no son polígonos). En el primer caso, se obtiene el hexagrama que está formado por dos triángulos equiláteros (es, lo que se denomina, un polígono compuesto).
El polígono estrellado {6/2}, el hexagrama, es un polígono degenerado formado por dos triángulos equiláteros
El caso del polígono {6/3} es todavía más degenerado, ya que está formado por tres segmentos rectos que se intersecan en un punto.
El polígono estrellado {6/3} es un polígono degenerado formado por tres aristas
Si lo pensamos un poco, el polígono {p/q} será un polígono regular estrellado (no degenerado) si p y q son coprimos, es decir, que el único divisor común de p y q es el 1. Así, en función de la cantidad de lados tenemos el pentagrama {5/2}, dos heptagramas {7/2} y {7/3}, el octagrama {8/3}, dos eneagramas {9/2} y {9/4}, el decagrama {10/3} y cuatro endecagramas {11/2}, {11/3}, {11/4} y {11/5}, que vemos en la siguiente imagen, y así podríamos seguir aumentando el número de lados.
Primeros polígonos regulares estrellados: pentagrama {5/2}, heptagramas {7/2} y {7/3}, octagrama {8/3}, eneagramas {9/2} y {9/4}, decagrama {10/3} y endecagramas {11/2}, {11/3}, {11/4} y {11/5}
Para terminar esta sección, planteémonos la siguiente cuestión, si el polígono de la siguiente imagen, que es un decágono (10 vértices y 10 lados), es un polígono regular. La respuesta es negativa, Los lados son todos iguales, pero no sus ángulos interiores, que valen 36 grados y 180 – 36 = 144 grados.
Dodecágono no convexo y no regularLos poliedros de Kepler-Poinsot
Ahora ya estamos en condiciones de presentar los poliedros regulares no convexos (estrellados), que son los que reciben el nombre de poliedros de Kepler-Poinsot. Existen cuatro de estos poliedros, el gran dodecaedro, el gran icosaedro, el pequeño dodecaedro estrellado, el gran dodecaedro estrellado.
El gran dodecaedro es un poliedro regular que está formado por 12 caras pentagonales (pentágonos regulares), que se intersecan unas con otras, de manera que en cada vértice se encuentran cinco de esos pentágonos (la estructura de cada vértice es la misma), 30 aristas y 12 vértices.
El gran dodecaedro, que es un poliedro de Kepler-Poinsot, formado por pentágonos regulares que se intersecan entre sí, siguiendo la figura del pentagrama en los vértices. Imagen creada con el software Stella de Robert Webb
El símbolo de Schläfli del gran dodecaedro es {5, 5/2}. El primer término del símbolo de Schläfli describe las caras del poliedro. En este caso, como el primer término es 5, son pentágonos regulares. Por otra parte, el segundo término indica cual es la estructura (o figura) de los vértices del poliedro. Para el gran dodecaedro, el segundo término es 5/2, luego las caras pentagonales se intersecan como en un pentagrama. Observemos en la anterior imagen que sobre el pentágono que corta a los cinco anteriores, que confluyen en el mismo vértice, se forma, efectivamente, el pentagrama. Por otra parte, los símbolos de Schläfli de los poliedros regulares convexos, los sólidos platónicos, son {3, 3} (tetraedro), {3,4} (octaedro), {3,5} (icosaedro), {4,3} (cubo) y {5, 3} (dodecaedro).
Observemos que, si se consideran solamente las aristas y los vértices del gran dodecaedro, y se toman, como caras, los triángulos equiláteros que unen, de forma natural, las aristas, se obtiene el icosaedro. Es lo que se llama el cierre convexo, que es el conjunto convexo más pequeño que contiene al gran dodecaedro, aunque no hablaremos en esta entrada de este concepto.
En el libro Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568) del orfebre y grabador alemán Wenzel Jamnitzer (1507/08-1585), con grabados del grabador suizo-alemán Jost Amman (1539-1591), se muestra un grabado del gran dodecaedro, que es la primera imagen conocida del mismo.
Página del libro Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568), de Wenzel Jamnitzer, con un grabado que incluye seis poliedros, arriba a la izquierda el icosaedro regular y debajo el gran dodecaedro. Imagen del MET – The Metropolitan Museum of ArtSin embargo, la primera persona que lo introdujo, desde un punto de vista matemático, fue el matemático y físico francés Louis Poinsot (1777-1859), en su artículo Memoire sur les polygones et sur les polyèdres / Memoria sobre los polígonos y sobre los poliedros (1810). En este artículo Poinsot introdujo los cuatro poliedros regulares estrellados, el gran dodecaedro, el gran icosaedro, el pequeño dodecaedro estrellado y el gran dodecaedro estrellado. Los dos últimos ya habían sido descritos, y estudiados, por el astrónomo, matemático y físico alemán Johannes Kepler (1571-1630) en su libro Harmonices mundi / La armonía del mundo (1619). Por este motivo, se conocen con el nombre de poliedros de Kepler. Mientras que a los dos primeros se les conoce con el nombre de poliedros de Poinsot.
El otro poliedro de Poinsot es el gran icosaedro, cuyo símbolo de Schläfli es {3, 5/2}, ya que sus caras son triángulos equiláteros y la figura de cada vértice está dada, de nuevo, por el pentagrama. El gran icosaedro está formado por 20 caras (triángulos equiláteros), 30 aristas y 12 vértices.
El gran icosaedro, que es un poliedro de Kepler-Poinsot, formado por triángulos equiláteros que se intersecan entre sí, siguiendo la figura del pentagrama en los vértices. Imagen creada con el software Stella de Robert Webb
Vayamos ahora por los dos poliedros regulares estrellados de Kepler, que están formados por polígonos estrellados. Empecemos por el pequeño dodecaedro estrellado, que está formado por 12 caras pentagrámicas (pentagramas o estrellas pentagonales), 30 aristas y 12 vértices. Su símbolo de Schläfli es {5/2, 5}, es decir, las caras son estrellas pentagonales {5/2} y en cada vértice se apoyan 5 de esos pentagramas.
El pequeño dodecaedro estrellado, que es un poliedro de Kepler-Poinsot, formado por pentagramas que se intersecan entre sí, con símbolo de Schläfli es {5/2, 5}. Imagen creada con el software Stella de Robert Webb
La distribución de los vértices en el espacio es la misma que la del icosaedro, por lo tanto, el cierre convexo del pequeño dodecaedro estrellado es el icosaedro.
La primera imagen, de la que se tiene conocimiento, de un pequeño dodecaedro estrellado es un mosaico de mármol, realizado en 1430 por el artista y matemático italiano Paolo Uccello (1397-1475), del suelo de la Catedral de San Marcos, en Venecia (Italia).
Pequeño dodecaedro estrellado de mármol, realizado en 1430 por el artista y matemático italiano Paolo Uccello, del suelo de la Catedral de San Marcos, en VeneciaEn el mencionado libro, Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568) de Wenzel Jamnitzer aparece un pequeño dodecaedro estrellado, al que se le ha cortado parte de las puntas (pirámides) pentagonales, como se puede observar en la imagen.
Página del libro Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568), de Wenzel Jamnitzer, con un grabado que incluye seis poliedros, abajo a la izquierda está el pequeño dodecaedro estrellado, que está truncado por sus pirámides pentagonalesY finalmente, el gran dodecaedro estrellado, cuyo símbolo de Schläfli es {5/2, 3}, es decir, las caras son estrellas pentagonales {5/2} y en cada vértice se apoyan 3 de esas caras pentagrámicas. Está formado por 12 caras, 30 aristas y 20 vértices.
El gran dodecaedro estrellado, que es un poliedro de Kepler-Poinsot, formado por pentagramas que se intersecan entre sí, con símbolo de Schläfli es {5/2, 3}. Imagen creada con el software Stella de Robert Webb
También el gran dodecaedro estrellado está recogido en el libro Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568) de Wenzel Jamnitzer, como se puede observar en la imagen.
Página del libro Perspectiva corporum regularium / Perspectiva de los sólidos regulares (1568), de Wenzel Jamnitzer, con un grabado que incluye dos poliedros, el de la derecha es el gran dodecaedro estrellado. Imagen del MET – The Metropolitan Museum of ArtEstos cuatro poliedros regulares estrellados son los únicos que existen, como demostró el matemático francés Augustin-Louis Cauchy (1789-1857).
Bibliografía
1.- Pedro Miguel González Urbaneja, Los sólidos pitagórico-platónicos (Geometría, Arte, Mística y Filosofía), FESPM, 2008.
2.- Claudi Alsina, Las mil caras de la belleza geométrica (los poliedros), El mundo es matemático, RBA, 2010.
3.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.
4.- Alan Holden, Shapes, Space, and Symmetry, Dover, 1991.
5.- Wolfram MathWorld: Kepler-Poinsot Polyhedron
6.- Wikipedia: Kepler-Poinsot Polyhedron
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los poliedros de Kepler–Poinsot se ha escrito en Cuaderno de Cultura Científica.
Lo que tu cerebro hace cuando no estás haciendo nada
Cuando tu mente divaga, la red neuronal «por defecto» de tu cerebro está activa. Su descubrimiento hace 20 años inspiró una serie de investigaciones sobre las redes de regiones cerebrales y cómo interactúan entre sí.
Un artículo de Nora Bradford. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Ilustración: Kristina Armitage / Quanta MagazineSiempre que realizas activamente una tarea (por ejemplo, levantar pesas en el gimnasio o realizar un examen difícil), las partes del cerebro necesarias para llevarla a cabo se vuelven «activas» cuando las neuronas aumentan su actividad eléctrica. Pero, ¿tu cerebro está activo incluso cuando estás distraído en el sofá?
La respuesta, según han descubierto los investigadores, es sí. Durante las últimas dos décadas han definido lo que se conoce como red neuronal por defecto, una colección de áreas del cerebro aparentemente no relacionadas que se activan cuando no estás haciendo nada. Su descubrimiento ha ofrecido información sobre cómo funciona el cerebro independientemente de tareas bien definidas y también ha impulsado investigaciones sobre el papel de las redes cerebrales (no sólo de las regiones cerebrales) en la gestión de nuestra experiencia interna.
A finales del siglo XX los neurocientíficos comenzaron a utilizar nuevas técnicas para tomar imágenes del cerebro de las personas mientras realizaban tareas en escáneres. Como era de esperar, la actividad en ciertas áreas del cerebro aumentaba durante las tareas y, para sorpresa de los investigadores, la actividad en otras áreas del cerebro disminuía simultáneamente. A los neurocientíficos les llamó la atención el hecho de que durante una amplia variedad de tareas las mismas áreas del cerebro redujeran constantemente su actividad.
Era como si estas áreas hubieran estado activas cuando la persona no estaba haciendo nada y luego se apagaran cuando la mente tenía que concentrarse en algo externo.
Los investigadores llamaron a estas áreas “tarea negativas”. Cuando se identificaron por primera vez, Marcus Raichle, neurólogo de la Facultad de Medicina de la Universidad de Washington en St. Louis, sospechaba que estas áreas tarea negativas desempeñan un papel importante en la mente en reposo. «Esto planteó la pregunta de ‘¿Cuál es la actividad cerebral de base?'», recuerda Raichle. En un experimento, pidió a personas sometidas a escáneres que cerraran los ojos y simplemente dejaran vagar sus mentes mientras él medía su actividad cerebral.
Descubrió que durante el descanso, cuando nos volvemos mentalmente hacia adentro, las áreas tarea negativas utilizan más energía que el resto del cerebro. En un artículo de 2001, denominó esta actividad como «un modo predeterminado de función cerebral«. Dos años más tarde, después de generar datos de mayor resolución, un equipo de la Facultad de Medicina de la Universidad de Stanford descubrió que esta actividad tarea negativa define una red coherente de regiones cerebrales que interactúan, a la que llamaron red neuronal por defecto.
El descubrimiento de la red neuronal por defecto despertó la curiosidad entre los neurocientíficos sobre lo que hace el cerebro en ausencia de una tarea centrada en el exterior. Aunque algunos investigadores creían que la función principal de la red era generar nuestra experiencia de divagar o soñar despierto, había muchas otras conjeturas. Tal vez controlaba corrientes de consciencia o activaba recuerdos de experiencias pasadas. Y la disfunción en la red neuronal por defecto se planteó como una característica potencial de casi todos los trastornos psiquiátricos y neurológicos, incluidas la depresión, la esquizofrenia y la enfermedad de Alzheimer.
Desde entonces, una avalancha de investigaciones sobre la red por defecto ha complicado esa comprensión inicial. «Ha sido muy interesante ver los tipos de diferentes tareas y paradigmas que involucran la red por defecto en los últimos 20 años», comenta Lucina Uddin, neurocientífica de la Universidad de California en Los Ángeles.
La red por defecto fue una de las primeras redes cerebrales caracterizadas por la ciencia. Consiste en un puñado de regiones cerebrales, incluidas algunas en la parte frontal del cerebro, como las cortezas prefrontal medial dorsal y ventral, y otras dispersas por todo el órgano, como la corteza cingulada posterior, el precúneo y el giro angular. Estas regiones están asociadas con la memoria, la repetición de experiencias, la predicción, la consideración de acciones, la recompensa/castigo y la integración de información. (El resaltado de color en la siguiente figura indica algunas de las áreas externas del cerebro que se vuelven más activas cuando se activa la red por defecto).
Ilustración: Merrill Sherman/Quanta MagazineDesde su descubrimiento, los neurocientíficos han identificado groseramente un puñado de redes distintas adicionales que activan áreas aparentemente dispares del cerebro. Estas áreas activadas no actúan de forma independiente, sino que se armonizan en sincronía entre sí. «No se puede pensar en una orquesta sinfónica solo con los violines o los oboes», explica Raichle. De manera similar, en una red cerebral las partes individuales interactúan para provocar efectos que solo pueden producir juntas.
Según la investigación, los efectos de la red neuronal por defecto incluyen divagar, recordar experiencias pasadas, pensar en los estados mentales de los demás, visualizar el futuro y procesar el lenguaje. Si bien esto puede parecer un conjunto de aspectos no relacionados de la cognición, Vinod Menon, director del Laboratorio de Neurociencia Cognitiva y Sistémica de Stanford, hace poco lanzó la hipótesis de que todas estas funciones podrían ser útiles para construir una narrativa interna. En su opinión, la red neuronal por defecto te ayuda a pensar en quién eres en relación con los demás, recordar tus experiencias pasadas y luego resumir todo eso en una autonarrativa coherente.
En 2001, el neurólogo Marcus Raichle identificó la red de actividad cerebral que se activa cuando la mente divaga, llamándola el “modo predeterminado” de función cerebral. Foto cortesía de Marcus RaichleLa red por defecto es claramente para algo complicado; está involucrada en muchos procesos diferentes que no se pueden describir claramente. «Es un poco tonto pensar que alguna vez vamos a decir: ‘Esta región o red cerebral hace una cosa'», afirma Uddin. «No creo que sea así como funciona».
Uddin comenzó a investigar la red neuronal por defecto porque estaba interesada en el autorreconocimiento, y muchas tareas de autorreconocimiento, como identificar tu propia cara o voz, parecían estar asociadas con la red. En los últimos años, ha centrado su atención en las interacciones entre redes cerebrales. Así como diferentes áreas del cerebro interactúan entre sí para formar redes, diferentes redes interactúan entre sí de manera significativa, explica Uddin. «Las interacciones de redes son más esclarecedoras en cierto modo que simplemente estudiar una red aislada, porque trabajan juntas y luego se separan y entonces cambian con el tiempo lo que hacen».
La neurocientífica Lucina Uddin investiga cómo interactúan las diferentes redes cerebrales, incluida la red de modo predeterminado. Foto cortesía de Lucina UddinEstá particularmente interesada en cómo interactúa la red neuronal por defecto con la red de prominencia, lo que parece ayudarnos a identificar la información más relevante en un momento dado. Su trabajo sugiere que la red de prominencia detecta cuándo es importante prestar atención a algo y luego actúa como un interruptor de apagado para la red neuronal por defecto.
Los investigadores también han estado examinando si los trastornos de salud mental como la depresión podrían estar relacionados con problemas con la red neuronal por defecto. Hasta ahora, los hallazgos no han sido concluyentes. En personas con depresión, por ejemplo, algunos investigadores han descubierto que los nodos de la red están demasiado conectados, mientras que otros han descubierto lo contrario: que los nodos no se conectan. Y en algunos estudios, la red neuronal por defecto en sí no es anormal, pero sí sus interacciones con otras redes. Estos hallazgos pueden parecer incompatibles, pero se alinean con hallazgos recientes de que la depresión es quizás un grupo de trastornos diferentes que se presentan con síntomas similares.
Mientras tanto, Menon ha desarrollado lo que él llama la teoría de la triple red. Postula que las interacciones anormales entre la red neuronal por defecto, la red de prominencia y una tercera llamada red frontoparietal podrían contribuir a trastornos de salud mental como esquizofrenia, depresión, ansiedad, demencia y autismo. Normalmente, la actividad de la red neuronal por defecto disminuye cuando alguien presta atención a un estímulo externo, mientras que la actividad en las otras dos redes aumenta. Menon sospecha que este tira y afloja entre redes puede no funcionar de la misma manera en personas con trastornos psiquiátricos o del desarrollo.
Deanna Barch, que estudia neurobiología de las enfermedades mentales en la Universidad de Washington en St. Louis, está intrigada por la teoría de la triple red. Investigar cómo las redes están conectadas de manera diferente en personas con trastornos de salud mental puede ayudar a los investigadores a encontrar mecanismos subyacentes y desarrollar tratamientos, explica. Sin embargo, no cree que las interacciones de redes por sí solas expliquen completamente las enfermedades mentales. «Creo que entender las diferencias de conectividad es un punto de partida», afirma Barch. «No es un punto final».
La comprensión actual de la red neuronal por defecto seguramente tampoco es su punto final. Desde su descubrimiento, ha empujado a los neurocientíficos a pensar más allá de las responsabilidades de regiones individuales del cerebro hacia los efectos de las interacciones entre redes cerebrales. Y ha llevado a muchas personas a apreciar las actividades de la mente enfocadas al interior: que incluso cuando estamos soñando despiertos o reposando, nuestro cerebro está trabajando arduamente para que esto suceda.
El artículo original, What Your Brain Is Doing When You’re Not Doing Anything, se publicó el 5 de febrero de 2024 en Quanta Magazine.
Traducido por César Tomé López
El artículo Lo que tu cerebro hace cuando no estás haciendo nada se ha escrito en Cuaderno de Cultura Científica.
Riesgo geológico para una presencia permanente en la Luna
Cuando hablamos de nuestro satélite, la Luna, nos referimos a él como un cuerpo que -a nivel geológico- está bastante inactivo. Y lo cierto es que es así, al menos para los estándares a los que estamos acostumbrados en la Tierra, donde registramos de una manera continua actividad sísmica y volcánica en una gran parte del planeta.
Esto por supuesto no quiere decir que la Luna esté totalmente muerta, ya que sabemos que siguen ocurriendo terremotos y que solo con los instrumentos instalados en las misiones Apolo se registraron decenas de miles de eventos sísmicos a lo largo de 8 años de operaciones. Esto no significa que se registrasen todos los terremotos ocurridos en la Luna -estamos hablando de instrumentación de finales de la década de los 60 y 70, menos sensible que la de hoy- y situada en un área concreta de la Luna, lo que obviamente reduce el número de detecciones especialmente para los eventos de menor magnitud.
El astronauta Buzz Aldrin instalando el primer sismómetro en la Luna. Imagen cortesía de la NASADesde luego, este elevado número nos tiene que hacer plantearnos algunas cuestiones como ¿qué origen tienen los terremotos lunares? En primer lugar, tenemos los terremotos térmicos, una serie de movimientos que ocurren principalmente durante la mañana y la tarde de una manera bastante periódica y que son debido a los bruscos cambios de temperatura que ocurren en la superficie lunar, que permite que los materiales se dilaten y contraigan, fracturándose y provocando estos movimientos.
También tenemos terremotos ocasionados por el impacto natural de asteroides contra la superficie, pero también por la colisión de objetos hechos por el hombre, como, por ejemplo, las etapas de cohetes espaciales o naves cuyo aterrizaje no ha sido precisamente suave. Estos terremotos pueden ser muy útiles porque si podemos localizar con precisión el punto de impacto, seremos capaces de conseguir datos de mucha calidad y con mucha menor incertidumbre.
Existen también una serie de terremotos conocidos como terremotos profundos, que ocurren a grandes profundidades -entre los 700 y los 1200 kilómetros- y que son el grupo más numeroso de todos los detectados. Se piensa que estos podrían estar ocasionados por las mareas que ejerce la Tierra sobre la Luna porque además se ha observado una periodicidad relacionada con estas, pero también con los efectos de las mareas ejercidas por el Sol.
Y por último tendríamos los terremotos someros, que son relativamente poco abundantes pero que son los que pueden resultar más peligrosos para el ser humano puesto que ocurren a profundidades de entre 0 y los 200 kilómetros de profundidad y la atenuación de las ondas sísmicas es menor, por lo que llega a la superficie una parte importante de la energía liberada. Además, de estos terremotos algunos han llegado a una magnitud equivalente a un 5.8 terrestre, lo que supone una sacudida importante.
Las flechas junto al número 1 (en la parte superior) marcan la existencia de una falla en la superficie de la Luna. Las imágenes inferiores, la 1 y la 3, muestran dos deslizamientos que podrían estar relacionados con terremotos y la 2 muestra la caída de una roca ladera abajo y que podría ser también como consecuencia de un terremoto que inestabilice las rocas y las haga caer. Imagen cortesía de NASA/GSFC/Arizona State University/Smithsonian.Precisamente queríamos centrarnos en este tipo de terremotos ahora que se acerca -esperamos que para no dentro de muchos años- el aterrizaje de los astronautas del programa Artemis de la NASA y que tienen como destino una zona cercana al polo sur de la Luna, puesto que ahí podría haber un riesgo sísmico relativamente elevado y relacionado con estos terremotos poco profundos.
La circunferencia de la Luna ha encogido como consecuencia de su enfriamiento interno -ese que al mismo tiempo va robándole actividad geológica- unos 45 metros. No nos puede parecer mucho, ya que la circunferencia ecuatorial de la Luna está en torno a los 10900 kilómetros y la reducción de la que hablamos está en torno al 0.0004%.
Pero al encogerse la Luna comienza a arrugarse y plegarse, algo que puede también parecer contraintuitivo porque la Luna es sólida pero, a escala geológica, los materiales pueden plegarse hasta que se supera su umbral de resistencia y se acaban rompiendo porque en realidad son materiales frágiles y no pueden acumular esa deformación de una manera indefinida.
Otra falla lunar, de la que podemos ver su sinuoso escarpe y que en el relieve da una forma de escalón muy característica debido al movimiento vertical de los bloques. Imagen cortesía de NASA/GSFC/Arizona State University.¿Qué ocurre entonces? Esas fracturas que nacen son lo que conocemos como fallas, los lugares donde se producen los terremotos y, casualmente, en el polo Sur de la Luna se han encontrado un importante número de estas fallas provocadas por el enfriamiento de su interior… y como son estructuras muy epidérmicas -en el sentido de superficiales- podrían provocar terremotos muy someros. Pero no solo eso, algunos terremotos lunares pueden duran horas porque la Luna, hablando coloquialmente, suena como una campana y en ocasiones resuena debido a las propiedades de su corteza.
Esto quiere decir que, sobre todo, para estancias permanentes en zonas donde haya este tipo de fallas, hay que tener en cuenta el riesgo sísmico y construir estructuras que sean capaces de aguantar una sacudida sísmica… pero también construir lejos de pendientes muy escarpadas. ¿Por qué? Porque este tipo de terremotos también puede desestabilizar las laderas y provocar deslizamientos que sean destructivos.
La parte buena: podemos aplicar el conocimiento de nuestro planeta para cartografiar e intentar medir el grado de actividad de estas estructuras capaces de generar terremotos y crear mapas de peligrosidad que nos indiquen las zonas donde haya un menor riesgo, pero también de cara a la ingeniería, ser capaces de levantar o llevar edificaciones capaces de soportar los terremotos lunares.
Es probable que para la exploración más permanente todavía queden algunas décadas pero sin duda tener en cuenta el riesgo sísmico de las distintas regiones permitirá que nuestra estancia allí sea mucho más segura y menos peligrosa.
Referencias:
Nunn, C. et al. (2020) Lunar seismology: A data and instrumentation review Space Science Reviews doi: 10.1007/s11214-020-00709-3.
Sadeh, D. and Wood, K. (1978) Periodicity in lunar seismic activity and earthquakes Journal of Geophysical Research: Solid Earth doi: 10.1029/jb083ib03p01245.
Watters, T.R. et al. (2024) Tectonics and seismicity of the Lunar South Polar Region The Planetary Science Journal doi: 10.3847/psj/ad1332.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Riesgo geológico para una presencia permanente en la Luna se ha escrito en Cuaderno de Cultura Científica.
Lo que la ciencia forense nos enseña sobre la naturaleza humana
Llegué a «Todo lo que queda» pensando que se trataba de un libro de divulgación científica sobre ciencia forense. Pero, estrictamente hablando, no se puede considerar un libro de ciencia. Esto no quiere decir que no haya ciencia en sus páginas; la hay, pero sin entrar en mucho detalle ni profundizar demasiado en la metodología.
A lo largo de sus capítulos Sue Black, una reputada antropóloga forense escocesa, ofrece breves descripciones de los métodos que utilizan los patólogos o los antropólogos forenses para descubrir la identidad de personas fallecidas, normalmente en circunstancias dramáticas –como consecuencia de actos delictivos en mucho casos–, para hallar a quien agredió o provocó la muerte de alguna víctima, o para determinar la forma en que las personas fallecidas en esas circunstancias murieron.
En ese recorrido por los aspectos metodológicos, va desde las técnicas más clásicas, basadas en análisis minuciosos de los restos mortales y el entorno en que fueron hallados los cadáveres de las personas fallecidas, hasta el uso de técnicas propias de la genética molecular, métodos novedosos de identificación de sospechosos –como la arquitectura de la red de vasos sanguíneos que circulan bajo la piel de las manos, por ejemplo– o, incluso, el desarrollo de nuevos procedimientos para fijar los tejidos humanos y de esa forma conservar los cadáveres para su uso en la docencia de anatomía humana.
El trayecto no se limita a las técnicas. También hay un recorrido por diferentes lugares, sitios en los que la doctora Black ha trabajado, como Londres y, especialmente, Dundee. Y otros a los que se ha desplazado, bien enviada por su gobierno –Kosovo–, o por iniciativa propia –Tailandia–. En cada uno de estos lugares ha trabajado en la resolución de distintos problemas y por razones muy diferentes.
Pero como decía, el libro no se puede considerar, sensu stricto, una obra de divulgación científica. Es, ante todo, una reflexión extensa y profunda acerca de la muerte, de la forma en que transitamos a ella desde la vida, y de las circunstancias bajo las que sobreviene. La reflexión parte de la relación directa y muy próxima de la autora con el hecho de la muerte, sobre todo en la primera parte del libro. Se basa en sus primeras experiencias de relación o proximidad a cadáveres humanos, como los de miembros de su propia familia –su tío Willy, su madre y su padre– o como el de una persona –a quien Sue Black llamaba el tío Henry– que había donado su cuerpo a la ciencia y cuyo cadáver era utilizado como materia de estudio cuando ella era estudiante universitaria. Al final, en el epílogo, retoma el tono reflexivo, precisamente cuando piensa acerca de su propia muerte.
Las historias que relata Sue Black forman parte de su trayectoria profesional; lo que cuenta se basa en su propia experiencia. Como es natural, aunque es una profesora en la Universidad de Dundee, la mayor parte de sus historias tienen que ver con hechos delictivos o muertes sospechosas. En todas introduce alguna pincelada científica, describe el procedimiento que han de seguir para identificar un cadáver o hallar a un criminal y, sobre todo, reflexiona, como he dicho, sobre la vida y la muerte, y sobre la naturaleza humana.
Muchas de estas historias tienen una componente impactante. En mi caso, las que más me han conmovido han sido las que transcurren en Kosovo, donde la doctora Black fue desplazada por su gobierno para ayudar a identificar los restos humanos de cadáveres de personas que habían sido víctimas de actuaciones genocidas por parte de milicianos serbios y para reunir las pruebas que se pudiesen utilizar para acusar y, en su caso, condenar al líder serbio Slobodan Milosevic y los altos cargos de su gobierno por esas actuaciones.
Lo normal es que al llegar a los relatos de esas historias terribles, hubiera dejado de leer el libro. Sin embargo, no estuve tentado en ningún momento de hacerlo. El mérito es de la autora, porque consigue, mediante una muy buena combinación de compasión por las víctimas y sentido del humor, aliviar el pesar que, de otra forma, hubiese provocado la lectura. Sue Black es, además, una narradora excelente, por lo que la lectura de «Todo lo que queda» es verdaderamente, un placer.
Título: Todo lo que queda. Lo que la ciencia forense nos enseña sobre la naturaleza humana
Autora: Sue Black
Editorial: Paidos (2023).
Es traducción de “All That Remains. A Life in Death”, Doubleday (2019).
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
Una versión de este texto de Juan Ignacio Pérez Iglesias apareció anteriormente en Lecturas y Conjeturas (Substack).
El artículo Lo que la ciencia forense nos enseña sobre la naturaleza humana se ha escrito en Cuaderno de Cultura Científica.
¡Ups! La teoría de la electricidad animal
La escritora Mary Shelley se inspiró para su novela “Frankenstein o el moderno Prometeo” en el trabajo del médico y físico Luigi Galvani y su sobrino, el físico Giovanni Aldini. Galvani creía que existía algo llamado electricidad animal: al aplicar corrientes eléctricas a animales ya muertos contraía los músculos. Hoy sabemos que esta electricidad animal no existe, lo que pasa es que las células se comunican entre sí a través de impulsos eléctricos.
Producción ejecutiva: Blanca Baena
Guion: José Antonio Pérez Ledo
Grafismo: Cristina Serrano
Música: Israel Santamaría
Producción: Olatz Vitorica
Doblaje: K 2000
Locución: José Antonio Pérez Ledo
Edición realizada por César Tomé López
El artículo ¡Ups! La teoría de la electricidad animal se ha escrito en Cuaderno de Cultura Científica.
La mielina como combustible cerebral
Un equipo de investigación ha examinado el efecto de correr un maratón sobre la mielina, la sustancia que envuelve los axones de las neuronas, las prolongaciones en forma de hilo por las que se transmiten los impulsos nerviosos. Los resultados muestran que la mielina sufre una fuerte disminución generalizada y se recupera de manera progresiva posteriormente. Este hallazgo revela que el metabolismo energético cerebral es más complejo de lo que se pensaba. El uso de la mielina como combustible cerebral abre una nueva visión sobre los requerimientos energéticos del encéfalo.
La comunicación cerebral se rige por señales eléctricas y químicas que requieren mucha energía. Se estima que el encéfalo consume el 20 % de la energía total que gasta el cuerpo humano, a pesar de que representa en torno al 2 % de su peso, y su principal fuente de energía es la glucosa. Investigadores de la UPV/EHU, CIC biomaGUNE, CIBERNED, Biobizkaia y Achucarro, entre otros, liderados por Carlos Matute, catedrático de Anatomía y Embriología Humana de la Universidad del País Vasco, han realizado un estudio en el que han querido saber “qué le sucede al encéfalo cuando esa fuente de energía está bajo mínimos, como ocurre en el ejercicio físico prolongado en el tiempo, por ejemplo, una maratón o una ultramaratón”.
El ejercicio de resistencia prolongado moviliza las reservas de energía de todo el organismo para satisfacer las demandas energéticas. Los hidratos de carbono son la principal fuente de combustible; a medida que se agotan estas reservas, el cuerpo empieza a depender más de la grasa almacenada como fuente de energía, y, en última instancia, si es necesario, el organismo puede descomponer las proteínas musculares para utilizarlas como energía. “Los resultados de nuestro estudio indican que las células nerviosas en condiciones de hipoglucemia (poca glucosa) echan mano de fuentes de energía alternativa, como es la mielina, una estructura grasa que envuelve los axones o fibras nerviosas que comunican las neuronas y facilita la propagación ultra rápida de las señales eléctricas”, explica Matute.
La importancia de comprender la función de la mielinaEl estudio ha revelado que correr un maratón reduce el contenido de mielina de los corredores en gran parte de la materia gris y blanca del encéfalo, en unas regiones más que en otras, y con un impacto similar en ambos hemisferios. Esta pérdida de mielina se recupera tras la carrera, y a las dos semanas de finalizar el esfuerzo sus niveles están prácticamente normalizados. “Es un proceso reversible ya que la cantidad de mielina se normaliza con el descanso, tras la demanda extraordinaria de energía; pero si se prolongase en exceso podría tener implicaciones funcionales para el cerebro”, explica el profesor Ikerbasque de CIC biomaGUNE Pedro Ramos Cabrer.
Para llevar a cabo la investigación, escanearon los encéfalos de varios corredores de maratón, mediante imagen por resonancia magnética, los días anteriores y posteriores a la carrera, y dos semanas después. Uno o dos días después de la carrera, el equipo observó “una reducción de la cantidad de mielina en el encéfalo. Al cabo de dos semanas, los niveles de mielina se habían normalizado”, afirma Matute.
Esta drástica reducción generalizada del contenido de mielina tras el ejercicio prolongado, y la recuperación tras la disminución de la actividad física, abre una novedosa visión de la mielina como un almacén de energía listo para ser utilizado cuando los nutrientes cerebrales típicamente utilizados escasean. “El metabolismo energético cerebral es más complejo de lo que se conoce actualmente. El uso de los lípidos (grasas) de la mielina como combustible cerebral abre una nueva visión sobre los requerimientos energéticos del encéfalo, que tiene impacto sobre la nutrición de la población general, y el rendimiento de los deportistas en particular”, añade.
“Estos resultados, que hay que corroborar con más casos, abren unas líneas de investigación que podrían incluso llegar a relacionar las enfermedades neurodegenerativas con alteraciones en el metabolismo energético y abrir nuevas vías para el tratamiento de estas enfermedades. Es una línea de trabajo novedosa, rompedora y que promete muchísimo”, afirma el profesor de CIC biomaGUNE.
El profesor Matute explica que este estudio es muy importante “para la comprensión de las enfermedades desmielinizantes como la esclerosis múltiple, en las que la desaparición de la mielina y, por tanto, de su aporte energético a los axones, deja a estos desnutridos facilitando el daño estructural y la degeneración”. Además, el envejecimiento de la mielina con la edad tiene efectos negativos para las funciones cognitivas, y pueden contribuir al inicio y agravamiento de las enfermedades neurodegenerativas como el Alzhéimer.
Los resultados de este trabajo abren nuevos horizontes sobre el papel energético en el encéfalo de la mielina sana, envejecida y enferma. “Si bien demostramos que en la salud la mielina se gasta con el ejercicio y se puede reponer con el descanso de forma natural, con una dieta sana, en el envejecimiento y las enfermedades como la esclerosis múltiple y la enfermedad de Alzheimer la cantidad de mielina y su calidad disminuyen por causas diversas en cada patología, y no se recupera espontáneamente. Por lo que sería necesario intervenir temprano, al inicio de dichas enfermedades, o de forma preventiva, con objeto de reducir el deterioro progresivo de la mielina, bien con una dieta ad hoc, o con fármacos que potencien su uso como fuente de energía y su reposición durante el descanso”, concluye el catedrático de la Universidad del País Vasco.
Referencia:
Pedro Ramos-Cabrer, Alberto Cabrera-Zubizarreta, Daniel Padró, Mario Matute-González, Alfredo Rodríguez-Antigüedad, Carlos Matute (2023) Widespread drastic reduction of brain myelin content upon prolonged endurance exercise bioRxiv doi: 10.1101/2023.10.10.561303
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La mielina como combustible cerebral se ha escrito en Cuaderno de Cultura Científica.
¿Por qué mi mineral tiene burbujas?
Es posible que alguna vez hayáis ido a un museo geológico y, mientras admirabais con detenimiento un precioso cristal mineral perfectamente formado y totalmente transparente, detectaseis unas pequeñas burbujitas en alguna parte de su interior, reaccionando de la manera más lógica en estos casos: poner cara de fastidio y pensar que os han tangado, creyendo que ese cristal es falso y está fabricado con algún tipo de resina sintética, siendo esas burbujas imperfecciones que se le han colado a la persona que hizo la réplica. Para confirmar vuestra sospecha, habréis dirigido la mirada a la etiqueta que acompaña a la pieza, esperando encontrar un cartelito que avise de que se trata de una réplica, pero, en su lugar, os encontrasteis con una descripción completa de ese mineral, con su nombre, su fórmula química y el lugar de procedencia de la pieza. ¿Acaso pretendían engañar a todo el mundo? En absoluto, porque esas pequeñas burbujitas son unos elementos naturales asociados a la formación de muchos minerales. Se trata de inclusiones fluidas.
Imagen de microscopio de una inclusión fluida contenida en un cristal de cuarzo. En la escala, 100 micras equivalen a 0,1 milímetros. Fuente: Montanuniversität LeobenPara explicaros qué son las inclusiones fluidas, voy a hacer una obviedad, empezar por el principio. La mayoría de los cristales minerales se forman a partir de la unión de los elementos químicos presentes en un fluido, como el agua o el magma, bajo unas condiciones concretas de presión y temperatura. Ese mineral va a ir aumentando en tamaño a medida que se van añadiendo más partículas elementales siguiendo una estructura cristalina concreta. Es decir, las caras de los cristales seguirán creciendo a medida que se añaden nuevos átomos y/o moléculas presentes en el fluido hasta que se agoten. Mientras se produce este crecimiento mineral, se pueden generar pequeñas cavidades o huecos en la estructura cristalina que se rellenan por el fluido. Estas porciones de fluido atrapadas en el interior de los minerales son las inclusiones fluidas y, aunque generalmente tienen un tamaño muy pequeño (inferior a 0,1 mm de diámetro), en ocasiones pueden alcanzar proporciones milimétricas llegando a verse a simple vista sin demasiado esfuerzo.
Tipos de inclusiones fluidas de acuerdo a su origen, identificadas en un cristal de cuarzo. A) Primarias que han crecido siguiendo las caras del cristal; B) Primarias dispuestas de manera aleatoria en una parte del cristal; C) Secundarias localizadas a lo largo de una fractura que atravesó el cristal tras su formación. Fuente: Istituto di Geoscienze e Georisorse / Consiglio Nazionale delle RicercheDe acuerdo a su origen, las inclusiones fluidas pueden dividirse en dos grandes grupos. Por un lado, tenemos las primarias, que son aquellas que se forman durante el crecimiento del cristal y tienen atrapado parte del fluido que ha dado origen a ese mineral. Generalmente se distribuyen de dos maneras a lo largo de la estructura cristalina, bien de forma aleatoria por todo el mineral o bien siguiendo los planos cristalográficos de crecimiento. Y, por otro lado, nos encontramos con las inclusiones fluidas secundarias, que se generan una vez que se ha formado el cristal, en concreto cuando este sufre alguna fractura por la que circula un nuevo fluido. En este caso, las inclusiones se orientan siguiendo la dirección de esas fracturas.
Tipos de inclusiones fluidas de acuerdo al estado en el que se encuentran. A y B) Inclusiones combinadas con una fase líquida y otra fase gaseosa; C) Inclusión combinada con una fase gaseosa y dos fases líquidas que no se pueden mezclar entre sí; D) Inclusión combinada con una fase gaseosa, una líquida y una sólida. Fuente: Istituto di Geoscienze e Georisorse / Consiglio Nazionale delle RicercheEn cuanto a su estado, las inclusiones fluidas pueden encontrarse en fase líquida, fase gaseosa o aparecer como una combinación de ambas fases juntas. Incluso, es posible encontrar partículas sólidas dentro de las inclusiones fluidas, bien porque hayan precipitado de manera tardía a partir de los elementos disueltos en la fase líquida que quedó atrapada en la cavidad, o bien porque ese pequeño cristal, que ya estaba formado previamente, fue arrastrado por el fluido contenido en la inclusión y acabó atrapado con él.
Pero, aunque parezca mentira, la información contenida en esas pequeñas burbujitas atrapadas en el interior de algunos minerales es importantísima. El estudio de las inclusiones fluidas nos permite conocer ciertas características de los fluidos que dieron origen a los cristales, si son primarias, o de los fluidos que afectaron a ese mineral con posterioridad a su formación, si son inclusiones secundarias. Así sabemos la temperatura, presión, densidad y composición química de esos fluidos mineralizantes, lo cual tiene una aplicación directa en muchas áreas de investigación de la Geología. Por ejemplo, en la búsqueda de yacimientos de minerales críticos, puesto que nos dan información sobre sus procesos genéticos y el contexto geológico en el que aparecen, facilitando así su localización en otras partes del mundo. O en el uso de nuevas fuentes de energía, como la geotérmica, ya que las inclusiones fluidas se pueden comportar como termómetros del subsuelo para delimitar zonas favorables para emplear este recurso.
Pequeña porción de un sondeo de hielo a través de la que se aprecian numerosas inclusiones gaseosas preservadas en su interior. Fuente: Royal Museums GreenwichAunque una de las aplicaciones de las inclusiones fluidas que a mí más me gustan es su empleo para efectuar reconstrucciones de los ambientes del pasado. En los sondeos de hielo que se extraen de La Antártida y Groenlandia se encuentran encapsuladas burbujas de gas que permiten conocer las concentraciones de ciertos gases de efecto invernadero, como dióxido de carbono (CO2) y metano (CH4), en la atmósfera de la época, pudiendo así estudiar su relación con los ciclos climáticos ocurridos en los últimos cientos de miles de años. Esta información nos permite plantear estrategias de mitigación del efecto de las actividades del ser humano en el calentamiento global actual.
Así que, si alguna vez veis un cristal enorme y muy chulo expuesto con majestuosidad en una vitrina y descubrís unas pequeñas imperfecciones en forma de burbujitas en alguna parte del mismo, no lo miréis con mala cara y le quitéis valor. Recordad que, aparte de una preciosidad, es un archivo geológico muy importante que nos permite conocer la historia que ha sufrido desde el momento de su formación hasta la actualidad con todo lujo de detalles.
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo ¿Por qué mi mineral tiene burbujas? se ha escrito en Cuaderno de Cultura Científica.
Las leyes de Lanchester
La guerra es una masacre entre gentes que no se conocen, para provecho de gentes que si se conocen pero que no se masacran.
Se conocen como leyes de Lanchester a unas ecuaciones diferenciales que buscan describir los conflictos entre dos fuerzas enemigas.
Paths of glory (1917), óleo sobre lienzo, de Christopher Nevinson (1917). Fuente: Imperial War Museum / Wikimedia Commons.
En 1902, el entonces teniente de la Marina de los Estados Unidos Jehu V. Chase desarrolló una ecuación diferencial para intentar describir los combates entre dos flotas homogéneas. Hasta 1972 no se desclasificó el trabajo de Chase, con lo que no recibió el reconocimiento por esta aportación temprana.
En 1916, el ingeniero británico Frederick Lanchester llegó de forma independiente a ecuaciones casi idénticas a las de Chase, con ejemplos que incorporaban también los conflictos aéreos y terrestres.
Un militar ruso contemporáneo de ambos, M. Osipov, también llegó a conclusiones similares a las de Chase y Lanchester en un artículo publicado en una revista militar rusa en 1915.
La ley lineal de LanchesterLanchester argumentaba que, en las guerras antiguas, cada soldado se enfrentaba a un único enemigo a la vez. Suponía que cada soldado mataba o era asesinado por exactamente un soldado del ejército contrario, por lo que el número de sujetos que sobrevivían a una batalla era sencillamente la diferencia (en valor absoluto) de tamaño entre los dos ejércitos. Esta se conoce como la ley lineal de Lanchester.
La ley cuadrática de LanchesterLa ley cuadrática de Lanchester modeliza el combate moderno que se realiza con armas de largo alcance como las armas de fuego. Y aquí las cosas cambian. Las armas de fuego se enfrentan con disparos controlados a distancia; se pueden atacar a diferentes objetivos y recibir impactos desde varios lugares. La tasa de desgaste (efectividad que cada fuerza en contienda posee a la hora eliminar a sus enemigos) depende en este contexto solo del número de armas en juego. Lanchester determinó que el poder de tal fuerza es proporcional al cuadrado de las unidades puestas en juego, no al número de ellas.
Para comprenderlo mejor, supongamos que tenemos dos ejércitos A y B que se enfrentan en combate. A dispara un flujo continuo de balas a B mientras que B actúa exactamente de la misma manera con A.
Vamos a denotar por a al número de soldados de la fuerza A y por α la potencia de fuego ofensiva de cada soldado, es decir, el número de soldados enemigos que puede incapacitar (herir o matar) por unidad de tiempo. Del mismo modo, denotamos por b al número de soldados de B, cada uno con potencia de fuego ofensiva β.
La ley cuadrática de Lanchester estima el número de soldados perdidos en cada bando usando el par de ecuaciones siguientes:
En estas ecuaciones da(t)/dt representa la velocidad a la que cambia el número de soldados de A en un instante dado; un valor negativo indicaría la pérdida de soldados. De manera similar, db(t)/dt representa la tasa de cambio del número de soldados del ejército B. Intuitivamente, este sistema de ecuaciones indica que el número de soldados de cada ejército disminuye de manera proporcional al número de soldados enemigos.
La solución de estas ecuaciones muestra que:
Si α = β, es decir, si ambos bandos poseen la misma potencia de fuego, entonces gana aquel que tiene más soldados al comienzo de la batalla.
Si a = b, es decir, si los dos ejércitos tienen el mismo número de soldados, vence el bando con mayor potencia de fuego.
Si a > b y α > β, entonces triunfa el bando A (del mismo modo, si a < b y α < β, gana el ejército B).
Las anteriores conclusiones son obvias. Queda un último caso, que es la llamada ley cuadrática. Corresponde a la situación en la que la cantidad de soldados y la potencia de fuego son desiguales en direcciones opuestas. Es decir, si a > b y α < β (o si a < b pero α > β) el ejército que resulta ganador depende de si la relación β / α es mayor o menor que el cuadrado de la relación a / b. Así, para ganar la contienda, se requiere una superioridad en potencia de fuego igual al cuadrado de la inferioridad en número. De otro modo, la eficacia de un ejército aumenta proporcionalmente al cuadrado del número de personas que lo componen, pero sólo linealmente con su capacidad de lucha.
¿Para qué se usan?Las leyes de Lanchester se han usado para modelar batallas históricas con fines de investigación. Entre otras, se han estudiado la batalla de Inglaterra de 1940 que enfrentó a las fuerzas aéreas británica y alemana, o la batalla de Kursk de 1943 que se libró entre el ejército alemán y el soviético.
También se pueden utilizar estas leyes, por citar algún ejemplo, para modelizar el combate en juegos de estrategia en tiempo real o en mirmecología, para entender cómo se relacionan las especies endémicas y las invasoras.
De cualquier manera, independientemente de la eficacia de cualquier modelo matemático, como afirmaba la política estadounidense y defensora de los derechos de las mujeres Jeannette Rankin:
No se puede ganar una guerra como tampoco se puede ganar un terremoto.
Referencias
- Lanchester’s Laws, Futility Closet, 20 de marzo de 2016
- Lanchester’s laws, Wikipedia
- J.V. Chase (1902). Sea Fights: A Mathematical Investigation of the Effect of Superiority of Force in Combats upon the Sea. Naval War College Archives, RG 8, Box 109, XTAV.
- M. Osipov (1905). The influence of the numerical strength of engaged forces on their casualties, Originally Published in the Tzarist Russian Journal “Voennyi Sbornik” [Translation of September 1991 by Dr. Robert L. Heimbold and Dr. Allan S. Rehm]
- Frederick William Lanchester, Aircraft in Warfare: The Dawn of the Fourth Arm, Constable limited, 1916
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Las leyes de Lanchester se ha escrito en Cuaderno de Cultura Científica.
Primera confirmación experimental del altermagnetismo
En 2022, los teóricos dieron nombre a una nueva clase de orden magnético: altermagnetismo. La predicción era que los materiales que exhiben este fenómeno no tendrían magnetización neta y presentarían una estructura de banda electrónica que se divide en bandas de espín hacia arriba y hacia abajo, lo que otorgaría a estos materiales propiedades tanto antiferromagnéticas como ferromagnéticas.
A pesar de los muchos intentos, faltan pruebas experimentales sólidas de la existencia de materiales altermagnéticos. O, mejor, faltaban. Las pruebas experimentales habrían sido encontradas recientemente por Changyoung Kim de la Universidad Nacional de Seúl en Corea del Sur y sus colegas. Los investigadores dicen que las propiedades distintivas de los alterimanes podrían ser útiles para la electrónica basada en el espín (lo que se conoce como espintrónica).
Estructura cristalina del MnTe en la que se aprecia las dos subceldillas de espín opuesto. Fuente: Lee et al (2024)Kim y sus colegas estudiaron el telururo de manganeso (MnTe), un semiconductor que se esperaba que mostrara altermagnetismo. Los teóricos habíann predicho una gran separación entre las bandas de espín hacia arriba y hacia abajo en la estructura de bandas electrónicas del material, lo que hace que la división del espín sea potencialmente más fácil de observar en este material que en otros. Pero la estructura cristalina tridimensional del telururo de manganeso ha resultado problemática para el método convencional que se emplea para este tipo de mediciones.
Una razón de la dificultad es que la técnica (espectroscopia de fotoemisión con resolución de ángulo (ARPES), por sus siglas en inglés) suele ser sensible sólo a la estructura de la banda en la superficie de un material y no en su masa. El equipo superó este problema aplicando ARPES a películas delgadas de telururo de manganeso en lugar de a bloques gruesos.
Los investigadores descubrieron que, por debajo de 267 K, las películas de telururo de manganeso exhibían una magnetización neta nula y una estructura de banda dividida por espín, lo que, según ellos, es una prueba convincente de la existencia de altermagnetismo en el material. El trabajo, si bien apunta en la buena dirección es, de alguna manera, incompleto. El equipo, consciente de ello, planea caracterizar completamente la estructura de bandas utilizando una variación de la técnica ARPES llamada ARPES con resolución de espín.
Referencias:
Suyoung Lee, Sangjae Lee, Saegyeol Jung, Jiwon Jung, Donghan Kim, Yeonjae Lee, Byeongjun Seok, Jaeyoung Kim, Byeong Gyu Park, Libor Šmejkal, Chang-Jong Kang, and Changyoung Kim (2023) Broken Kramers Degeneracy in Altermagnetic MnTe Phys. Rev. Lett. doi: 10.1103/PhysRevLett.132.036702
Ryan Wilkinson (2024) Experimental Evidence for a New Type of Magnetism Physics 17, s10
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Primera confirmación experimental del altermagnetismo se ha escrito en Cuaderno de Cultura Científica.
Acechantes ante la próxima gran epidemia de gripe
Cuando la COVID-19 irrumpió por sorpresa en el mundo, la gran mayoría de las miradas científicas no se dirigían a los coronavirus como potenciales causantes de la próxima pandemia, sino a los sospechosos habituales: los virus influenza. No es para menos: estos microorganismos responsables de la gripe han provocado de forma cíclica grandes epidemias y pandemias a lo largo de la historia gracias a su elevada capacidad de mutación y su fácil expansión entre las sociedades humanas. De hecho, numerosos países cuentan desde hace décadas con planes nacionales de preparación y respuesta ante una pandemia de gripe, por recomendación de la Organización Mundial de la Salud. España se encuentra entre ellos desde el año 2003.
Se estima que cada 9-12 años se acumulan una serie de cambios genéticos importantes que llevan al surgimiento de un nuevo virus gripal, con nuevas proteínas en su envoltura (hemaglutinina (H) y neuraminidasa (N)) que no han circulado hasta ese momento entre los humanos. Este fenómeno puede producirse tanto por las mutaciones espontáneas que se van apareciendo en dichos virus con el tiempo, como por el intercambio genético entre virus humanos y de animales (de aves, cerdos y otros mamíferos). La irrupción de un nuevo virus gripal, totalmente desconocido para el sistema inmunitario de las personas, tiene el potencial de desencadenar una pandemia si consigue transmitirse por el mundo y provocar enfermedades y muertes a su paso.
Solo en el siglo XX se produjeron tres pandemias gripales. La más conocida por todos es la famosa pandemia de 1918, mal llamada «gripe española» (desencadenada por el virus influenza H1N1), que provocó la muerte de entre 20 y 50 millones de personas. Sin embargo, otras epidemias de gripe también provocaron estragos en las poblaciones durante dicho siglo como la gripe asiática (1957-1958), provocada por el subtipo H1N1, que causó 2 millones de muertes, y la gripe de Hong Kong (1968-1969), desencadenada por el H3N3, que se llevó por delante la vida de 1 millón de personas.
En abril de 2009, el mundo volvió a temblar con otro nuevo virus influenza que tenía la capacidad de transmitirse con facilidad entre humanos: el virus de la gripe A de origen porcino, H1N1 pdm09. Así, el 11 de junio de dicho año, la OMS anunció la primera pandemia del siglo XXI. Por suerte, la letalidad de este patógeno fue baja y causó menos de 300.000 muertes en todo el mundo. No obstante, este virus llegó para quedarse y en la actualidad es una de las cepas implicadas en las epidemias de gripe estacionales de cada año a lo largo del mundo.
Los virus de la gripe pueden ser bastante imprevisibles, pues su patrón de circulación evoluciona con el tiempo y puede ser diferente en cada temporada estacional. Este hecho complica mucho anticiparse a potenciales epidemias, que pueden convertirse en pandemias. En estos momentos, los principales virus sospechosos de causar la próxima pandemia son los virus de la gripe aviar y, en concreto, el H5N1. Aunque este nuevo virus gripal ha entrado recientemente en una fase nueva y «preocupante», por ahora, el peligro de pandemia sigue lejos. Dicho agente patógeno tiene la capacidad de saltar entre aves y humanos y, cuando ello sucede, la letalidad es elevada (mayor al 50 %). Por suerte, estos saltos son raros y, cuando ocurre, no se detecta transmisión entre personas. Sin embargo, el director general de la OMS, Tedros Adhanom, llama a la cautela: “No podemos asumir que seguirá siendo así y debemos prepararnos para cualquier cambio en el statu quo”.
Los virus de la gripe aviar pueden extenderse no solo a través de aves de corral domésticas, sino también a partir de aves salvajes migratorias, lo que favorece su rápida extensión por puntos alejados del planeta. Dentro de las distintas fases de las pandemias que se han establecido para la ripe, nos encontramos en la fase 3 de periodo de alerta pandémica. Es decir, se han registrado infecciones humanas con un subtipo nuevo del virus de la gripe, pero no hay transmisión entre personas o, como mucho, se detectan casos raros de transmisión con un contacto próximo. En esta fase el objetivo principal de Salud Pública es caracterizar rápidamente el nuevo subtipo de virus y detectar y notificar de forma temprana cualquier caso que aparezca. Si llegara a darse pequeñas agrupaciones de casos (lo que indicaría una mejora en la capacidad de transmisión del virus entre humanos), el peligro aumentaría y hablaríamos de una fase 4. Una pandemia se declararía en la fase 6, por una transmisión elevada y sostenida entre la población general.
Que el virus de la gripe H5N1 se convierta o no en el responsable de la próxima pandemia dependerá de su grado de adaptación a los seres humanos y de nuestra capacidad para evitar que se extienda. Imposible predecir qué ocurrirá y si aparecerán otros virus próximamente que hagan que nos olvidemos del H5N1. En todo caso, debemos tomar medidas de Salud Pública para que esta cuestión quede lo mínimo posible en manos del azar.
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica
El artículo Acechantes ante la próxima gran epidemia de gripe se ha escrito en Cuaderno de Cultura Científica.
Diferenciación automática: Enseñando a tu ordenador a hacer derivadas
La diferenciación automática es un campo bien conocido de las matemáticas aplicadas. Si quieres iniciarte en este mundo, no es necesario que implementes tu propio sistema desde cero. A menos que, como yo, quieras hacerlo. ¿Y por qué querría alguien en sano juicio hacer algo así? Mi motivación es sólo mía, aunque quizá a ti también te sirva. En el caso que nos ocupa ha sido una combinación de lo siguiente:
-
Me gusta entender lo que hace el software que que utilizo.
-
Resulta que la teoría detrás de la diferenciación automática es preciosa.
-
Me estoy iniciando en el lenguaje de programación Julia, de modo que he usado este problema como ejercicio.
Además, si estás interesado en escribir código rápido y eficiente, es probable que prefieras centrarte en la diferenciación automática inversa (backward automatic differentiation), y no, como hice yo, en la diferenciación directa (forward automatic differentiation).
Si todavía estás leyendo, significa que después de todos estos avisos tu motivación intrínseca sigue intacta. ¡Genial! Permíteme presentarte el fascinante tema de la diferenciación automática y mi implementación. Es rápida y sucia, pero también pedagógica.
Que pasen los números dualesProbablemente las recuerdes de tus años en el instituto. ¡La pesadilla de las derivadas! Todas esas tablas que tenías que memorizar, todas esas reglas que tenías que aplicar… ¡puede hasta que sea un mal recuerdo!
¿Y si le enseñamos a un ordenador las reglas de la diferenciación? No solo es posible hacerlo, sino que incluso puede ser elegante. ¡Que pasen los números duales!
Un número dual es muy similar a un vector de dos dimensiones:
el primer elemento representa el valor de una función en un punto dado, y el segundo. su derivada en ese mismo punto. Por ejemplo, la constante 3 se escribirá como el número dual (3, 0) (el 0 significa que es una constante y, por lo tanto, su derivada es 0) y la variable x = 3 se escribirá como (3,1) (el 1 significa que 3 es una evaluación de la variable x, y por lo tanto, su derivada con respecto a x es 1). Sé que esto suena extraño, pero sigue leyendo unas pocas líneas más, todo se aclarará más adelante.
Tenemos en nuestras manos un nuevo juguete matemático. Si queremos divertirnos con él, tenemos que establecer las reglas del juego: comencemos definiendo la suma, la resta y la multiplicación por un escalar. Decidimos que estas seguirán exactamente las mismas reglas que los vectores:
Hasta ahora, poca emoción. La multiplicación se define de una manera mucho más interesante:
Fíjate bien en lo que pasa. ¿Por qué el segundo elemento tiene una regla de multiplicación tan rara? Pues porque dijimos que el segundo término representa una derivada, así que debe seguir la regla del producto para las derivadas.
¿Y qué pasa con los cocientes? ¡Exacto!… la división de números duales sigue la regla del cociente para las derivadas:
Por último, pero no menos importante, la potencia de un número dual a un número real se define como:
¿Sientes curiosidad por la multiplicación por u’? Corresponde a la regla de la cadena y permite que nuestros números duales nos sirvan para hacer algo tan deseable como componer operaciones.
Las operaciones definidas anteriormente cubren muchísimo terreno. De hecho, cualquier operación algebraica se puede construir utilizando estas operaciones como ladrillos básicos. Esto significa que podemos pasar un número dual a una función algebraica como argumento, y aquí viene la magia, el resultado será:
Ojo a lo que acabas de ver, porque es una pasada. ¡La ecuación anterior nos dice que simplemente alimentando a la función con el número dual (x, 1) devolverá su valor, ¡y además su derivada! ¡Dos por el precio de uno!
Los lectores familiarizados con los números complejos pueden encontrar interesante intentar el siguiente ejercicio:
Si definimos un número dual como
(u, u’) = u + e u’
con e² = 0, ¡todas las propiedades anteriores se satisfacen automáticamente!
Enseñando a hacer derivadas a tu ordenadorHa llegado la hora de ensuciarse las manos: ¿cómo podemos implementar estas reglas de manera práctica en nuestro ordenador? Implementar un nuevo objeto (un número dual) con sus propias reglas de interacción es la tarea ideal para un lenguaje que permita programación orientada a objetos. La programación orientada a objetos es un paradigma de programación que permite definir no sólo las variables que un programa va a utilizar, si no también las reglas para interactuar con ellas. Curiosamente, el proceso es sorprendentemente similar al de enseñar a un estudiante humano. Con la diferencia de que nuestro «estudiante digital» nunca olvidará una regla, ni la aplicará de manera incorrecta ni se olvidará de un signo menos.
¿Qué aspecto tendrían estas reglas, por ejemplo, en Julia? (Para una implementación en Python, echa un vistazo aquí). En primer lugar, necesitamos definir un objeto Dual, que representa un número dual. En principio, es tan simple como un contenedor para dos números reales:
«»» Estructura que representa un número Dual «»»
struct Dual
x::Real
dx::Real
end
Este par de constructores nos vendrá bien más adelante:
«»» Estructura que representa un número Dual «»»
struct Dual
x::Real
dx::Real
«»» Constructor por defecto «»»
function Dual(x::Real, dx::Real=0)::Dual
new(x, dx)
end
«»» Si se pasa un Dual, simplemente devuélvelo
Esto será útil más adelante «»»
function Dual(x::Dual)::Dual
return x
end
end
No te preocupes demasiado si no entiendes las líneas anteriores. Se han agregado solo para que el objeto Dual sea más fácil de usar (por ejemplo, Dual(1) fallaría sin el primer constructor, al igual que la aplicación de Dual a un número que ya es un Dual).
Otro truco que resultará útil en breve es crear un alias para cualquier cosa que sea un Number (uno de los tipos base de Julia) o un Dual.
const DualNumber = Union{Dual, Number}
Y ahora viene la parte divertida. ¡Enseñemos a nuestro nuevo objeto cómo hacer matemáticas! Por ejemplo, como vimos antes, la regla para sumar números duales es sumar ambos componentes, al igual que en un vector 2D:
import Base: +
function +(self::DualNumber, other::DualNumber)::Dual
self, other = Dual(self), Dual(other) # Forzamos la conversión en Dual
return Dual(self.x + other.x, self.dx + other.dx)
end
Tenemos que enseñar a nuestro ordenador incluso cosas más básicas. Recuerda que una computadora carece por completo de sentido común, por lo que, por ejemplo, tenemos que definir el significado de un signo más delante de un Dual.
+(z::Dual) = z
Esto suena tan idiota como explicar que +3 es igual a 3, ¡pero el ordenador necesita saberlo!
Como quizá hayas imaginado, también será necesario definir la resta de un Dual:
import Base: –
-(z::Dual) = Dual(-z.x, -z.dx)
que a su vez nos permite definir la resta de dos números duales como una suma:
function -(self::DualNumber, other::DualNumber)::Dual
self, other = Dual(self), Dual(other) # Forzamos la conversión en Dual
return self + (-other) # Una resta disfrazada de suma!
end
Algunas operaciones básicas pueden ser un poco más complicadas de lo esperado. Por ejemplo, ¿cuándo es un número dual menor que otro número dual? Observa que en este caso, solo tiene sentido comparar los primeros elementos e ignorar las derivadas:
import Base: <
<(self::Dual, other::Dual) = self.x < other.x
Como vimos más arriba, cosas más interesantes ocurren con la multiplicación y la división:
import Base: *,/
function *(self::DualNumber, other::DualNumber)::Dual
self, other = Dual(self), Dual(other) # Forzamos la conversión en Dual
y = self.x * other.x
dy = self.dx * other.x + self.x * other.dx # Regla del producto para derivadas
return Dual(y, dy)
end
function /(self::DualNumber, other::DualNumber)::Dual
self, other = Dual(self), Dual(other) # Forzamos la conversión en Dual
y = self.x / other.x
dy = (self.dx * other.x – self.x * other.dx) / (other.x)^2 # Regla del cociente para derivadas
return Dual(y, dy)
end
y con la potenciación a un número real:
import Base: ^
function ^(self::Dual, other::Real)::Dual
self, other = Dual(self), Dual(other) # Forzamos la conversión en Dual
y = self.x^other.x dy = other.x * self.x^(other.x – 1) * self.dx # Derivada de u(x)^n
return Dual(y, dy)
end
La lista completa de definiciones para operaciones algebraicas se encuentra aquí. Para Python, utiliza este enlace. Te recomiendo echarle un vistazo.
Después de esto, cada vez que nuestro número dual encuentre una de las operaciones definidas anteriormente en su misterioso recorrido por una función o un script, llevará un registro de su efecto en la derivada. No importa cuán larga, complicada o mal programada esté la función, la segunda coordenada de nuestro número dual se encargará de llevar la cuenta. Siempre y cuando la función sea diferenciable y no lleguemos a la precisión de la máquina, claro… pero es que eso sería pedirle a nuestra computadora que haga magia.
EjemploComo ejemplo, calculemos la derivada del polinomio:
en x = 3.
Para mayor claridad, podemos calcular la derivada a mano:
es evidente que y p(3) = 39 y p'(3) = 34.
Usando nuestro objeto Dual, podemos llegar a la misma conclusión automáticamente:
poly = x -> x^3 + x^2 + x
z = Dual(3, 1)
poly(z)
> Dual(39, 34)
El truco funciona incluso si el mismo polinomio está definido de una manera más fea y complicada:
«»» Equivalente a poly = x -> x^3 + x^2 + x, pero más feo «»»
function poly(x)
aux = 0 # Inicializamos una variable auxiliar
for n in 1:3 # Agregamos x^1, x^2 y x^3
aux = aux + x^n
end
end
poly(z)
> Dual(39, 34)
El método esbozado anteriormente fracasará miserablemente en cuanto nuestra función contenga un elemento no algebraico, como un seno o una exponencial. Pero no te preocupes, basta con ir a nuestro libro de cálculo y enseñarle a nuestra computadora algunas derivadas básicas más. Por ejemplo, nuestra tabla de derivadas nos dice que la derivada de un seno es un coseno. En el lenguaje de los números duales, escribimos:
¿Y qué pinta u’ aquí? Una vez más, es la regla de la cadena.
La clave aquí es, y de hecho ha sido desde el principio:
Podemos crear una función, que llamaremos _factory, que genere una abstracción de esta estructura para mayor comodidad:
function _factory(f::Function, df::Function)::Function
return z -> Dual(f(z.x), df(z.x) * z.dx)
end
Con ayuda de esta función, solo tenemos que abrir nuestra tabla de derivadas y llenar línea por línea, comenzando con la derivada de un seno, continuando con la de un coseno, una tangente, etc.
import Base: sin, cos
sin(z::Dual) = _factory(sin, cos)(z)
cos(z::Dual) = _factory(cos, x -> -sin(x))(z) # A menudo se requiere una función lambda explícita
Si eres de los que prestaba atención en clase de matemáticas, ni siquiera necesitarás llenar todas las derivadas manualmente desde la tabla. Por ejemplo, la tangente se define como:
y ya tenemos el seno, el coseno y la división automáticamente diferenciables en nuestro arsenal. Entonces, basta con esta línea:
import Base: tan
tan(z::Dual) = sin(z) / cos(z) # ¡Podemos reutilizar las funciones definidas anteriormente!
Por supuesto, también es posible introducir la derivada de la tangente manualmente, y probablemente sea más eficiente y más estable. ¡Pero mola bastante que simplemente con la definición podamos apañarnos!
Aquí puedes ver una tabla de derivadas más extensa (o aquí, si prefieres Python).
Otro ejemploProbemos a derivar la siguiente función no algebraica:
Es fácil ver, con lápiz y papel, que la derivada es 1 en todas partes (fíjate que el argumento de la tangente es una constante). Pero veámoslo usando nuestro objeto Dual:
fun = x -> x + tan(cos(x)^2 + sin(x)^2)
z = Dual(0, 1)
fun(z)
> Dual(1.557407724654902, 1.0)
Para mayor conveniencia, podemos utilizar todo lo que hemos construido hasta ahora para crear un funcional (una función que devuelve funciones) que nos devuelva la derivada:
«»» derivative(f)
Devuelve la derivada de f
«»»
function derivative(f)
df = x -> f(Dual(x, 1.0)).dx
return df
end
Utilizando nuestro funcional, el ejemplo se vuelve aún más compacto y legible:
fun = x -> x + tan(cos(x)^2 + sin(x)^2)
dfun = derivative(f)
dfun(0)
> 1.0
En este caso queremos calcular y además visualizar las derivadas de:
Primero, introducimos la función y usamos nuestro funcional para calcular su derivada.
f(x) = x^2 – 5x + 6 – 5x^3 – 5 * exp(-50 * x^2)
df = derivative(f)
Podemos visualizar los resultados dibujando líneas tangentes a la función original.
using Plots
I = [-0.7; 0.7]
δ = 0.025
@gif
for a = [I[1]:δ:I[2]; I[2]-δ:-δ:I[1]+δ]
L(x) = f(a) + df(a) * (x – a)
plot(f, -1, 1, leg=false)
scatter!([a], [f(a)], m=(:red, 2))
plot!(L, -1, 1, c=:red)
ylims!(-5, 15)
end
La diferenciación automática es especialmente útil en el campo del aprendizaje automático (más conocido como machine learning), dónde es necesario calcular derivadas en varias dimensiones (también llamadas gradientes) con gran velocidad y exactitud. Dicho esto, la diferenciación automática en aplicaciones de aprendizaje automático suele implementarse de forma diferente a lo que hemos visto aquí. Por razones prácticas, suele utilizarse el «modo inverso» (backward), mientras que aquí hemos estudiado el «modo directo» (forward).
¿Por qué hemos estudiado el modo directo? Las razones han sido puramente pedagógicas: es más fácil de explicar y de entender.
Naturalmente, existen varias librerías capaces de hacer diferenciación automática. Un buen ejemplo es JAX (para Python). Otras librerías de aprendizaje automático, como Tensorflowo Pytorch también implementan esta función. En el caso de Julia existen también numerosas opciones, si bien Enzyme.jl parece llevar la delantera. Forwarddiff.jl también merece una visita, pues implementa precisamente lo que aquí hemos esbozado.
Doy las gracias a Abel Siqueira y a Aron Jansen por sus sugerencias y comentarios, que sin duda han hecho de este texto una mejor lectura.
Sobre el autor: Pablo Rodríguez-Sánchez es licenciado en ciencias físicas y doctor en matemáticas aplicadas. Actualmente es ingeniero de software de investigación en el Netherlands eScience Center.
Esta entrada es una traducción adaptada de Automatic Differentiation from scratch, publicada por el mismo autor en el blog del Netherlands eScience Center.
El artículo Diferenciación automática: Enseñando a tu ordenador a hacer derivadas se ha escrito en Cuaderno de Cultura Científica.
Oppenheimer: dilemas de la ciencia
En el marco de ciclo de cine organizado por Filmoteca Vasca y el Donostia International Physics Center (DIPC), el presidente del DIPC, Pedro Miguel Etxenike, impartió la conferencia titulada «Oppenheimer: el dilema de la ciencia». Esta charla sirvió como introducción a la proyección en el Bizkaia Aretoa del primer título del ciclo, «Oppenheimer», de Christopher Nolan, el pasado 13 de enero. La presentación del conferenciante corre a cargo del físico y director de Euskampus Fundazioa, Igor Campillo.
El documental mencionado en la presentación puede verse aquí: El secreto de la naturaleza
Edición realizada por César Tomé López
El artículo Oppenheimer: dilemas de la ciencia se ha escrito en Cuaderno de Cultura Científica.
Ansiedad, TACR3 y testosterona
Existe una conexión significativa entre los trastornos de ansiedad, un receptor cerebral conocido como TACR3 y la testosterona. Así lo ha puesto de manifiesto un estudio con ratas dirigido por la profesora e investigadora Ikerbasque Shira Knafo en el Laboratorio de la Cognición Molecular de la UPV/EHU.
La ansiedad es una respuesta común al estrés, pero para todos aquellos que lidian con trastornos de ansiedad, el impacto en la vida diaria puede ser muy significativo. La evidencia clínica ha insinuado una estrecha relación entre los niveles bajos de testosterona y la ansiedad, especialmente en hombres con hipogonadismo, una condición caracterizada por una función sexual reducida. Sin embargo, la naturaleza precisa de esta relación ha permanecido poco clara hasta ahora.
Diseño experimental del estudio. Fuente: ReferenciaEl estudio comenzó con un descubrimiento fascinante: los animales machos que exhibían niveles extremadamente altos de ansiedad tenían notablemente menos receptores específicos llamados TACR3 en su hipocampo. El hipocampo es una región cerebral estrechamente relacionada con los procesos de aprendizaje y memoria. TACR3 es parte de la familia de receptores taquicinina y responde a una sustancia conocida como neuroquinina. Esta observación despertó la curiosidad de los investigadores y sirvió como base para una investigación exhaustiva sobre la relación entre la deficiencia de TACR3, las hormonas sexuales, la ansiedad y la plasticidad sináptica.
Los animales se clasificaron según su comportamiento en una prueba estándar de resolución de un laberinto, que mide los niveles de ansiedad. Posteriormente, se aislaron sus hipocampos y se sometieron a un análisis de expresión génica para identificar genes con expresión diferencial entre los animales con ansiedad extremadamente baja y los que tenían ansiedad severa. Uno de los genes que destacó fue TACR3. Investigaciones anteriores habían revelado que las mutaciones en genes asociados con TACR3 conducían a una condición conocida como «hipogonadismo congénito», lo que resultaba en una producción reducida de hormonas sexuales, incluyendo la testosterona. Es importante destacar que los hombres jóvenes con bajos niveles de testosterona a menudo experimentan un desarrollo sexual retrasado, acompañado de depresión y ansiedad elevada. Esto llevó a los investigadores a profundizar en el papel de TACR3 en la ansiedad.
Resumen de resultados experimentales. Fuente: ReferenciaEl equipo de investigación utilizó con éxito dos herramientas innovadoras creadas en su laboratorio para el estudio. La primera, llamada FORTIS, tiene la capacidad de detectar cambios en los receptores AMPA dentro de neuronas vivas. Al utilizar FORTIS, demostraron que la inhibición de TACR3 resultaba en un aumento significativo de los receptores AMPA en la superficie celular, interrumpiendo el proceso paralelo de fortalecimiento sináptico a largo plazo, conocido como LTP.
La segunda herramienta utilizada fue una aplicación novedosa de la correlación cruzada para medir la conectividad neuronal dentro de un sistema de matriz multi-electrodo. Esta herramienta desempeñó un papel fundamental al descubrir el profundo impacto de las manipulaciones de TACR3 en la plasticidad sináptica. Lo más importante es que reveló que las deficiencias derivadas de la inactividad de TACR3 podían corregirse eficazmente mediante la administración de testosterona, Ofreciendo esperanza para desarrollar nuevas pautas terapéuticas y abordar los desafíos relacionados con la ansiedad asociada a la deficiencia de la testosterona.
Esta investigación posiciona a TACR3 como un actor central en la conexión entre la ansiedad y la testosterona. El equipo ha descifrado uno de los mecanismos complejos detrás de la ansiedad y ha abierto caminos para terapias novedosas, incluyendo tratamientos con testosterona, que podrían mejorar la calidad de vida de las personas que se enfrentan a trastornos del desarrollo sexual y a la ansiedad y depresión asociadas.
Referencia:
Wojtas, M.N., Diaz-González, M., Stavtseva, N., Shoam, Y., Verma, P., Buberman, A., Izhak, I., Geva, A., Basch, R., Ouro, A., Perez-Benitez, L., Levy, U., Borcel, E., Nuñez, Á., Venero, C., Rotem-Dai, N., Veksler-Lublinsky, I. & Knafo, S. (2023) Interplay between hippocampal TACR3 and systemic testosterone in regulating anxiety-associated synaptic plasticity. Molecular Psychiatry doi: 10.1038/s41380-023-02361-z
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Ansiedad, TACR3 y testosterona se ha escrito en Cuaderno de Cultura Científica.
¿Agujero negro más ligero o estrella de neutrones más pesada?
Con un radiotelescopio de Sudáfrica se ha identificado un sistema binario formado por una estrella pulsante y un misterioso objeto compacto, con unas 2,35 masas solares, lo que lo sitúa en la llamada ‘brecha de masas’ entre las estrellas de neutrones y los agujeros negros. Si fuera esto último, se tendría la codiciada pareja púlsar de radio-agujero negro, que permitiría nuevos test de la relatividad general de Einstein.
lustración del sistema binario suponiendo que el objeto compacto descubierto sea un agujero negro, junto al púlsar de radio PSR J0514-4002E (la estrella compañera más brillante del fondo). Ambos estarían separados por 8 millones de kilómetros y giran uno alrededor de la otra cada 7 días. Fuente: MPIfR / Daniëlle Futselaar (artsource.nl)Las estrellas de neutrones, los restos ultradensos de la explosión de una supernova, solo pueden tener un peso limitado. Una vez que adquieren demasiada masa, por absorber o colisionar con otra estrella, se colapsan. Se ha especulado mucho sobre en qué se convierten luego, pero la opinión predominante es que en agujeros negros, objetos tan gravitatoriamente potentes que ni siquiera la luz puede escapar de ellos.
La teoría, respaldada por la observación, indica que los agujeros negros más ligeros que pueden crearse por el colapso de estrellas son unas 5 veces más masivos que el Sol, es decir, que tienen unas 5 masas solares. Esto es considerablemente mayor que las 2,2 masas solares que se requieren para que colapse una estrella de neutrones (las más masivas tienen hasta 2,5), dando lugar a lo que se conoce como la brecha de masa de los agujeros negros. Se desconoce la naturaleza de los objetos compactos que se encuentran dentro de este ‘hueco’, ya que solo se han captado algunos datos en lejanos eventos de fusión de ondas gravitacionales.
Ahora, el descubrimiento de un objeto en esta brecha de masa en nuestra propia galaxia por un equipo de astrónomos de la colaboración internacional TRAnsients and PUlsars with MeerKAT (TRAPUM) puede ayudar a comprender por fin lo que son.
Su trabajo, coordinado desde el alemán Instituto Max Planck de Radioastronomía (MPIfR, que colidera TRAPUM junto a la Universidad de Mánchester) y publicado esta semana en la revista Science, informa sobre una pareja masiva de estrellas u objetos compactos en el cúmulo globular NGC 1851, en la constelación austral de Columba (la paloma).
Utilizando el radiotelescopio MeerKAT de Sudáfrica, en combinación con potentes instrumentos construidos por ingenieros del MPIfR, pudieron detectar débiles pulsos procedentes de una de las estrellas, identificándola como un púlsar de radio, un tipo de estrella de neutrones que gira rápidamente y emite haces de luz de radio hacia el universo como un faro cósmico. Este púlsar, denominado PSR J0514-4002E, gira más de 170 veces por segundo, y cada rotación produce un pulso rítmico, como el tic-tac de un reloj.
Radiotelescopio MeerKAT, situado en el semidesierto de Karoo, en Sudáfrica. Fuente: SARAOMediante la observación de pequeños cambios en este tic-tac a lo largo del tiempo, utilizando una técnica llamada pulsar timing o cronometraje de púlsares, fueron capaces de realizar mediciones extremadamente precisas de su movimiento orbital.
«Es como orbitar un cronómetro casi perfecto alrededor de una estrella a casi 40.000 años luz de distancia y cronometrar esas órbitas con una precisión de microsegundos», explica Ewan Barr, que dirigió el estudio junto con Arunima Dutta, colega y doctoranda del MPIfR.
Esa temporización regular también permitió medir con gran precisión la ubicación del sistema, lo que demostró que el objeto que se mueve junto al púlsar no era una estrella normal (es invisible en las imágenes de NGC 1851 del telescopio espacial Hubble), sino un resto extremadamente denso de una estrella colapsada.
Además, el cambio observado en el tiempo del punto más cercano de aproximación entre las dos estrellas u objetos (el periastro) mostró que la compañera o compañero tiene una masa que es mayor que la de cualquier estrella de neutrones conocida pero menor que la de cualquier agujero negro conocido, lo que la sitúa directamente en la brecha de masa de los agujeros negros.
Como las estrellas de neutrones más masivas suelen tener entre 2,2 y 2,5 masas solares (más cerca de lo primero, aunque es objeto de debate), mientras que los agujeros negros de menos de 5 masas solares rara vez se observan, ¿qué es entonces este misterioso objeto compacto, que tiene entre 2,09 y 2,71 masas solares?
“Depende de cuál sea realmente la masa máxima de las estrellas de neutrones”, subraya Barr a SINC, y lo explica: “Existen pruebas convincentes, procedentes de fusiones por ondas gravitacionales, de que la masa máxima de una estrella de neutrones se sitúa en torno a 2,17. Según nuestras observaciones, la masa más probable de la compañera es de 2,35 masas solares. Basándonos en esto, el balance de probabilidades sugiere que lo que hemos encontrado es demasiado pesado para ser una estrella de neutrones y, por tanto, es más probable que sea un agujero negro”.
“Sin embargo, sinceramente, yo no me fiaría ni de lo uno ni de lo otro –comenta–. La masa por sí sola no es una prueba especialmente persuasiva para una u otra interpretación y es seguro que tras hacer público este resultado habrá teóricos que soñarán con nuevas formas de crear estrellas de neutrones ultramasivas”.
¿Y si fuera una estrella de quarks?Respecto a la posibilidad de que no sea ni una estrella de neutrones ni un agujero negro, apunta: «La probabilidad de que eso ocurra es extremadamente pequeña. Existen objetos teóricos más densos que una estrella de neutrones, pero no lo suficiente como para colapsar y convertirse en un agujero negro. Un candidato es una estrella de quarks compuesta por una especie de plasma estable de quarks y gluones que no se colapsa debido a las fuerzas de repulsión entre estos quarks. Una estrella así sería masiva y densa, pero también muy difícil de detectar directamente debido a la falta de emisión electromagnética. Por el momento, no existen pruebas convincentes de la existencia de este tipo de estrellas».
«Sea lo que sea este objeto, es una noticia apasionante», afirma Paulo Freire, también del MPIfR. «Si es un agujero negro, será el primer sistema púlsar-agujero negro conocido, que ha sido el Santo Grial de la astronomía de púlsares durante décadas», indica. Esta codiciada pareja estelar permitiría realizar nuevas pruebas o test de la relatividad general de Einstein.
«Y si es una estrella de neutrones –continúa–, tendrá implicaciones fundamentales para nuestra comprensión del desconocido estado de la materia a estas increíbles densidades».
Una historia de formación exóticaEl equipo propone que la formación del objeto masivo, y su posterior emparejamiento con el púlsar de radio de giro rápido en una órbita estrecha, es el resultado de una historia de formación bastante exótica, solo posible debido a su particular entorno local. Este sistema se encuentra en un cúmulo globular (NGC 1851) con una densa colección de estrellas viejas que están mucho más apretadas que las del resto de la galaxia. Aquí, la aglomeración es tal que las estrellas pueden interactuar entre sí, perturbando sus órbitas y, en los casos más extremos, colisionando.
La explicación sobre su posible formación no es sencilla. Se cree que una de esas colisiones entre dos estrellas de neutrones creó el objeto masivo misterioso (sea agujero negro o estrella de neutrones). Por su parte, el púlsar de radio (de milisegundos, MSP) debió adquirir material de una estrella donante en una binaria de rayos X de baja masa (LMXB).
Este proceso de «reciclaje» es necesario para que el púlsar alcance su velocidad de rotación actual. Los autores creen que esta estrella donante (que quedó como enana blanca, WD) fue sustituida por el objeto masivo actual durante un encuentro de intercambio.
Posible historia de formación del púlsar de radio NGC 1851E y su exótico compañero. Fuente: Thomas Tauris (Aalborg University / MPIfR)«Se trata del púlsar binario más exótico descubierto hasta ahora», afirma el coautor Thomas Tauris, de la Universidad de Aalborg (Dinamarca), «y su larga y compleja historia de formación supera los límites de nuestra imaginación».
Aunque el equipo no puede afirmar de forma concluyente si han encontrado la estrella de neutrones más masiva conocida, el agujero negro más ligero conocido o incluso alguna nueva variante de estrella exótica, lo cierto es que han descubierto un laboratorio único para sondear las propiedades de la materia en las condiciones más extremas del universo.
«Aún no hemos terminado con este sistema», afirma Arunima Dutta, que concluye: «Descubrir la verdadera naturaleza de la compañera será un punto de inflexión en nuestra comprensión de las estrellas de neutrones, los agujeros negros y cualquier otra cosa que pueda estar al acecho en la brecha de masa de los agujeros negros».
Próximos pasos para resolver el misterioPor su parte, Barr comenta los próximos pasos: “Estamos realizando observaciones para detectar cambios en la señal del púlsar debidos al campo gravitatorio de su pareja. La detección de estos efectos nos indicaría con mayor seguridad cuál es la masa del púlsar y del objeto compacto. El radiotelescopio MeerKAT no es lo suficientemente sensible para detectar estos efectos, y esperamos con impaciencia la llegada de nuevos instrumentos, como el telescopio Square Kilometre Array, que debería detectar fácilmente estos cambios”.
“Hay un efecto relativista en particular que nos interesa, llamado precesión Lense-Thirring, que se produce en presencia de objetos fuertemente gravitatorios (básicamente, los objetos arrastran consigo el espacio-tiempo a medida que giran, como las corrientes en el océano). A diferencia de otros efectos, que solo nos indicarían la masa de la estrella u objeto compañero, la detección de la precesión Lense-Thirring nos informa sobre la velocidad a la que gira. Se espera que los agujeros negros giren mucho más rápido que las estrellas de neutrones, por lo que esto nos daría una forma directa de saber cuál de los dos es”. La investigación del enigmático objeto continúa.
Referencia:
Ewan Barr, Arunima Dutta et al. (2024) A pulsar in a binary with a compact object in the mass gap between neutron stars and black holes Science doi: 10.1126/science.adg300
Una versión de este artículo fue publicada originalmente en SINC el 18 de enero de 2024. Autor: Enrique Sacristán.
El artículo ¿Agujero negro más ligero o estrella de neutrones más pesada? se ha escrito en Cuaderno de Cultura Científica.
Los sólidos platónicos
Recientemente, he tenido el placer de organizar una visita, con ojos matemáticos, a la maravillosa exposición Gego, mirando el infinito, que el Museo Guggenheim Bilbao acoge estos días, del 7 de noviembre de 2023 al 4 de febrero de 2024. Gertrude Goldschmidt (Hamburgo, 1912–Caracas, 1994), cuyo nombre artístico es Gego, fue una artista venezolana, de origen alemán, pionera del arte abstracto latinoamericano, cuya obra artística podemos enmarcar dentro de las corrientes de la abstracción geométrica, el arte cinético y el arte óptico, con una fuerte influencia matemática. Entre las obras que se pueden admirar en esta exposición hay esculturas colgantes como Esfera n. 2 (1976), Esfera n. 4 (1976) o Siete icosidodecaedros (1977), de su serie Esferas, que son poliedros, esto es, figuras geométricas tridimensionales, cuyas caras planas son polígonos y se unen unas con otras a través de sus lados y que, además, encierran un volumen finito. Algunos de esos poliedros, en particular, los de la escultura Siete icosidodecaedros, pertenecen a la familia de poliedros denominada sólidos arquimedianos, como expliqué en la mencionada visita y sobre los que tenía la intención de escribir en esta entrada del Cuaderno de Cultura Científica. Sin embargo, no tiene sentido explicar qué son los sólidos arquimedianos sin pasar primero por los sólidos platónicos, que es lo que vamos a hacer finalmente en esta anotación.
Escultura colgante Siete icosidodecaedros (1977), de la artista venezolana, de origen alemán, Gego, que forma parte de la exposición Gego, mirando el infinito, (Museo Guggenheim Bilbao, 7 de noviembre de 2023 – 4 de febrero de 2024). Fotografía: Raúl IbáñezLos sólidos platónicosPara introducir a los sólidos platónicos primero vamos a definir de forma sencilla qué es un poliedro. Un poliedro es una figura geométrica tridimensional formada por caras poligonales planas (triángulos, cuadriláteros, pentágonos, hexágonos, etc; aunque también podrían ser estrellados, como la estrella pentagonal (pentagrama o pentalfa), y la estrella hexagonal (hexagrama o estrella de David), que generan curiosos poliedros que se autointersecan, aunque en esta entrada no vamos a dedicar mucha atención a estos), aristas rectas (que son los lados compartidos de cualesquiera dos caras poligonales planas) y los vértices (que son los puntos en los que se juntan las aristas).
Algunos ejemplos de poliedros, desde el tetraedro, que es una pirámide triangular, pasando por el prisma y el antiprisma pentagonales, el icosaedro formado por 20 triángulos, el icosaedro truncado, formado por pentágonos y hexágonos, que fue la forma de los balones de fútbol durante años, y un poliedro estrellado, más complejo de ver, ya que sus caras son estrellas pentagonales y, por lo tanto, se autointersecan. Imágenes de Tomruen, a través de Wikimedia Commons
La anterior definición es imprecisa. Aunque nuestro objetivo no es dar una definición estricta de poliedro, si matizaremos un poco la definición. Por una parte, cada cara del poliedro tiene que estar en un plano distinto a los planos de las demás caras y, por otra parte, consideraremos que los poliedros encierran un volumen finito (en particular, no son abiertos).
Existen muchas familias de poliedros, por este motivo primero vamos a centrarnos en los más sencillos y regulares, los sólidos platónicos. Un sólido platónico es un poliedro regular convexo. Vamos por partes. Un poliedro es regular si sus caras son polígonos regulares (esto quiere decir que los lados del polígono, respectivamente, sus ángulos interiores, son iguales entre sí) todos iguales y la estructura de todos los vértices es la misma. Por ejemplo, el tetraedro de la anterior imagen es un poliedro regular, puesto que todas sus caras son triángulos equiláteros del mismo tamaño y la estructura de todos los vértices es la misma, cada vértice recibe tres triángulos equiláteros. Por otra parte, el concepto de poliedro convexo tiene cierta complejidad, pero podemos explicarlo de la siguiente forma. Un poliedro es convexo si dados dos puntos cualesquiera del mismo, el segmento que los une está en el interior del poliedro, como en los cinco primeros ejemplos de la imagen anterior, y no será convexo en caso contrario, como en el poliedro estrellado anterior, en el que, por ejemplo, los segmentos que unen cualesquiera dos vértices son exteriores. Otra forma de definir la convexidad es que para cualquier plano en el que se apoye una cara del poliedro, este estará colocado completamente a un solo lado de dicho plano. Por ejemplo, en el caso del tetraedro si consideramos el plano en el que descasa cualquiera de sus caras triangulares, vemos claramente que el tetraedro estará completamente colocado a un lado del plano, luego el tetraedro es un sólido platónico. Sin embargo, si tomamos el plano que contiene a cualquiera de las caras del poliedro estrellado anterior (que es una estrella pentagonal), tenemos que hay partes del poliedro a cada lado del plano, luego es no convexo.
A pesar de la existencia de infinitos polígonos regulares, que van desde los sencillos triángulo equilátero (3 lados iguales), cuadrado (cuatro lados) o pentágono (5 lados), subiendo en la cantidad de lados, hexágono (6), heptágono (7), octógono (8), nonágono (9), así hasta el infinito, solamente existen cinco sólidos platónicos. A saber, el tetraedro (formado por 4 triángulos equiláteros y cuya estructura en los vértices está formada por la confluencia de tres triángulos equiláteros, lo cual podemos expresarlo como que tiene una estructura {3, 3, 3}), el octaedro (8 triángulos equiláteros y estructura de los vértices igual a {3, 3, 3, 3}), el cubo (6 cuadrados y estructura de los vértices {4, 4, 4}), el icosaedro (20 triángulos equiláteros y estructura de sus vértices {3, 3, 3, 3, 3}) y el dodecaedro (12 pentágonos y estructura de sus vértices {5, 5, 5}), que vemos en la siguiente imagen.
Imagen de los sólidos platónicos, tetraedro, octaedro, cuadrado, icosaedro y dodecaedro. Imagen de DTR, a través de Wikimedia Commons
Antes de continuar, vamos a contar la cantidad de vértices, aristas y caras que tienen estos cinco poliedros regulares convexos y que recogemos en la siguiente tabla.
Los griegos ya lo sabíanLos antiguos matemáticos griegos ya demostraron que tan solo existen cinco sólidos platónicos, es decir, poliedros regulares (mismas caras y mismos vértices) convexos. Por ejemplo, en la gran obra de la matemática griega, y universal, Los Elementos, del matemático griego Euclides de Alejandría (aprox. 325 – 265 a.n.e.) se estudian los sólidos platónicos (principalmente, en su libro número XIII) y se demuestra que solamente existen cinco. La idea, que es muy simple, consiste en estudiar las posibles estructuras en los vértices. Puedes saltarte la demostración, aunque es tan sencilla e intuitiva que merece la pena leerla.
Empecemos por los triángulos. Como en un plano, alrededor de un vértice, podemos disponer de seis triángulos equiláteros, puesto que 6 x 60 = 360 grados (recordemos que los ángulos interiores de un triángulo equilátero son de 60 grados), el número máximo de triángulos equiláteros alrededor de un vértice del poliedro regular convexo será, como mucho, cinco. Por lo tanto, obtenemos que solamente hay tres sólidos platónicos formados por triángulos, a saber, el tetraedro, con tres triángulos equiláteros {3, 3, 3}, el octaedro, con cuatro triángulos equiláteros {3, 3, 3, 3} y el icosaedro, con cinco triángulos equiláteros {3, 3, 3, 3, 3}. Y no hay más posibilidades. Con tan solo dos triángulos es imposible formar un poliedro cerrado, ya que no podemos cerrar la estructura en el vértice. Y con seis triángulos equiláteros la figura en el vértice sería plana, no hay manera de que sea tridimensional, y no hay espacio para encajar más de seis triángulos equiláteros alrededor de un vértice.
Imagen de los tres poliedros regulares convexos formados por triángulos, vistos con uno de sus vértices en el centro, el tetraedro (3 triángulos equiláteros por vértice), el octaedro ((4 triángulos equiláteros)) y el icosaedro (5 triángulos equiláteros) y, en cada caso, el mismo número de triángulos equiláteros en el plano que los que están alrededor de un vértice. Imagen construida a partir de imágenes de los poliedros de Stephen Wolfram y Eric W. Weisstein, realizadas con Mathematica
Si continuamos con los cuadrados, resulta que alrededor de un vértice no podrá haber más de tres cuadrados, ya que 4 x 90 = 360 grados (recordemos que los ángulos interiores de un cuadrado son de 90 grados), luego con cuatro cuadrados la figura sería plana y no hay forma de construir un poliedro. Con dos cuadrados no llegamos a nada, como en el caso anterior, pero con tres cuadrados por vértice se obtiene el cubo.
Imagen del único poliedro regular convexo formado por cuadrados, visto con uno de sus vértices en el centro, el cubo, con 3 cuadrados por vértice, y el mismo número de cuadrados en el plano. Imagen construida a partir de una imagen del cubo de Stephen Wolfram y Eric W. Weisstein, realizada con Mathematica
Algo similar pasa para los pentágonos, cuyo ángulo interior en sus vértices es de 108 grados, luego el número máximo de pentágonos alrededor de un vértice de un sólido platónico es tres, ya que con cuatro nos pasamos de los 360 grados (108 x 4 = 432 grados).
Imagen del único poliedro regular convexo formado por pentágonos, visto con uno de sus vértices en el centro, el dodecaedro, con 3 pentágonos por vértice, y el mismo número de pentágonos en el plano. Imagen construida a partir de una imagen del cubo de Stephen Wolfram y Eric W. Weisstein, realizada con Mathematica
Los hexágonos nos van a dar una idea de lo qué ocurre con polígonos de más lados. Ya hemos comentado más arriba que con dos polígonos solamente, da igual el número de lados de estos, es imposible crear un poliedro. El problema es que con tres hexágonos en un vértice tenemos que la figura ya es plana, puesto que 3 x 120 = 360 grados (los ángulos interiores de un hexágono son de 120 grados), luego es imposible generar un poliedro con 3, o más, hexágonos. La cosa es peor aún para polígonos de siete, o más, lados, puesto que es imposible encajar tres, o más, polígonos en un vértice, ya que la suma de sus ángulos siempre es mayor de 360 grados.
Por lo tanto, los únicos poliedros regulares convexos, es decir, sólidos platónicos, son el tetraedro, el octaedro, el icosaedro, el cubo y el dodecaedro.
Esculturas de los cinco sólidos platónicos (1996), realizadas por el artista alemán Ekkehard Neumann, para el parque Bagno de la ciudad alemana de Steinfurt
Sin embargo, la mayoría de los historiadores atribuyen el contenido del libro XIII de Los Elementos de Euclides al matemático griego Teeteto (aprox. 417 – 369 a.n.e.), quien estudió bajo la dirección del matemático pitagórico Teodoro de Cirene (465 – 398 a.n.e.), al igual que el filósofo griego Platón (aprox. 427 – 347 a.n.e.), quien lo incluiría, como interlocutor del personaje principal de todos sus diálogos, el filósofo Sócrates (470 – 399 a.n.e.), en dos de sus diálogos, el Sofista y Teeteto.
Cosmogonía platónicaEl nombre de sólidos platónicos para los poliedros regulares convexos viene del diálogo Timeo, de Platón. En este diálogo, se describen los poliedros regulares convexos, que posteriormente, recibirán el nombre de sólidos platónicos, y se relacionan con la creación del cosmos. Para Platón los cuatro primeros poliedros regulares, tetraedro, octaedro, icosaedro y cubo, están relacionados con los cuatro elementos que forman el cosmos, fuego, aire, agua y tierra. Así podemos leer en este diálogo (hemos tomado la edición bilingüe de José María Zamora Calvo, publicada por Abada Editores, en 2010):
A la tierra asignemos la figura cúbica, ya que es la más difícil de mover de los cuatro géneros y la más plástica de entre los cuerpos; y es del todo necesario que lo que posea tales características tenga al nacer las caras más estables. Ahora bien, entre los triángulos supuestos al comienzo, la cara de lados iguales es por naturaleza más estable que la de lados desiguales, y la superficie de cuatro lados iguales formada por dos equiláteros resulta necesariamente una base más estable que el triángulo equilátero, tanto en sus partes como en el todo. Por consiguiente, si atribuimos esta figura a la tierra, aseguramos el discurso verosímil y, asimismo, al agua la forma menos móvil de las restantes, al fuego la más móvil, y al aire la intermedia. Y atribuimos el cuerpo más pequeño [tetraedro] al fuego, el más grande [icosaedro] al agua, y el del medio [octaedro] al aire; y, a su vez, el más agudo al fuego, el segundo más agudo al aire, y el tercero al agua.
El universo está formado por los cuatro elementos fuego [tetraedro], tierra [cubo], agua [icosaedro] y aire [octaedro], pero Dios utiliza el dodecaedro, que en el diálogo solo se menciona como la “quinta composición” (esto es, el quinto poliedro regular convexo), para crear el universo, ya que el dodecaedro es el poliedro regular convexo más próximo a la esfera. Platón escribe en el diálogo (edición bilingüe de José María Zamora Calvo, publicada por Abada Editores, en 2010):
Había aún una quinta composición [dodecaedro]; el dios la utilizó para el universo, cuando lo pintó con diversos colores.
Dios habría tomado el quinto poliedro como modelo para crear el universo y este es el motivo por el cual se ha considerado el dodecaedro como el símbolo del universo. Si nos fijamos en la pintura, La última cena (1955), o más exactamente El sacramento de la última cena, del artista catalán Salvador Dalí (1904-1989), Jesús y los apóstoles están rodeados en esa última cena de un enorme dodecaedro.
Ilustración del libro Harmonices mundi (1619), del matemático y astrónomo alemán Johannes Kepler (1571-1630), que incluye -en el centro a la derecha- la imagen de los cinco sólidos platónicos con dibujos que los relacionan con la cosmogonía platónicaAlgunas fuentes, entre las que están el filósofo neoplatónico griego Proclo (412-485), atribuyen a Pitágoras la cosmogonía descrita en el diálogo Timeo de Platón, aunque la mayoría de los historiadores consideran bastante improbable que Pitágoras hubiese planteado este origen del universo. Según muchas fuentes los primeros pitagóricos conocerían solo tres de los cinco sólidos platónicos, el cubo, el tetraedro y el dodecaedro, y se atribuye a Teeteto el octaedro y el icosaedro.
¿Se conocían los poliedros regulares en el neolítico?En la siguiente imagen, del libro Time Stands Still; New Light on Megalithic Science / El tiempo se detiene; Nuevos descubrimientos en la ciencia del Megalítico (1979), del profesor de arquitectura, escritor y artista británico Keith Critchlow (1933-2020), apasionado de la denominada “geometría sagrada”, aparecen cinco “bolas de piedra talladas”. Las bolas de piedra talladas son objetos artificiales esféricos tallados en piedra, lo que se denomina petroesferas, que datan de finales del neolítico (hace más de 4.000 años) y que han sido encontradas principalmente en Escocia, aunque también en el resto de Gran Bretaña e Irlanda. Su tamaño suele ser de unos 7 centímetros de diámetro y cuentan con entre 3 y 160 abultamientos. Además, se desconoce cuál era el uso de estas bolas de piedra talladas. Esta imagen ha sido utilizada por Critchlow para demostrar que en el neolítico ya se conocían los cinco sólidos platónicos, más de mil años antes de Platón.
Imagen del libro Time Stands Still; New Light on Megalithic Science / El tiempo se detiene; Nuevos descubrimientos en la ciencia del Megalítico (1979), del británico Keith Critchlow, con las supuestas cinco bolas de piedra talladas con la forma de los cinco sólidos platónicosSin embargo, algunas personas, como el artista y matemático estadounidense George W. Hart, encontraron algunas contradicciones en esta imagen. Por este motivo, hay quienes acudieron a la fuente original. Las cinco bolas de piedra talladas que menciona Critchlow se encuentran en el Museo Ashmolean de Oxford (Inglaterra, Gran Bretaña) y son las que aparecen en la siguiente imagen.
Imagen de las cinco bolas de piedra talladas que se encuentran en el Museo Ashmolean de Oxford. Imagen de la página web del Museo AshmoleanSi vamos revisando las cinco bolas de piedra tallada una a una observamos lo siguiente. La primera, arriba a la izquierda, tiene siete abultamientos, luego estos no pueden corresponderse ni con vértices, ni con caras, de un poliedro regular convexo (véase la tabla anterior), como ocurría en la interpretación que hacía Critchlow en su imagen. La segunda bola, arriba en el centro, tiene seis abultamientos y podríamos interpretarla tanto como un octaedro, si los abultamientos se consideran como los vértices del poliedro, o como un cubo si los abultamientos (que están bastante aplanados) se consideran como las caras del poliedro. Esta doble interpretación que estamos realizando, está relacionada con el hecho de que el cubo y el octaedro son duales, como comentaremos más adelante. La tercera bola, arriba a la derecha, tiene 14 abultamientos, que no se corresponde con ningún poliedro regular, ya se consideren los abultamientos como caras o vértices (véase la tabla anterior). La cuarta bola, abajo a la izquierda, posee 6 grandes abultamientos, es como segunda bola, pero con abultamientos un poco más grandes. Y, finalmente, la última bola posee cuatro abultamientos, por lo que podemos interpretarla como la representación del tetraedro, ya se consideren los abultamientos como caras o vértices.
Por lo tanto, las cinco bolas de piedra talladas del Museo Ashmolean no están relacionadas con los cinco sólidos platónicos, como afirmaba Critchlow. En conclusión, la mencionada fotografía parece estar amañada.
Existen más ejemplos de bolas de piedra talladas con estructura de tetraedro o cubo/octaedro (en función de si los abultamientos son más o menos planos parecerán más un cubo o un octaedro), similares a las bolas del Museo Ashmolean. En las siguientes imágenes vemos algunos de estos ejemplos.
Tres bolas de piedra talladas, que se encuentran en el Kelvingrove Art Gallery and Museum, de Glasgow (Gran Bretaña), con seis abultamientos. Las dos primeras, con abultamientos más planos, nos recuerdan más al cubo, mientras que la tercera, con abultamientos más pronunciados, nos remite a la estructura del octaedroFotografía de la bola de piedra tallada, encontrada en Towie, Aberdeenshire (Escocia) y que se encuentra en el Museo Nacional de Escocia, fechada alrededor del 3.000 a.n.e. Esta bola tiene estructura de tetraedro. Imagen del Museo Nacional de Escocia
Incluso puede encontrarse alguna bola de piedra tallada en la que podemos interpretar un dodecaedro. En la siguiente imagen vemos el modelo 3d de una bola de piedra tallada, encontrada en Aboyne, Aberdeenshire (Escocia), con 12 abultamientos, cada uno de los cuales está rodeado de otros cinco, luego simulan caras pentagonales lo que hace que la bola de piedra tallada parezca un dodecaedro.
Dos vistas del modelo 3d, realizado por Hugo Anderson-Whymark, de una bola de piedra tallada, encontrada en Aboyne, Aberdeenshire (Escocia), con 12 abultamientos, cada uno de los cuales está rodeado de otros cinco (primera imagen), luego simulan caras pentagonales lo que hace que la bola de piedra tallada parezca un dodecaedro (segunda imagen)Por otra parte, si relacionamos los abultamientos con los vértices de un poliedro regular, podríamos relacionar la anterior bola de piedra tallada con el icosaedro, lo cual está relacionado con el hecho de que el dodecaedro y el icosaedro son duales, como veremos.
Nos podríamos plantear si en el neolítico conocían los poliedros regulares convexos, como sugería Critchlow. Todo hace pensar que, aunque podamos relacionar algunas de las bolas de piedra talladas con los sólidos platónicos, esto no demuestra que las personas que tallaron estas piedras esféricas con abultamientos simétricos tuvieran en mente los poliedros regulares a la hora de crearlos. Claramente tenían cierta intuición geométrica, relacionada con la simetría, pero no un conocimiento de los sólidos platónicos. La relación de las bolas de piedras talladas con los poliedros regulares es más bien una interpretación moderna de las bolas. Además, como ya hemos comentado antes, existen bolas con muy distinto número de abultamientos, que van desde 3 hasta 160.
Bolas de Piedra talladas del Hunterian Museum de Glasgow (Escocia)Algunos poliedros regulares antiguosLo que sí podemos afirmar es que existen algunas representaciones antiguas de algunos de los sólidos platónicos, como los dodecaedros romanos, de bronce o piedra, encontrados (hasta un centenar de ellos) en diferentes partes de Europa, que datan de entre los siglos II y IV, luego no anteriores a Teeteto o Platón, y cuya función se sigue desconociendo hoy en día, o el icosaedro romano encontrado en una excavación de Alemania.
Fotografía de dos dodecaedros y un icosaedro romanos de bronce, del siglo III, encontrados en dos excavaciones alemanas y que pertenecen al Museo regional renano Tréveris. Imagen de kleon3 a través de Wikimedia Commons
Incluso existen algunos más antiguos, como el dodecaedro etrusco, un dodecaedro de piedra encontrado en una excavación en Monte Loffa (Véneto, Italia), datado por lo menos en el 500 a.n.e. En algunos libros se acompaña esta afirmación con la imagen de un dodecaedro romano, como los anteriores, sin embargo, esa imagen no se corresponde con el dodecaedro etrusco. Amelia Carolina Sparavigna, del Politécnico de Turín (Italia), en su artículo An Etruscan Dodecahedron / Un dodecaedro etrusco, acude a la investigación original, el artículo Intorno un dodecaedro quasi regolare di pietra a facce pentagonali scolpite con cifre, scoperto nelle antichissime capanne di pietra del Monte Loffa / Sobre un dodecaedro de piedra casi regular, con caras pentagonales talladas con figuras, descubierto en las antiguas cabañas de piedra de Monte Loffa (1885), de Stefano De’ Stefani, quien estudia este pequeño dodecaedro de piedra y lo acompaña con una ilustración del mismo (la de la siguiente imagen).
Ilustración del dodecaedro etrusco perteneciente al texto Sobre un dodecaedro de piedra casi regular, con caras pentagonales talladas con figuras, descubierto en las antiguas cabañas de piedra de Monte Loffa (1885), de Stefano De’ StefaniEn opinión de De’ Stefani el dodecadero etrusco podría ser un dado y las marcas corresponderse con algún tipo de representación de los números del 1 al 12.
También se han encontrado diferentes dados icosaédricos, realizados con distintos materiales, del Antiguo Egipto, tanto del período helenístico, como del romano, entre el siglo II a.n.e. y el siglo IV n.e., y con números, en griego o romano, en sus caras.
Dos dados icosaédricos, con 20 caras, con letras griegas en sus caras del Antiguo Egipto, entre los siglos II a.n.e. y IV n.e. Imágenes del Museo Metropolitano de ArteDualidadAntes de dar por finalizada esta entrada del Cuaderno de Cultura Científica vamos a explicar el concepto de dualidad para los poliedros. Se dice que dos poliedros son duales si las caras de uno se corresponden con los vértices del otro, y recíprocamente. Construyamos los poliedros duales de los sólidos platónicos.
Dado un poliedro regular convexo se construye el poliedro dual uniendo los puntos centrales de las caras adyacentes, de esta forma cada cara del poliedro original se corresponde con un vértice del nuevo poliedro. De forma análoga, cada vértice del poliedro original se va a corresponder con una cara del nuevo poliedro, ya que cada vértice del poliedro original tiene alrededor una serie de caras adyacentes dos a dos y conectadas de forma cíclica, de manera que al unir sus centros, que son los vértices del nuevo poliedro, se obtiene la cara de ese nuevo poliedro, que está conectada con el vértice del que partíamos).
Por ejemplo, el poliedro dual del dodecaedro es el icosaedro, como se muestra en la siguiente imagen. Como vemos, las caras del dodecaedro se corresponden, por construcción, con los vértices del icosaedro, así como los vértices del dodecaedro se corresponden con las caras del icosaedro.
Imagen que ilustra que el icosaedro es dual del dodecaedro, realizada por la estudiante Klara Mundilova (2012), utiñizando POV-Ray – The Persistance of Vision Raytracer, para la clase del profesor Hans Havlicek, de la TU DMG Technische Universität Wien, de Austria
Resulta que los poliedros duales de los sólidos platónicos siguen siendo sólidos platónicos. Más concretamente, el dodecaedro y el icosaedro son duales, el cubo y el octaedro son duales, y el tetraedro es dual de sí mismo, como podemos observar en la siguiente imagen.
Dualidad de los sólidos platónicos. Imagen del proyecto ATRACTOR de Portugal, a través de su página webLa dualidad se puede obtener mediante otros procesos, pero no vamos a entrar en ellos en esta ocasión. Para terminar esta entrada vamos a mostrar las esculturas basadas en la dualidad de los sólidos platónicos de la artista saudí-palestina Dana Awartani (1987),
Escultura Tetraedro dentro de un tetraedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Octaedro dentro de un cubo II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Cubo dentro de un octaedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Icosaedro dentro de un dodecaedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Dodecaedro dentro de un icosaedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEn la siguiente entrada continuaremos hablando de los sólidos platónicos, los poliedros regulares convexos.
Bibliografía
1.- Geaninne Gutiérrez-Guimaraes (editora), Gego, midiendo el infinito (catálogo de la exposición), Museo Guggenheim Bilbao, 2023.
2.- Pedro Miguel González Urbaneja, Los sólidos pitagórico-platónicos (Geometría, Arte, Mística y Filosofía), FESPM, 2008.
3.- Claudi Alsina, Las mil caras de la belleza geométrica (los poliedros), El mundo es matemático, RBA, 2010.
4.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Los sólidos platónicos se ha escrito en Cuaderno de Cultura Científica.
Cómo garantizar la seguridad de los vehículos autónomos
A medida que los automóviles y aeronaves pilotados por ordenador se vuelven más comunes, la clave para prevenir accidentes, según muestran los investigadores, es saber lo que no se sabe.
Un artículo de Steve Nadis. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Señor Salme para Quanta MagazineLos automóviles y aeronaves sin piloto ya no son cosa del futuro. Solo en la ciudad de San Francisco, dos compañías de taxis han registrado colectivamente 12,9 millones de kilómetros de conducción autónoma hasta agosto de 2023. Y más de 850.000 vehículos aéreos autónomos, o drones, están registrados en los Estados Unidos, sin contar los militares.
Pero existen preocupaciones justificadas sobre la seguridad. Por ejemplo, en un período de 10 meses que finalizó en mayo de 2022, la Administración Nacional de Seguridad del Tráfico en Carreteras de los Estados Unidos informó de casi 400 accidentes que involucraron automóviles que utilizaban alguna forma de control autónomo. Seis personas murieron como consecuencia de estos accidentes y cinco resultaron gravemente heridas.
La forma habitual de abordar este problema, a veces denominada “prueba por agotamiento”, implica probar estos sistemas hasta que estés convencido de que son seguros. Pero nunca se puede estar seguro de que este proceso descubrirá todos los defectos potenciales. «La gente realiza pruebas hasta que agotan sus recursos y su paciencia», explica Sayan Mitra, científico informático de la Universidad de Illinois en Urbana-Champaign. Sin embargo, las pruebas por sí solas no pueden ofrecer garantías.
Mitra y sus colegas sí pueden. Su equipo ha logrado demostrar la seguridad de las capacidades de seguimiento de carriles para automóviles y de los sistemas de aterrizaje para aeronaves autónomas. Su estrategia se está utilizando ahora para ayudar a aterrizar drones en portaaviones, y Boeing planea probarla en un avión experimental este año. «Su método para proporcionar garantías de seguridad de extremo a extremo es muy importante», afirna Corina Pasareanu, científica investigadora de la Universidad Carnegie Mellon y del Centro de Investigación Ames de la NASA.
Su trabajo consiste en garantizar los resultados de los algoritmos de aprendizaje automático que se utilizan para informar a los vehículos autónomos. A alto nivel, muchos vehículos autónomos tienen dos componentes: un sistema de percepción y un sistema de control. El sistema de percepción te dice, por ejemplo, a qué distancia está tu coche del centro del carril, o en qué dirección va un avión y cuál es su ángulo con respecto al horizonte. El sistema funciona alimentando datos sin procesar de cámaras y otras herramientas sensoriales a algoritmos de aprendizaje automático basados en redes neuronales que recrean el entorno fuera del vehículo.
Luego, estas evaluaciones se envían a un sistema independiente, el módulo de control, que decide qué hacer. Si se avecina un obstáculo, por ejemplo, decide si aplica los frenos o gira para evitarlo. Según Luca Carlone, profesor asociado del Instituto de Tecnología de Massachusetts, si bien el módulo de control se basa en tecnología bien establecida, «toma decisiones basadas en los resultados de la percepción y no hay garantía de que esos resultados sean correctos».
Para brindar una garantía de seguridad, el equipo de Mitra trabajó en asegurar la confiabilidad del sistema de percepción del vehículo. Al principio supusieron que es posible garantizar la seguridad cuando se dispone de una representación perfecta del mundo exterior. Luego determinaron cuánto error introduce el sistema de percepción en su recreación del entorno del vehículo.
La clave de esta estrategia es cuantificar las incertidumbres involucradas, conocidas como banda de error, o las “incógnitas conocidas”, como lo expresa Mitra. Este cálculo proviene de lo que él y su equipo llaman contrato de percepción. En ingeniería de software, un contrato es un compromiso de que, para una determinada entrada a un programa de ordenador, la salida estará dentro de un rango especificado. Calcular este rango no es fácil. ¿Qué precisión tienen los sensores del coche? ¿Cuánta niebla, lluvia o resplandor solar puede tolerar un dron? Pero si puedes mantener el vehículo dentro de un rango específico de incertidumbre y si la determinación de ese rango es lo suficientemente precisa, el equipo de Mitra demostró que puedes garantizar su seguridad.
Sayan Mitra, informático de la Universidad de Illinois, Urbana-Champaign, ha ayudado a desarrollar un enfoque sistemático para garantizar la seguridad de ciertos sistemas autónomos. Foto: Virgil Ward IIEs una situación familiar para cualquiera que tenga un velocímetro impreciso. Si sabes que el dispositivo nunca se desvía más de 5 kilómetros por hora, puedes evitar la multa por exceso de velocidad manteniéndote siempre 5 km/h por debajo del límite de velocidad (tal y como lo indica tu velocímetro no confiable). Un contrato de percepción ofrece una garantía similar de seguridad de un sistema imperfecto que depende del aprendizaje automático.
«No se necesita una percepción perfecta», explica Carlone. «Lo único que quieres es que sea lo suficientemente buena como para no poner en riesgo la seguridad». Las mayores contribuciones del equipo, afirma, son «introducir la idea completa de los contratos de percepción» y proporcionar los métodos para construirlos. Lo han hecho recurriendo a técnicas de la rama de la informática llamada verificación formal, que proporciona una forma matemática de confirmar que el comportamiento de un sistema satisface un conjunto de requisitos.
«Aunque no sabemos exactamente cómo la red neuronal hace lo que hace», como afirma Mitra, han demostrado que todavía es posible probar numéricamente que la incertidumbre de la salida de una red neuronal se encuentra dentro de ciertos límites. Y, si ese es el caso, entonces el sistema será seguro. «Podemos entonces proporcionar una garantía estadística sobre si (y en qué medida) una red neuronal determinada realmente cumplirá esos límites».
La empresa aeroespacial Sierra Nevada está probando actualmente estas garantías de seguridad al aterrizar un dron en un portaaviones. Este problema es, en cierto modo, más complicado que conducir automóviles debido a la dimensión adicional que implica volar. “Al aterrizar, hay dos tareas principales”, explica Dragos Margineantu, tecnólogo jefe de IA en Boeing, “alinear el avión con la pista y asegurarse de que la pista esté libre de obstáculos. Nuestro trabajo con Sayan implica obtener garantías para estas dos funciones”.
«Las simulaciones que utilizan el algoritmo de Sayan muestran que la alineación [de un avión antes del aterrizaje] mejora», afirma. El siguiente paso, previsto para finales de este año, es emplear estos sistemas mientras aterriza de hecho un avión experimental de Boeing. Uno de los mayores desafíos, señala Margineantu, será descubrir lo que no sabemos – “determinar la incertidumbre en nuestras estimaciones” – y ver cómo eso afecta a la seguridad. «La mayoría de los errores ocurren cuando hacemos cosas que creemos saber, y resulta que no es así».
El artículo original, How to Guarantee the Safety of Autonomous Vehicles, se publicó el 16 de enero de 2024 en Quanta Magazine.
Traducido por César Tomé López
El artículo Cómo garantizar la seguridad de los vehículos autónomos se ha escrito en Cuaderno de Cultura Científica.