Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 1 hour 8 min ago

Soy mujer y tengo párkinson: ¿qué puedo esperar?

Fri, 2023/04/14 - 11:59
párkinsonFoto: Nickolas Nikolic / Unsplash

El párkinson, enfermedad neurodegenerativa que aparece cuando las neuronas que producen dopamina están dañadas o se mueren, no afecta de la misma forma a hombres y mujeres.

En primer lugar, el sexo biológico es un factor de riesgo importante: los varones tienen 1,5 veces más posibilidades de desarrollarlo. ¿A qué se debe esta llamativa diferencia?

La clave parece estar en las hormonas que se encuentran principalmente en el sexo femenino: los estrógenos. Algunos estudios indican que podrían tener un efecto protector sobre las neuronas que degeneran en la enfermedad, gracias a su potencial para bloquear los principales mecanismos responsables de la muerte neuronal.

El hecho de que la proporción de mujeres diagnosticadas de párkinson en el periodo posmenopáusico sea mayor que durante el periodo premenopáusico apoyaría esta hipótesis.

Soy mujer y me han diagnosticado párkinson: ¿ahora qué?

Ese “ahora qué” es lo que realmente le importa a la persona a la que se le ha detectado la dolencia: ¿qué me va a pasar?, ¿qué voy a notar?, ¿los síntomas van a empeorar?, ¿qué tratamientos me van a aplicar y para qué?

Actualmente, el párkinson no tiene cura y sigue avanzando con el paso del tiempo, por lo que los síntomas –cuya naturaleza, frecuencia y gravedad varían entre personas– empeoran poco a poco. Aun así, diversos estudios han observado que existen ciertos patrones de estas manifestaciones que difieren entre sexos.

En el caso de las mujeres, los problemas motores suelen aparecer más tarde que en los hombres, y el temblor suele ser el principal síntoma cuando se realiza el diagnóstico. Esto es importante, porque las personas que comienzan así la enfermedad parece que la experimentan de forma más benigna. No obstante, ellas tienen un mayor riesgo de caídas a medida que avanza la dolencia.

Dicen que me quejo demasiado

“Me duele la espalda, las piernas… me encuentro todo el día cansada”. “Parece que no levanto cabeza”. “Estoy baja de ánimos, pero dicen que es normal sentirse así, ya que me acaban de diagnosticar párkinson”. Hay una creencia extendida de que esta es una enfermedad que nos hace temblar. Pero no es el único síntoma: además, los pacientes suelen padecer rigidez muscular, lentitud de movimientos e, incluso, inestabilidad postural.

Por si esto fuera poco, la dolencia viene acompañada de una serie de manifestaciones no motoras que afectan a la calidad de vida incluso más que los problemas de movilidad. Estamos hablando de estreñimiento, alteraciones del sueño, pérdida de olfato, cambios en la sudoración…

Estos trastornos están relacionados con alteraciones de otros sistemas del cuerpo, más allá de la falta de dopamina del cerebro. En concreto, las mujeres experimentan dolor, fatiga, depresión y ansiedad con más frecuencia e intensidad que los hombres.

A menudo, esos síntomas propios de la dolencia están infradiagnosticados y no se manejan adecuadamente porque ¿cómo no va a estar triste y ansiosa con la que le ha caído? Mujer con párkinson: no minimice sus síntomas, ya que muchos de ellos se pueden tratar farmacológicamente o mediante otro tipo de terapias, como la psicoterapia, el ejercicio físico o la terapia ocupacional. ¡Quéjese!, ¡quéjese mucho!

Mi enfermedad no tiene cura, pero ¿me van a tratar?

Por supuesto. La primera línea de tratamiento consiste en suplir la falta de dopamina del cerebro. Con terapia farmacológica se consigue mejorar significativamente los síntomas motores. Aunque la dosis es igual de efectiva en ambos sexos, las mujeres tienen más riesgo de desarrollar efectos adversos indeseados, como los movimientos involuntarios, también llamados discinesias.

Respecto al tratamiento de los síntomas no motores, no se sabe si a las mujeres afectadas de párkinson se les prescriben más fármacos antidepresivos, ansiolíticos, analgésicos… que estarían justificados por su sintomatología. Los expertos abogan por una medicina personalizada para mejorar la atención sanitaria. Comencemos por adaptar los tratamientos terapéuticos en función del sexo.The Conversation

Para saber más:

El papel de los astrocitos en la aparición de la enfermedad de Parkinson
Párkinson en una lágrima
La mutación vasca de la dardarina y el párkinson

Sobre las autoras: Teresa Morera Herreras, profesora agregada del Departamento de Farmacología; Ane Murueta-Goyena, profesora Adjunta del Departamento de Neurociencias y Maider Zubelzu Irazusta, estudiante de doctorado en Farmacología. Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Soy mujer y tengo párkinson: ¿qué puedo esperar? se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

65, ¿un título acertado?

Thu, 2023/04/13 - 11:59

Hace poco han estrenado una película titulada, simplemente, “65”. Aunque en algunas zonas le han puesto un pequeño añadido: “65. Al borde de la extinción”. No voy a hacer ningún espóiler de la peli, ya que no la he visto, pero con este título, el añadido del final y lo que nos muestran en los tráileres, creo que todo el mundo se imagina lo que nos podemos encontrar en esta historia. Pero, si viajásemos en el tiempo hasta hace unos 65 millones de años, ¿realmente veríamos lo que nos presenta esta película? ¿Seríamos testigos de los momentos previos de una extinción masiva? Pues siento traeros malas noticias, porque la respuesta es no.

Panel representativo de los primeros momentos del Periodo Paleoceno, tras la extinción del límite K-Pg. Diseñado e ilustrado por Antonio Grajera, está expuesto en los pasillos del Museo Geominero (IGME-CSIC, Madrid).

Estrictamente hablando, hace 65 millones de años nuestro planeta se encontraría inmerso en el primer Periodo geológico de la Era Cenozoica, al que hemos nombrado como Paleoceno. Habría pasado un millón de años desde que sucedió la quinta y última extinción masiva de los últimos 500 millones de años de la historia de nuestro planeta, la denominada extinción del límite Cretácico-Paleógeno, o límite K-Pg, en la que desaparecieron más del 75% de las especies tras la caída de un cuerpo extraterrestre en el actual Golfo de México hace 66 millones de años. Los mamíferos supervivientes reclamarían el dominio de los medios terrestres y marinos y la vida estaría empezando a diversificarse para intentar recuperar la diversidad biológica previa a la extinción, algo que no se conseguiría hasta varios millones de años después.

Vamos, que si viajásemos a hace 65 millones de años no veríamos enormes dinosaurios intentando comerse unos a otros en un espeso bosque de helechos y coníferas gigantes, sino paisajes todavía devastados donde árboles y plantas con flores servirían de refugio a pequeños mamíferos, principalmente roedores, que cazarían insectos o comerían sus semillas para sobrevivir. Mucho menos épico de lo que creíamos. Pero esto os lo digo ahora, porque si la película la hubieran estrenado hace 15 o 20 años, estaría alabando su acertado título y la utilizaría como herramienta para contaros, con pelos y señales, lo que sucedió durante la extinción del límite K-Pg.

Diversas versiones de la tabla de los tiempos geológicos, en inglés, en las que podemos ver cómo ha cambiado la edad del límite K-Pg, y de muchos otros, a lo largo del tiempo. Izquierda: versión de 2008; centro: versión de agosto de 2012; derecha: versión más reciente, publicada en abril de 2023. Créditos: International Commission on Stratigraphy. Disponible para su descarga gratuita, incluidas las versiones previas traducidas.

¿Y de dónde procede esta curiosa contradicción que os acabo de comentar? Pues de que la Geología es una ciencia en continuo cambio, incluidas las edades a las que se produjeron algunos de los eventos. Si miramos la tabla de los tiempos geológicos del año 2008, la edad estimada para el límite K-Pg era de 65,5 millones de años, con un error de +-0,3 millones de años (es decir, 300.000 años arriba o abajo), antes de la actualidad. Sin embargo, cuando utilizamos la tabla de 2012, la edad estimada era de 66,0 millones de años, número que aún se mantiene en la versión más actualizada de la tabla publicada este mismo mes.

La siguiente pregunta que os estaréis haciendo es ¿y cómo sabemos esa edad tan precisa para los eventos geológicos? Pues gracias a los métodos de datación radiométrica que se basan en la desintegración radiactiva de los isótopos. Voy por partes con esto, que me estoy metiendo en el maravilloso mundo de la química.

Los átomos tienen un número particular de protones (partículas positivas) y neutrones (partículas neutras) en su núcleo, sobre las que orbitan una serie de electrones (partículas negativas). Sin embargo, hay algunos elementos que, aunque mantienen el mismo número de protones, tienen diferente número de neutrones en su núcleo, como el Carbono o el Uranio, que se conocen como isótopos. Pues muchos de esos isótopos tienen un núcleo inestable que tiende a desintegrarse con el tiempo, dando lugar a un isótopo hijo. Es lo que conocemos como radiactividad. Esa desintegración desde el isótopo inicial o isótopo padre al isótopo hijo sigue un ritmo constante, de tal manera que pasado un tiempo X tendremos la mitad del isótopo padre, al pasar ese mismo tiempo X tendremos la mitad de esa mitad, y así continuamente. A ese ritmo de decaimiento se le conoce como vida media. Y conociendo esa vida media de un elemento y pudiendo calcular en un material geológico la cantidad de isótopo hijo formado a partir del isótopo padre original, podemos saber su edad.

Modelo muy simplificado del decaimiento radiactivo del isótopo radiactivo de Uranio (U) en un elemento geológico que lo incluya en su composición química. Pasado el tiempo de desintegración (vida media), la mitad del isótopo padre se habrá transformado en el isótopo hijo (Plomo, Pb), proceso que se reproducirá de manera consecutiva.

Hay isótopos con vidas medias muy grandes que permiten datar con bastante fiabilidad materiales tan antiguos como la propia formación de nuestro planeta. Uno de los métodos radiométricos más utilizados es la relación entre el Uranio (isótopo padre) y el Plomo (isótopo hijo), conocida como datación U/Pb, que permite conocer la edad de materiales que se formaron hace más de 1 millón de años con márgenes de error de cientos de miles de años. Pero eso es ahora, porque la relación U/Pb es uno de los métodos de datación más antiguos empleados en Geología, por lo que las técnicas analíticas de medición isotópica han ido haciéndose cada vez más precisas, lo que ha provocado que se vayan corrigiendo las edades de los eventos geológicos de manera continua. Por ese motivo, cada año se publican versiones más novedosas y precisas de la tabla de los tiempos geológicos.

Vamos, que el equipo productor de la película se quedó con dataciones de hace más de 15 años y no se molestaron en comprobar las versiones más actualizadas. Pero también es cierto que 65 es un número más redondo y llamativo para un título que 66, salvo que seas fan de Iron Maiden (como yo) y empieces a tararear el estribillo de una canción a la que le falta un último 6 cada vez que tienes que explicar cuándo sucedió la última extinción masiva de la Tierra.

Para saber más:

Datación radiométrica
Cómo usar uranio para saber si un neandertal pintó en una cueva
Datación K-Ar y las edades de Marte

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo 65, ¿un título acertado? se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Las impredecibles capacidades emergentes en grandes modelos de IA

Wed, 2023/04/12 - 11:59

Los modelos de lenguaje extenso como ChatGPT ahora son lo suficientemente grandes como para comenzar a mostrar comportamientos sorprendentes e impredecibles.

Un artículo de Stephen Ornes para Quanta Magazine

¿Qué película describen estos emojis?

modelos de lenguaje

Esa pregunta fue una de las 204 tareas elegidas el año pasado para probar la capacidad de varios modelos de lenguaje extenso (LLM, por sus siglas en inglés), los motores computacionales detrás de los bots conversacionales de IA como ChatGPT. Los LLM más simples produjeron respuestas surrealistas. “La película es una película sobre un hombre que es un hombre que es un hombre”, comenzó uno. Los modelos de mediana complejidad se acercaron, aventurando Emoji: la película. Pero el modelo más complejo lo clavó al primer intento: Buscando a Nemo.

“A pesar de tratar de esperar sorpresas, me sorprenden las cosas que estos modelos pueden hacer”, afirma Ethan Dyer, científico informático de Google Research que ayudó a organizar la prueba. Es sorprendente porque estos modelos supuestamente tienen una directiva: aceptar una cadena de texto como entrada y predecir lo que viene a continuación, una y otra vez, basándose únicamente en estadísticas. Los informáticos habían anticipado que la ampliación mejoraría el rendimiento de las tareas conocidas, pero no esperaban que los modelos manejaran repentinamente tantas tareas nuevas e impredecibles.

Investigaciones recientes, como en la que trabajó Dyer, han revelado que los LLM pueden producir cientos de habilidades «emergentes», tareas que los modelos grandes pueden completar y los modelos más pequeños no, muchas de las cuales parecen tener poco que ver con el análisis de texto. Van desde multiplicar hasta la generación de código informático ejecutable y, aparentemente, la decodificación de películas basándose en emojis. Nuevos análisis sugieren que, para algunas tareas y algunos modelos, existe un umbral de complejidad más allá del cual la funcionalidad del modelo se dispara. (También sugieren un lado oscuro: a medida que aumentan en complejidad, algunos modelos revelan nuevos sesgos e inexactitudes en sus respuestas).

“Que los modelos de lenguaje puedan hacer este tipo de cosas nunca se discutió en ninguna literatura que yo conozca”, afirma Rishi Bommasani, científico informático de la Universidad de Stanford. El año pasado ayudó a compilar una lista de docenas de comportamientos emergentes, incluidos varios identificados en el proyecto de Dyer. Esa lista sigue creciendo.

Ahora, los investigadores se eesfuerzan en no solo identificar habilidades emergentes adicionales, sino también en descubrir por qué y cómo ocurren; en esencia, para tratar de predecir la imprevisibilidad. Comprender la emergencia podría revelar respuestas a preguntas profundas sobre la IA y el aprendizaje automático en general, como si los modelos complejos de verdad están haciendo algo nuevo o solo se están volviendo realmente buenos en estadística. También podría ayudar a los investigadores a aprovechar los beneficios potenciales y reducir los riesgos emergentes.

“No sabemos cómo predecir en qué tipo de aplicación va a surgir la capacidad de hacer daño, ya sea gradualmente o de manera impredecible”, asegura Deep Ganguli, un científico informático de la startup de IA Anthropic.

La emergencia de la emergencia

Biólogas, físicas, ecologistas y otras personas de ciencia utilizan el término «emergente» para describir comportamientos colectivos autoorganizados que aparecen cuando una gran colección de cosas actúa como una sola. Las combinaciones de átomos sin vida dan lugar a células vivas; las moléculas de agua crean olas; las bandadas de estorninos surcan el cielo formando patrones cambiantes pero identificables; las células hacen que los músculos se muevan y los corazones latan. Fundamentalmente las habilidades emergentes aparecen en sistemas que involucran muchos componentes individuales. Pero los investigadores solo han podido documentar recientemente estas habilidades en los LLM, al alcanzar estos modelos tamaños enormes.

Los modelos de lenguaje han existido durante décadas. Hasta hace unos cinco años los más potentes se basaban en lo que se denomina red neuronal recurrente. Básicamente, toman una cadena de texto y predicen cuál será la siguiente palabra. Lo que hace que un modelo sea «recurrente» es que aprende de su propio resultado: sus predicciones retroalimentan la red para mejorar el rendimiento futuro.

En 2017 los investigadores de Google Brain introdujeron un nuevo tipo de arquitectura llamada transformador. Mientras que una red recurrente analiza una oración palabra por palabra, el transformador procesa todas las palabras al mismo tiempo. Esto significa que los transformadores pueden procesar grandes cuerpos de texto en paralelo.

Los transformadores permitieron una rápida ampliación de la complejidad de los modelos de lenguaje al aumentar la cantidad de parámetros en el modelo, así como otros factores. Los parámetros se pueden considerar como conexiones entre palabras, y los modelos mejoran ajustando estas conexiones a medida que avanzan en el texto durante el entrenamiento. Cuantos más parámetros haya en un modelo con más precisión podrá hacer conexiones y más cerca estará de imitar aceptablemente el lenguaje humano. Como era de esperar, un análisis de 2020 realizado por investigadores de OpenAI encontró que los modelos mejoran en precisión y capacidad a medida que se amplían.

Pero el debut de los LLM también trajo algo realmente inesperado. Muchas cosas. Con la llegada de modelos como GPT-3, que tiene 175.000 millones de parámetros, o PaLM de Google, que se puede alcanzar hasta los 540.000 millones, los usuarios comenzaron a describir más y más comportamientos emergentes. Un ingeniero de DeepMind incluso informó que pudo convencer a ChatGPT de que era una terminal de Linux y logró que ejecutara un código matemático simple para calcular los primeros 10 números primos. Sorprendentemente, pudo terminar la tarea más rápido que el mismo código ejecutado en una máquina Linux real.

Al igual que con la tarea con emojis para la película, los investigadores no tenían motivos para pensar que un modelo de lenguaje construido para predecir texto imitaría de manera convincente una terminal de ordenador. Muchos de estos comportamientos emergentes ilustran el aprendizaje de «cero intentos» o «pocos intentos», que describe la capacidad de un LLM para resolver problemas que nunca, o rara vez, ha visto antes. Este ha sido un objetivo durante mucho tiempo en la investigación en inteligencia artificial, afirma Ganguli. Al mostrar que GPT-3 podía resolver problemas sin ningún dato de entrenamiento explícito en una configuración de cero intentos, afirma, «me llevó a dejar lo que estaba haciendo e involucrarme más».

No estaba solo. Una gran cantidad de investigadores, detectando que los primeros indicios de que los LLM podrían ir más allá de las limitaciones de sus datos de entrenamiento, se esfuerzan por comprender mejor qué aspecto tiene la emergencia y cómo sucede. El primer paso fue documentarlo a fondo.

Más allá de la imitación

En 2020, Dyer y otros en Google Research predijeron que los LLM tendrían efectos transformadores, pero cuáles serían esos efectos seguía siendo una pregunta abierta. Así que le pidieron a la comunidad de investigación que proporcionara ejemplos de tareas difíciles y diversas para trazar los límites exteriores de lo que podría hacer un LLM. Este esfuerzo se denominó proyecto Beyond the Imitation Game Benchmark (BIG-bench), tomando como el nombre como referencia el del «juego de imitación» de Alan Turing, una prueba para ver si una computadora podría responder preguntas de una manera convincentemente humana. (Esto más tarde se conocería como la prueba de Turing). El grupo estaba especialmente interesado en ejemplos en los que los LLM habían adquirido repentinamente nuevas habilidades que no habían existido antes en absoluto.

“Cómo entendemos estas transiciones bruscas es una gran pregunta de investigación”, afirma Dyer.

Como era de esperar, en algunas tareas el rendimiento de un modelo mejoró de manera gradual y predecible a medida que aumentaba la complejidad. Y en otras tareas, aumentar la cantidad de parámetros no produjo ninguna mejora. Pero para aproximadamente el 5% de las tareas los investigadores encontraron lo que llamaron «avances»: saltos rápidos y dramáticos en el rendimiento en una escala con umbral. Ese umbral variaba según la tarea y el modelo.

Por ejemplo, los modelos con relativamente pocos parámetros, solo unos pocos millones, no pudieron completar con éxito problemas de suma de tres dígitos o multiplicación de dos dígitos; pero para decenas de miles de millones de parámetros, la precisión se disparaba en algunos modelos. Ocurrieron saltos similares para otras tareas, incluida la decodificación del Alfabeto Fonético Internacional, reordenar las letras de una palabra, identificar contenido ofensivo en párrafos de Hinglish (una combinación de hindi e inglés) y generar un equivalente en inglés similar a los refranes en suajili.

Pero los investigadores se dieron cuenta rápidamente de que la complejidad del modelo no era el único factor determinante. Algunas habilidades inesperadas podían obtenerse de modelos más pequeños con menos parámetros, o entrenarse en conjuntos de datos más pequeños, si los datos eran de una calidad lo suficientemente alta. Además, la forma en la que se redactaba una consulta influía en la precisión de la respuesta del modelo. Cuando Dyer y sus colegas plantearon la tarea con emojis para la película utilizando un formato de opción múltiple, por ejemplo, la mejora de la precisión fue menos un salto repentino y más un aumento gradual con mayor complejidad. Y el año pasado, en un artículo presentado en NeurIPS, la reunión más importante del campo, los investigadores de Google Brain demostraron cómo un modelo entrenado (prompted) para explicarse (una capacidad llamada razonamiento en cadena de pensamiento) podía resolver correctamente un problema matemático verbal, mientras que el mismo el modelo sin ese entrenamiento no podía.

Yi Tay, un científico de Google Brain que trabajó en la investigación sistemática de los avances, señala un trabajo reciente que sugiere que la cadena de pensamiento cambia las curvas de escalado y, por lo tanto, el punto donde ocurre la emergencia. En su artículo de NeurIPS, los investigadores de Google demostraron que el uso de entrenamientos de cadena de pensamiento podía provocar comportamientos emergentes no identificados en el estudio BIG-bench. Tales entrenamientos, que le piden al modelo que explique su razonamiento, pueden ayudar a los investigadores a comenzar a investigar por qué aparece la emergencia en primer lugar.

Hallazgos recientes como estos sugieren al menos dos posibilidades de por qué ocurre la emergencia, afirma Ellie Pavlick, científica informática de la Universidad de Brown que estudia modelos computacionales de lenguaje. Una es que, como sugieren las comparaciones con los sistemas biológicos, los modelos más grandes realmente obtienen nuevas habilidades de forma espontánea. “Es muy posible que el modelo haya aprendido algo fundamentalmente nuevo y diferente que no tenía con un tamaño más pequeño”, dijo. «Eso es lo que todos esperamos que sea el caso, que se produzca un cambio fundamental que ocurre cuando se amplían los modelos».

La otra posibilidad, menos sensacional, afirma, es que lo que parece ser emergente pueda ser, en cambio, la culminación de un proceso interno impulsado por la estadística que funciona a través de un razonamiento tipo cadena de pensamiento. Los LLM grandes pueden simplemente estar aprendiendo heurísticas que están fuera del alcance de aquellos con menos parámetros o con datos de menor calidad.

Pero, añade, descubrir cuál de esas explicaciones es más probable depende de una mejor comprensión de cómo funcionan en realidad los LLM. “Dado que no sabemos cómo funcionan debajo del capó, no podemos decir cuál de esas cosas está sucediendo”.

Capacidades impredecibles y trampas

Hay un problema obvio al pedirles a estos modelos que se expliquen: son mentirosos notorios. “Nos apoyamos cada vez más en estos modelos para hacer el trabajo básico”, afirma Ganguli, “pero no confío en ellos y ya está. Compruebo su trabajo.” Como uno de los muchos ejemplos divertidos, en febrero Google presentó su chatbot de IA, Bard. La publicación del blog que anuncia la nueva herramienta muestra a Bard cometiendo un error de hecho.

La emergencia conduce a la imprevisibilidad, y la imprevisibilidad, que parece aumentar con la escala, dificulta que los investigadores anticipen las consecuencias del uso generalizado.

“Es difícil saber de antemano cómo se usarán o implementarán estos modelos”, afirma Ganguli. “Y para estudiar fenómenos emergentes debes tener un caso en mente, y no sabrás hasta que estudies la influencia de la escala qué capacidades o limitaciones pueden surgir”.

En un análisis de LLMs publicado en junio pasado los investigadores de Anthropic estudiaron si los modelos muestran ciertos tipos de prejuicios raciales o sociales, no muy diferentes a los encontrados anteriormente en algoritmos no basados en LLM que se utilizan para predecir qué personas con antecedentes cometerán probablemente otro delito. Ese estudio se inspiró en una aparente paradoja relacionada directamente con la emergencia: a medida que los modelos mejoran su rendimiento cuando se amplían, también pueden aumentar la probabilidad de fenómenos impredecibles, incluidos aquellos que podrían conducir a sesgos o perjuicios.

“Ciertos comportamientos dañinos surgen abruptamente en algunos modelos”, afirma Ganguli. Cita un análisis reciente de LLMs, conocido como el punto de referencia BBQ, que mostró que el sesgo social surge con las cantidades enormes de parámetros. “Los modelos más grandes se vuelven abruptamente más sesgados”. No abordar ese riesgo, recalca, podría poner en peligro a los sujetos de estos modelos.

Pero ofrece un contrapunto: cuando los investigadores simplemente le dijeron al modelo que no se basara en estereotipos o sesgos sociales, literalmente escribiendo esas instrucciones, el modelo estaba menos sesgado en sus predicciones y respuestas. Esto sugiere que algunas propiedades emergentes también podrían usarse para reducir el sesgo. En un artículo publicado en febrero, el equipo de Anthropic informó sobre un nuevo modo de «autocorrección moral», en el que el usuario solicita al programa que sea útil, honesto e inofensivo.

La emergencia, afirma Ganguli, revela tanto un potencial sorprendente como un riesgo impredecible. Las aplicaciones de estos grandes LLMs ya están proliferando, por lo que una mejor comprensión de esa interacción ayudará a aprovechar la diversidad de habilidades de los modelos lingüísticos.

“Estamos estudiando cómo las personas usan realmente estos sistemas”, añade Ganguli. Pero esos usuarios también están jugueteando, constantemente. “Pasamos mucho tiempo conversando con nuestros modelos”, asegura, “y ahí es donde comienzas a tener una buena intuición sobre la confianza, o la falta de ella”.

 

El artículo original, The Unpredictable Abilities Emerging From Large AI Models, se publicó el 16 de marzo de 2023 en Quanta Magazine. Cuaderno de Cultura Científica tiene un acuerdo de distribución en castellano con Quanta Magazine.

Traducido por César Tomé López

El artículo Las impredecibles capacidades emergentes en grandes modelos de IA se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El problema de Tammes

Tue, 2023/04/11 - 12:02

El botánico y artista holandés Pieter Merkus Lambertus Tammes (1903-1980) descubrió que los granos de polen que son casi esféricos poseen pequeños poros distribuidos de manera que parecen distanciados lo más posible los unos de los otros.

Granos de polen de varias especies ampliados mediante un microscopio electrónico de barrido. Fuente: Wikimedia Commons.

 

En 1930, como parte de su tesis doctoral, publicó sus investigaciones sobre este tema. En este trabajo el botánico se preguntaba sobre cuál era la manera de distribuir n puntos sobre una esfera, de manera que la menor de las distancias entre ellos fuera la mayor posible. Esta cuestión pronto pasó al mundo matemático como el problema de Tammes.

La primera idea

Una idea natural es, probablemente, pensar en colocar los puntos en los vértices de un poliedro regular inscrito en la esfera, es decir, un tetraedro si n = 4, un octaedro si n = 6, un cubo si n = 8, un icosaedro si n = 12 o un dodecaedro si n = 20.

Surgen inmediatamente dos preguntas: como sólo existen estos cinco poliedros regulares (convexos), ¿qué sucede para otros valores de n? Además, para los cinco casos nombrados, ¿el poliedro regular inscrito proporciona la solución óptima buscada?

Este problema se conoce también como el problema de los dictadores enemigos ya que, si quisieran repartirse la Tierra (si se considera que el territorio de un dictador está formado por los puntos de la esfera situados más cerca de él que de cualquier otro dictador), ¡desearían estar lo más alejados los unos de los otros para obtener regiones mayores!

El problema de Tammes equivale al problema de empaquetamiento de esferas, es decir, la cuestión de encontrar el mayor diámetro para n círculos iguales que pueden situarse sobre una esfera sin superponerse.

Las aplicaciones de este problema son numerosas. Por ejemplo, en biología, podría ayudar a describir el autoensamblaje en virus esféricos (como el virus del mosaico del tabaco, el SARS-CoV-2, etc.).

Virus esférico SARS-CoV-2. Fuente: Wikimedia Commons.

 

En química, el modelo VSEPR postula que los pares de electrones de valencia (bolas) alrededor de un átomo se repelen mutuamente; adoptan entonces una disposición espacial que minimiza esta repulsión y maximiza la distancia entre esas bolas. Así, este modelo es consistente con la solución al problema de Tammes.

Muchas personas se han dedicado a estudiar este problema que, a fecha de hoy, está resuelto para los n menores o iguales a 14 y para n = 24.

Los casos conocidos

Recordemos que la intersección de una esfera con un plano que contiene a su centro genera una circunferencia máxima (y un círculo máximo) sobre la superficie de la esfera. La distancia entre dos puntos de la esfera, unidos por un arco de circunferencia máxima, es la menor entre ambos y se llama distancia ortodrómica.

El problema de Tammes busca maximizar la menor de las distancias ortodrómicas entre n puntos de una esfera.

Para n = 2, la solución es obvia: los dos puntos deben ser diametralmente opuestos.

Si n = 3, la solución al problema de Tammes es un triángulo equilátero inscrito en un círculo máximo de la esfera.

Para n = 4, 6 y 12 puntos, las soluciones son las que admiten más simetrías: los poliedros regulares con, respectivamente, 4, 6 y 12 vértices, es decir, los tetraedros regulares inscritos en la esfera, los octaedros y los icosaedros.

El geómetra húngaro Laszlo Fejes Tóth fue quien resolvió los casos n = 3, 4, 6 y 12.

Para n = 5 existen varias configuraciones que proporcionan la solución óptima, y, además, esa distancia máxima buscada es la misma que la del caso de n = 6.

Para n = 8, los ocho vértices de un cubo inscrito en la esfera no proporcionan la distancia óptima. La solución no es única, y la mejor disposición es un la de un antiprisma cuadrado.

En 1951, los matemáticos Kurt Schütte y Bartel Leendert van der Waerden resolvieron los casos para n = 5, 7, 8 y 9.

En 1963, el geómetra Ludwik Danzer encontró la solución para n = 10 y 11.

Raphael M. Robinson resolvió el caso n = 24 en 1961. Los casos n = 13 y 14 fueron resueltos por Oleg R. Musin y Alexey S. Tarasov en 2015; enumeraron las posibles configuraciones con ayuda de un ordenador.

Hay soluciones propuestas para muchos otros casos… pero aún son solo conjeturas.

 

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo El problema de Tammes se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Agujetas: las dolorosas protagonistas tras el ejercicio físico

Mon, 2023/04/10 - 11:59
agujetasImagen: StockSnapPixabay

Nunca es tarde para empezar a realizar ejercicio físico. Los beneficios para la salud que tiene la práctica de actividad física frecuente son claros y numerosos: aumento de la esperanza de vida, disminución del riesgo de sufrir diabetes, obesidad, enfermedades cardiovasculares, diferentes tipos de cáncer y otras muchas enfermedades, mejora de la salud mental…

Sin embargo, las personas que se deciden a tener una vida más activa y comienzan a practicar o retoman un deporte o cualquier otra actividad física se enfrentan a menudo con un fenómeno biológico que puede echarles para atrás en su iniciativa: las temidas agujetas, también conocidas como «mialgia diferida» o «dolor muscular de aparición tardía».

Prácticamente todo el mundo ha experimentado el dolor típico de las agujetas en algún momento de su vida y, a pesar de ello, las causas detrás siguen sin estar del todo claras. Es una situación muy similar a lo que ocurre con la frecuente somnolencia tras una comida pesada, existen varias hipótesis que intentan explicarlo, pero las pruebas científicas al respecto son limitadas por la escasez de estudios. Las curiosidades del cuerpo humano no son, lógicamente, una prioridad en el terreno de la investigación médica.

Normalmente, las agujetas tardan en aparecer entre 12 y 72 horas tras el ejercicio físico que lo desencadena y el máximo nivel de dolor se presenta entre uno y tres días. Los ejercicios excéntricos como las sentadillas o bajar escaleras, en los que se estiran los músculos mientras existe contracción, son los que inducen agujetas con mayor frecuencia porque alteran más el músculo y el tejido conectivo de alrededor. 

Durante mucho tiempo, se creyó que el principal mecanismo involucrado en las agujetas era la formación y acumulación de cristales de ácido láctico en el músculo, como consecuencia de un metabolismo anaeróbico (en el que no se emplea oxígeno). Sin embargo, un hecho clave descarta esta hipótesis: el ácido láctico se acumula rápidamente con un ejercicio físico intenso, pero desaparece en torno a una hora después. Por tanto, los cristales de esta molécula no pueden ser los responsables de las agujetas, que aparecen de forma mucho más tardía.

En la actualidad, la hipótesis con mayor respaldo científico y más aceptada entre los investigadores sostiene que las agujetas tienen su origen en las microrroturas de las fibras musculares provocadas por daños mecánicos. Así, cuando una persona realiza una actividad física a la que sus músculos no están habituados se producen diminutas lesiones (y, como consecuencia, alteraciones metabólicas) en las células musculares incapaces de aguantar ese nivel de ejercicio. No obstante, estas lesiones no causan inmediatamente dolor, ya que las agujetas tardan en aparecer, sino que lo provocan de forma más tardía a través de un proceso inflamatorio. 

Debido al número limitado de estudios, no está todavía muy claro qué tratamientos son efectivos para aliviar las agujetas y limitar su duración. Se han evaluado algunos complementos dietéticos (preparados proteicos, taurina, ácidos grasos omega-3, curcumina, D-ribosa, L-glutamina…), fármacos antiinflamatorios, masajes, duchas o baños fríos, descanso y prendas de compresión con algunos indicios de efectividad, aunque con una certeza científica baja o hallazgos contradictorios. Entre todos ellos, el masaje muscular parece la opción con más respaldo a la hora de limitar la duración de las agujetas. También existen múltiples evidencias que constatan que hacer ejercicios con un aumento progresivo de la intensidad, en lugar de realizar de primeras ejercicios intensos, previene la aparición de agujetas. Los estiramientos antes y después de la actividad física quizás podrían atenuar las posteriores agujetas, pero tampoco está claro en la actualidad.

Afortunadamente, las agujetas son transitorias, hagamos lo que hagamos, y bastan unos pocos días (casi siempre menos de una semana) para que desaparezcan por sí solas. Tras este episodio de dolor, el músculo se regenera totalmente. La mialgia diferida no es una señal por sí misma de crecimiento muscular, pero sí nos indica que estamos saliendo fuera de nuestra zona de confort en cuanto a actividad física se refiere y, cuando se vaya, estaremos mejor preparados para retomarla. 

Para saber más:

Respuesta de los sistemas respiratorio y cardiovascular al ejercicio físico
Evite, si puede, la silla y el sofá

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo Agujetas: las dolorosas protagonistas tras el ejercicio físico se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Cómo hacer un clarinete con tubos de pvc y un guante de goma

Sun, 2023/04/09 - 11:59

clarinete
Seguro que tú también lo viste. Fue un vídeo viral hace bastantes años ya (siempre más de los que parecen). En él, un tipo con una camisa chillona utilizaba un taladro para fabricarse un instrumento musical con… una zanahoria. Sí, ¡una zanahoria!, y lo peor es que la melodía resultaba hasta pegadiza.

Desde entonces, Linsey Pollak saltó a la fama como el músico de los instrumentos insospechados, un tipo capaz de arrancarle una notas a casi cualquier cosa. La zanahoria era solo uno de muchos ejemplos. Después de aquella charla TEDx, hemos podido ver al músico australiano tocando el bate de baseball, la regadera, un manillar de bicicleta, y a veces también (esto es más raro) el saxofón.

La imaginación de Pollak parece no tener límites. En muchos casos, sus instrumentos consisten en una boquilla de saxofón acoplada a algún objeto con forma de tubo. Es, en parte, la gracia de los instrumentos de viento y aquello que los convierte en una de las tecnologías más antiguas de la humanidad: son muy fáciles de fabricar. Pero algunos de sus inventos van un poco más allá. Es el caso de Mr. Curly, que juega con la forma espiral del larguísimo tubo (de ahí la tesitura de contrabajo) para que todos los agujeros queden accesibles en el espacio de una mano. O, mi preferido, el “Foonki”, un clarinete de membrana construido de forma casera con materiales fáciles de encontrar en cualquier ferretería. Pollak explica cómo hacerlo en su canal de Youtube. Y, después que él, Nicolás Bras presentó su propia versión en un vídeo un poco más detallado.

Estas navidades, Iñaki y yo nos propusimos fabricar nuestro propio Foonki. Nos costó un rato encontrar los materiales perfectos y desentrañar los detalles de la boquilla. Así que, por si a alguien quiere repetir el experimento, aquí va una receta simplificada.

Instrucciones generales:

El clarinete de membrana es un instrumento de viento madera. En esencia, consiste en una membrana (léase, un globo, un trozo de plástico) que vibra contra una superficie sólida cuando se opone al paso del aire. En el Foonki, el aire entra por un agujero lateral, y recorre el espacio existente entre dos tubos concéntricos. Cuando llega al extremo, se encuentra con la mencionada membrana, la “estira” para poder pasar y regresa a través del tubo interno. En ese lapso, genera una vibración y el sonido resultante es bastante parecido al de un clarinete. La idea básica es el siguiente:

Ahora bien, en la práctica nosotros acabamos construyendo algo más bien parecido a lo siguiente. Trataré de explicarlo a continuación.

Ingredientes para un clarinete:
  • Tubo de conducción eléctrica de Ø16 mm
  • Tubo de conducción eléctrica de Ø20 mm.
  • T de Ø20 mm.
  • Reducción de Ø20 a Ø16 mm.
  • Manguito de presión, Ø16 mm.
  • Membrana: vale un guante de goma, globo, plástico, o similar.
  • Herramientas: una sierra (para cortar los tubos), un taladro, cinta aislante, una lija redonda.
Cómo construir la boquilla:

Empezaremos por cortar los tubos de conducción (en morado, en la figura). Necesitaremos:

  • Un trozo tubo de Ø16 mm de unos 10 cm de longitud (que sea más largo que la T, en cualquier caso).
  • Otro trozo de Ø20 mm de unos 4 cm de longitud.

A continuación, vamos a completar los brazos de la T. En el extremo inferior, colocaremos la reducción de pvc. Esta pieza permitirá que el aire no se salga de la T “por debajo” de la boquilla. Por eso queremos que quede muy bien sellada y fija a la T. Si fuese necesario, se puede usar cinta aislante para reducir el espacio entre las dos piezas (nosotros utilizamos un martillo para colocarla en su posición final).

En el brazo superior de la T, colocaremos el trozo de tubo de Ø20 mm. Esta pieza también debe quedar bien fija a la T, sin que pueda salirse el aire entre ambas (de nuevo, se puede usar cinta aislante en caso necesario).

Introducimos el tubo de Ø16 mm desde el extremo inferior de la T, hasta que quede alineado en la parte superior con el tubo de Ø20 mm.

Por último, colocaremos la membrana, como si fuese una capucha, a la salida de los dos tubos. Podemos fijarla en esta posición con ayuda de una goma elástica, un manguito, o similar. Recomiendo no usar cinta aislante para esto, ya que hará más difícil “estirar” y mover la membrana en busca de un sonido mejor.

¡Y listo! Basta con soplar por el cuello de la T para que el invento empiece a sonar. A veces hay que jugar un poco con la posición del tubo interior, y con la tensión de la membrana para conseguir un sonido más o menos estable. Pero es sorprendentemente fácil conseguir que el invento funcione.

Cómo taladrar el tubo:

Para poder tocar distintas notas con el clarinete de membrana necesitamos un tubo con una serie de agujeros estratégicamente situados. Utilizaremos un tubo de Ø16 mm y lo acoplaremos a la boquilla con ayuda del manguito. Para saber cómo cortarlo y dónde taladrar, nosotros utilizamos esta plantilla de Nicolas Bras como punto de partida. Linsey Pollak tiene otra parecida en su página web. Es importante tener en cuenta que las distancias están medidas desde la membrana del clarinete, así que no basta con medir el tubo que vas a acoplar.

En cualquier caso, da un poco igual la plantilla que uses. Lo más probable es que alguna nota no te quede afinada a la primera. La física es complicada y la realidad está llena de márgenes de error, es lo que hay. Mi consejo es que empieces taladrando los agujeros con una broca pequeña. El sonido estará un semitono bajo, aproximadamente. Desde ese punto, con paciencia y una lija, puedes ir agrandando el agujero hasta conseguir la afinación perfecta.

Después de semejante sesión de bricolaje, tu clarinete debería estar listo. Ahora, ¡a tocar!

Para saber más:

El sonido del viento (2)
La ingeniería de las flautas (serie)

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Cómo hacer un clarinete con tubos de pvc y un guante de goma se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Naukas Bilbao 2022: ¿Para qué sirve una roca?

Sat, 2023/04/08 - 11:59

meteorológicas

Las rocas, como los minerales que las componen, tienen muchas más aplicaciones que las puramente estéticas. De hecho, en cierto sentido, todo se basa en rocas en este planeta.

Eugenio Manuel Fernández Aguilar es físico, profesor de secundaria, escritor y un divulgador científico muy activo.

 



Si no ve correctamente el vídeo, use este enlace.

Más sobre el tema:

¿De qué está hecha la arena?
Introducción histórica a la mineralogía (serie)
La geodiversidad que nos rodea

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2022: ¿Para qué sirve una roca? se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Nos hacemos mayores y nuestra microbiota también

Fri, 2023/04/07 - 11:59

La esperanza de vida ha aumentado en las últimas décadas, pasando de los 62,8 y 58,1 años registrados en 1950 en Europa y América, respectivamente, a los 77 y 74,2 años en la actualidad. Aunque es buena noticia, este incremento también ha provocado un aumento en la prevalencia de enfermedades crónicas asociadas al envejecimiento, como el cáncer o enfermedades cardiovasculares y neurodegenerativas.

Imagen:  Julien Tromeur / Unsplash

¿Hay solución? Si bien el envejecimiento es un proceso natural e inevitable, las patologías asociadas a él se pueden prevenir. En este sentido, las estrategias más utilizadas son las intervenciones dietéticas y la promoción de ejercicio físico regular. Curiosamente, estas estrategias tienen un denominador común: influyen sobre la composición y funcionalidad de la microbiota intestinal.

La microbiota envejece con nosotros

Nos referimos a la microbiota cuando hablamos del conjunto de microorganismos (bacterias, arqueas, bacteriófagos, virus y hongos) que coexisten en superficies externas e internas del organismo humano, como la piel, las mucosas y el tracto gastrointestinal. En concreto, la microbiota intestinal interviene en diversas funciones fisiológicas (respuesta inmune, digestión y absorción de nutrientes, y producción de metabolitos bioactivos), por lo que las perturbaciones en su composición pueden influir en el equilibrio metabólico del huésped. Lo que en la jerga médica se conoce como homeostasis.

Aunque parece que existen rasgos comunes en la composición de la microbiota intestinal de los individuos claves para mantener las funciones vitales, también se ha detectado que existen diferencias entre la microbiota de personas jóvenes y de mayor edad. Estos cambios producen una pérdida de funcionalidad de la microbiota intestinal debida a una menor riqueza y diversidad microbiana, pero también a un aumento en el número de bacterias asociadas al envejecimiento no saludable.

Por ejemplo, se ha observado que el filo Firmicutes y el género Bifidobacteria disminuyen con la edad, mientras que los filos Bacteroidetes y Proteobacteria, y la familia Enterobacteriaceae aumentan. Esto hace que se desequilibre la relación simbiótica entre las bacterias de la microbiota y el huésped.

¿Cómo le afecta la edad a la microbiota?

La barrera intestinal juega un papel clave en la protección contra patógenos. A medida que envejecemos, las uniones entre los enterocitos que forman esta barrera protectora se debilitan, perdiendo su funcionalidad. Esto, junto a los cambios que desequilibran la microbiota al envejecer, deriva en una mayor permeabilidad intestinal y en el sobrecrecimiento de bacterias patógenas. Como consecuencia, aumenta el acceso de bacterias o componentes bacterianos al torrente sanguíneo.

En este escenario, tanto la producción como la liberación de citoquinas proinflamatorias al torrente sanguíneo se disparan. A este respecto, un estudio comprobó que la transferencia de microbiota intestinal de ratones ancianos a ratones jóvenes provocaba un aumento de la inflamación intestinal, proceso conocido como inflammaging (inflamación asociada al envejecimiento).

Para empeorar aún más las cosas, con el paso de los años se altera la producción de metabolitos microbianos derivados del procesamiento de los alimentos. En concreto, la producción de ácidos grasos de cadena corta (AGCCs), que tienen un probado efecto antiinflamatorio, se ve reducida con la edad.

Más pescado azul, romero y perejil

Se ha descrito que el consumo de ciertas cepas de bacterias probióticas de los géneros Lactobacillus y Bifidobacterium no solo ayudan a mejorar la composición de la microbiota intestinal, sino que promueven la producción de AGCC antiinflamatorios. Además, el consumo de prebióticos ayuda a que las bacterias de la microbiota intestinal tengan sustrato para crecer.

En este sentido, los aceites esenciales de plantas aromáticas características de la dieta mediterránea como el perejil y el romero muestran efectos prebióticos sobre la microbiota. Asimismo, el consumo de galacto-oligosacáridos (GOS), abundantes en las legumbres, y de fructo-oligosacáridos (FOS) presentes en alimentos como la cebolla, el puerro o los ajos, resulta especialmente efectivo para prevenir la disminución de bacterias del género Bifidobacterium que se da al envejecer.

También aumenta la riqueza de la microbiota intestinal consumir ácidos grasos ω-3, abundantes en las sardinas, el salmón y otros pescados azules. Asimismo, incorporar hábitos como, por ejemplo, una alimentación rica en fibra y micronutrientes o la práctica de ejercicio físico pueden ayudarnos a mantener una mejor composición microbiana y a envejecer de forma más saludable.The Conversation

Sobre las autoras: Laura Isabel Arellano García, investigadora UPV/EHU; Iñaki Milton Laskibar, investigador del grupo Nutrición y Obesidad del Centro de Investigación Biomédica en Red de la Fisiopatología de la Obesidad y Nutrición (ciberOBN) y del Instituto de Investigación Sanitaria Bioaraba y María Puy Portillo, Catedrática de Nutrición UPV/EHU y ciberOBN.

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Nos hacemos mayores y nuestra microbiota también se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El rostro

Thu, 2023/04/06 - 11:59

Rostro. 1. Cara. 2. Semblante.

Cara. 1. Parte anterior de la cabeza humana desde el principio de la frente hasta la punta de la barbilla.

Semblante. 2. Representación de algún estado de ánimo en el rostro

Diccionario RAE.

En la cara reconocemos fácilmente el sexo, la pertenencia familiar y racial, y la edad aproximada del sujeto. Se trata de una habilidad que se desarrolla muy pronto en los niños. La capacidad para descifrar de inmediato las emociones que comunican las expresiones faciales es igualmente temprana, al menos las que se consideran emociones básicas (alegría, miedo, sorpresa, ira, tristeza, disgusto y desprecio). Las ventajas evolutivas del desarrollo de estas habilidades están claras, así como de las que nos llevan a reconocer … el estado físico, psicológico e intelectual de la persona que tenemos enfrente … Las enfermedades graves son claramente visibles en la facies, y también lo son muchos problemas menores de salud….

Belén Altuna en «Una historia moral del rostro», Pre-Textos, Valencia, 2010, 297 pp., p. 30.

Foto: Alessandro Bellone / Unsplash

Como revisa Belén Altuna, de la UPV/EHU, en su libro de 2010 titulado Una historia moral del rostro, las investigaciones sobre la comunicación no verbal en nuestra especie se basan sobre todo en el estudio de la expresión facial y corporal de las emociones. Los rostros tienen una importancia esencial en las interacciones sociales humanas. No solo brindan información visual que permite determinar el sexo, la edad, el conocimiento y la identidad de un individuo, sino que también se usan rostros para recopilar información sobre lo que otros individuos podrían estar pensando o sintiendo.

Añade Belén Altuna que el experto en comunicación no verbal que más nos interesa es Paul Ekman, de la Universidad de California en San Francisco. Al comienzo de sus estudios, en la década de los sesenta del siglo pasado, aunque aceptaba, según los expertos de aquellos años, que la expresión de las emociones se aprendía por contacto social y, por tanto, variaba según la cultura de cada grupo, encontró que la expresión era universal. Es curioso que esta había sido la propuesta de Charles Darwin en La expresión de las emociones en los animales y en el hombre, publicado hace siglo y medio, en 1872.

Como destaca Tomás Fernández, de la Universidad de Oviedo, en la presentación del texto, Darwin buscó el estudio de la expresión más que de la emoción como estado interno, más difícil de estudiar y de cuantificar. En concreto, con el estudio de la expresión de las emociones encontró un método útil y descriptivo más sencillo de detectarlas y de presentarlo en su libro.

Ekman, en sus primeras investigaciones, mostró unas fotografías a personas de diferentes culturas, en concreto de Chile, Argentina, Brasil, Japón y Estados Unidos, y les pidió que identificaran la emoción que expresaban sus caras. Y la mayoría coincidían. Para confirmar sus conclusiones y evitar los posibles contactos de estas personas por la actual globalización, repitió la encuesta en tribus de Papua Nueva Guinea, con escasos contactos con el exterior, y los resultados se repitieron según explica en la revisión publicada en 1970.

Para Ekman, son siete las expresiones universales del rostro: enojo o ira, asco, miedo, sorpresa, felicidad, tristeza y desprecio. A veces cita solo seis, descartando el desprecio, aunque otros autores citan hasta ocho o más. Como indica Belén Altuna, es interesante el debate sobre el número de expresiones de las emociones que publicó David Le Breton, de la Universidad de Estrasburgo, en 1999.

Ekman subraya que la expresión de la emociones aparecen en la infancia y siguen un proceso predeterminado. La felicidad, con la sonrisa, y la sorpresa surgen al nacer, el asco y la tristeza entre el primer día y los tres meses, la sonrisa hacia los otros entre el mes y medio y los tres meses, y el miedo entre los cinco y los nueve meses.

Foto: Alexander Krivitskiy / Unsplash

El grupo de Kate Lawrence, de la Universidad St. Mary’s de Londres, ensayó en 478 niños y jóvenes de 6 a 16 años, el desarrollo del reconocimiento de emociones en el rostro. Las emociones analizadas fueron felicidad, sorpresa, miedo, disgusto, tristeza y enfado. Encontraron aumentos en las cuatro primeras emociones mientras que en la tristeza y el enfado hay pocos o ningún cambio con la edad. En todos los tramos, las niñas superaron a los niños.

Según el experimento de Katharina Dobs y su grupo, del MIT en Cambridge, Massachusetts, con 16 voluntarios, de ellos ocho son mujeres, y edad media de 25.9 años, se les muestran 16 fotografías de diferentes personas y se les pide que reconozcan su género, edad e identidad. El tiempo que tardan en conseguirlo se mide por magneto encefalografía cerebral. Lo consiguen con rapidez, en algo menos de medio segundo. El género y la edad se consigue en menos tiempo que la identidad. Cuando se repite el experimento, el género y la identidad ganan en rapidez para los rostros ya conocidos.

Foto: Thea Hoyer / Unsplash

Y, por supuesto, en la observación del rostro influye el considerarlo atractivo aunque, todavía, no es fácil establecer el atractivo que se detecta en cada persona. Julie White y David Puts, de la Universidad Estatal de Pennsylvania, lo estudiaron en un grupo de 12 estudiantes graduados en institutos de Wisconsin en 1957. Se recogieron sus datos genéticos en 2006 y 2007 y hasta 80 observadores midieron su atractivo entre 2004 y 2008 en las fotografías que se habían publicado en el anuario del instituto en 1957.

Relacionaron varias regiones del genoma con el atractivo atribuido a cada persona: dos zonas tuvieron una relación fuerte y otras diez bastante fuerte. Varias de estas regiones estaban ligadas al sexo. Esas regiones del genoma estaban relacionadas con el color de la piel, el índice de masa corporal, la altura, la proporción cintura-cadera y la morfología del rostro. Por ejemplo, influye el ancho de la boca respecto al centro del rostro o el ancho de la frente.

Además, era de esperar la incógnita, si el rostro puede ser o no más atractivo si lo ocultamos más o menos cuando, por ejemplo, llevamos mascarilla, algo que conocemos bien por la pandemia del COVID-19. Según el estudio publicado en 2022 por Oliver Hies y Michael Lewis, de la Universidad de Cardiff, la mascarilla aumenta la atracción del rostro más que otras cubiertas de la cara.

Participaron 42 universitarias de los cursos de Psicología, con edad de 18 a 24 años, que observaron y puntuaron el atractivo de 40 hombres, con edad de 18 a 30 años. Su rostro llevaba mascarilla quirúrgica, mascarilla de tela, un libro sobre el rostro o ninguna cubierta. Los resultados muestran que los rostros se consideraron más atractivos cuando están cubiertos por mascarilla quirúrgica y algo más atractivos cuando están tapados con mascarillas de tela que cuando no están tapados. Quizá el cerebro del observador reconstruye la parte del rostro que no ve y siempre lo hace de manera positiva.

Incluso la barba, que también tapa parte del rostro en los machos de nuestra especie, también se puede asociar a un mayor atractivo en la competencia para la búsqueda de pareja. E.A. Beseris y sus colegas, de la Universidad de Utah en Salt Lake City, lo resumen en que así se consigue que el rostro se perciba como más masculino, socialmente dominante y con una conducta más agresiva en comparación con los hombres con el rostro desnudo.

Por ello y por esta posible reconstrucción del rostro atractivo es por lo que se admite que la belleza está más bien en la mente del observador. Por ejemplo, el estudio de Ravi Thiruchselvam y su equipo, del Colegio Hamilton de Clinton, en Nueva York, con estudiantes de 18 a 21 años, una edad media de 19.6 años y 11 mujeres. Las participantes encuentran que, en imágenes, los rostros más atractivos son aquellos que, previamente, se les ha dicho que son atractivos. Si los esperan atractivos pues son atractivos.

El estudio de Atsunobu Suzuki y sus colegas, de la Universidad de Tokio, parte de la hipótesis de que las personas no deducen de igual manera la personalidad y las habilidades de los demás a partir de sus rostros. Pero, como hemos mencionado, esa deducción tiene un fuerte impacto, a menudo no justificado, sobre la toma de decisiones sobre la conducta de otras personas en el mundo real. Encuentran que las decisiones sobre siete rasgos psicológicos, cuando coinciden en el encuestado, llevan a conclusiones reforzadas que se mantienen en el tiempo y sirven para juzgar a otras personas. Es lo que denominan deducción a partir de rasgos basados en el rostro. Las siete características que buscan en los rostros observados son competencia, moralidad, inteligencia, dominancia, agresividad, emociones y veracidad.

Los resultados indican que hay individuos que tienen una disposición estable en el tiempo para sacar conclusiones sobre varios rasgos de los demás a partir de la apariencia facial.

Foto: Renè Müller / Unsplash

Para terminar, repasemos con Belén Altuna el rostro de los muertos o, como titula el apartado, “ni tienen rostro los muertos”. Son los cadáveres los que no tienen rostro pues los seres humanos conservan en la memoria de los que les conocieron el rostro de cuando estaban vivos. Ya no están vivos, solo queda el cuerpo y, por ello, se les tapa el rostro con una tela: ya no mira y, por tanto, no debe ser mirado.

Lo primero es cerrar sus ojos. Ellos no pueden ver, pero los vivos no soportan la mirada muerta de un muerto. Allí ya no hay nadie. Pero nos tranquilizan los ojos cerrados, quizá no ha muerto y solo duerme.

En el velatorio interviene quien viste y maquilla al muerto. Se busca una expresión neutra y apacible, aunque a menudo no se consigue y llega la frustración para quienes le conocieron en vida. El rostro del muerto es una máscara, fría, blanca, rígida, inmóvil.

Referencias:

Altuna, B. 2010. Una historia moral del rostro. Pre-Textos. Valencia. 297 pp.

Beseris, E.A. et al. 2020. Impact protection potential of mammalian hair: testing the pugilism hypothesis for the evolution of human facial hair. Integrative Organismal Biology doi: 10.1093/iob/obaa005.

Darwin, C. 1872 (1998). La expresión de las emociones en los animales y en el hombre. Alianza Ed. Madrid. 390 pp.

Dobs, K. et al. 2019. How face perception unfolds over time. Nature Communications 10: 1258.

Ekman, P. 1970. Universal facial expressions of emotion. California Mental Health Research Digest 8: 151-158.

Fernández, T.R. 1998. Consideraciones preliminares del traductor. En Charles Darwin, “La expresión de las emociones en los animales y en el hombre”, p. 7-34. Alianza Ed. Madrid.

García Etxebarria, K. 2020. Los componentes genéticos del atractivo. Cuaderno de Cultura Científica 12 octubre.

Hies, O. & M.B. Lewis. 2022. Beyond the beauty of occlusion: medical masks increase facial attractiveness more than other face coverings. Cognitive Research: Principles and Implications doi: 10.1186/s41235-021-00351-9.

Hu, B. et al. 2019. Genome-wide association study reveals sex-specific genetic architecture of facial attractiveness. PLOS Genetics doi: 10.1371/journal.pgen.1007973.

Lawrence, K. et al. 2015. Age, gender, and puberty influence the development of facial emotion recognition. Frontiers in Psychology 6: 761.

Le Breton, D. 1999. Las pasiones ordinarias. Antropología de las emociones. Ed. Nueva Visión. Buenos Aires. 254 pp.

Pérez, J.I. 2020. La barba humana. Cuaderno de Cultura Científica 2 agosto.

Suzuki, A. et al. 2022. Generalized tendency to make extreme trait judgements from faces. Royal Society Open Science 9: 220172.

Thiruchselvam, R. et al. 2016. Beauty is in the belief of the beholder: cognitive influences on the neural response to facial attractiveness. Social Cognitive and Affective Neuroscience 11: 1999-2008.

White, J.D. & D.A. Puts. 2019. Genes influence facial attractiveness through intricate biological relationships. PLOS Genetics doi: 10.1371/journal.pgen.1008030.

Para saber más:
El sesgo a la izquierda al reconocer un rostro
Sombra aquí, sombra allá: reconocimiento facial discriminatorio
Los componentes genéticos del atractivo

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo El rostro se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La sucesión fractal de Thue-Morse y la partida infinita de ajedrez

Wed, 2023/04/05 - 11:59

En la anterior entrada del Cuaderno de Cultura Científica, titulada Sucesiones fractales, analizamos las sucesiones infinitas de números enteros denominadas autosemejantes, o fractales, que imitan la propiedad de autosemejanza de los objetos fractales. En concreto, una sucesión (infinita) de números enteros se dice que es una sucesión autosemejante, si una parte de la sucesión es igual a toda la sucesión, es decir, si eliminamos algunos miembros de la sucesión infinita los miembros de la sucesión que quedan constituyen de nuevo toda la sucesión.

Por ejemplo, tomemos la sucesión

1, 1, 1, 0, 1, 1, 0, 0, 1, 1, 1, 0, 0, 1, 0, 0, 1, 1, 1, 0, 1, 0, 0, 0, 0, 2, 1, 0, 0, 1, 0, 0, 1, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0, 0, 0, 1, 0, 0, 0, 1, 2, 0, 1, 1, 0, 0, 0, 0, 1, 0, 0, 1, 0, 0, 1, 2, 0, 0, 1, 0, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 1, 1, 1, 0, 0, 2, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 0, 2, 1, 0, 0, 1, 0, 1, 0, …

que es la sucesión A000161 en la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS, y que se define de la siguiente manera: para cada posición n de la sucesión (empezando en 0), el número que está en dicha posición es igual a la cantidad de formas de expresar n como suma de dos cuadrados (es posible que no haya ninguna), sin importar el orden. Así, teniendo en cuenta que los primeros cuadrados son 0, 1, 4, 9, 16, 25, etc, se tiene que 0 se puede expresar como 0 + 0; 1 se puede expresar como 0 + 1; 2 como 1 + 1; 3 no se puede expresar como suma de cuadrados; 4 es igual a 4 + 0; 5 es igual a 4 + 1; 6 y 7 no se pueden expresar como suma de cuadrados; 8 se puede expresar como 4 + 4; 9 como 9 + 0; 10 es igual a 9 + 1; 11 y 12 no se pueden expresar como suma de cuadrados; 13 como 9 + 4; y así seguiríamos con el resto. La primera vez que aparece el 2 es para n = 25, ya que 25 = 25 + 0 = 16 + 9, o la primera vez que aparece el 3 en la sucesión es para n = 325, ya que 325 = 324 + 1 = 289 + 36 = 225 + 100.

Esta sucesión es una sucesión fractal ya que si eliminamos los números que están en las posiciones impares (cuidado, ya que estamos empezando en n = 0), es decir, nos quedamos con los números que están en las posiciones pares, esta sigue siendo la sucesión original, como se puede comprobar arriba para los primeros términos.

Thue-Morse Seis etapas de la construcción infinita del fractal conocido como “curva de Koch”

 

¿Qué es la sucesión de Thue-Morse?

En esta entrada vamos a centrarnos en una sucesión fractal concreta, conocida con el nombre de sucesión de Thue-Morse, o sucesión de Prouhet-Thue-Morse, que es una curiosa sucesión de números enteros que aparece en diferentes ramas de las matemáticas, como puede leerse en el artículo The ubiquitous Prouhet-Thue-Morse sequence (La omnipresente sucesión de Prouhet-Thue-Morse) de Jean-Paul Allouche y Jeffrey Shallit, desde la combinatoria de palabras a problemas de ajedrez, pasando por la geometría diferencial, la teoría de números, el análisis matemático de funciones, la física matemática, los cuasi-cristales o la teoría de grupos.

Empecemos definiendo esta sucesión. La sucesión de Thue-Morse es una sucesión infinita (la sucesión A010060 en la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS) cuyos elementos son ceros y unos y que se define recursivamente de la siguiente manera. Si la denotamos como {tn}, entonces t0 = 0 y t2n = tn, t2n + 1 = 1 – tn. Por lo tanto, los primeros términos de la sucesión, como podéis calcular desde la definición, son:

0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0, 1, 0, 0, 1, 1, …

Otra manera de definir esta sucesión es utilizando las representaciones binarias de los números. Se empieza representando los números, desde n = 0, en base 2, como aparece en la siguiente imagen (de hecho, esto ya lo hicimos para la entrada Sucesiones fractales).

La sucesión de Thue-Morse se obtiene sumando, para cada número n, los unos (1) que aparecen en su representación binaria, si es una cantidad par se considera el número 0 y si es impar el número 1 (matemáticamente podemos decir que es la suma de los dígitos de su representación binaria, módulo 2). Por ejemplo, 29 se representa como 11101, que tiene una cantidad par de unos, luego para n = 29 se toma el valor 0 en la sucesión (t29 = 0), mientras que para n = 37 se toma el valor 1 ya que 37 se representa en base dos como 100101 (t37 = 1). Luego, para los primeros números n (los de la imagen anterior) se obtienen los primeros términos de esta sucesión binaria: 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1.

En la trilogía Winning Ways for your Mathematical Plays (Estrategias ganadoras para tus juegos matemáticos), de los matemáticos John H. Conway, Richard K. Guy y Elwyn Berlekamp, se denominan números malvados (evil numbers en inglés) a aquellos números tales que su representación binaria tiene un número par de unos, es decir, se corresponden con los ceros de la sucesión de Thue-Morse, que, como se observa en la imagen anterior, serían 0, 3, 5, 6, 9, 10, 12, 15, 17, 18, 20, 23, 24, 27, 29, 30, 33, 34, 36, etc. Por otra parte, se llaman números odiosos a aquellos con una cantidad impar de unos en su representación binaria, es decir, que se corresponden con los unos de la sucesión de Thue-Morse, que son 1, 2, 4, 7, 8, 11, 13, 14, 16, 19, 21, 22, 25, 26, 28, 31, 32, 35, 37, 38, etc.

Una tercera forma de definir la sucesión de Thue-Morse es utilizando, de manera recursiva, el complemento, o negación, bit a bit (dígito a dígito) de un número binario. Empecemos definiendo qué es el complemento, o negación, bit a bit (dígito a dígito) de un número binario: esta operación consiste en cambiar cada dígito de una representación binaria por su complemento, es decir, si es un 1 se cambia por 0, y si es un 0 se cambia por 1. Por ejemplo, el complemento del número binario 100100110 será C[100100110] = 011011001.

Para definir la sucesión de Thue-Morse se realizan los siguientes pasos. Se empieza por T(0) = 0 y en casa paso se toma el número binario del paso anterior seguido de su complemento bit a bit, esto es, T(k + 1) = T(k)C[T(k)]. Así, los primeros pasos serían:

Thue-Morse

La sucesión de Thue-Morse se obtendría siguiendo este proceso hasta el infinito, T(infinito).

Una curiosidad de esta definición es que en los pasos pares T(2k) se obtienen números binarios capicúas, 0, 0110, 0110100110010110, etc.

Una forma similar de construir la sucesión de Thue-Morse mediante una serie de transformaciones consiste en empezar en 0 y luego en cada paso transformar 0 en 01 y 1 en 10. Así, como se empieza en 0, en el primer paso 0 se transforma en 01; en el segundo paso, al trasformar los dos dígitos de 10, mediante la transformación descrita, quedaría 0110; el siguiente paso da como resultado 01101001; el siguiente 0110100110010110; y vemos que vamos obteniendo los mismos términos que en la descripción anterior.

El origen de la sucesión de Thue-Morse

A principios del siglo XX el matemático noruego Axel Thue (1863-1922), en dos artículos publicados en 1906 y 1912 (que supusieron el origen de una rama de la combinatoria denominada combinatoria de palabras), se planteó el problema de construir sucesiones sobre alfabetos finitos (un alfabeto es un conjunto finito de símbolos (letras), por ejemplo, un alfabeto binario consta de dos símbolos, como los símbolos 0 y 1, o cualquier otro par de símbolos; y el alfabeto del español tiene 27 letras) libres de cuadrados o de cubos.

Una sucesión se dice que está libre de cuadrados si no es posible tomar un conjunto de elementos consecutivos de la sucesión que formen una “palabra” (es decir, una sucesión de símbolos, por ejemplo, “1001001” es una palabra en el alfabeto binario y “abracadabra” o “prgtrro” son palabras en el alfabeto de 27 letras, aunque la segunda no tiene significado alguno) de la forma WW, donde W es una palabra no vacía. Por ejemplo, la palabra binaria anterior no está libre de cuadrados, ya que contiene la palabra “00”, que es un cuadrado tomando W = “0”, o también contiene el cuadrado “001001” para W = “001”. De forma similar se definen las palabras libres de cubos, cuando no contiene una palabra de la forma WWW.

Axel Thue observó que toda sucesión binaria con al menos 4 elementos contiene cuadrados, luego no existen sucesiones infinitas binarias libres de cuadrados. Entonces se planteó algunas cuestiones relacionadas como la existencia de sucesiones infinitas con tres letras libres de cuadrados o la existencia de sucesiones binarias infinitas libres de cubos, o de solapamientos (esto es, palabras de la forma vWvWv, donde W es una palabra y v es una letra de este alfabeto binario, es decir, 0 o 1). La respuesta a esas cuestiones venía de la mano de la sucesión que lleva su nombre.

La demostración de que toda sucesión binaria con más de 4 elementos contiene cuadrados es bastante sencilla. Veámosla. Si la sucesión binaria empezase por 0 (el argumento es similar si empezamos por 1), el siguiente término de la sucesión debería ser 1, ya que si fuese 0 tendríamos un cuadrado “00”. Luego los dos primeros términos de la sucesión serían {0, 1} (si hubiésemos empezado por 1 serían {1, 0}). De la misma manera, el tercer término deberá ser 0, ya que si fuese 1, de nuevo tendríamos un cuadrado, en este caso “11”. Por lo tanto, los tres primeros términos de la sucesión libre de cuadrados serían {0, 1, 0} (si hubiésemos empezado por 1 serían {1, 0, 1}). Llegados a este punto, si el siguiente término de la sucesión es 0, la sucesión es {0, 1, 0, 0} y tenemos un cuadrado “00”, mientras que si el siguiente término es 1, la sucesión es {0, 1, 0, 1} y el cuadrado es “0101”. Así, queda demostrada la afirmación de Thue.

Un resultado que puede verse en la literatura (puede leerse alguna de las demostraciones de este resultado en algunos de los textos de la bibliografía, como el capítulo Substitutions and symbolic dynamical systems) es que la sucesión de Thue-Morse no contiene palabras de la forma WWv, donde W es una palabra no vacía (es decir, con alguna letra) y v es la primera letra de la palabra W. Como consecuencia (corolario) de este resultado se tiene:

A. La sucesión de Thue-Morse es una sucesión binaria infinita no periódica, es decir, no existe una palabra finita W que genere, por repetición, toda la sucesión infinita (por ejemplo, entre los ejemplos de sucesiones autosemejantes de la entrada Sucesiones fractales se incluía la sucesión 1, 2, 2, 3, 2, 3, 3, 1, 2, 2, 3, 2, 3, 3, 1, 2, 2, 3, 2, 3, 3, 1, 2, 2, 3, 2, 3, 3, 1, 2, 2, 3, 2, 3, 3, 1, 2, 2, 3, 2, 3, 3, … que es una sucesión periódica de periodo W = 1, 2, 2, 3, 2, 3, 3), ya que si existiese un periodo W tendríamos que existiría una palabra de la forma Wwv, con v la primera letra de la palabra W, lo cual no es posible por el resultado anterior;

B. La sucesión de Thue-Morse es una sucesión binaria infinita que no admite cubos (WWW), ni solapamientos (vWvWv), dando respuesta a dos de las cuestiones de Thue.

Además, la sucesión de Prouhet-Thue-Morse permite construir una sucesión infinita sobre un alfabeto de tres letras libre de cubos. Se define la sucesión vn , para n mayor o igual que 1, de la siguiente manera, vn es igual a la cantidad de unos (1) que hay entre el cero (0) que está en la posición n-ésima y en cero (0) que está en la posición (n + 1)-ésima. Como la sucesión de Thue-Morse empieza

0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 0, 1, 1, 0, 1, 0, 0, 1, 1, …

entonces la nueva sucesión sería, según la definición,

2, 1, 0, 2, 0, 1, 2, 1, 0, 1, 2, 0, 2, 1, 0, 2, 0, 1, 2, 0, 2, 1, 0, 1, 2, 1, 0, 2, 0, 1, 2, 1, 0, 1, 2, 0, 2, 1, 0, 1, 2, 1, 0, 2, 0, 1, 2, 0, 2, 1, 0, 2, …

Utilizando que la sucesión original no admite solapamientos (vWvWv) puede probarse que la sucesión descrita anteriormente es una sucesión infinita sobre un alfabeto de tres letras {0, 1, 2} y que está libre de cuadrados.

Los artículos del matemático noruego Axel Thue fueron publicados en una revista noruega y pasaron desapercibidos durante mucho tiempo, motivo por el cual esta sucesión fue redescubierta por otras personas. Por ejemplo, el matemático estadounidense Harold Marston Morse (1892-1977) redescubrió la sucesión binaria infinita 0, 1, 1, 0, 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, … en relación con una investigación en el campo de la geometría diferencial, e concreto, sobre superficies de curvatura negativa.

Posteriormente se conocería que esta sucesión ya aparecía, de forma implícita, en un artículo de 1851 del matemático francés Eugène Prouhet (1817-1867) en relación con un problema de teoría de números.

El problema del juego infinito en el ajedrez

El matemático y jugador de ajedrez neerlandés Machgielis (Max) Euwe (1901-1981), que fuera campeón del mundo de ajedrez en 1935 y profesor de matemáticas en las universidades de Róterdam y Tilburg, también redescubrió, de forma independiente, la sucesión de Thue-Morse en relación con el ajedrez.

Una de las reglas del ajedrez (conocida como regla alemana) decía que si en una partida de ajedrez se repetía tres veces, de forma consecutiva, una misma secuencia de movimientos, se consideraba que el juego terminaba en tablas. Euwe demostró, en un artículo de 1929, que podía realizarse una partida de ajedrez infinita evitando la regla alemana, es decir, que una misma secuencia de movimientos se repitiera tres veces consecutivas. Para ello consideró una secuencia de cuatro movimientos, que se corresponde con el 0, y una secuencia de otros cuatro movimientos, que se corresponde con el 1, y se inventó una sucesión binaria infinita libre de cubos, para evitar la regla alemana, que no es otra que la sucesión de Thue-Morse, aunque el ajedrecista y matemático desconocía la existencia de la misma.

Por este motivo se introdujeron dos reglas más fuertes para declarar tablas en un juego y evitar el juego infinito, la regla de la triple repetición y la regla de los cincuenta movimientos. De hecho, la regla de la triple repetición establece que la partida ha terminado en tablas si se repite tres veces una misma secuencia de movimientos, aunque no sea de forma consecutiva,

Thue-Morse Juego de piezas abstractas del ajedrez, conocido como Bauhaus-Schachspiel, diseñado por el profesor de la Bauhaus Josef Hartwig Wood

Bibliografía

1.- Clifford A. Pickover, La maravilla de los números, MA NON TROPPO, 2002.

2.- Jean-Paul Allouche, Jeffrey Shallit, The ubiquitous Prouhet-Thue-Morse sequence, incluido en el libro Sequences and their Applications, Springer, 1999.

3.- Christopher Williamson, An Overview of the Thue-Morse Sequence (manuscrito no publicado). University of Washington, 2012.

4.- S. Ferenczi, Substitutions and symbolic dynamical systems (capítulo), Substitutions in Dynamics, Arithmetics and Combinatorics, Springer, 2002.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

 

El artículo La sucesión fractal de Thue-Morse y la partida infinita de ajedrez se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Cómo nuestra realidad puede ser la suma de todas las realidades posibles

Tue, 2023/04/04 - 11:59

La integral de caminos de Richard Feynman es tanto una potente máquina de predicción como una filosofía sobre cómo es el mundo. Pero la comunidad científica todavía está esforzándose por descubrir cómo usarla y qué significa.

Un artículo de Charlie Wood para Quanta Magazine

integral de caminosEl camino en línea recta de una partícula puede entenderse como la suma de todos sus posibles caminos. Imagen: Kristina Armitage/Quanta Magazine

La fórmula más poderosa de la física comienza con una S delgada, el símbolo de una especie de suma conocida como integral. Más adelante viene una segunda S, que representa una cantidad conocida como acción. Juntas, estas S gemelas forman la esencia de una ecuación que podría decirse que es el adivino del futuro más eficaz que se haya ideado hasta ahora.

La fórmula del oráculo se conoce como integral de caminos de Feynman. Hasta donde sabe la comunidad científica, predice con precisión el comportamiento de cualquier sistema cuántico: un electrón, un rayo de luz o incluso un agujero negro. La integral de caminos ha acumulado tantos éxitos que muchos físicos y físicas creen que es una ventana directa al corazón de la realidad.

“Es como el mundo es realmente”, afirma Renate Loll, física teórica de la Universidad Radboud en los Países Bajos.

Pero la ecuación, aunque adorna las páginas de miles de publicaciones de física, es más una filosofía que una receta rigurosa. Sugiere que nuestra realidad es una especie de mezcla, una suma, de todas las posibilidades imaginables. Pero no les dice a los investigadores exactamente cómo llevar a cabo la suma. Así que la comunidad científica ha pasado décadas desarrollando un arsenal de estrategias de aproximación para construir y calcular la integral para diferentes sistemas cuánticos.

Las aproximaciones funcionan lo suficientemente bien como para que físicas intrépidas como Loll busquen ahora la integral de caminos definitiva: una que combina todas las formas concebibles de espacio y tiempo y produce un universo con la forma del nuestro como resultado neto. Pero en esta búsqueda por demostrar que la realidad es de hecho la suma de todas las realidades posibles, se enfrentan a una profunda confusión sobre qué posibilidades deberían entrar en la suma.

Todos los caminos llevan a uno

La mecánica cuántica realmente despegó en 1926 cuando Erwin Schrödinger ideaba una ecuación que describe cómo los estados ondulatorios de las partículas evolucionan de un momento a otro. La siguiente década Paul Dirac presentaba una visión alternativa del mundo cuántico. La suya se basaba en el venerable concepto de que las cosas toman el camino de “menor acción” para ir de A a B, la ruta que, en términos generales, requiere menos tiempo y energía. Richard Feynman luego se toparía con el trabajo de Dirac y desarrollaría la idea, dando a conocer la integral de caminos en 1948.

El corazón de la filosofía se muestra todo él en la demostración por excelencia de la mecánica cuántica: el experimento de la doble rendija.

Los físicos disparan partículas a una barrera con dos rendijas y observan dónde dan las partículas en una pared detrás de la barrera. Si las partículas fueran balas sea agruparían detrás de cada ranura. En cambio, las partículas dan en toda la pared trasera formando franjas que se repiten. El experimento sugiere que lo que se mueve a través de las rendijas es en realidad una onda que representa las posibles ubicaciones de la partícula. Los dos frentes de onda emergentes se interfieren entre sí, produciendo una serie de picos donde la partícula podría acabar siendo detectada.

El patrón de interferencia es un resultado sumamente extraño porque implica que ambos caminos posibles de la partícula a través de la barrera tienen una realidad física.

La integral de caminos asume que así es como se comportan las partículas incluso cuando no hay barreras o rendijas presentes. Primero, imagina cortar una tercera rendija en la barrera. El patrón de interferencia en la pared del fondo cambiará para incorporar la nueva ruta posible. Ahora sigue cortando rendijas hasta que la barrera no sea más que rendijas. Por último, rellena el resto del espacio con «barreras» todo rendijas. Una partícula disparada a este espacio toma, en cierto sentido, todas las rutas a través de todas las rendijas hacia la pared del fondo, incluso rutas extrañas con desvíos en bucle. Y de alguna manera, cuando se suman correctamente, todas esas opciones totalizarían lo que esperarías ver si no hubiera barreras: un solo punto brillante en la pared del fondo.

Es una visión radical del comportamiento cuántico que muchos físicos toman en serio. “Lo considero completamente real”, afirma Richard MacKenzie, físico de la Universidad de Montreal.

Pero, ¿cómo puede un número infinito de caminos curvos sumar en total una sola línea recta? La estrategia de Feynman, en términos generales, consiste en tomar cada camino, calcular su acción (el tiempo y la energía necesarios para recorrer el camino) y, a partir de ahí, obtener un número llamado amplitud, que indica la probabilidad de que una partícula recorra ese camino. Luego sumas todas las amplitudes para obtener la amplitud total de una partícula que va desde aquí hasta allí: una integral de todos los caminos.

Ingenuamente, los caminos zigzagueantes parecen tan probables como los rectos, porque la amplitud de cualquier camino individual tiene el mismo tamaño. Es de crucial importancia, sin embargo, que las amplitudes son números complejos. Mientras que los números reales marcan puntos en una línea, los números complejos actúan como flechas. Las flechas apuntan en diferentes direcciones para diferentes caminos. Y dos flechas que se alejan una de la otra suman cero.

El resultado final es que, para una partícula que viaja por el espacio, las amplitudes de caminos más o menos rectos apuntan esencialmente en la misma dirección, amplificándose entre sí. Pero las amplitudes de los caminos sinuosos apuntan en todas direcciones, por lo que estos caminos tienden a anularse entre sí. Solo queda el camino en línea recta, lo que demuestra cómo el clásico camino único de mínima acción emerge de opciones cuánticas interminables.

Feynman demostró que su integral de caminos es equivalente a la ecuación de Schrödinger. El beneficio del método de Feynman es una receta más intuitiva sobre cómo lidiar con el mundo cuántico: suma todas las posibilidades.

La suma de todas las ondas

Los físicos pronto llegaron a entender las partículas como excitaciones en campos cuánticos, entes que llenan el espacio con valores en cada punto. Donde una partícula puede moverse de un lugar a otro a lo largo de diferentes caminos, un campo puede ondularse aquí y allá de diferentes maneras.

Afortunadamente, la integral de caminos también funciona para campos cuánticos. “Es obvio qué hacer”, afirma Gerald Dunne, físico de partículas de la Universidad de Connecticut. “En lugar de sumar todas los caminos, sumas todas las configuraciones de tus campos”. Identificas los estados iniciales y finales del campo, luego consideras cada una de todas las historias posibles que los unen.

El mismo Feynman se apoyó en la integral de caminos para desarrollar una teoría cuántica del campo electromagnético en 1949. Otros averiguarían cómo calcular acciones y amplitudes para campos que representan otras fuerzas y partículas. Cuando los físicos modernos predicen el resultado de una colisión en el Gran Colisionador de Hadrones en Europa, la integral de caminos es la base de muchos de sus cálculos. La tienda de regalos incluso vende una taza de café que muestra una ecuación que se puede usar para calcular el ingrediente clave de la integral de caminos: la acción de los campos cuánticos conocidos.

“Es absolutamente fundamental para la física cuántica”, afirma Dunne.

integral de caminosLa tienda de regalos del CERN, que alberga el Gran Colisionador de Hadrones, vende una taza de café que muestra una ecuación que se puede usar para calcular el ingrediente clave de la integral de caminos: la acción de los campos cuánticos conocidos. Foto: Cortesía del CERN

A pesar de su triunfo en la física, la integral de caminos incomoda a los matemáticos. Incluso una simple partícula que se mueve por el espacio tiene infinitas rutas posibles. Los campos son peores, con valores que pueden cambiar de infinitas maneras en infinitos lugares. Los físicos tienen técnicas creativas para hacer frente a la tambaleante torre de infinitos, pero los matemáticos argumentan que la integral nunca fue diseñada para operar en un entorno infinito como este.

“Es como magia negra”, afirma Yen Chin Ong, físico teórico de la Universidad de Yangzhou en China que tiene formación como matemático. “Los matemáticos no se sienten cómodos trabajando con cosas en las que no está claro lo que está pasando”.

Sin embargo, obtiene resultados que están fuera de toda duda. Los físicos incluso han logrado estimar la integral de caminos de la fuerza fuerte, la interacción extraordinariamente compleja que mantiene unidas a las partículas en los núcleos atómicos. Usaron dos atajos principales para conseguir esto. Primero, hicieron del tiempo un número imaginario, un extraño truco que convierte las amplitudes en números reales. Luego aproximaron el continuo espacio-tiempo infinito a una cuadrícula finita. Los practicantes de este enfoque de la teoría cuántica de campos “reticular” pueden usar la integral de caminos para calcular las propiedades de los protones y otras partículas que sienten la fuerza fuerte, superando las inseguras matemáticas para obtener respuestas sólidas que coinciden con los experimentos.

“Para alguien como yo en física de partículas”, afirma Dunne, “esa es la prueba de que funciona”.

Espaciotiempo = ¿la suma de qué?

Sin embargo, el mayor misterio de la física fundamental se encuentra más allá del alcance experimental. Los físicos desean comprender el origen cuántico de la fuerza de la gravedad. En 1915, Albert Einstein reformuló la gravedad como el resultado de curvaturas en el tejido del espacio y el tiempo. Su teoría reveló que la longitud de una vara de medir y el tictac de un reloj cambian de un lugar a otro; en otras palabras, que el espaciotiempo es un campo maleable. Otros campos tienen una naturaleza cuántica, por lo que la mayoría de los físicos esperan que el espaciotiempo debería tenerla también, y que la integral de caminos debería recoger ese comportamiento.

El físico británico Paul Dirac, a la izquierda, reajustó la mecánica cuántica en 1933 de una manera que considera toda la historia, o camino, de una partícula, en lugar de su evolución momento a momento. El físico estadounidense Richard Feynman, a la derecha, tomó esa idea y la elaboró, desarrollando la integral de caminos en 1948. Fotos: Sueddeutsche Zeitung Photo/Alamy (izquierda); Estate of Francis Bello/Science Source (derecha)

La filosofía de Feynman es clara: los físicos deben sumar todas las formas posibles del espaciotiempo. Pero cuando consideramos la forma del espacio y el tiempo, exactamente, ¿qué es posible?

Es posible que el espacio-tiempo se divida, por ejemplo, separando un lugar de otro. O podría estar perforado con tubos (agujeros de gusano) que unen las ubicaciones. Las ecuaciones de Einstein permiten estas formas tan exóticas, pero prohíben los cambios que conducirían a ellas; las rasgaduras o fusiones violarían la causalidad y generarían paradojas de viajes en el tiempo. Sin embargo, nadie sabe si el espaciotiempo y la gravedad podrían interactuar en una actividad más atrevida a nivel cuántico, por lo que los físicos no saben si arrojar o no espaciotiempos de queso suizo a la «integral de la caminos gravitacional».

Un bando sospecha que todo entra. Stephen Hawking, por ejemplo, defendió una integral de caminos que se adapta a rasgaduras, agujeros de gusano, donuts y otros cambios «topológicos» delirantes entre las formas del espacio. Se apoyó en el truco de los números imaginarios para el tiempo para hacer las matemáticas más fáciles. Hacer que el tiempo sea imaginario lo convierte efectivamente en otra dimensión del espacio. En un escenario así, atemporal, no existe una noción de causalidad que los universos llenos de agujeros de gusano o desgarrados puedan violar. Hawking usó esta integral de caminos «euclidiana» atemporal para argumentar que el tiempo comenzó en el Big Bang y para contar los bloques de construcción del espaciotiempo dentro de un agujero negro. Recientemente, los investigadores utilizaron el enfoque euclidiano para argumentar que la información escapa de los agujeros negros moribundos.

Este «parece ser el punto de vista más rico a adoptar», afirma Simon Ross, un teórico de la gravedad cuántica de la Universidad de Durham. «La integral de caminos gravitacional, definida para incluir todas las topologías, tiene algunas propiedades estupendas que aún no entendemos completamente».

Pero la perspectiva más rica tiene un precio. A algunos físicos no les gusta eliminar un elemento de carga de la realidad como el tiempo. La integral de caminos euclidiana «es en realidad totalmente no física», afirma Loll.

Su bando se esfuerza por mantener el tiempo en la integral de caminos, situándolo en el espaciotiempo que conocemos y amamos, donde las causas preceden estrictamente a los efectos. Después de pasar años desarrollando formas de aproximarse a esta integral de caminos mucho más formidable, Loll ha encontrado indicios de que el enfoque puede funcionar. En un artículo, por ejemplo, ella y sus colaboradores sumaron un montón de formas estándar de espaciotiempo (aproximando cada una a una colcha de pequeños triángulos) y obtuvieron algo como nuestro universo: el espaciotiempo equivalente a demostrar que las partículas se mueven en lineas rectas.

Otros están avanzando en la integral de caminos atemporal para el espaciotiempo y la gravedad, con todos los cambios topológicos incluidos. En 2019, los investigadores definieron rigurosamente la integral completa, no solo una aproximación, para universos bidimensionales, per utilizando herramientas matemáticas que enturbiaron aún más su significado físico. Un trabajo así solo profundiza la impresión, tanto en físicos como en matemáticos, de que la integral de caminos tiene una potencia que está esperando a que sea aprovechada. «Quizás todavía tenemos que definir bien las integrales de caminos», afirma Ong, «pero fundamentalmente creo que es solo cuestión de tiempo».

 

El artículo original, How Our Reality May Be a Sum of All Possible Realities, se publicó el 6 de febrero de 2023 en Quanta Magazine. Cuaderno de Cultura Científica tiene un acuerdo de distribución en castellano con Quanta Magazine.

Traducido por César Tomé López

El artículo Cómo nuestra realidad puede ser la suma de todas las realidades posibles se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Un poco más de agua en la Luna

Mon, 2023/04/03 - 11:59

Encontrar agua en la Luna es muy importante, no solo a nivel de poder comprender mejor su historia geológica, sino porque esta puede servir para abastecer al ser humano en bases permanentes. Además de su uso para el consumo humano directo, también permitiría obtener oxígeno e hidrógeno, el primero solo respirar, pero la combinación de ambos elementos permitiría generar el combustible necesario para misiones más allá de la órbita lunar o incluso para el retorno a nuestro planeta.

No podemos olvidar que en estos momentos estamos inmersos en una nueva carrera que nos llevará de vuelta a la Luna -esperamos que antes de la década de los 30- en los cuales tanto Estados Unidos -colaborando también con otros países- y China, pretenden empezar a establecer una presencia humana más permanente en nuestro satélite natural, y que permita no solo investigar, sino poner a prueba los sistemas necesarios que nos permitan dar el salto hacia la exploración humana de Marte, y, donde el abastecimiento de agua, también será fundamental.

Nuestra visión sobre la posibilidad de la existencia de agua en la Luna -entiéndase por agua en cualquiera de sus estados, ya sea sólida, líquida o gaseosa- ha cambiado mucho a lo largo de los siglos. Y es que el hecho de que sea un cuerpo sin una atmósfera hacía pensar a los científicos que en su superficie, carente de nubes y de precipitación, probablemente no hubiese una gota de agua.

Esta idea empezó a cambiar allá por la década de los 60, cuando algunos científicos -como Watson, Murray y Brown (1961)- pensaron que podían existir depósitos de hielo en los cráteres en sombra permanente de la Luna, donde en ningún momento del año la luz del Sol los ilumina directamente, algo que haría subir rápidamente las temperaturas y provocar la sublimación del hielo.

Pero las misiones Apolo traerían un gran chasco a estas teorías. Y es que el análisis de las muestras traídas por los astronautas y analizadas en nuestro planeta parecían demostrar que las rocas estaban totalmente secas… ¿Cómo era posible? ¿Se había escapado toda el agua al espacio o quizás la roca ya era seca de por sí?

agua en la LunaDistribución del hielo en la superficie del polo norte y sur de la Luna, en color azul. Si nos fijamos, se sitúa principalmente en las zonas de sombra de los cráteres. Imagen cortesía de la NASA.

No sería hasta la década de los 90 cuando las misiones espaciales empezaron a hacer descubrimientos que apuntaban a que si podría existir agua en la superficie de la Luna, aunque en este caso, dentro de los cráteres en sombra permanente, donde ya se había teorizado sobre su existencia en los años 60.

Esto llevó a, por un lado, volver a analizar las muestras de las misiones Apolo con instrumentación mucho más moderna y que arrojó resultados diferentes en algunos casos, y, por otro, las misiones espaciales comenzaron a detectar señales de la presencia de minerales hidratados en la superficie lunar, no solo en las zonas en sombra, sino también en las zonas iluminadas por el Sol.

El origen del agua en la Luna

¿De dónde procede esta agua? Es muy probable que en la Luna estemos viendo moléculas de agua de distinta procedencia. Por un lado, tenemos moléculas que pueden proceder de los volcanes lunares cuya actividad cesó hace unos dos mil millones de años -a grandes rasgos- pero cuyas erupciones pudieron crear atmósferas transitorias a partir de las cuales el vapor de agua pudo depositarse en el interior de los cráteres en sombra permanente.

También es posible que las continuas colisiones de distintos cuerpos contra la Luna -como por ejemplo los cometas y que son más ricos en volátiles- durante millones de años, hayan sido capaces de crear estas acumulaciones en esos cráteres.

agua en la LunaLos lugares de aterrizaje propuestos para la misión Artemis III de la NASA. Como se puede observar, están muy cerca de los cráteres en sombra permanente y por lo tanto, estos podrían muestrearse para confirmarse la presencia de hielo y analizar su composición. Imagen cortesía de la NASA.

Pero es que incluso la interacción del viento solar -un chorro de partículas cargadas como lo son protones y electrones que constantemente son emitidos por el Sol y que llegan hasta nosotros- podría generar algunos de los depósitos de agua que existen en la luna, ya que los protones al combinarse con el oxígeno podrían dar lugar a moléculas de agua.

Eso si, todo apunta a que las reservas de agua en la Luna son mucho menores que en la Tierra, no únicamente por la diferencia de tamaño en este caso sino porque también podría haber perdido una parte sustancial de esta al espacio a lo largo del tiempo, ya que su campo gravitatorio no es suficiente para retenerla.

Antes decíamos que se había descubierto agua incluso en la cara iluminada de la Luna, algo que a simple vista parecía muy diferente. Explicar esta existencia es difícil, ya que el ciclo día-noche haría fácil que el agua se perdiese al espacio, pero aun así se sigue detectando, por lo que tiene que haber algún mecanismo que pueda explicar la presencia de agua.

Un nuevo estudio publicado en Nature Geoscience pone en el radar unos materiales muy particulares y que conocemos como perlas de vidrio, pequeñas esferas de vidrio formadas cuando un meteorito choca con la superficie, en este caso de la Luna. Las grandes presiones y temperaturas generadas por este impacto funden las rocas y el polvo, y, al enfriarse rápidamente, forma estas pequeñas esferas de vidrio.

Estos materiales actuarían como una esponja en miniatura capaz de absorber parte del agua generada por la interacción del viento solar y la superficie y que, en sus estimaciones más optimistas, podrían albergar aproximadamente un equivalente a 270 kilómetros cúbicos de agua, o lo que es lo mismo, alrededor de un diez por ciento del agua que usamos los seres humanos de la Tierra en todo un año.

agua en la LunaFotografía tomada por los astronautas de la misión del Apolo 17 en una pequeña excavación del suelo lunar. Los colores naranjas corresponden con zonas ricas en vidrio volcánico que posteriormente se analizaría en la Tierra. Imagen cortesía de la NASA.

No son los únicos vidrios. Las muestras de las misiones Apolo incluían una sorpresa también en un material vítreo formado durante las erupciones volcánicas cuando esta era expulsada al espacio y al enfriarse rápidamente acababa formando también unas pequeñas esferas de vidrio volcánico y en las que el agua quedó atrapada en su interior y cuya detección no se pudo confirmar hasta principios de este siglo con las mejoras en las técnicas analíticas.

Sin duda, estos descubrimientos nos están ayudando a tener una imagen más detallada sobre, por un lado, la formación de la Luna y todos los procesos que se han dado a lo largo del tiempo desde su nacimiento y, por otro, de donde buscar el agua de cara a las misiones tripuladas, lo que sin duda condicionará mucho la tecnología y la manera de extraerla.

Referencias:

He, Huicun, Jianglong Ji, Yue Zhang, Sen Hu, Yangting Lin, Hejiu Hui, Jialong Hao, et al. «A Solar Wind-Derived Water Reservoir on the Moon Hosted by Impact Glass Beads». Nature Geoscience, 27 de marzo de 2023. doi: 10.1038/s41561-023-01159-6.

Watson, Kenneth, Bruce Murray, y Harrison Brown. «On the Possible Presence of Ice on the Moon». Journal of Geophysical Research 66, n.º 5 (mayo de 1961): 1598-1600.  doi: 10.1029/JZ066i005p01598.

Para saber más:

La porosidad de la corteza lunar
Daniel Marín – Naukas Bilbao 2019: Guía para turistas lunares
¿Por qué las caras de la Luna son tan diferentes?

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Un poco más de agua en la Luna se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

La doble vida de una seta

Sun, 2023/04/02 - 11:59
setaPleurotus ostreatus. Foto: Dominicus Johannes Bergsma / Wikimedia Commons

La seta de ostra (Pleurotus ostreatus) lleva una doble vida, por decirlo así. Es un hongo de amplia distribución geográfica en zonas templadas; es comestible y hasta se cultiva. Es del mismo género que la seta de cardo (Pleurotus aryngii), aunque no tan apreciada. No es raro verla crecer sobre madera, sobre todo de árboles de hoja caduca y, en especial, de hayas. La descompone y se alimenta de ella. Aunque es normal que crezca sobre troncos, no está considerado un hongo parásito, sino saprofito, lo que quiere decir que se alimenta de los restos de árboles muertos o moribundos. Cumple un papel importante en el bosque, porque ayuda a reciclar un material –la madera– que, por su contenido en lignocelulosa, es muy difícil o imposible de digerir por los animales. De esa forma, pone a disposición de las plantas los nutrientes minerales que se liberan al descomponer la madera sobre la que a menudo se asienta y crece.

La otra vida de la seta de ostra es la depredadora, porque sus micelios pueden matar y digerir nemátodos, que son –no lo olvidemos– los animales que más abundan en los suelos. Pleurotus ostreatus es una de las pocas setas carnívoras conocidas. Otros hongos carnívoros atrapan a los nemátodos tras atraerlos mediante sustancias que imitan señales alimenticias y sexuales. Una vez atraídos, capturan la presa mediante algún dispositivo, como redes adhesivas, botones adhesivos o anillos de constricción. El hongo ostra actúa de otro modo. En vez de atraparlo físicamente, sus hifas –los filamentos de 4-6 µm de diámetro que forman el micelio– producen toxinas muy potentes que paralizan al nemátodo pocos minutos después de haber entrado en contacto con él.

Pleurotus ostreatus utiliza estructuras especializadas, llamadas toxocistos, para paralizar al nemátodo. Un compuesto (volátil) –la 3-octanona (una cetona)–, que se encuentra en el interior de esas estructuras, es el agente principal que desencadena la parálisis y muerte del nemátodo. Ataca la integridad de las membranas celulares de muchos tejidos, incluidas las neuronas sensoriales, las células musculares y la hipodermis, lo que provoca una fuerte entrada de calcio en esas células que, a su vez, induce una hipercontracción muscular. Simultáneamente, en las células se va agotando el trifosfato de adenosina (ATP); en otras palabras, se quedan sin energía. Otros compuestos, similares estructuralmente a la 3-octanona, también pueden provocar la parálisis de los nemátodos y la necrosis celular; en ese sentido, la longitud de la cadena de carbono de la molécula es crítica para la toxicidad nematicida. También lo es la dosis. La 3-octanona repele babosas y caracoles a dosis bajas, pero es letal a dosis altas. De hecho, hace falta que la concentración de la toxina supere un cierto umbral para que surta efecto. Si el nemátodo entra en contacto con un único toxocisto, la propagación del daño es más lenta y débil. Los toxocistos permiten, precisamente, acumular una concentración suficientemente alta de 3-octanona para que su efecto sea lo más intenso posible, aunque tampoco se descarta que en ellos se encuentren otras toxinas que actúen reforzando los efectos de aquella.

¿Pero cómo es que un hongo es carnívoro y se dedica a “comer” nemátodos? La razón está, muy probablemente, en que las sustancias que normalmente aprovecha –restos de plantas en descomposición o moribundas– son muy pobres en nitrógeno, y las proteínas de los nemátodos son una fuente excelente de ese preciado elemento. Y también, quizás, que le sirve para defenderse de posibles nemátodos frugívoros a quienes (¡qué casualidad!) les gusta el contenido de las hifas de los hongos y, cuando pueden, se los comen.

Fuente: Lee C-H, Lee Y-Y, Chang, Y-C, et al (2023) A carnivorous mushroom paralyzes and kills nematodes via a volatile ketone. Science Advances 9 (3) ade4809 doi: 10.1126/sciadv.ade480

Para saber más:

Los usos terapéuticos de la psilocibina de los hongos alucinógenos
Las plantas parásitas roban agua, nutrientes… y hasta genes

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo La doble vida de una seta se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Drones: los sueños de siglos y los retos del presente

Sat, 2023/04/01 - 11:59

Drones
Durante los últimos años se han convertido en parte del paisaje y se han normalizado como herramientas de trabajo o destinadas al ocio o incluso como arma militar. La tecnología relacionada con los drones ha sido, junto a la inteligencia artificial, una de las más mencionadas durante los últimos años.

Los drones, aeronaves no tripuladas y controladas a través de control remoto, sirven para funciones tan dispares como la vigilancia aérea, el transporte de comida o de bolsas de sangre y, también, como armas bélicas.

El auge de este tipo de tecnología plantea grandes desafíos para la sociedad cuando, paradójicamente, se ha alcanzado el sueño de dominar el espacio aéreo que poseían algunas antiguas civilizaciones. Una idea que, durante siglos, solo existía en la imaginación humana y que se ha convertido en un corto plazo y, al mismo tiempo, en una realidad y un reto.

Esta tecnología es el pilar central de la charla «Drones: los sueños de siglos y los retos del presente» que ofreció el pasdo 1 de marzo Julián Estévez Sanz dentro del ciclo Bidebarrieta Científica organizado por la Cátedra de Cultura Científica de la Universidad del País Vasco y la Biblioteca Bidebarrieta.

Estévez es profesor en la Escuela de Ingeniería de Gipuzkoa, doctor en Ingeniería Informática y lleva a cabo su labor investigadora en el Grupo de Inteligencia Computacional (GIC) de la UPV/EHU. Es, además, divulgador científico.

Julian Estévez Sanz es profesor del Departamento de Ingeniería Mecánica en la Escuela de Ingeniería de Gipuzkoa, doctor en Ingeniería Informática e investigador en el Grupo de Inteligencia Computacional (GIC) de la Universidad del País Vasco. Desde 2021 pertenece al Grupo de Expertos de la Comisión Europea para la aplicación de Inteligencia Artificial en Educación. Además, colabora con diferentes empresas en proyectos de robótica y analítica de datos. Desde hace años se vio atraído por los drones y sus posibilidades y a ello ha dedicado gran parte de su investigación en los últimos años. Es un activo divulgador de ciencia y tecnología en redes sociales, prensa y eventos públicos.

Para saber más:

El papel de los drones en el cielo del futuro
Drones militares y las nuevas reglas de la guerra

Edición realizada por César Tomé López

El artículo Drones: los sueños de siglos y los retos del presente se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Pensamiento simbólico en personas autistas adultas no verbales

Fri, 2023/03/31 - 11:59

Las personas autistas adultas sin comunicación lingüística apenas han sido estudiadas, principalmente por la complejidad de llevar a cabo investigaciones en un colectivo con estas características. Ahora, un grupo de la UPV/EHU, integrado por el profesor Ikerbasque Agustín Vicente y las investigadoras Natàlia Barbarroja y Elena Castroviejo, ha estudiado las capacidades lingüísticas, conceptuales y de comprensión de símbolos no lingüísticos en adultos autistas que tienen un vocabulario mínimo (comparable al de un niño típico de 2 años y medio). Se trata de un estudio con un número reducido de participantes, concretamente ocho, y tuvo una duración de seis meses.

autistas adultasFuente: Pixabay

El estudio comenzó con un análisis de las palabras que entiende cada persona participante para posteriormente observar si entienden compuestos de esas palabras. Por ejemplo, si entienden “coche” y entienden “rojo”, ¿entienden “coche rojo”? Sólo uno de los participantes fue capaz de entender estas combinaciones de nombre más adjetivo, a pesar de que, en un test de vocabulario realizado anteriormente, las puntuaciones obtenidas mostraban un vocabulario equivalente al de un niño de 1 año y dos meses, en el caso más bajo, y un niño de 3 años y 10 meses, en el caso más alto. La persona que reconocía tantas palabras como un niño de 3 años y 10 meses no entendía ‘coche rojo’, cosas que entienden niños típicos de 18 meses e incluso menores.

A continuación, se planteó averiguar si esta dificultad en el lenguaje era propiamente lingüística o se podía deber a una incapacidad de combinar conceptos (por ejemplo, el concepto de coche y el concepto de rojo). Para ello, realizaron dos pruebas más: una prueba de composición de conceptos, que mostró mejores resultados que la de composición lingüística, y la prueba que obtuvo los mejores resultados, que fue la de componer pictogramas representados en una tablet a través de un sistema de comunicación alternativa y aumentativa (SAACs).

Una vez aprendieron a comunicarse con las tablets, se repitió el estudio de composición «coche+rojo», pero con pictogramas (pictograma de coche + pictograma de rojo). La mayoría de los participantes no tuvo problema en seleccionar el coche rojo de entre las varias alternativas.

El estudio muestra que las dificultades lingüísticas pueden ser solo lingüísticas, no de pensamiento, como se asume en muchas ocasiones.

El estudio concluye que los test de medida del vocabulario de estas personas muestran una comprensión lingüística que no es la que realmente tienen. En muchos casos, pueden reconocer palabras aisladamente, pero no compuestos de palabras y mucho menos frases. Entender su nivel real de comprensión del lenguaje es fundamental para familiares y personas cuidadoras, ya que muchas veces se sobrestima su capacidad de comprensión y pueden tener la impresión de ser comprendidos, cuando en realidad no lo son.

Por otra parte, el test de comprensión lingüística resultó ser una herramienta muy sencilla que permite de forma ágil hacer la comprobación de si una persona aparentemente no verbal es capaz de entender expresiones muy sencillas del lenguaje y así, hacerse una idea más aproximada de lo que llega a entender. El uso de SAACs es eficiente en esta población, ya que los pictogramas además de ser más fácilmente comprensibles que las palabras, permiten comunicar pensamientos complejos que no se pueden comunicar con palabras. El estudio sugiere que la adecuación de los SAACs para esta población, no solo aumenta la cantidad de cosas a las que se puede referir la persona, sino que aumenta la capacidad de expresar pensamientos.

Referencia:

Agustín Vicente, Natàlia Barbarroja & Elena Castroviejo (2023) Linguistic, concept and symbolic composition in adults with minimal receptive vocabulary Clinical Linguistics & Phonetics doi: 10.1080/02699206.2023.2180670

Para saber más:

Camuflaje autista
¿Mi hijo tiene autismo o este comportamiento es «normal»?
Nacido para ser autista

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Pensamiento simbólico en personas autistas adultas no verbales se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Mapas geológicos, mucho más que lienzos de colores

Thu, 2023/03/30 - 11:59

En otras ocasiones he mencionado a los mapas geológicos, pero nunca me había detenido a explicaros qué son y cómo se hacen. Así que creo que ya les iba tocando tener su protagonismo. Sobre todo, considerando que se trata de una de las principales herramientas de trabajo que tenemos en Geología.

Mapas geológicosPrimer Mapa Geológico de España, realizado entre 1889 y 1893 por la Comisión del Mapa geológico de España, de escala 1:400.000 compuesto por 64 hojas, o partes individualizadas, que actualmente está expuesto en los pasillos del Museo Geominero (IGME-CSIC, Madrid).

Lo primero que llama la atención cuando miramos un mapa geológico es que no se parece en nada a los mapas y planos a los que ya nos hemos acostumbrado, esos que vemos en el móvil o el GPS y que nos sirven para orientarnos cuando estamos de viaje o visitando un lugar que no conocemos. Y eso es porque no vamos a encontrar límites geográficos, sino límites geológicos, que remarcamos de una manera muy particular: con diferentes colores, con tramas de puntos y rayas y con símbolos como flechas, triángulos o círculos. De esta manera, un mapa geológico llega a parecerse más a un dibujo artístico que a un plano clásico.

Para elaborar nuestro mapa geológico utilizamos un mapa topográfico como base y, sobre él, pintamos con colores la edad que tienen las rocas, estructuras y procesos geológicos que vamos identificando en el campo. Después, en cada color añadimos una serie de tramas que nos indican el tipo de roca que hemos observado (calizas, areniscas, granitos, pizarras, etc.). Y, por último, completamos nuestra representación con diversos símbolos que nos están señalando las estructuras y procesos geológicos que han afectado a esos materiales (plegamientos, fracturaciones o contactos entre rocas), junto con algunos puntos de interés como son las canteras, minas o manantiales de agua dulce. De esta manera, ya tenemos reflejada toda la historia geológica de una zona en una representación gráfica muy visual, solo nos queda interpretar los avatares sufridos por estos materiales durante millones de años.

Mapas geológicosDécima edición del Mapa Geológico de España y Portugal, editado por el Instituto Geológico y Minero de España (IGME-CSIC) en el año 2015 y que representa la culminación del plan cartográfico nacional (MAGNA), que se expone en la pared de los pasillos del Museo Geominero (IGME-CSIC, Madrid).

Pero no ponemos esos colores y simbología a nuestro libre albedrío o dejando volar nuestra imaginación (o nuestro sentido artístico, aunque yo no tengo mucho de eso), si no que seguimos unos códigos establecidos internacionalmente, que nos permiten a las personas que nos dedicamos a las Ciencias de la Tierra reconstruir la historia de cualquier mapa geológico que veamos y correlacionar nuestra zona de estudio con otras similares localizadas en cualquier parte del mundo. Por poneros un ejemplo, los materiales del Periodo Cretácico se pintan de colores verdes claros, las calizas se representan con una trama que recuerda a una pared de ladrillos y un pliegue de tipo anticlinal se marca con una línea gruesa que señala la orientación del pliegue y unas flechas hacia el exterior indicando hacia dónde se inclinan las capas a cada lado del plegamiento.

Toda esta información de colores y símbolos se incluyen en una leyenda que se coloca al lado del mapa geológico, en la que, además, se especifica la edad y se incluye una breve descripción de los materiales geológicos representados en el mismo. De esta manera, cualquier persona, aunque no esté versada en geología, puede conocer e identificar los materiales de la región por la que se está moviendo.

Pero la leyenda de un mapa geológico también tiene que incluir una cosa muy importante, la escala. Esta nos indica la proporción a la que hemos representado la realidad en nuestro mapa, de tal manera que se mantengan las distancias entre dos puntos. Podemos encontrarnos con dos tipos de escalas, que suelen aparecer juntas al pie de los mapas: b) la escala numérica, que es una proporción entre dos números, del estilo 1:10.000, lo que indica que 1 cm en el mapa corresponde a 10.000 cm en la realidad; y b) la escala gráfica, en donde nos encontramos con una raya o un rectángulo con números en sus márgenes (p. ej. 0 y 100 m) o en su parte superior (p. ej. 100 m), donde nos informan de que la longitud de esa raya o figura en el mapa representa esa distancia en el mundo real. Seguro que os habréis imaginado que, cuanto más pequeño sea el número que acompaña a la escala, mayor detalle tendrá nuestro mapa, ya que si 1cm de nuestro dibujo representa 2.000 cm reales, podremos incluir cambios geológicos que ocupen muy poca extensión. Sin embargo, al cartografiar zonas muy amplias y utilizar una escala más grande, en la que, por ejemplo, 1 cm se corresponda con 200.000 cm de la realidad, perderemos esos pequeños detalles y solo podremos mostrar los materiales, procesos y estructuras geológicas más generales.

Mapas geológicosMapa Geológico del País Vasco, a escala 1:200.000, elaborado por el Ente Vasco de la Energía (EVE) y el Instituto Geológico y Minero de España (IGME-CSIC) en 1991.

La elaboración del mapa geológico de la zona es siempre el primer paso que realizamos en un trabajo o estudio geológico, ya que necesitamos conocer los materiales y la historia geológica de los mismos antes de realizar ninguna interpretación. Y esto implica muchísimas horas en el campo, recorriendo todo el lugar de manera metódica, recogiendo muestras de rocas y sedimentos, tomando medidas de dirección e inclinación de los materiales y estructuras geológicas y realizando muchos dibujos y anotaciones en nuestra libreta. Datos que luego tendremos que representar sobre la base topográfica, ya sea a la antigua, es decir, dibujando a mano todo lo que hemos observado, o de manera más digital, empleando programas informáticos que nos representan los datos que le incluyamos junto a las coordenadas de los puntos de observación.

Pero, aunque sea un trabajo arduo y laborioso, gracias a los mapas geológicos podemos conocer no solo maravillosas historias de millones de años, que nos transportan a antiguos mares, volcanes o bosques tropicales, sino que también nos permiten conocer los recursos naturales más valiosos y necesarios de nuestra geografía.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Mapas geológicos, mucho más que lienzos de colores se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Aplicando la lógica, a veces sin mucho éxito

Wed, 2023/03/29 - 11:59

Faltan tres días para que llegue el 1 de abril, día en el que, en muchos países del mundo, se celebra lo que correspondería a nuestro Día de los inocentes: es el April Fools Day en EE. UU., Reino Unido y algunos otros países; el Día da mentira en Brasil, Le Poisson d’Avril en Francia, el Pesce d’aprile en Italia o el Aprilscherz en Alemania. El siguiente problema de lógica es muy adecuado para celebrar este día…

lógicaRealizada a partir de una imagen de Wikimedia Commons.

 

BAK y KAB

Juana ha llegado a un país en el que “sí” y “no” se dicen (aunque no necesariamente en este orden) “BAK” y “KAB”. Ha encontrado a una persona que habla castellano y le ha preguntado: ¿“KAB” es “sí”? Y le ha respondido: “KAB”. ¿Qué significa “KAB”?

Razonemos para intentar responder esta pregunta. Si “KAB” fuera “sí”, la respuesta dada por el lugareño sería correcta. Pero si “KAB” fuera “no”, ¡la contestación también sería correcta! Juana no ha realizado la pregunta adecuada… Y la persona que le ha respondido quizás se esté mofando un poco de ella (podría haber respondido en castellano). ¡Nos quedamos sin saber el significado de “BAK” y “KAB”!

Seguimos aplicando la lógica para resolver el siguiente problema.

La nota del test

En una prueba de 20 preguntas, se suman 8 puntos por cada pregunta acertada, se restan 5 por cada respuesta equivocada y se puntúan con 0 las preguntas no respondidas. La nota obtenida por Pedro es de 13. ¿Cuántos problemas ha resuelto correctamente?

Si Pedro hubiera respondido correctamente a todas las cuestiones, habría tenido 160 puntos; ¡13 no parece una muy buena nota!

Llamamos x a la cantidad de preguntas bien resueltas e y al número de las falladas. El enunciado indica que 8x – 5y = 13. Al ser 13 = 8 + 5, escribimos esta ecuación del modo:

8 (x – 1) = 5 (y +1).

Como 5 y 8 son coprimos, y + 1 debe de ser múltiplo de 8; además es menor o igual a 21 (y es menor o igual a 20, la cantidad de preguntas del test). Luego y + 1 es igual a 8 o 16 (los únicos múltiplos de 8 menores o iguales a 21).

Si y + 1 = 16, la anterior ecuación sería 8 (x – 1) = 5 (y +1) = 80, con lo que x – 1 = 10, es decir, x = 11. Pero este resultado es imposible, porque x + y = 11 + 15 = 26, que es una cantidad mayor que las 20 preguntas planteadas.

Así que, debe ser y + 1 = 8. La ecuación anterior quedaría 8 (x – 1) = 5 (y +1) = 40, con lo que x – 1 = 5, es decir, x = 6. Es decir, Pedro ha contestado correctamente a 6 preguntas, ha fallado 7 y ha dejado en blanco otras 7. Realmente, ¡Pedro no se ha preparado mucho para esta prueba!

Pasamos a un problema cuyo enunciado está muy en la línea del día de las bromas que se celebra dentro de unos días.

El panadero, el pastor y el pianista

Paco Panadero, Pedro Pastor y Pablo Pianista trabajan como panadero, pastor y pianista. Viven en la Calle del panadero, el Camino del pastor y la Avenida del pianista. Se sabe que ninguno se dedica a la profesión ni vive en la calle que corresponde a su apellido. Se conoce también que el pastor vive en la Calle del panadero y que el panadero vive en la Avenida del pianista. ¿A qué se dedican y dónde viven Paco Panadero, Pedro Pastor y Pablo Pianista?

Razonemos con método. Paco Panadero no puede ser pastor, porque el pastor vive en la Calle del panadero. Como tampoco puede ser panadero, debe de ser el pianista; y debe vivir entonces en el Camino del pastor.

Pedro Pastor no pude ser ni pastor ni pianista, así que es panadero y vive entonces en la Avenida del pianista.

Finalmente, Pablo Pianista es pastor y, como se dice en el enunciado, vive en la Calle del panadero…

¡Misterio resuelto! Finalicemos con un reto que quizás no tenga solución única.

Las lecturas de Eva

Eva está leyendo un libro que tiene entre 400 y 500 páginas. Se sabe que, si lee 6 páginas al día, el último día le quedarían solo 3 páginas para terminar su libro. Y también se sabe que, si lee 7 páginas al día, el último día de lectura le quedarían únicamente 5 páginas. ¿Cuántas páginas tiene el libro de Eva?

Llamemos P al número de páginas; el enunciado indica que:

P = 6M + 3 = 7N + 5,

donde M y N son enteros positivos. Como 6M + 3 es mayor o igual a 400 y menor o igual a 500, se deduce que 6M es mayor o igual a 397 y menor o igual a 497, luego (al ser M entero), M estará comprendido entre 67 y 82. Argumentando del mismo modo, se comprueba que N toma valores entre 57 y 70.

Además, como 6M = 7N + 2, se deduce que N es par, es decir, es de la forma N = 2L (con L un entero positivo). Así, 6M = 14L + 2, es decir, 3M = 7L + 1. Como 3M – 1= 7L, 7L es congruente con 2 módulo 3i. Y como 3 y 7 son coprimos, L es congruente con 2 módulo 3, es decir, L = 2 + 3R, donde R es un entero.

Así, 3M = 7L + 1 = 21R + 15, luego M = 7R + 5. Y como 7N = 6M – 2, reemplazando M por 7R + 5, se deduce que N = 6R + 4.

Como M está comprendido entre 67 y 82 (y M = 7R + 5), R está comprendido entre 9 y 11, es decir, toma los valores 9, 10 u 11. Existen entonces tres posibles soluciones, que se indican en la siguiente tabla:

No sabemos con seguridad el número de páginas que tiene el libro de Eva…

¿Son 453?

¡KAB!

Referencias

Estas propuestas se han extraído y adaptado del Calendrier Mathématique 2023. Structurer le monde (Presses Universitaires de Grenoble, 2022):

  • BAK y KAB, 30 de octubre
  • La nota del test, 3 de mayo
  • Las lecturas de Eva, 20 de julio

El panadero, el pastor y el pianista, extraído y adaptado de: Georges Perec, Jeux intéressants, Zulma, 2008.

Nota:

iEsta notación procede de la aritmética modular, en particular, de las congruencias módulo 3. Cualquier número entero n es o bien múltiplo de 3, o bien congruente con 1 módulo 3 (es decir, de la forma n = 3a + 1, donde a es un número entero positivo), o bien congruente con 2 módulo 3 (es decir, de la forma n = 3a + 2, donde a es un número entero positivo).

Más problemas de lógica:

Usando la lógica para averiguar quién es quién
Celebrando a John Venn con un juego de lógica
¿Adivinando o empleando la lógica?

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Aplicando la lógica, a veces sin mucho éxito se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

El estado de carga de una molécula y su fluorescencia

Tue, 2023/03/28 - 11:59

Röntgen descubrió que los rayos X provenían del punto brillante de un tubo de vidrio donde incidía un haz de rayos catódicos (electrones de alta velocidad). Cuando se desconectaba el haz de rayos catódicos desaparecía el punto de luz en el tubo de vidrio; los rayos X procedentes de ese lugar también se detenían.

La emisión de luz por el tubo de vidrio cuando se excitaba por el haz de rayos catódicos es un ejemplo del fenómeno llamado fluorescencia, que era bien conocido antes del trabajo de Röntgen. Se había investigado mucho la fluorescencia durante la última parte del siglo XIX. Se dice que una sustancia es fluorescente si emite inmediatamente luz visible cuando sobre ella incide:

  1. luz visible de longitud de onda más corta de la emitida;
  2. radiaciones invisibles para los humanos, como la luz ultravioleta; o
  3. el haz de electrones que forman los rayos catódicos.

La fluorescencia se detiene cuando la luz excitante desaparece. El término fosforescencia se aplica generalmente a un fenómeno relacionado, la emisión de luz visible que continúa después de que se apaga la luz excitante.

Los microscopios de efecto túnel (STM, por sus siglas en inglés) permiten a los físicos observar moléculas fluorescentes individuales con una resolución cercana a la atómica. Pero el mecanismo detallado por el cual una molécula emite luz bajo la estimulación de un STM sigue sin estar claro, porque las observaciones no indican qué estados de espín y carga atraviesa la molécula excitada antes de decaer al estado fundamental.

Un equipo de investigación ha realizado un experimento y desarrollado un modelo que relaciona el estado de carga de una molécula con la energía luminosa emitida, que pueden contribuir mucho a entender este fenómeno.

En el experimento, una punta STM conduce una corriente a través de una molécula de quinacridona (QA) adsorbida sobre una delgada película de cloruro sódico (aislante) colocada sobre un sustrato de plata (conductor). Una propiedad rara de la QA es que sus estados neutro y cargado positivamente tienen patrones de emisión distintos, con una orientación de los dipolos fluorescentes de la molécula que difiere en 65 grados.

Estructura del isómero lineal trans de la quinacridrona empleado en el experimento. Fuente: Wikimedia Commons

Al escanear el material con la punta del STM en diferentes rangos de voltaje, los investigadores pudieron crear mapas de fluorescencia con resolución subnanométrica. A partir de los patrones identificados en estos mapas pudieron determinar la orientación del dipolo que emitía fluorescencia y, por lo tanto, el estado de carga de la molécula, en un momento dado. A continuación, establecieron un modelo que describía los detalles del transporte de electrones y la emisión de luz basándose en la corriente y el voltaje del STM, así como en la dependencia espacial de la señal de fluorescencia inducida por el STM.

El estudio demuestra que, dependiendo del voltaje aplicado, una sola molécula en un sustrato puede contener cuatro estados de carga diferentes. Además, proporciona una forma de distinguir entre la fosforescencia y la luminiscencia de moléculas cargadas provocada por la corriente. Los autores dicen que el modelo se puede generalizar a cualquier sistema orgánico adsorbido en una capa delgada.

Referencias:

S. Jiang et al. (2023) Many-body description of STM-induced fluorescence of charged molecules Phys. Rev. Lett. doi: 10.1103/PhysRevLett.130.126202.

Rachel Berkowitz (2023) Deciphering Single-Molecule Fluorescence Physics 16, s31

Para saber más:

Los postulados de Bohr
Átomos (serie)
¿Se pueden ver los átomos?

 

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El estado de carga de una molécula y su fluorescencia se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Las múltiples mentiras del marketing de las leches de fórmula

Mon, 2023/03/27 - 11:59

La prestigiosa revista médica The Lancet ha publicado una serie especial de artículos que pone contra las cuerdas a la industria de la leche artificial. Este sector económico, que mueve más de 55 mil millones de dólares cada año en el mundo, destina en torno a 3 mil millones a acciones de marketing para expandir el consumo de sus productos. Diversas empresas han desarrollado campañas agresivas, con mensajes falsos, que violan el Código Internacional de la Organización Mundial de la Salud (OMS) sobre comercialización de sucedáneos de la lactancia materna, establecido en 1981.

lactanciaFoto: Nathan Dumlao / Unsplash

Ya en 2022, una encuesta realizada por la Organización de las Naciones Unidas (ONU) detectó que el 51 % de los encuestados (padres y mujeres embarazadas de 8 países) había sido objeto de un marketing abusivo por parte de las empresas de las leches de fórmula. A la vista de los resultados, dicha organización internacional declaró que «la industria de la leche de fórmula lleva a cabo un marketing «engañoso y agresivo» que menoscaba la lactancia materna».

Los beneficios de la lactancia natural sobre la salud del bebé están ampliamente demostrados. La leche materna disminuye el riesgo de malnutrición, de enfermedades infecciosas y de mortalidad del lactante. Además, también reduce el riesgo de desarrollo de obesidad en fases más tardías de la vida. Los efectos positivos para la salud no se limitan al bebé, las madres que dan el pecho también tienen un menor riesgo de sufrir cáncer de ovario y pecho, diabetes tipo 2 y enfermedades cardiovasculares.

Por otro lado, los bebés que reciben leche de fórmula en lugares donde no hay acceso a agua potable tienen un mayor riesgo de mortalidad, por estar más expuestos a enfermedades infecciosas e intoxicaciones. Según estimaciones, la lactancia materna universal podría evitar la muerte de 823.000 niños y de 20.000 madres cada año. A pesar de los claros efectos positivos de la leche materna, el porcentaje de bebés a lo largo del mundo que recibe leche de fórmula es ahora más elevado que nunca. 

Diversas empresas que comercializan leche artificial explotan el miedo de los padres y siembran la desinformación a través de mensajes publicitarios para promocionar sus propios productos, hasta el punto de inducir la idea de que son mejores alternativas que la lactancia natural. Se estima que menos de la mitad de los bebés en el mundo se alimentan de la leche materna. Aunque este fenómeno obedece a múltiples causas, entre ellas las dificultades a las que se enfrentan las madres para conciliar la maternidad y el trabajo, el marketing engañoso de las leches de fórmula también contribuye a ello.

Uno de los artículos publicados en The Lancet analiza las múltiples estrategias que emplean en el sector de la leche artificial para convencer a los padres de comprar sus productos. Una de las acciones publicitarias más destacadas en cuanto a falta de ética es la de difundir la falsa idea de que comportamientos normales de los bebés como llorar, estar irritado y dormir mal por las noches son, en realidad, patológicos y requieren la introducción de leche de fórmula para aliviarlos. También tratan de sembrar la duda entre las madres sobre si podrían tener leche insuficiente para el bebé, lo que llevaría a recurrir a las leches de fórmula. Otras empresas van más allá y declaran, sin ninguna evidencia científica, que sus productos pueden potenciar la inteligencia y el desarrollo cerebral o general de los lactantes.

Los mensajes anteriores terminan calando en parte de los padres. Entre las entrevistas realizadas a las familias de los bebés sobre este asunto destaca la de una madre de la ciudad de Ho Chi Minh, en Vietnam: «Si quiero estimular el desarrollo del cerebro, la altura o el sistema digestivo, buscaré las respectivas leches de fórmula».

Las citadas estrategias de marketing no solo carecen de ética, sino que son ilegales. En decenas de países la publicidad y promoción de la leche de fórmula está prohibida o ampliamente restringida. Sin embargo, varias empresas de leches artificiales vulneran la ley o la esquivan mediante publicidad encubierta o mediante la difusión de anuncios en terrenos poco regulados como las redes sociales. Otra de las maniobras ejecutadas en este sector es influir sobre las políticas de diversos países, de forma directa o indirecta a través de asociaciones, para evitar la implantación de regulaciones que restrinjan la publicidad de la leche artificial.

Los autores sostienen que los gobiernos deben atajar el marketing engañoso de la industria de la leche de fórmula mediante la implantación de leyes que recojan el Código Internacional de la Organización Mundial de la Salud (OMS). Esto, junto a la creación de condiciones favorables para la lactancia materna (como el establecimiento de amplios permisos parentales retribuidos), son acciones de Salud Pública que supondrían un beneficio claro para la salud tanto de los bebés, como de las madres.

Para saber más:

Voy a comprar mentiras
Los efectos protectores de la lactancia materna frente a la contamincación atmosférica

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo Las múltiples mentiras del marketing de las leches de fórmula se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Los lisosomas: el talón de Aquiles de los macrófagos cerebrales durante el infarto cerebral

Sun, 2023/03/26 - 11:59

El cerebro se compone de células, unidades de vida que hacen posible la función; la matriz extracelular, el andamio alrededor del cual las células se organizan; y los vasos sanguíneos, las autopistas encargadas de transportar combustibles celulares como el oxígeno y los nutrientes. Dentro del cerebro, podemos distinguir dos tipos principales de poblaciones celulares. Las neuronas, células especializadas en la transmisión de la información; y las células gliales, que incluyen los astrocitos, los oligodendrocitos, y la microglía, y se encargan de realizar funciones esenciales que favorecen y optimizan la transmisión de información por las neuronas.

lisosomasImágenes por microscopia de barrido electrónico de una microglía. Ly: lisosomas; AP-Gr: autofagosoma con carga granular; AP-M: autofagosoma con carga membranosa.

La microglía es el tipo celular que defiende y protege el cerebro frente a las lesiones. Constituyendo alrededor del 10% de las células cerebrales, la microglía se distingue por poseer un cuerpo pequeño y estático, rodeado de ramificaciones finas y largas que se mueven sin cesar, registrando el ambiente. Para ello, contienen una diversidad de moléculas que detectan, procesan y responden a cambios químicos y/o físicos que ocurren en el ambiente microglial próximo. Tras la activación de estas moléculas, la microglía pone en marcha acciones específicas que favorecen la recuperación del balance tisular. Así, la microglía limpia los residuos tóxicos originados por la función cerebral en un proceso denominado fagocitosis, esencial para el buen funcionamiento del cerebro. Por tanto, es una prioridad promover la función y la salud de la microglía tras una lesión cerebral, como por ejemplo la inducida por el infarto cerebral.

El infarto cerebral de tipo isquémico se produce por la formación de un tapón vascular en una arteria cerebral, produciéndose la interrupción del flujo sanguíneo a las áreas cerebrales irrigadas por dicha arteria. La duración y la intensidad del bloqueo vascular determinan la magnitud de privación de oxígeno y nutrientes que sufren las neuronas y las células gliales del tejido circundante al vaso sanguíneo afectado, pudiendo llegar a producir muerte neuronal. Las neuronas son células con una alta especialización funcional y baja resistencia al estrés, siendo normalmente el primer tipo celular en morir en cantidades significativas. Las células gliales, y más en concreto la microglía, también sufre durante la privación de oxígeno y nutrientes que ocurre durante el infarto cerebral.

En un artículo de investigación reciente1, hemos demostrado que la microglía pierde su habilidad para fagocitar los restos de neuronas muertas tras el infarto cerebral en modelos de ratón y mono. La fagocitosis y eliminación de los residuos neuronales por parte de la microglía es esencial para el mantenimiento de un ambiente cerebral saludable. De hecho, la microglía reconoce, engloba y digiere los despojos de las neuronas muertas de forma muy eficiente en el cerebro sano, no dejando rastro alguno del paso de esas neuronas por el cerebro. Sin embargo, cuando existe un fallo en la limpieza de los cadáveres neuronales por la microglía, las neuronas muertas pierden su integridad física y empiezan a liberar sustancias tóxicas, lo que afecta al bienestar de las células que se encuentran a su alrededor2. La degradación de los cuerpos neuronales fagocitados se lleva a cabo en los lisosomas, los principales orgánulos o compartimentos celulares dedicados a la digestión de moléculas biológicas en células de mamíferos como la microglía. Según nuestra investigación, durante el infarto cerebral, el bloqueo de la fagocitosis ocurre por una reducción de la disponibilidad de los lisosomas en microglía.

Los lisosomas son orgánulos redondeados y sellados con membrana de tamaño pequeño o medio. En su interior, disponen de toda la maquinaria necesaria para degradar cualquier tipo de macromolécula biológica como los carbohidratos, los lípidos, las proteínas y los ácidos nucleicos. Por lo tanto, los lisosomas no solo son capaces de degradar las macromoléculas que vienen desde el exterior celular (por ejemplo, las neuronas muertas internalizadas por la microglía mediante fagocitosis) sino que también tienen la capacidad de digerir contenido intracelular dañado o superfluo. Este último proceso se conoce como autofagia (comerse a uno mismo), y es una respuesta celular que se pone en marcha frente a estrés de tipo metabólico como la falta de oxígeno y nutrientes y promueve la supervivencia celular. En nuestro estudio, hemos observado que durante el infarto cerebral y ante la falta de oxígeno y nutrientes, se intensifica la respuesta autofágica en microglía1, posiblemente con el fin de eliminar las proteínas y los orgánulos tóxicos dañados para adaptarse a las nuevas condiciones metabólicas y finalmente promover la supervivencia de la microglía. Sin embargo, la promoción de la respuesta autofágica durante el infarto cerebral supone un coste para la microglía. De hecho, el incremento del reclutamiento lisosomal con fines autofágicos produce una disminución de la disponibilidad de los lisosomas para otros procesos digestivos, como por ejemplo, la fagocitosis de restos neuronales.

lisosomas

El bloqueo de la fagocitosis microglial en el infarto cerebral produce una acumulación de material tóxico en el cerebro, proceso que empeora la evolución de la enfermedad2. Por lo tanto, las estrategias dedicadas a la recuperación de la actividad fagocítica microglíal podrían suponer un beneficio terapéutico. Según nuestros resultados, cabría esperar que la inhibición de la autofagia liberara un número significativo de lisosomas, aumentando su disponibilidad y promoviendo de forma indirecta la digestión fagocítica microglial. Sin embargo, la inhibición de la autofagia es perjudicial para el estado físico y supervivencia de la microglía1. La estrategia alternativa de estimulación de autofagia mediante administración de rapamicina (un fármaco clásico inductor de autofagia) produce efectos complejos en microglía, que culminan en efectos beneficiosos, neutros, o tóxicos en función del modelo experimental usado para determinar la actividad fagocítica y la supervivencia microglial1. Aunque la modulación de la autofagia resultó ser inefectiva o no concluyente para la modulación de la fagocitosis microglial en este estudio, los datos obtenidos fueron cruciales para entender la complejidad mecanística de las respuestas lisosomales en microglía durante el infarto cerebral y contribuirán al desarrollo de nuevas estrategias terapéuticas enfocadas a aumentar la respuesta protectora microglial durante el infarto cerebral.

Referencias

1Beccari S, Sierra-Torre V, Valero J, Pereira-Iglesias M, García-Zaballa M, Soria FN, De las Heras-García L, Carretero-Guillén A, Capetillo-Zarate E, Domercq M, Huguet PR, Ramonet D, Osman A, Han W, Dominguez C, Faust TE, Touzani O, Pampliega O, Boya P, Schafer D, Mariño G, Canet-Soulas E, Blomgren K, Plaza-Zabala A, Sierra A (2023) Microglial phagocytosis dysfunction in stroke is driven by energy depletion and induction of autophagy. Autophagy 20: 1-30. doi: 10.1080/15548627.2023.2165313

2Abiega O, Beccari S, Díaz-Aparicio I, Nadjar A, Layé S, Leyrolle Q, Gómez-Nicola D, Domercq M, Pérez-Samartín A, Sánchez-Zafra V, Paris I, Valero J, Savage JC, Hui CW, Tremblay ME, Deudero JJ, Brewster AL, Anderson AE, Zaldumbide L, Galbarriatu L, Marinas A, Vivanco Md, Matute C, Maletic-Savatic M, Encinas JM, Sierra A (2016) Neuronal hyperactivity disturbs ATP microgradients, impairs microglial motility, and reduces phagocytic receptor expression triggering apoptosis/microglial phagocytosis uncoupling. PLoS Biol 14:e1002466. doi: 10.1371/journal.pbio.1002466

La versión original de este artículo apareció en inglés en Mapping Ignorance. Traducción de las autoras.

Para saber más:

La hiperactividad neuronal impide que las microglías realicen su trabajo
La microglía es un sensor de mortalidad neuronal
Más allá de las neuronas

Sobre las autoras: Ainhoa Plaza-Zabala1, 2 y Amanda Sierra1,3,4

1 Laboratorio de Biología Celular Glial, Achucarro Basque Center for Neuroscience

2 Dpt. de Farmacología, Universidad del País Vasco (UPV/EHU)

3 Dpt. de Bioquímica y Biología Molecular, Universidad del País Vasco (UPV/EHU)

4 Fundación Ikerbasque

El artículo Los lisosomas: el talón de Aquiles de los macrófagos cerebrales durante el infarto cerebral se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Pages