Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 16 mins 24 segs

Lo que ‘Oppenheimer’ no cuenta

Dom, 2023/09/03 - 11:59

numérica

J. Robert Oppenheimer (izquierda) y el matemático John von Neumann (derecha), cuyos trabajos sentaron las bases de la simulación numérica moderna.

Uno de los grandes avances tecnológicos de la Segunda Guerra Mundial fue la creación de la bomba atómica. La película de Christopher Nolan Oppenheimer recoge ese momento histórico en el que la ciencia ocupó las portadas de todos los periódicos del mundo. Para conseguir un bomba tan mortífera, el gobierno de los EE. UU. reclutó a los mejores científicos de la época en unas instalaciones secretas (Los Alamos Scientific Laboratory, actualmente Los Alamos National Laboratory_). Allí dieron forma al Proyecto Manhattan (1942-1946).

La primera detonación de la bomba atómica, la prueba Trinity se produjo el 16 de julio de 1945.

Pero en Los Álamos ocurrieron muchas más cosas. Entre ellas, el avance tecnológico que hizo posible el uso de computadoras para la simulación numérica, algo que permitiría predecir el efecto de las potentísimas ondas de choque del artefacto que estaban creando. Sobre el papel, existía una mínima probabilidad de que generaran un efecto en cadena que acabaría con el mundo.

Evolución de la bola de fuego de la prueba Trinity, comparada con el Empire State Building a escala.
Alex WellersteinCálculo de las ondas de choque de la bomba

Lo menos conocido de lo que ocurrió en Los Álamos es que el desarrollo de la bomba atómica (y años posteriores) fue el origen de la dinámica de fluidos computacional (término acuñado por Chia-Kun Chu probablemente a partir de 1960). Esta rama de la Mecánica de Fluidos se basa en el uso de computadoras –a través de algoritmos– para resolver problemas hidrodinámicos. Entre ellos, claro, las ondas de choque que genera una bomba atómica.

Gran explosión convencional. La onda de choque aparece como una línea nítida alejada de la bola de fuego.
Stuhmiller J.H., Phillips Y.Y., and Richmond D.R. (1991) The Physics and Mechanisms of Primary Blast Injury. In: Bellamy R.F., Zajtchuk R., eds. Conventional Warfare: Ballistic, Blast, and Burn Injuries. Washington DC: Office of the Surgeon General of the US Army; 241-270.

Los científicos del Proyecto Manhattan no solo desarrollaron las herramientas numéricas para describir las ondas de choque debido a las explosiones. También el uso de computadoras para realizar la complejidad de los cálculos. Los trabajos del matemático John von Neumann sentaron las bases para la fundación moderna de la simulación numérica.

John von Neumann trabajó en el Proyecto Manhattan como asesor en la División Teórica. El líder de dicha división fue Hans Bethe. De 1941 a 1943, Von Neumann elaboro varios informes para el gobierno de los EE. UU. sobre teoría de ondas de choque, detonaciones y ondas de choque oblicuas.

“Estoy pensando en computadoras”

Recordemos que la bomba desarrollada (de tipo implosión) consistía en una esfera de plutonio rodeada de explosivos. Las cargas, al explosionar, comprimían el núcleo causando la fisión de los átomos. La reacción nuclear descontrolada provocaba la explosión y destrucción total del perímetro.

El mayor desafío de la implosión del núcleo fue diseñar los explosivos que garantizaran una onda de choque simétrica. Los científicos se percataron de que las simplificaciones teóricas eran totalmente inadecuadas. La manera de tratar las complejas ecuaciones era resolverlas numéricamente.

“Estoy pensando en algo mucho más importante que las bombas. Estoy pensando en computadoras”.

John von Neumann.

La aportación más ingeniosa del matemático se produjo en 1944. John von Neumman se percato del potencial que podrían tener las computadoras electrónicas. Por aquellos años la Universidad de Pensilvania también desarrollaba el ENIAC, el primer ordenador digital de propósito general de la historia. Hasta aquel momento el término “computadora” se refería a “persona que realiza cálculos matemáticos”.

Equipo de tabulación de tarjetas de IBM 601 durante el proyecto Manhattan.
Los Alamos National Laboratory

En abril de ese año llegaron a Los Álamos las primeras computadoras IBM 601, calculadoras basadas en tarjetas perforadas. Para resolver numéricamente las ecuaciones fluido-dinámicas, primero se traducían a un sistema de ecuaciones algebraicas. Luego dicho sistema se codificaba en las tarjetas y se enviaban en lotes a través de una secuencia de computadoras.

John von Neumann pasó dos semanas cableando las computadoras y familiarizándose con los cálculos. Richard Feynmann estuvo a cargo de la codificación. Finalmente, el primer informe sobre simulación numérica fue publicado el 20 de junio de 1944.

Los físicos John von Neumann, Richard Feynman y Stanisław Ulam (de izquierda a derecha).
Los Alamos National LaboratoryLa importancia de la estabilidad numérica

Se utilizaron dos métodos numéricos para el cómputo de las ondas de choque: el shock fitting desarrollado por Rudolf Peierls y el shock capturing por Von Neumann. Sin embargo, el método de Von Neumann falló catastróficamente. Era necesario añadirle disipación a la onda de choque para que fuera estable.

A raíz de esto, en 1950 logro mejorar su método (artificial viscosity method) y formalizar una teoría para la estabilidad numérica (Von Neumann stability analysis).

Tras el Proyecto Manhattan y hasta su muerte en 1957, Von Neumann participó en el diseño de la EDVAC. Desarrolló una arquitectura de computadoras propia y la IAS machine. Finalmente, encontró un uso hoy sobradamente conocido para las computadoras: la predicción meteorológica.

El MANIAC y la era IBM

Finalizada la Segunda Guerra Mundial, Los Álamos siguió trabajando en el diseño y perfeccionamiento de armas nucleares. También la construcción de la computadora MANIAC I en 1949. Uno de los objetivos era simular las condiciones necesarias para detonar una bomba H tipo Teller-Ulam. Los cálculos previos se realizaron con el ENIAC, pero no fueron concluyentes.

Con la llegada de las grandes computadoras de la compañía IBM en 1953 a los Álamos, el grupo T-3, liderado por Francis Harlow, propició otra gran revolución en la dinámica de fluidos computacional.

La revolución numérica tras la bomba atómica

Durante más de tres décadas desarrollaron métodos numéricos que aún a día de hoy son referentes. Destacan la formulación Streamfunction-Vorticity para flujos incompresibles 2D, el método Marker-and-cell para flujos con lámina libre y el modelo de turbulencia k-epsilon. Aunque la versión final de este modelo se debe a Launder y Spalding (1972), del Imperial College London.

Simulación del flujo de aire en una calle encajonada.
Hotchkiss R.S. and Harlow F.H. (1973), Air pollution transport in street canyons, EPA-R473-029.

La aplicación de los métodos desarrollados por el grupo fue diversa. Desde la refracción de ondas de choque sobre interfaces oblicuas, formación de resaltos hidráulicos, hasta flujo relativista para colisiones de iones pesados.

Merece la pena destacar el trabajo de Reed y Hill en 1973. Desarrollaron la primera versión de un método de Galerkin discontinuo para resolver la ecuación de transporte de neutrones, e,cuación que describe el flujo de neutrones a través de un medio fisible no homogéneo, como en un reactor nuclear.

Lo vivido en Los Álamos desde su creación fue una verdadera explosión –tanto metafórica como literal– de ingenio para resolver los complejos cálculos. Allí, grandes genios desarrollaron una nueva manera de proceder con los problemas hidrodinámicos e inspiraron a muchos otros científicos sobre la modelización numérica sin la que hoy en día difícilmente podríamos explicar el mundo.The Conversation

Sobre el autor: Víctor Javier Llorente Lázaro, Investigador en Matemática Aplicada, Universidad de Granada

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Lo que ‘Oppenheimer’ no cuenta se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

ZientziaKutxa 2023: Volcanes que cambian la vida

Sáb, 2023/09/02 - 11:59

Kutxa Fundazioa y el Donostia International Physics Center (DIPC) han ofrecido nuevamente en 2023 el ciclo de conferencias ZientziaKutxa, esta vez bajo el título “Rojo vivo”.

Prestigiosas científicas y científicos, a su vez grandes comunicadores, se dieron cita en la Sala Ruiz Balerdi de Kutxa Fundazioa para ofrecer charlas de divulgación sobre temas de actualidad científica o interés social.

El rojo en sus formas más intensas y evocadoras adquiere una notable presencia en este nuevo ciclo ZientziaKutxa, de ahí, el nombre “Rojo vivo” de este año. El color rojo produce una notable activación neuronal, efecto que se ve reflejado en diferentes elementos de la naturaleza y ámbitos del conocimiento científico. Por ejemplo, el hipnótico color de la lava de los volcanes en erupción que embelesa a geólogas y geólogas, esconde la presencia de hierro en estado oxidado. Y fue tras la explosión del volcán de Tambora y aquel “año sin verano”, que Polidori, médico personal de Byron, ideó la figura del vampiro, personaje que se ha alimentado de toda la mística en torno a otro ícono del rojo, la sangre. Un color que también se asocia con el calentamiento global y los escenarios en torno al cambio climático, invitando a la reflexión sobre la sostenibilidad de la vida en nuestro planeta.

Esta conferencia (“Volcanes que cambian la vida”, en castellano, aunque la presentación inicial sea en euskera) corre a cargo de Juana Vegas, geóloga y coordinadora del equipo de investigación en Patrimonio y Geodiversidad en el Instituto Geológico y Minero de España (IGME-CSIC).

Vegas ha participado en la emergencia de la erupción del volcán de la isla de La Palma (2021), y en la actualidad, está involucrada en la fase de recuperación con diversos proyectos de investigación. La conferencia muestra la importancia de convivir con los volcanes activos, comprender sus procesos y sus tiempos para la recuperación económica y social de los territorios volcánicos en el siglo XXI.

Edición realizada por César Tomé López

 

El artículo ZientziaKutxa 2023: Volcanes que cambian la vida se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El análisis de la microfauna en los sedimentos marinos permite conocer presente y pasado

Vie, 2023/09/01 - 11:59

En dos trabajos publicados recientemente, sendos grupos del Departamento de Geología de la UPV/EHU han demostrado la versatilidad del análisis de la microfauna presente en los sedimentos marinos. Por un lado, han visto que aportan información oceanográfica actual del Golfo de Bizkaia, y por otro, han podido inferir las condiciones marinas de la época en la que se formó el conocido como flysch negro de Armintza (sedimentos de entre 113 y 94 millones de años).

microfaunaFlysch negro de Armintza, en la costa del mar Cantábrico. Foto: Departamento de Geología UPV/EHU

Los grupos de investigación Harea-Geología Litoral y Grupo de estudio del Cretácico y Paleógeno, ambos del Departamento de Geología de la UPV/EHU, han publicado dos investigaciones donde extraen información oceanográfica actual y del período Cretácico de la costa vasca basándose en el análisis de la microfauna presente en los sedimentos. Estas dos publicaciones son un claro ejemplo de un principio de la Geología que afirma que “el presente es la clave del pasado. Es decir, estudiamos muy a fondo los organismos actuales, y con esa información, extrapolamos las condiciones que se dieron en el pasado mediante el estudio del registro fósil”, explica Ana Pascual, investigadora del grupo Harea-Geología Litoral y participante en ambos estudios.

“Llevamos cerca de 30 años trabajando en micropaleontología, estudiando parte de la microfauna presente en los sedimentos para determinar las condiciones oceanográficas del pasado (profundidad, oxigenación del fondo marino, influencia de las masas de agua, etc.). Siempre hemos trabajado con dos grupos de organismos: los ostrácodos, unos crustáceos muy pequeños, muchas veces microscópicos, y los foraminíferos bentónicos, un grupo de protistas u organismos unicelulares que segregan un caparazón y viven en el fondo marino”, detalla la investigadora. Aunque también han estudiado diferentes eventos oceánicos actuales analizando estos organismos; según las condiciones que se den en un lugar varía la composición y distribución de las diferentes especies que componen estos numerosísimos grupos de organismos marinos.

En esta ocasión, sin embargo, decidieron incluir en sus análisis los foraminíferos planctónicos, es decir, los que viven en las masas de agua formando parte del plancton y se desplazan con las corrientes marinas. Así lo describe la doctora Pascual: “Al ser la primera vez que trabajábamos con estos foraminíferos, nuestra única intención era conocer la biodiversidad, la composición y distribución de las especies en la actualidad, y ver si este conocimiento sobre los organismos actuales serviría para poder hacer futuras reconstrucciones paleoclimáticas y paleoceanográficas”. Para ello, analizaron los foraminíferos planctónicos presentes en unas muestras de sedimentos recientes que tenían conservadas de un estudio anterior.

Los resultados obtenidos, no obstante, les reportaron información adicional: vieron que los conjuntos de foraminíferos planctónicos “son buenos indicadores de las corrientes oceánicas y de las masas de agua que llegan hoy en día a la plataforma continental vasca”, afirma Pascual. Por ejemplo, observaron una acumulación preferente de foraminíferos planctónicos en el margen oriental de la plataforma vasca, lo que se corresponde con la corriente superficial general de la costa vasca, que fluye hacia el Este durante la mayor parte del año. La presencia de especies típicas de aguas subtropicales, así como de zonas subpolares también indican la entrada de diferentes corrientes marinas en el Golfo de Bizkaia, incluyendo las de upwelling (el ascenso de masas profundas de agua), tan importantes para la pesca actual.

El paleoambiente del flysch negro de Armintza

El conocimiento de los foraminíferos planctónicos y bentónicos y de ostrácodos les ha servido a estos dos grupos de geología de la UPV/EHU para la reconstrucción del ambiente o las condiciones oceánicas que existían cuando se acumularon los sedimentos que dieron lugar a lo que hoy en día conocemos como flysch negro de Armintza, en el Cretácico inferior (Albiense), que se inició hace 113 millones de años, así como en el siguiente periodo (Cenomaniense), del Cretácico superior, que tuvo lugar hace 94 millones de años.

Al igual que todos los flysch, el de Armintza también es una formación geológica de origen sedimentario, en la que se alternan capas duras de roca y capas de materiales más blandos, de forma que aparecen como si fueran las hojas de un libro. “La particularidad del flysch de Armintza es que es un sedimento oscuro, y el doctor Luis Miguel Agirrezabala, del Grupo de estudio del Cretácico y Paleógeno, quiso determinar qué condiciones fueron las que dieron lugar a esta característica, que normalmente se asocia con entornos donde no hay oxígeno, y la materia orgánica se deposita y adquiere ese color oscuro”, comenta la investigadora.

Basándose en la elevada proporción y composición de foraminíferos planctónicos y bentónicos, han estimado que la profundidad del mar en aquella época era de unos 600 metros. Los sedimentos del flysch negro son ricos en materia orgánica y la gran mayoría (más del 90 %) de los organismos son foraminíferos planctónicos, “lo cual indica que en la época en la que se acumularon esos sedimentos existió una masa de agua superficial oxigenada encima de una masa de agua más profunda estancada con niveles de oxígeno muy bajos. En la siguiente fase, sin embargo, se observa un incremento en los organismos bentónicos y la aparición de foraminíferos planctónicos propios de aguas más profundas, lo que apunta a que el agua dejó de estar estancada, aunque había cierto déficit de oxígeno en el fondo. Este artículo aporta una importante información sobre la formación del flysch negro, ya que hasta la fecha nunca se había abordado el estudio ambiental de esta formación”, concluye Pascual.

Referencias:

B. Martínez-García, A. Pascual, J. Rodríguez-Lázaro, A. Bodego (2023) Distribution of recent planktonic foraminifera in surface sediments of the Basque shelf (S Bay of Biscay): Oceanographic implications Continental Shelf Research doi: 10.1016/j.csr.2023.105011

L.M. Agirrezabala, A. Malaxetxebarria, A. Pascual, J. Rodríguez-Lázaro (2023) Deep-sea paleoenvironmental evolution in the mid-Cretaceous of the Basque Pyrenees based on microfaunal analysis (Armintza section) Continental Shelf Research doi: 10.1016/j.csr.2023.105001

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El análisis de la microfauna en los sedimentos marinos permite conocer presente y pasado se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La rebelión de las aguas

Jue, 2023/08/31 - 11:59

El pasado 26 de agosto se cumplió el 40 aniversario de las inundaciones de Bilbao. Era plena Semana Grande (o Aste Nagusia en euskera), las fiestas multitudinarias de Bilbao. Fueron unas fiestas pasadas por agua, en las que llovió todos los días, pero ese sábado 26 de agosto de 1983, sería diferente. Se produjo lo que entonces se conocía coloquialmente como un episodio de gota fría, al que hoy denominamos DANA (Depresión Aislada en Niveles Altos), que provocó hasta tres episodios tormentosos intensos con abundante precipitación. Un «reventón» en toda regla, o un diluvio repentino como dijeron muchos vecinos en aquel momento. La ría de Bilbao, esa zona de desembocadura del río Nervión que atraviesa la ciudad, ya iba cargada de agua, el terreno de la cabecera del río estaba empapado y no podía infiltrar más agua de lluvia y, encima, se sumó la marea alta. Así se produjo el desastre, la ría acabó desbordándose inundando el Casco Viejo de Bilbao y otras zonas cercanas. Y he usado la palabra desastre porque provocó la pérdida de vidas humanas, no solo daños materiales [*]. (

inundacionesImagen de archivo de Radio Televisión Española de las inundaciones de Bilbao del 26 de agosto de 1983.

Las inundaciones y riadas en zonas urbanas, desgraciadamente, siguen siendo noticia todos los veranos y otoños, no solo en nuestro país. Pero tenemos que ser conscientes de que los ríos no son nuestros enemigos. El hecho de que, de manera periódica, el agua desborde el cauce de un río y acabe inundando las zonas de su alrededor, es un proceso meramente natural. De ahí el nombre geológico que reciben estas zonas que bordean los cauces: llanura aluvial o llanura de inundación. El problema surge cuando los seres humanos decidimos colonizar estas áreas, porque entonces una inundación se convierte en un riesgo geólogo que nos afecta de manera directa, tanto a nuestras infraestructuras como a nuestras propias vidas.

Desde hace milenios, cuando una sociedad humana decide asentarse en un lugar fijo, elige un lugar en el que tenga disposición permanente de agua. Y, en muchas ocasiones, los ríos son los elegidos. Por poneros un ejemplo, seguro que al igual que yo habréis estudiado que las primeras civilizaciones humanas surgieron entre dos ríos, el Tigris y el Éufrates. Pero el agua no es lo único importante que nos aportan los ríos para decidir construir nuestros hogares en sus márgenes. Cuando esta agua se desborda en la llanura de inundación, arrastra sedimentos de diferentes tamaños, desde los más finos como la arcilla y el limo hasta los más gruesos como arenas y gravas, que se pueden convertir en materiales de construcción para nuestros hogares, enseres o infraestructuras. Además, esos sedimentos suelen tener mucha materia orgánica en descomposición, lo que los convierte en excelentes tierras de cultivo para la agricultura y la ganadería. La necesidad (o la avaricia, en muchas ocasiones) de aprovechar estas zonas para nuestro desarrollo económico y social, nos lleva a modificar el medio natural para adaptarlo a nuestros objetivos, llegando a desecar humedales próximos a los ríos, a modificar el recorrido de sus cauces para que discurra por donde nos interesa o, incluso, a encauzar el curso fluvial entre canales y diques artificiales.

Pero la naturaleza siempre sigue su curso, por mucho que nos empeñemos en luchar contra ella. El agua de un río buscará el camino más fácil para fluir desde su zona de cabecera hasta la desembocadura y, por mucho que lo modifiquemos de manera artificial, en cuanto tenga suficiente energía para superar nuestras barreras y canalizaciones, regresará a su cauce original. Y el agua que no pueda seguir en ese cauce se desbordará en su llanura de inundación, llevando consigo abundantes sedimentos que se pueden convertir en un gran flujo de lodo. Si en esa antigua llanura de inundación hoy se levanta una gran ciudad, no es culpa del río.

inundacionesEjemplos de mapas de riesgos en zonas inundables, con detalle de los calados máximos y de las áreas más afectadas, para una probabilidad de inundación de la zona de 500 años. Imagen tomada de: Díez-Herrero, Andrés, Garrote, Julio, Bernal López, Néstor, Martins, Luciano, Hernández Ruiz, Mario y Bodoque, J. (2018). Peligrosidad y riesgo de inundaciones en Pajares de Pedraza (Arahuetes, Segovia) y su incorporación al planeamiento urbanístico. En: Geomorfología del Antropoceno. Efectos del Cambio Global sobre los procesos geomorfológicos. Universitat de les Illes Balears, Sociedad Española de Geomorfología. pp. 37-40.

La Geología nos permite evitar que estos eventos naturales, las inundaciones o riadas, se conviertan en riesgos para el ser humano. Cada vez que un río se desborda, deja una marca a su alrededor debido al depósito de una nueva capa de sedimentos. Si podemos cartografiar el área cubierta por estos materiales y darle una edad absoluta a cada uno de los niveles, gracias a técnicas de datación como el C14, podremos delimitar con precisión la llanura de inundación y calcular periodicidades temporales, es decir, sabremos cada cuánto tiempo se cubre de agua toda esa zona. Así elaboramos mapas de riesgos de inundaciones en donde describimos la probabilidad temporal de que sufran riadas. Por ejemplo, podemos señalar en rojo las partes de la llanura de inundación que se van a inundar, al menos, una vez cada cincuenta años, mientras marcamos en verde aquellas que se cubrirán de agua una vez cada quinientos años. Gracias a estos mapas de riesgos se pueden hacer planificaciones urbanísticas adecuadas y exentas de peligro para la población.

Pero, ¿qué sucede en zonas ya construidas? No podemos tirar abajo media ciudad de Bilbao, o de Valladolid, o de Segovia, porque en el pasado se construyese donde no se debía. Entonces actuamos en el curso alto del río. Se pueden realizar acciones en el medio natural, recuperando las zonas de ribera del río para que actúen de nuevo como llanuras de inundación que recojan el exceso de agua y sedimentos. Y también se puede trabajar en el propio cauce, poniendo barreras artificiales dentro del mismo para que reduzcan la energía del agua, es decir, disminuyan su velocidad, y retengan los materiales que transporte para evitar que lleguen hasta zonas urbanas y se conviertan en esos temibles flujos de lodo. Todo ello sumado a la colocación de dispositivos que miden, en tiempo real, la velocidad y el volumen de agua de los ríos, para poder emitir alertas tempranas de posibles desbordamientos y tomar las medidas de protección más adecuadas.

https://culturacientifica.com/app/uploads/2023/08/video-4.mp4 Ejemplo de la reducción del riesgo asociado a una avenida de agua cargada de sedimento en la zona baja de un río mediante la construcción de barreras artificiales en el cauce. Vídeo del Servicio Geológico de Japón.

Tenemos que aprender a convivir con estos eventos naturales y utilizar nuestro conocimiento geológico para evitar los riesgos, porque las riadas van a seguir produciéndose, lo importante es cómo nos afectan a los seres humanos. Y un último consejo, nunca os acerquéis a una rambla seca durante períodos de lluvia intensa o fuertes tormentas, porque si una vez corrió agua por esos cauces, volverá a hacerlo, y no querréis estar ahí cuando suceda. Más vale prevenir que curar, porque la naturaleza tiene las de ganar.

Nota:

[*] Véase este reportaje/ infografía de El Correo para más detalle

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo La rebelión de las aguas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Karen Uhlenbeck: elogio a la imperfección

Mié, 2023/08/30 - 11:59

Soy consciente de que soy un modelo para las jóvenes matemáticas, y en parte para eso estoy aquí. Sin embargo, es difícil ser un modelo a seguir, porque lo que realmente hay que hacer es mostrar a los estudiantes lo imperfecta que puede ser la gente y aun así triunfar. Todo el mundo sabe que, si una persona es inteligente, divertida, guapa o va bien vestida, triunfará. Pero también es posible tener éxito con todas tus imperfecciones.

Karen Uhlenbeck, en Susan A. Ambrose et al. (1997).

UhlenbeckKaren Keskulla Uhlenbeck. Fuente: Andrea Kane /Institute for Advanced Studies / Agencia SINC.

En su Elogio a la imperfección, la premio Nobel Rita Levi-Montalcini afirmaba que la imperfección es lo que más se ajusta a la naturaleza humana. El título de esta anotación alude a este pensamiento de la neurocientífica y a la anterior cita de la matemática Karen Uhlenbeck (1942), a la que rendimos homenaje a través de este retrato alfabético.

ABEL (PREMIO)

En 2002, la Academia Noruega de Ciencias y Letras otorgó por primera vez el Premio Abel coincidiendo con el bicentenario del nacimiento del matemático noruego Niels Henrik Abel (1802-1829). Este galardón, que reconoce los logros científicos pioneros en matemáticas, se otorga anualmente y tiene una recompensa económica de 7,5 millones de coronas noruegas, semejante a la del Premio Nobel. Por ello, el Premio Abel puede considerarse “el Nobel de las matemáticas”.

En 2019 Uhlenbeck recibió el Premio Abel, “por sus logros pioneros sobre ecuaciones en derivadas parciales geométricas, teoría de gauge y sistemas integrables, y por el impacto fundamental de su trabajo en temas de análisis, geometría y física matemática”.

BARRERAS

Karen Uhlenbeck ha roto muchas barreras, algunas sutiles, que impiden a las mujeres progresar, en particular en ciencia. Y, con su ejemplo y su apoyo económico (ver la letra D), ha ayudado además a que otras mujeres puedan progresar en sus estudios en matemáticas.

CÁLCULO (DE VARIACIONES)

Uhlenbeck comenzó a trabajar en cálculo variacional, después se centró en ecuaciones en derivadas parciales no lineales y en diferentes problemas geométricos y físicos.

DONATIVO

Uhlenbeck donó la mitad del montante económico del Premio Abel (en 2019 ascendía a 6 millones de coronas noruegas) para establecer el Karen EDGE Fellowship Program y para colaborar con el Programa Women and Mathematics del Institute for Advanced Study.

ECUACIONES (EN DERIVADAS PARCIALES)

Es uno de los temas centrales en la investigación de Karen Uhlenbeck y, en parte, por los resultados obtenidos en este campo recibió el Premio Abel.

FUNDADORA

Según declaró en 2019 el matemático Hans Munthe-Kaas, presidente del Comité del Premio Abel, «Karen Uhlenbeck es una de las fundadoras del análisis geométrico moderno«.

GEORGE GAMOW

Cuando era pequeña, su padre empezó a llevar a casa libros de ciencia y de divulgación científica, como el famoso e inspirador Un, dos, tres… infinito del físico y astrónomo George Gamow (1904-1968). Karen experimentó una gran emoción con la lectura de este ensayo, porque gracias a él entendió que existen distintos tipos de infinito.

HUMANA

Uhlenbeck afirmaba (ver [Susan A. Ambrose et al.]): “Ser un modelo a seguir es una posición muy poco glamurosa en la que mostrar a la gente todos tus lados malos. Puede que sea un matemática maravillosa y famosa por ello, pero también soy muy humana”.

INSTANTONES

Junto a Daniel S. Freed publicó en 1984 el libro Instantons and Four-Manifoldscentrado en el estudio topológico de la estructura diferenciable de variedades compactas de cuatro dimensiones.

JULIA (CHILD)

En conversaciones informales con sus colegas tras recibir el Premio Abel, comentó que, debido a la falta de modelos femeninos destacados durante sus estudios en matemáticas, había emulado a la chef Julia Child: “Ella sabía recoger el pavo del suelo y servirlo”.

KESKULLA

Era su apellido familiar, antes de cambiarlo por matrimonio. Su madre, Carolyn Windeler Keskulla era artista y maestra de escuela, y su padre, Arnold E. Keskulla, ingeniero.

LEER

En su niñez Karen no estaba especialmente interesada por las matemáticas, pero era una ávida lectora.

MEDALLA (NACIONAL DE LA CIENCIA)

Uno de los muchos reconocimientos recibidos por Karen Uhlenbeck es la National Medal of Science, que le fue concedida en el año 2000 “por sus muchas contribuciones pioneras a la geometría global que han dado lugar a avances en la física matemática y la teoría de ecuaciones diferenciales parciales. Sus logros de investigación se combinan con su liderazgo y su apasionada participación en la formación y la educación en matemáticas”.

NOETHER

En 1988, fue la conferenciante Noether de la Association for Women in Mathematics. En 1990, fue ponente plenaria en el International Congress of Mathematicians celebrado en Kyoto, siendo la segunda mujer (tras Emmy Noether, en 1932) en impartir una conferencia en este congreso.

ONE (Two Three… Infinity: Facts and Speculations of Science)

Es el título del libro de divulgación científica de Gamow, publicado por primera vez en 1947, que inspiró a Karen cuando era una niña. El libro explora una amplia gama de conceptos fundamentales en matemáticas y ciencias.

PALAIS (RICHARD)

En 1968, Karen defendió su tesis doctoral en Brandeis, The Calculus of Variations and Global Analysis, bajo la supervisión del prestigioso geómetra diferencial Richard Palais (1931).

QUEDARSE (EN CASA)

Los centros interesados en contratar a su marido, Olke Cornelis Uhlenbeck, –el MIT, o las Universidades de Stanford y Princeton– no deseaban emplearla a ella. Lo justificaban aludiendo a las reglas contra el nepotismo que impedían que fuera contratada. Aunque aquellas normas, según ha constatado Karen en alguna de sus entrevistas, no estaban realmente escritas. Ella opinaba (y opina) que le mintieron y que, simplemente, no la contrataron en unos tiempos en los que el destino de las mujeres consistía en quedarse en casa para dedicarse exclusivamente al cuidado de su familia.

RETOS

Las personas que obtienen un Premio Abel, como Karen Uhlenbeck, son capaces de abordar cada problema de múltiples maneras. Para ello se necesitan grandes conocimientos que requieren tiempo y esfuerzo, y habilidades especiales que permiten afrontar los retos planteados de maneras inusuales.

SIBNER (LESLEY)

Karen encontró un gran apoyo en la geómetra diferencial Lesley Sibner (1934-2013), quien fue para ella un modelo a seguir, además de su asesora durante muchos años.

TOPOLOGÍA

Uhlenbeck ha contribuido a la teoría topológica de campos cuánticos.

UHLENBECK

Es el apellido de su primer marido, el bioquímico Olke Cornelis Uhlenbeck (1942).

VARIACIONES

Su tesis doctoral, The Calculus of Variations and Global Analysis, trataba sobre cálculo variacional, área de las matemáticas que busca extremos relativos de funcionales continuos definidos sobre algún espacio de funciones.

WILLIAMS

Es el apellido de su segundo y actual marido, el matemático Robert F. Williams.

(E)XTRAORDINARIA

Como se comenta en este artículo de opinión para SINC: “Karen Uhlenbeck es un referente científico extraordinario para mujeres y para hombres. ¿Por qué? Porque es una persona “normal”. Porque habla con pasión de su investigación en matemáticas. Porque rezuma entusiasmo cuando habla de los retos que ha abordado. Porque cuando ella denuncia las discriminaciones que ha sufrido, nadie puede argumentar que se queja por victimismo. Porque agradece al movimiento feminista la lucha que ha permitido a tantas mujeres, como ella, mejorar sus condiciones laborales y sociales. Porque se considera “imperfecta” y con estas sencillas palabras ayuda a derribar el mito de que las matemáticas solo están destinadas a personas con especiales dones”.

YANG-MILLS

En 1989 publicó junto a Lesley y Robert J. Sibner el artículo Solutions to Yang-Mills equations that are not self-dual. Las ecuaciones de Yang-Mills son un sistema de ecuaciones en derivadas parciales para una conexión en un fibrado vectorial o un fibrado principal.

ZIPPY

Zippy, enérgica. Así la imagino.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Karen Uhlenbeck: elogio a la imperfección se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Un cinturón de radiación alrededor de una enana marrón

Mar, 2023/08/29 - 11:59

Gigantescas antenas de radio repartidas por todo el planeta han permitido captar con detalle el primer cinturón de radiación detectado alrededor de una enana marrón, donde también aparecen auroras. La ‘fotografía’ evoca estructuras parecidas de la Tierra y Júpiter.

cinturón de radiaciónRecreación artística de la enana marrón LSR J1835+3259 (objeto central), con su campo magnético (líneas blancas), el cinturón de radiación (rosca difusa en tonos verdosos) y las auroras (anillos brillantes de los polos). Ilustración: Hugo Salais / Metazoa Studio

Hace más de medio siglo, en 1958, el físico estadounidense James Van Allen descubrió que el planeta Tierra estaba rodeado de iones y electrones atrapados en el campo magnético terrestre y que interferían en las comunicaciones de las sondas espaciales.

Casi a la vez, se observaron cinturones de radiación de este tipo, pero gigantes, alrededor del planeta Júpiter, a partir de ráfagas detectadas en observaciones de radio. Este año se han descubierto por primera vez fuera del Sistema Solar y ahora se han descrito con detalle, lo que muestra la universalidad de esta estructura.

Ha sido en la enana marrón LSR J1835+3259 a cuyo alrededor un equipo de científicos de la Universidad de Valencia (UV) detectó el pasado mes de enero un cinturón de radiación formado por partículas cargadas de energía y atrapadas en su intenso campo magnético. El estudio, en el que participan también investigadores del Instituto de Astrofísica de Andalucía (IAA-CSIC), la Real Academia de Ciencias Exactas, Físicas y Naturales de España (RAC) y el Donostia International Physics Center (DIPC), se publica ahora en la revista Science.

Las enanas marrones, junto a las estrellas de muy baja masa, conforman la categoría astronómica de la enanas ultrafrías, y en el caso de LSR J1835, la forma de rosquilla de su cinturón de radiación es casi una versión a escala de los conocidos cinturones de Van Allen –llamados como su descubridor– que aparecen en nuestro planeta y en Júpiter.

El diámetro de la estructura magnética alrededor de esta enana ultrafría es diez veces mayor que el de Júpiter y millones de veces más potente. En realidad, LSRJ1835 tiene 60 veces más masa que este gigante gaseoso y gira tres veces más rápido. Ambos hechos se combinan para originar un intenso campo magnético en su superficie, muy similar al irradiado en un aparato de resonancia magnética.

El nuevo cinturón de radiación de LSR J1835 se ha podido observar en longitudes de onda de radio gracias a la red europea de interferometría de línea de base muy larga (VLBI). LSRJ1835 es una enana marrón, un cuerpo de transición entre una estrella y un planeta, y se encuentra a 18 años luz. Es extremadamente pequeña y solo el uso de instrumentos de este tipo permite una visión detallada de su entorno.

cinturón de radiaciónLas dos manchas corresponden al cinturón de radiación en forma de dónut visto de canto. El contorno representa la potente luz polarizada que se origina en la aurora, cerca de la superficie de la enana marrón, situada a medio camino entre las componentes de radio del cinturón de radiación. Fuente: Joan Climent et al. (2023) / Science

Para obtener la imagen de su cinturón de radiación, la red europea de VLBI combinó antenas de radio gigantes repartidas por todo el planeta, desde España hasta China, desde Suecia hasta Sudáfrica. Todas ellas han escaneado la enana marrón de forma simultánea para lograr una resolución 50 veces mejor que la del telescopio espacial James Webb.

El extraordinario detalle de la imagen de radio de LSRJ1830 también ha desvelado más secretos del objeto. El estudio descubre que, al igual que ocurre en la Tierra y en Júpiter, el cinturón de radiación contribuye a la formación de auroras. Sin embargo, el gigantesco cinturón de radiación de LSR J1835 da lugar a auroras extrasolares de una energía tan grande que se convierten en algo más que una luminiscencia de enorme atractivo turístico. Estas auroras liberan energía de manera muy concentrada y a altísima temperatura que producen picos de emisión de radio 10 veces mayores que la emisión total de LSR J1835.

Tanto la aurora como el cinturón de radiación se pueden observar de manera simultánea, lo que proporciona una valiosa información sobre la geometría de esta enana marrón. El estudio plantea que las enanas ultrafrías que emiten radiación poseen campos magnéticos ordenados por dipolos con morfologías y auroras similares a las de gigantes gaseosos como Júpiter.

El conocimiento del entorno magnético de los exoplanetas es extremadamente importante para calibrar las posibilidades de albergar vida extraterrestre. Que la vida sea viable depende en gran medida de las características de la radiación que rodea a estos nuevos mundos.

Referencia:

J. B. Climent, J. C. Guirado, M. Pérez-Torres, J. M. Marcaide, L. Peña-Moñino (2023) Evidence for a radiation belt around a brown dwarf Science doi: 10.1126/science.adg6635

 

Edición realizada por César Tomé López a partir de materiales suministrados por la Universitat de València

El artículo Un cinturón de radiación alrededor de una enana marrón se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

¿Por qué nacen más niños que niñas en el mundo?

Lun, 2023/08/28 - 11:59

nacen más niños

En la actualidad, la población humana mundial se compone de, aproximadamente, un 50 % de hombres y un 50 % de mujeres (para ser más precisos, un 50, 5 % de hombres y un 49,5 % de mujeres). Aunque dichos porcentajes pueden variar debido a varios factores, como las guerras o la preferencia por cierto sexo de los hijos en determinados países (como en China, Pakistán, India o Vietnam), estos suelen mantenerse bastante constantes a lo largo de la historia.

Foto: Dainis Graveris / Unsplash

Ante este hecho, podríamos pensar entonces que en el nacimiento las probabilidades de que nazca un niño o una niña son también del 50 % para cada uno. Sorprendentemente, no es así. Nacen, de media, entre 103 y 107 bebés de sexo masculino por cada 100 bebés de sexo femenino. Independientemente del país y del momento de la historia (desde que se tienen registros fiables), siempre nacen más niños que niñas, lo que indica que no es un fenómeno cultural (en el que se hagan abortos selectivos por sexo), sino principalmente biológico.

Así pues, algún factor, que ocurre desde la concepción hasta el nacimiento, es responsable de esta disparidad entre sexos en los humanos. Pero, ¿cuál en concreto? Esta cuestión ha intrigado durante mucho tiempo a demógrafos, biólogos, obstetras, pediatras y estadísticos. La investigación más completa y extensa sobre esta cuestión, que se publicó en la revista Proceedings of the National Academy of Sciences en 2015, aporta conclusiones contundentes al respecto. 

Los autores estudiaron el fenómeno mediante el análisis de los datos obtenidos a partir de 140.000 embriones de entre 3 y 6 días de clínicas de fertilidad,  de 900.000 muestras de la placenta (vello coriónico) y de amniocentesis y de 30 millones de registros de abortos y de nacimientos vivos para averiguar la proporción de sexos en cada etapa del embarazo, desde la fecundación hasta el parto.

Igualdad en los embriones, pero nacen más niños

Los resultados mostraron que no hay diferencias en la proporción de embriones de sexo masculino y de sexo femenino días después de la concepción. Esto rebate una creencia ampliamente extendida fuera y dentro del mundo científico que sostenía que ya en el mismo momento de la fecundación había más probabilidades de que se produjera un cigoto de sexo masculino (XY) que uno femenino (XX).

En realidad, lo que descubrieron los investigadores es que, a lo largo del embarazo, las probabilidades de que los embriones y fetos femeninos no llegaran a término y murieran eran ligeramente mayores que para aquellos masculinos. De esta forma, desde el primer trimestre hasta el final del embarazo la proporción de embriones y fetos masculinos iba poco a poco en ascenso. No obstante sí que había dos etapas en la que la mortalidad fetal masculina era superior a la femenina: en la primera semana tras la concepción, debido a alteraciones cromosómicas, y entre las semanas 28 y 35 de embarazo.

Como diría el biólogo Theodosius Dobzhansky: «Nada tiene sentido en biología si no es a la luz de la evolución». Entonces, ¿qué sentido evolutivo tiene que el embarazo sea un proceso de mayor riesgo para los embriones y fetos femeninos, con mayor porcentaje de abortos, lo que lleva a una desproporción evidente en la frecuencia de niños y niñas tras el nacimiento? La hipótesis predominante al respecto sostiene que esto se debe a un fenómeno generalizado en los humanos: a lo largo de toda la vida, los hombres tienen mayor riesgo de morir que las mujeres por una infinidad de factores: enfermedades, accidentes, consumo de drogas, suicidios… Lo que lleva también a que tengan una menor esperanza de vida que las mujeres.

Así, aunque nazcan más niños que niñas, con el paso del tiempo las proporciones en las poblaciones de mujeres y hombres se van equilibrando hasta ser casi del 50 % para cada colectivo. Sin embargo, esto podría cambiar con la crisis climática. Varios estudios sugieren que la temperatura ambiental influye de forma diferente en las probabilidades de supervivencia de los embriones/fetos humanos según sean del sexo femenino o masculino. El incremento progresivo de las temperaturas podría llevar a una porcentaje aún mayor de nacimientos de niños con respecto al de las niñas. Es una hipótesis con un respaldo científico aún débil (otros factores podrían también estar involucrados), pero se trataría de un fenómeno radicalmente contrario a lo que sucede en las tortugas marinas. Por culpa de la crisis climática, casi todas  las tortugas que están naciendo en diferentes lugares del planeta son hembras y esto supone un gran peligro para su supervivencia.

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo ¿Por qué nacen más niños que niñas en el mundo? se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El tamaño de los grupos humanos ha condicionado su progreso cultural

Dom, 2023/08/27 - 11:59

La evolución cultural acumulativa característica de nuestra especie depende, en gran medida, del tamaño de las poblaciones en cuyo seno tiene lugar. Esta es la principal conclusión que se obtuvo mediante un ingenioso experimento. En el experimento –un juego en el que participaron grupos de diferente tamaño– se han sometido a contraste experimental diferentes hipótesis relativas al efecto que ejerce el tamaño de los grupos humanos sobre la evolución de la complejidad cultural. Los participantes, distribuidos en grupos de 2, 4, 8 o 16 jugadores, debían recolectar recursos de forma individual con el objetivo de incrementar su fortaleza o su condición física.

culturalFoto: Ken kahiri / Unsplash

Para ello los experimentadores les proporcionaban dos guías mediante las que se les enseñaba a realizar sendas tareas, una simple y otra compleja. Ambas eran útiles para recolectar los recursos objeto del juego. La tarea simple consistía en fabricar una punta de flecha, y la compleja, en fabricar una red, y en cada una de las 15 rondas del juego, los participantes debían hacer una cosa o la otra. A los participantes se les indicaba que si se les ocurría la manera de hacerlo, podían mejorar los procedimientos en uno y en otro caso. A lo largo de las sucesivas rondas podían ocurrir diferentes cosas, podía mejorarse el modo de hacer las tareas, se podía empeorar y podía ocurrir, incluso, que en un grupo una de las dos tareas se dejase de realizar porque ninguno de sus miembros era capaz de llevarla a cabo o porque no se tomaban la molestia de hacerlo.

Como era de esperar, resultó ser más probable que a lo largo de la secuencia de rondas se dejase de hacer la tarea compleja que la simple. Por otra parte, la probabilidad de que cualquiera de las dos tareas se acabara abandonando en el transcurso del juego era menor en los grupos más grandes que en los pequeños. Además, el mantenimiento de la tarea compleja en los grupos grandes no conllevaba una disminución de la probabilidad de mantener la tarea simple. Y como consecuencia de lo anterior, la probabilidad de que se mantuviese la diversidad cultural al final del juego era más alta cuanto mayor era el tamaño del grupo.

Por otro lado, y dado que los participantes podían introducir modificaciones en el modo en que se desempeñaban las tareas, al final de las 15 rondas había cambiado la forma en que se hacían las cosas, bien porque ronda tras ronda se producían errores por parte de los participantes, o bien porque algunos de ellos conseguían mejorar los procedimientos iniciales.

El procedimiento para fabricar la punta de flecha que proporcionaba los mejores resultados resultó, en promedio, ser mejor que el inicial en los grupos grandes y similar en los pequeños. Por lo tanto, la evolución cultural ocurrida en los grupos grandes había dado lugar a una mejora en la forma de hacer las cosas, pero no ocurrió lo mismo en los grupos pequeños. Fabricar una red era más difícil y, como he señalado antes, al final de las rondas algunos grupos la abandonaron, y entre los que la mantuvieron, disminuyó su rendimiento en los de pequeño tamaño, mientras que en los grandes se mantuvo en promedio, pero mejoró en algunos grupos.

En todo caso, la mejora en el rendimiento de las tareas estaba relacionada con el tamaño del grupo, lo que sugiere que, con carácter general, la mejora de las tecnologías preexistentes es más probable que ocurra en los grupos de tamaño más grande que en los más pequeños. Además, un resultado muy interesante del experimento es que en los grupos en que al final de las rondas el mejor individuo obtuvo una mejora en el rendimiento, el promedio del resto de los miembros del grupo también se elevó y las magnitudes de ambas subidas estaban positiva y significativamente correlacionadas. Esto indica que el mejor del grupo hacía que los demás miembros del mismo, por aprendizaje, también mejorasen su rendimiento.

En la especie humana se ha producido y se produce un proceso de acumulación cultural de gran importancia. A esa capacidad para crear conocimiento y transmitirlo, con su consiguiente acumulación progresiva, suele atribuirse el éxito demográfico de la especie, ya que gracias a ella, se han podido generar tecnologías que una sola persona no podría haber desarrollado nunca. Sin embargo, la transmisión de conocimiento no está exenta de errores, lo que, en principio, constituye un obstáculo para que se produzca la acumulación cultural citada. Y es ahí donde interviene el tamaño de los grupos humanos como variable determinante de la calidad de la evolución cultural.

Está bien caracterizado, a ese respecto, el retroceso cultural tasmano. Una vez quedaron aislados de Australia los habitantes de Tasmania, se produjo una regresión cultural como consecuencia de la cual se perdieron las tecnologías más complejas que poseían antes del aislamiento. La pérdida habría sido consecuencia de los errores con que se transmitía la información, y favorecida, probablemente, por el pequeño tamaño de la población tasmana.

Dado que al transmitirse entre individuos tecnologías complejas se suelen cometer errores, el número de efectivos de la población resulta ser una variable fundamental. En efecto, si los efectivos de la población son numerosos, ese riesgo se minimiza, pues es más probable que al menos algunos eventos de transmisión se produzcan sin errores. Si a eso se une el efecto del sesgo de prestigio, que consiste en la tendencia a imitar preferentemente a los miembros de la comunidad que tienen éxito, las personas que triunfan suelen ser las que transmiten sus conocimientos y son los principales motores de la evolución cultural. Por el contrario, cuando la población es de pequeño tamaño es menos probable que haya algún evento de transmisión cultural sin fallos, con lo que los errores se acumulan con mayor facilidad, hasta llegar a perderse las tecnologías con que contaban al principio.

Como ya he comentado, la pérdida de tecnología se produce sobre todo, con las tareas complejas, porque en su transmisión se cometen errores más fácilmente. Con las tareas simples es menos probable que ocurra eso, pues son más fáciles de aprender y de ser imitadas sin que se cometan errores.

Por otra parte, y dado que la pérdida de tecnologías supone una disminución de la diversidad cultural, las posibilidades de inventar cosas nuevas también disminuyen, lo que supone otro obstáculo a la evolución cultural acumulativa en las poblaciones de pequeño tamaño. En otras palabras, los grupos grandes favorecen el mantenimiento de la diversidad cultural y, por lo tanto, de la introducción de innovaciones.

El juego aporta, en consecuencia, respaldo experimental a la teoría que se había formulado para explicar el retroceso cultural de los tasmanos, y explica, además, el hecho de que los grupos humanos de mayor tamaño sean especialmente propensos a experimentar procesos de evolución cultural progresiva.

De lo anterior se deduce que la complejidad cultural que en ocasiones se observa en el registro arqueológico probablemente no es un indicador directo de una mayor capacidad cognitiva de los individuos que produjeron los objetos que reflejan esa complejidad, sino, quizás, la consecuencia de un mayor tamaño poblacional que pudo activar el comienzo de la evolución cultural acumulativa.

En conclusión, los cambios de tamaño de los grupos pueden dar lugar tanto a evolución cultural adaptativa como a la pérdida maladaptativa de habilidades culturales adquiridas. Ese fenómeno tuvo, seguramente, una gran importancia en nuestro pasado, y condicionó, probablemente, la tendencia humana a vivir en grupos de gran tamaño o, al menos, bien comunicados con otros grupos. En la actualidad ese efecto tiene menos importancia, pues la invención de la escritura, primero, de la imprenta de tipos móviles, después y, recientemente, de los dispositivos electrónicos de almacenamiento de información y la internet nos han ido haciendo cada vez menos dependientes del tamaño de los grupos a esos efectos. Menos dependientes, sí, pero no completamente independientes.

Fuente: Maxime Derex, Marie-Pauline Beugin, Bernard Godelle y Michel Raymond (2013): “Experimental evidence for the influence of group size on cultural complexity” Nature 503: 389-391.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El tamaño de los grupos humanos ha condicionado su progreso cultural se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El etiquetado frontal de alimentos modifica la intención de compra

Vie, 2023/08/25 - 11:59

La implantación del etiquetado frontal en los alimentos es una realidad cada vez más extendida. En ese punto es donde Patricio Pérez Armijo ha centrado su tesis doctoral que lleva por título ‘Etiquetado frontal de alimentos: percepción, comprensión y cambios en la intención de compra en población española con y sin enfermedades crónicas’. El objetivo de la investigación fue comparar el efecto del etiquetado Nutri-Score (NS) y los Sellos de Advertencia (SdA) en los consumidores, tanto en la percepción y comprensión de la calidad nutricional, como en la capacidad de modificar la intención de compra en personas con y sin enfermedades crónicas no transmisibles.

etiquetado frontalDiferentes sistemas de etiquetado nutricional frontal de los envases en los países europeos. Fuente: eufic.org

Debido al incremento de las enfermedades crónicas no transmisibles (ENT), la salud pública está dirigiendo sus esfuerzos a desarrollar estrategias que contribuyan a mejorar la calidad de las dietas para su prevención, control y tratamiento. Un ejemplo de ello es la implantación del etiquetado frontal de alimentos (FOPL), logotipo complementario de declaración nutricional, que se presenta de manera clara y sencilla en la cara principal de los envases de alimentos y bebidas con el objetivo de facilitar a los consumidores la toma de decisiones alimentarias informadas.

La evidencia actual sugiere la existencia de ventajas entre los distintos sistemas de FOPL, pero son pocos los estudios que han investigado de forma objetiva el efecto que tienen para identificar alimentos saludables y modificar la intención de compra en poblaciones que presentan alguna ENT. Para llevar adelante esta tesis, se realizó un estudio transversal con la participación de 5.140 personas con y sin enfermedad crónica (38,2 % y 61,8 %, respectivamente). Mediante un cuestionario en línea, validado por expertos y dividido en tres secciones, se les pidió que informaran sobre: datos sociodemográficos y de salud; conocimientos, actitudes y percepción del etiquetado NS; y percepción y comprensión de calidad nutricional, así como cambio en la intención de compra.

“La percepción del sistema Nutri-Score fue positiva. Más del 55 % de las personas participantes consideraron que ese sistema es de utilidad para transmitir información nutricional, el 44,2 % que les permitía realizar una compra más saludable y el 24,8 % que desconfiaría en un producto sin ese etiquetado”, destaca Patricio Pérez Armijo.

A pesar de la percepción positiva, casi el 60 % de la población del estudio señaló que ese sistema contribuiría poco o nada a la estrategia para el control de la epidemia de obesidad y de las enfermedades crónicas.

Mejor los Sellos de Advertencia

Por otra parte, los Sellos de Advertencia, frente a NS, fueron identificados por la gran mayoría de los encuestados como el mejor sistema de etiquetado, porque transmiten con mayor facilidad la información nutricional. “En cuanto a las pruebas experimentales, la comprensión objetiva de la calidad nutricional de cada categoría de productos alimenticios fue significativamente mayor en la condición SdA, en comparación a la condición control y NS. Lo que demuestra que ese sistema es el mejor comprendido por la población con y sin enfermedades crónicas”, apunta el investigador.

Además, la exposición a cualquiera de los dos sistemas de etiquetado modificó la intención de compra en ambos grupos de estudio, siendo los SdA los que mostraron un mayor efecto al desalentar la compra de productos alimenticios poco saludables e incrementando aquellos más saludables.

En cuanto a la percepción de la calidad nutricional, se observó que NS construye un halo de salud en aquellos productos categorizados de alta calidad nutricional (letras A y B, en color verde), pero que su perfil nutricional corresponde a productos que contienen exceso de algún nutriente crítico.

Por otro lado, la presencia de los SdA incrementa la percepción de mala calidad nutricional de los productos alimenticios estudiados que cuentan con una construcción social de salud, mostrando así su capacidad para modificar de forma positiva los halos de salud o percepciones erróneas sobre esos alimentos, permitiendo realizar mejores decisiones alimentarias en ambos grupos de estudio.

Referencia:

PE Pérez Armijo (2022) Etiquetado frontal de alimentos: percepción, comprensión y cambios en la intención de compra en población española con y sin enfermedades crónicas. Un estudio comparativo entre Nutri-Score y sellos de advertencia. Tesis UPV/EHU https://addi.ehu.es/handle/10810/59193

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El etiquetado frontal de alimentos modifica la intención de compra se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Hormonas y agresión sexual

Jue, 2023/08/24 - 11:59

agresión

¿Es posible que los órganos endocrinos de Caín funcionaran de manera incorrecta y que, en consecuencia, él fuera tan víctima como su hermano?

Elizabeth M. Heath, New York Times, 4 diciembre 1921.

En 1980 escribía Richard Rada, de la Universidad de Nuevo México en Albuquerque, que el estudio de la conducta humana se había enriquecido con los avances de la biología y la fisiología y, en consecuencia, por el desarrollo de métodos, especialmente fármacos, para alterar y tratar los trastornos cognitivos, afectivos y conductuales. En particular, la mejora de las técnicas para medir los niveles de hormonas en plasma habían despertado un gran interés en la psicoendocrinología de la conducta, incluyendo los trastornos sexuales. En su estudio resumía brevemente los avances en la psicoendocrinología del comportamiento sexual y agresivo, y presentaba los resultados de dos estudios de andrógenos en violadores y abusadores de niños.

agresiónFoto: Clay Banks / Unsplash

Sin embargo, no hay que descartar en absoluto la hipótesis de neuromodulación múltiple de las conductas agresivas. Como explica Jesús Martín Ramírez, de la Universidad Complutense, incluso las pautas más sencillas de conducta se deben a un control neurohormonal complejo, que no conocemos en detalle y que supone que están influidas por más de una sustancia química y una complicada interacción entre ellas. No es probable que una única sustancia química sea la responsable del desencadenamiento o modulación de la agresión, a pesar de que en este texto me referiré sobre todo a la testosterona, la hormona mejor conocida.

Las sustancias no actúan en solitario y en cualquier conducta pasan por una compleja relación mutua. No solo participa más de una molécula en cualquier conducta, sino que neurotransmisores, neuromoduladores y hormonas contribuyen al control de las acciones de los otros compuestos. En conclusión, no podemos medir la agresividad en unidades de una sola sustancia neuroquímica, sea la que sea, hormona o neurotransmisor.

En la introducción, Richard Rada resumía la perspectiva histórica de los datos publicados hasta la década de los setenta del siglo pasado. Por ejemplo, mencionaba que en su discurso presidencial ante la Asociación Estadounidense de Psiquiatría en 1898, R.M. Bucke sugirió que las secreciones internas del ovario recién descubiertas podrían convertirse en un agente tóxico de virulencia desconocida y lo sugería como un factor etiológico en algunos trastornos mentales femeninos.

En 1924, Schlapp discutía el comportamiento y las enfermedades de las glándulas y afirmó que no le sorprendería que los investigadores revelaran que un tercio de todos los delincuentes convictos en ese momento padecían trastornos de las glándulas. Fue Berman, en 1932, quien indicó que se conocían datos sobre presos en Sing Sing que, en su opinión, indicaban una relación directa entre la deficiencia y el desequilibrio de las glándulas endocrinas y la actividad delictiva. Posteriormente, durante la década de 1930, Wright fue uno de los primeros en estudiar específicamente las endocrinopatías en delincuentes sexuales. Los niveles de estrógenos, andrógenos y gonadotropinas se determinaron mediante el análisis de orina. Sus estudios se centraron principalmente en los aspectos endocrinológicos de los homosexuales y de los delincuentes sexuales homosexuales, pero también incluyeron varios casos de exhibicionismo. Por entonces, el autor no conocía ningún estudio biológico de los agresores sexuales violentos.

Después de estos escasos datos iniciales, Rada añade que los estudios de la psicoendocrinología de los agresores sexuales se limitaron a informes dispersos ocasionales sobre el tratamiento de estas conductas utilizando varias drogas y hormonas que supuestamente influyen en la conducta sexual. Son las fenotiazinas, el propionato de testosterona, estrógenos, estilbesterol y la medroxiprogesterona. Además, y sin olvidar que Rada publica estas conclusiones en 1980, indica que en los setenta, había técnicas más precisas para la determinación de los niveles plasmáticos de hormonas gonadales, particularmente testosterona, lo que supuso un aumento en los estudios de sujetos en especies animales y en humanos.

Después del nacimiento, los niveles de testosterona en sangre se elevan en ambos sexos y luego caen a un nivel bajo hasta la pubertad cuando hay un aumento gradual en el varón. Después de la pubertad, el nivel medio de testosterona masculina es aproximadamente diez veces el nivel circulante de testosterona femenina. La testosterona es la hormona de la libido tanto en hombres como en mujeres y hay una caída en el nivel de testosterona en sangre con la edad. La función endocrina de los testículos se puede resumir de la siguiente manera: 1) la síntesis y secreción de testosterona es la única función importante de las células de Leydig de los testículos; 2) no hay evidencia de que los testículos secreten esteroides distintos a la testosterona en cantidades suficientes para provocar efectos biológicos significativos; y 3) la testosterona es el andrógeno más importante en sangre.

Volvamos ahora a la cuestión de la relación entre la testosterona plasmática y el comportamiento agresivo. Hay un gran debate sobre los delincuentes sexuales porque algunos de ellos y ciertos delitos sexuales son habitualmente más violentos y agresivos que otros.

Varios estudios sobre la testosterona y su relación con conductas agresivas tratan de animales de muchas especies. En general, estos estudios muestran la importancia de los andrógenos para iniciar el comportamiento agresivo y facilitar la expresión de conductas agresivas en animales adultos. Sin embargo, también indican la importancia de los factores sociales y del aprendizaje o, si se quiere, del entorno, en la expresión de la agresión en los adultos. En comparación con la literatura sobre animales, pocos estudios, y recordar que son datos de Rada publicados en 1980, han informado de la asociación del nivel de testosterona con la agresión o la violencia en humanos.

Estos estudios han sido revisados recientemente con cierto detalle. Por ejemplo, la producción de testosterona está correlacionada con una medida de la agresión basada en tests de psicología en hombres jóvenes. También hay relación entre los niveles de testosterona en sangre, las peleas y agresiones verbales en la cárcel, y las conductas delictivas en el pasado en reclusos varones jóvenes. Y los presos con antecedentes de delitos más violentos y agresivos en la adolescencia tenían un nivel de testosterona en sangre más alto que los presos sin dicho historial.

Otra relación interesante es la encontrada entre la testosterona en sangre y la agresividad en jugadores de hockey hielo que se estudió en jugadores universitarios. Los entrenadores de los equipos calificaron de forma independiente a cada jugador en una escala de siete ítems diseñada para evaluar una variedad de comportamientos relacionados con la agresividad. Si bien seis de los siete elementos de agresividad mostraron correlaciones positivas con la testosterona en sangre, solo un elemento, la respuesta a la amenaza, se correlacionó significativamente. De mayor importancia que los datos preliminares de este estudio es la demostración de la viabilidad de utilizar los deportes competitivos como modelo para estudiar el comportamiento agresivo.

En conclusión, los estudios en nuestra especie y en animales sugieren una asociación entre la testosterona en sangre y la agresión. Sin embargo, la interpretación de estos hallazgos es difícil por varias razones. Primero, los hallazgos en animales pueden ser de poca relevancia para el estudio de la agresión en humanos. Además, se utilizan tests de auto evaluación para detectar la agresividad y quizá son una medida tosca y no discriminan adecuadamente entre el sentimiento de agresividad, la creencia del sujeto de que es agresivo y la conducta real agresiva. Además, estamos comenzando a comprender cómo ciertos factores y, entre ellos, el estrés, la edad, la hora del día, influyen en el nivel de testosterona en sangre. Y se desconoce en qué medida estos factores también interactúan con variables complejas como son el comportamiento sexual y agresivo. Finalmente y es muy importante, los estudios que indican una correlación entre la testosterona en sangre y la agresión no prueban una relación de causa y efecto. Sin embargo, el aumento de testosterona reduce las respuestas al miedo y, también, la sensibilidad al estrés en el cerebro, y altera la capacidad de evitar las amenazas pues reduce el miedo a las consecuencias. Incluso la testosterona, cuando alcanza determinados niveles de concentración, hasta puede provocar placer en el hombre y, por tanto, dificulta el control. Parte del cerebro disfruta al enfadarse y, también, al detectar el enfado en la mujer.

Es evidente que desde hace un tiempo hay interés en la relación entre la testosterona en sangre y el comportamiento sexual y agresivo pero, sin embargo, hay relativamente pocos estudios centrados en los andrógenos plasmáticos en los delincuentes sexuales. Por ejemplo, en 1975 se publicó un estudio sobre el estado endocrino de veinticuatro agresores sexuales masculinos, incluidos dieciséis pedófilos, siete violadores y un exhibicionista. Tres de los delincuentes tenían niveles de testosterona por encima del rango normal y los otros estaban dentro de los límites normales.

El grupo de Richard Rada publicó en la década de los setenta varios estudios sobre los niveles de testosterona en agresores sexuales violentos y no violentos. Midieron la hormona testosterona en sangre en cincuenta y dos violadores y doce abusadores de niños. Los violadores fueron clasificados según el grado de violencia al cometer la violación. Los rangos y las medias del nivel de testosterona en sangre de los violadores y abusadores de niños estaban dentro de los límites normales. El grupo de violadores que se consideró más violento tenía un nivel medio de testosterona más alto que el normal y que los abusadores de niños y otros violadores del estudio. No hubo correlación entre la edad, la raza o la duración del encarcelamiento y el nivel de testosterona en plasma. El nivel más alto de testosterona se encontró en el único agresor que asesinó a la víctima durante la violación. En conclusión, los violadores y los abusadores violentos de niños tenían un nivel de testosterona en sangre más alto que los abusadores de niños no violentos.

Además de la testosterona, otras hormonas y neurotransmisores participan en lo que Louann Brizendine, de la Universidad de California en San Francisco, denomina como ira autocatalítica o que se retroalimenta, típica de los hombres a los que les cuesta parar una vez que se enfadan. O de la neuromodulación múltiple que ha presentado Jesús Martínez. Esta ira se alimenta, además de con la testosterona, con la vasopresina y el cortisol. En realidad, la ira con la pareja no altera al hombre pues considera que no supone ningún peligro para nadie.

Los datos anteriores sobre agresiones sexuales y hormonas en sangre llevan a buscar tratamientos adecuados. W.L. Marshall y sus colegas, de la Universidad de la Reina de Ontario, en Canadá, han revisado los métodos utilizados para evaluar el tratamiento de los delincuentes sexuales y luego marcan los criterios que evaluarán la eficacia de los tratamientos, en particular la reincidencia o la comisión de nuevos delitos sexuales después de los tratamientos. Plantean varias modalidades de tratamiento para los delincuentes sexuales. Las principales categorías de tratamiento son los tratamientos físicos como psicocirugía, castración y tratamientos farmacológicos. En conclusión, parece que la evidencia empírica no es suficientemente confiable para establecer la efectividad del tratamiento con delincuentes sexuales. Parece que los programas, sin embargo, funcionan mejor con abusadores de niños y exhibicionistas que con violadores. 

Cuando tratan de agresión sexual y hormonas, Marshall y sus colegas mencionan la castración física, muy empleada en Europa. Desde la década de los cincuenta a los setenta del siglo pasado, 102 hombres fueron castrados en Noruega, 121 en Suiza, 900 en Dinamarca y 932 en Alemania. Entre los castrados solo reinciden desde el 0% al 7.4%. Sin embargo, faltan muchos datos ciertos para confirmar la eficacia de este método. Los tratamientos farmacológicos antihormonas parecen funcionar mejor para reducir la actividad sexual a niveles controlables.

Sobre la castración química se celebró un debate en el Parlamento de Alemania en los años sesenta, con la asistencia y asesoramiento de expertos. Como cuenta José Ramón Alonso, de la Universidad de Salamanca, fue Ursula Laschet la que comentó que la tercera parte de los participantes en los ensayos habían acudido voluntariamente por presentar problemas de hipersexualidad. Y para Werner Krause, de la Universidad de Hamburgo, hay adictos al sexo que no cometen agresiones sexuales y, sin embargo, hay otros que llegan a la violación, y más que un problema sexual la causa es el mal control de impulsos e inhibiciones.

Referencias:

Alonso, J.R. 2022. El cerebro enamorado. Los mecanismos neuronales del amor. Ed. Planeta. Barcelona. 223 pp.

Brizendine, L. 2013. El cerebro masculino. Las claves científicas de cómo piensan los hombres y los niños. RBA Libros. Barcelona. 299 pp.

Epstein, R.H. 2021. El poder de las hormonas. Historias asombrosas de las sustancias que lo controlan prácticamente todo. Ed. Planeta. Barcelona. 334 pp.

Jewkes, R.U. 2002. Intimate partner violence. Lancet 359: 1423-1429.

Marshall, W.L. et al. 1991. Treatment outcome with sex offenders. Clinical Psychology Review 11: 465-485.

Martínez, J.M. 2006. Bioquímica de la agresión. Psicopatología Clínica, Legal y Forense 6: 43-66.

Rada, R.T. 1980. Plasma androgens and the sex offender. Bulletin of the American Academy of Psychiatry and Law 8: 456-484.

Vincent, J.-D. 1988. Biología de las pasiones. Anagrama. Barcelona. 335 pp.

Vincent, L. 2022. Neurobiología del amor. Los secretos del enamoramiento y la bioquímica del deseo. Ed. Gedisa. Barcelona. 223 pp.

Para saber más:

Testosterona
Testosterona y paternidad
Los asesinos

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Hormonas y agresión sexual se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Conjuntos de baldosas auto-embaldosadas

Mié, 2023/08/23 - 11:59

auto-embaldosadas
En la anterior entrada del Cuaderno de Cultura Científica titulada Los reptiles geométricos estuvimos hablando de un interesante tipo de figuras geométricas conocidas con el nombre de repiteselas, o reptiles geométricos.

La figura geométrica de la “esfinge” es un ejemplo de repitesela, o reptil geométrico

 

Una repitesela, o reptil geométrico, si jugamos con el término en inglés con el que bautizó a estos objetos geométricos el matemático e ingeniero estadounidense Solomon W. Golomb, es una forma geométrica plana (poligonal) que puede ser diseccionada en copias idénticas de ella misma, como en el anterior ejemplo en el que la figura de la «esfinge» se descompone en cuatro copias (lo que se conoce como el orden de la repitesela) de sí misma. Recordemos también que el nombre de “rep-tiles” (repiteselas) viene de la expresión “self-replicating tiles” (teselas o baldosas auto-replicantes), haciendo un gracioso juego de palabras con el grupo de animales que reciben el nombre de reptiles.

La figura geométrica del “pez mirando hacia arriba” es un ejemplo de repitesela, o reptil geométrico, de orden nueve

 

El ingeniero electrónico británico, apasionado de la matemática recreativa,  (self-tiling tile sets, en inglés, que acorta a “setiset”) o también podemos traducirlo como “conjunto de teselas auto-teseladas”.

Cuadrados mágicos geométricos

Antes de entrar en la definición y ejemplos de ese nuevo concepto, recordemos que Lee Sallows fue quien introdujo el concepto de cuadrado mágico geométrico sobre el que ya hemos escrito en el Cuaderno de Cultura Científica, en concreto, en la entrada Cuadrados mágicos geométricos. Como el concepto de conjunto de baldosas auto-embaldosadas tiene elementos de conexión con el de cuadrado mágico geométrico, vamos a recordar en qué consiste este (para el caso sencillo del orden 3) y mostrar un par de ejemplos.

Un cuadrado mágico geométrico (también llamado cuadrado geomágico) de orden 3 está formando por una cuadrícula 3 x 3 de formas geométricas tales que se pueden unir las formas de cada fila, cada columna o cada diagonal principal para formar la misma figura geométrica, llamada forma objetivo.

Ejemplo de cuadrado mágico geométrico de orden 3, construido por Lee Sallows, con la forma objetivo, obtenida por filas, columnas y diagonales principales, igual a un cuadrado menos una esquina

 

En el ejemplo anterior las nueve formas geométricas de la retícula 3 x 3 son poliominós, es decir, figuras geométricas planas formadas conectando dos o más cuadrados por alguno de sus lados (para más información sobre los poliominós se pueden leer las entradas Embaldosando con L-triominós (Un ejemplo de demostración por inducción) y Tetris, embaldosados y demostraciones). Sin embargo, las figuras geométricas de la retícula pueden ser otro tipo de poliformas, como los polidiamantes, que son como los poliominós pero con triángulos equiláteros en lugar de cuadrados (un ejemplo de cuadrado geomágico con polidiamantes se muestra en la siguiente imagen) o formas más generales (ejemplos pueden verse en la entrada Cuadrados mágicos geométricos o en la página web Geomagic squares de Lee Sallows).

Ejemplo de cuadrado geomágico, utilizando polidiamantes, construida por Lee Sallows. Imagen de la página web Geomagic squaresConjuntos de baldosas auto-embaldosadas

En el artículo On Self-Tiling Tile Sets (Sobre conjuntos de teselas auto-teseladas), publicado en la revista Mathematics Magazine, su autor, Lee Sallows, define los conjuntos de baldosas auto-embaldosadas de la siguiente forma.

Un conjunto de baldosas auto-embaldosadas de orden n es un conjunto de n formas geométricas planas distintas (no similares), que pueden ser diseccionadas en copias idénticas de ellas mismas o, equivalentemente, que pueden unirse para formar una copia más grande de cada una de ellas.

El primer ejemplo con el que su autor ilustra este nuevo concepto es el siguiente conjunto de baldosas auto-embaldosadas de orden 4 formado por poliominós, en concreto, por cuatro hexominós.

En la siguiente imagen se muestra como estos cuatro hexominós pueden unirse para formar una copia más grande de cada uno de ellos, luego son un conjunto de baldosas auto-embaldosadas de orden 4.

Un ejemplo de conjunto de baldosas auto-embaldosadas de orden 2

En ese primer artículo, On Self-Tiling Tile Sets (Sobre conjuntos de teselas auto-teseladas), Sallows se plantea buscar un ejemplo de conjunto de baldosas auto-embaldosadas de orden 2, es decir, formado por dos formas geométricas. En concreto, busca ejemplos en los que las figuras geométricas sean triángulos, lo cual motiva que además las dos piezas (que son los dos triángulos) se puedan unir por un vértice “bisagra” que permite transformar uno de los triángulos en el otro (iguales a las dos piezas originales pero más grandes) girando las piezas alrededor de la bisagra.

Sallows construye una familia de conjuntos de baldosas auto-embaldosadas de orden 2 formada por parejas de triángulos, que pueden verse en la siguiente imagen.

Familia de conjuntos de baldosas auto-embaldosadas de orden 2 formada por parejas de triángulos, así como el vértice bisagra que permite transformar un triángulo en el otro (A en B, o B en A, en la imagen). Imagen extraída del artículo On Self-Tiling Tile Sets de Lee Sallows

Dentro de esa familia se pueden considerar dos casos interesantes, cuando uno de los triángulos (el triángulo A en la imagen) es un triángulo rectángulo o un triángulo isósceles, que mostramos en las siguientes imágenes.

Conjunto de baldosas auto-embaldosadas de orden 2 formada por dos triángulos, uno de ellos rectángulo. Imagen extraída del artículo On Self-Tiling Tile Sets de Lee SallowsConjunto de baldosas auto-embaldosadas de orden 2 formada por dos triángulos, uno de ellos isósceles. Imagen extraída del artículo On Self-Tiling Tile Sets de Lee Sallows

Tras la construcción de estos ejemplos, Lee Sallows va más allá, como podemos leer en su página web, en la parte dedicada a los conjuntos de baldosas auto-embaldosadas (Self-Tiling Tile Sets). Este ingeniero electrónico, apasionado de la matemática recreativa, construye un conjunto de baldosas auto-embaldosadas de orden 4, formado por cuatro triángulos conectados con bisagras, de manera que los dos primeros y los dos últimos forman dos conjuntos de baldosas auto-embaldosadas de orden 2, que se muestra en la siguiente imagen.

Conjunto de baldosas auto-embaldosadas de orden 4, formado por cuatro triángulos conectados con bisagras, de manera que los dos primeros y los dos últimos forman dos conjuntos de baldosas auto-embaldosadas de orden 2Más ejemplos de conjunto de baldosas auto-embaldosadas

Vamos a terminar esta entrada del Cuaderno de Cultura Científica con algunos ejemplos más de conjuntos de baldosas auto-embaldosadas de diferentes órdenes. El primer ejemplo es un ejemplo del artículo More On Self-Tiling Tile Sets (Más sobre conjuntos de teselas auto-teseladas) y es un conjunto de baldosas auto-embaldosadas de orden 4, formado por cuatro piezas geométricas que no son ni triángulos, ni poliformas (poliominós, poliodiamantes u otras).

Conjunto de baldosas auto-embaldosadas de orden 4. Imagen extraída del artículo More On Self-Tiling Tile Sets de Lee Sallows

En el artículo More On Self-Tiling Tile Sets (Más sobre conjuntos de teselas auto-teseladas) Sallows nos muestra que se pueden obtener conjuntos de baldosas auto-embaldosadas a partir de las repiteselas. El siguiente ejemplo es un conjunto de baldosas auto-embaldosadas de orden 4, construido a partir del reptil geométrico “esfinge”, con el que iniciábamos esta entrada. Lo primero que hace es diseccionar la figura de la esfinge (formada por cuatro copias de ella misma), en tres parejas de figuras geométricas planas, que mostramos a continuación.

Tres disecciones de la figura de la esfinge (formada por cuatro copias de ella misma), en dos parejas de figuras geométricas planas, A, B, C, D, E. F

De donde, las cuatro figuras geométricas planas A, B, C, D forman un conjunto de baldosas auto-embaldosadas de orden 4, como se muestra a continuación.

Las cuatro figuras geométricas planas A, B, C, D forman un conjunto de baldosas auto-embaldosadas de orden 4

Lo mismo ocurre para los dos grupos de cuatro figuras geométricas planas A, B, E, F y C, D, E, F.

Este tipo de construcción podemos realizarla para otras repiteselas. Terminemos con un el ejemplo del triángulo rectángulo isósceles, que es un sencillo reptil geométrico de orden 4.

El triángulo rectángulo isósceles es un sencillo reptil geométrico de orden 4

A partir de aquí podemos realizar dos disecciones del triángulo rectángulo isósceles como unión de cuatro pequeños triángulos rectángulos isósceles (la tercera pareja posible es igual a una de ellas, por eso no la incluimos).

Dos disecciones del triángulo rectángulo isósceles como unión de cuatro pequeños triángulos rectángulos isósceles y las cuatro figuras geométricas que se generan, que son un conjunto de baldosas auto-embaldosadas de orden 4

Y efectivamente, podemos comprobar que, a partir de esas cuatro figuras geométricas, obtenidas como disecciones del triángulo rectángulo isósceles, podemos unirlas formando una copia más grande de cada una de ellas, como se muestra en la siguiente imagen.

Dos disecciones del triángulo rectángulo isósceles como unión de cuatro pequeños triángulos rectángulos isósceles y las cuatro figuras geométricas que se generan, que son un conjunto de baldosas auto-embaldosadas de orden 4

 

Bibliografía

1.- Charles Dudley Langford, Uses of a Geometric Puzzle, The Mathematical Gazette 24 (260), pp. 209–211, 1940.

2.- Solomon W. Golomb, Replicating figures in the plane, The Mathematical Gazette 48 (366), pp- 403–412, 1964.

3.- Martin Gardner, The Unexpected Hanging and Other Mathematical Diversions (capítulo 19: Rep-Tiles, Replicating Figures on the Plane), Chicago University Press, 1991.

4.- Lee C. F. Sallows, On Self-Tiling Tile Sets, Mathematics Magazine Vol. 85, No. 5, pp. 323–333, 2012.

5.- Lee C. F. Sallows, More On Self-Tiling Tile Sets, Mathematics Magazine, Vol. 87, No. 2, pp. 100–112, 2014.

6.- Página web de Lee Sallows

El artículo Conjuntos de baldosas auto-embaldosadas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Esperar el autobús en un frigorífico

Mar, 2023/08/22 - 11:59

Un equipo de investigación de la Escuela Superior de Ingenieros de la Universidad de Sevilla ha diseñado una parada de autobús bioclimática que reduce hasta 20 grados la temperatura de su entorno. Esta marquesina ‘inteligente’ detecta cuándo hay un usuario esperando y activa su sistema de acondicionamiento térmico (parecido al de un frigorífico), que rebaja el calor extremo del verano para que las personas que alberga se encuentren más cómodas y seguras. Las investigadoras confirman que el primer prototipo se instalará en Sevilla el próximo año.

Un diseño o arquitectura bioclimática es aquella que, por un lado, aprovecha las condiciones ambientales y elementos naturales para lograr que se integre de forma armoniosa con el entorno. Por otro lado, posee un ambiente interior confortable, que requiere un menor consumo energético. La marquesina que proponen las investigadoras está basada en este principio y funciona mediante radiación térmica, esto es, una forma de transferencia de calor o frío que ocurre cuando un objeto emite ondas electromagnéticas debido a su temperatura. “No es como un aire acondicionado, que produce aire frío; sino que la propia estructura de la parada de autobús emite frescor, como ocurre con los frigoríficos”, explica el investigador de la Universidad de Sevilla José Sánchez.

En el artículo que recoge los resultados, las científicas explican que la marquesina está compuesta por tres partes. En primer lugar, un tanque subterráneo donde se almacena agua depurada. Este elemento está conectado a la marquesina, o sea, la estructura de la parada de autobús, mediante tubos que recorren su interior y hasta el techo, lugar donde hay instalados sensores y placas solares. “A pesar de que consta de más elementos, su producción es más económica que las paradas de autobús comunes”, añade José Sánchez.

Marquesina ‘inteligente’

La marquesina posee un sistema de autosuficiencia que produce electricidad y agua fría, además de una serie de sensores que perciben la temperatura exterior, la presencia humana y el clima del entorno, de modo que ‘toma decisiones’ de forma autónoma. Por ejemplo, detendría su funcionamiento en caso de que bajaran las temperaturas.

Las investigadoras explican que, por la noche, el agua del tanque asciende hacia las placas solares, se enfría y retorna al tanque subterráneo, donde se almacena y mantiene el frescor. Cuando la parada detecta mediante sus sensores la presencia de una o varias personas, activa su sistema de enfriamiento y el agua recorre el interior de la estructura, expulsando el frío por el metal de la marquesina mediante unos poros muy pequeños, del tamaño aproximado de un garbanzo. Durante el día, los paneles fotovoltaicos acumulan la energía que impulsa el agua y el enfriamiento tiene una duración de 10 a 20 minutos, periodo máximo que un usuario suele esperar el autobús.

Según comentan las investigadoras, se trata de un espacio desarrollado por arquitectas e ingenieras, de modo que integra el diseño exterior de las paradas comunes y las funcionalidades automáticas e ‘inteligentes’. El prototipo está ideado como un refugio climático, de modo que ejercería su función de enfriamiento durante las horas más calurosas del verano en el sur, de 13:00 a 19:00 horas. “Si la temperatura alcanza, por ejemplo, los 42 grados centígrados, la sensación térmica en el interior de la marquesina sería aproximadamente de 23”, señala José Sánchez.

Referencia:

MPaz Montero Gutiérrez, Teresa Palomo Amores, Rafael Monge Palma, MCarmen Guerrero Delgado, José Sánchez Ramos, Servando Álvarez Domíguez (2023) Thermal conditioning of short-term stays. Radiant solution in a bus stop in Seville Science Talks doi: 10.1016/j.sctalk.2023.100237.

Edición realizada por César Tomé López a partir de materiales suministrados por la Fundación Descubre

El artículo Esperar el autobús en un frigorífico se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Un archipiélago volcánico para Marte

Lun, 2023/08/21 - 11:59

Cuando hoy miramos el yermo paisaje del planeta Marte, a pesar de todas las pruebas que tenemos, cuesta mucho visualizar como era hace tres o cuatro mil millones de años: el planeta contaba con una atmósfera mucho más densa y un océano cubría su gran cuenca boreal, con ríos recorriendo su superficie y lagos donde ahora vemos algunos de sus cráteres. Pero todavía podemos llevar nuestra imaginación un paso más allá y esbozar un planeta que todavía, si cabe, nos recuerde más al nuestro. Un estudio recién publicado plantea que Olympus Mons podría ser el equivalente marciano a un archipiélago de origen volcánico terráqueo, como las islas de Hawái o las Azores, por ejemplo.

Simulación del océano de Marte. Cortesía del Laboratorio de Visualización Científica del Goddard Space Flight Center.

Estas islas tienen su origen en la existencia de puntos calientes en el manto, bajo la corteza oceánica, que alimentan una actividad volcánica capaz de construir los edificios volcánicos que formarían estas islas a partir de sucesivas erupciones a lo largo del tiempo.

Pero volvamos al caso de Marte y analicemos las monstruosas dimensiones de esta isla, que desde luego empequeñecería cualquiera de las islas oceánicas terrestres. La isla formada por Olympus Mons tendría un diámetro de unos 600 kilómetros -de tal manera que si la colocásemos dentro de la península Ibérica cabría relativamente justa- y una altura que supera los 20 kilómetros de altura desde la base, mucho más que cualquier caso de los existentes, tanto que más que duplicaría, por ejemplo, a la altura de la isla de Hawaii desde su base.

El tamaño descomunal de esta isla podría deberse a dos factores principales: Por un lado, la inexistencia de una tectónica de placas que hiciese que la corteza se fuese moviendo sobre el punto caliente. Este factor provocaría que la lava fuese surgiendo por una zona muy concreta todo el iempo, pero en la Tierra, por ejemplo, como la corteza va moviéndose, en el caso de los océanos lo que se forma es un rosario de islas con distintas edades porque, aunque el punto caliente permanezca estático, la corteza si se ha movido sobre este, dando la apariencia de que el magma ha surgido por puntos diferentes.

archipiélagoModelo tridimensional de Olympus Mons donde se puede apreciar perfectamente la zona del escarpe y, sobre esta, la del edificio volcánico sobre el nivel del “océano”, mucho más suave. Cortesía de NASA/JPL.

El otro factor para tener en cuenta es la gravedad marciana, que aproximadamente equivale a un 40% de la gravedad terrestre. Esto podría provocar que fuesen estables edificios volcánicos mucho más altos que los que hay en nuestro planeta y que no se “desmontaran” tan fácilmente, aunque en las laderas de Olympus Mons se pueden apreciar grandes cicatrices de deslizamientos cuyas causas requieren un análisis en detalle.

¿Cómo han llegado a la conclusión de que Olympus Mons pudo ser una enorme isla? Uno de los puntos clave de este estudio se sitúa en la morfología del edificio volcánico. Cuando miramos las imágenes vemos dos partes bien diferenciadas: una inferior con un escarpe muy marcado que tiene una altura de unos 6 kilómetros y sobre esta una forma mucho más suave, similar a la que vemos en los volcanes de escudo terrestre. En este estudio se interpreta el escarpe como el punto donde aproximadamente estaría la línea de costa o el nivel del mar y donde la lava se encontraría con ese gran océano boreal.

En nuestro planeta las islas oceánicas también muestran esta morfología dual cuya frontera es la altura del agua. Anteriormente, el escarpe se había interpretado de distintas maneras, fuese como una forma creada por los deslizamientos que se pueden dar en las laderas por la simple inestabilidad del edificio volcánico, por el contacto con un océano en ocasiones congelado, pero con la capacidad de erosionar y la interacción entre la lava y el hielo o también por la acción del agua líquida.

Pero todo no acaba aquí. El escarpe mide algo más de seis kilómetros de altura y, desde luego, no parece que el océano de Marte en ningún momento haya tenido una profundidad tan grande… entonces, ¿cómo podríamos resolver esta aparente incongruencia con las pruebas que marcan antiguas líneas de costa a una cota mucho más baja? El rápido crecimiento del edificio volcánico podría haber obligado a la corteza a flexionarse, generando una topografía deprimida alrededor de la base del volcán y, por lo tanto, justificando la altura de la columna del agua en esa zona sin necesidad de invocar a la existencia de un océano mucho más profundo en toda la cuenca boreal que el que ofrece cualquier modelo sobre el pasado de Marte.

archipiélagoReconstrucción de dos posibles líneas de costa e incluso de los sedimentos depositados por un paleotsunami sobre Marte y que demuestran la dinámica de la línea de costa marciana en el pasado. Estudiar la posible altura de los océanos sobre los edificios volcánicos podría ayudarnos a reconocer ciclos y la altura del agua en distintos momentos. Cortesía de Alexis Rodríguez.

Este estudio tiene muchas ramificaciones, no únicamente a nivel geológico, sino que estudiando las distintas rupturas de pendiente que se observan en el escarpe podríamos conocer distintas alturas que tuvo la columna de agua e intentar usarlo como un marcador para conocer mejor la historia del océano de Marte a lo largo del tiempo, algo que tiene unas grandes implicaciones desde el punto de vista de la astrobiología, ya que conocer la cantidad de agua y su tiempo de permanencia en estado líquido sobre la superficie de Marte nos permitiría hacernos una mejor idea sobre cómo ha cambiado la habitabilidad de Marte a lo largo del tiempo.

Además, podría intentar extenderse este estudio a otros de los volcanes presentes en la región de Tarsis, cuyas morfologías también podrían ser útiles con este método de estudio e intentar comparar resultados e incluso estudiar el resto de edificios volcánicos fueron también islas en el pasado.

Pero todavía nos queda un hándicap que resolver en el futuro: Y es que para hacer bien este último trabajo probablemente deberíamos también muestrear las rocas que forman estos volcanes, algo que nos permitiría datarlas y conocer con precisión la fecha de los distintos episodios de crecimiento de estos volcanes e intentar dibujar las antiguas líneas de costa, pero desde luego es un reto que ahora mismo es imposible a nivel técnico, pero quien sabe si en el futuro -ojalá no dentro de muchas décadas- contemos con los medios y la tecnología necesarios para poder estudiar en detalle estos lugares.

Y sin duda, estudios como estos ponen de manifiesto que, a pesar de las diferencias actuales, Marte, en su juventud, quizás no fuimos tan distintos.

Referencias:

Hildenbrand, A., H. Zeyen, F. Schmidt, S. Bouley, F. Costard, P.Y. Gillot, F.O. Marques, y X. Quidelleur. (2023) A Giant Volcanic Island in an Early Martian Ocean? Earth and Planetary Science Letters doi: 10.1016/j.epsl.2023.118302.

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo Un archipiélago volcánico para Marte se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Para qué escanea el iris de millones de usuarios una aplicación de criptomonedas

Vie, 2023/08/18 - 11:59
Fuente: Rokas Tenys / Shutterstock

WorldCoin es un mundo recién nacido en el que la economía funciona con tokens y cuyo “gobierno” promete un entorno financiero más igualitario. Para formar parte de él es necesario aportar una prueba biométrica: el escaneo del iris. Y eso ha hecho que, nada más nacer, ya esté bajo sospecha.

¿La justificación de esta prueba? Para garantizar la seguridad de quienes invierten, compran o venden en este mercado, WorldCoin necesita una herramienta que garantice que del otro lado hay un humano, y no un robot o un impostor. Con ese fin, su protocolo de identidad, World ID, rastrea los bots y las identidades virtuales falsas. Pero, además, exige a los usuarios que se unen a la red que miren con atención a una esfera plateada llamada Orb que escanea su iris, prueba indiscutible de su identidad humana y única.

La batalla por la seguridad

Por ese motivo, en Kenia han suspendido la actividad de WorldCoin. Y distintas autoridades europeas han abierto investigaciones. En Francia, sin ir más lejos, la Comisión Nacional de Informática y Libertades (CNIL) ha abierto investigaciones a WorldCoin por posibles infracciones a la privacidad de datos, y apuntan a preocupaciones serias sobre vigilancia biométrica sin consentimiento informado.

Entre tanto, en Argentina, el abogado Daniel Monastersky, experto en protección de datos, ha alertado a la Agencia de Acceso a la Información Pública sobre la posibilidad de que WorldCoin esté infringiendo la ley de protección de datos personales del país y no esté cumpliendo con los estándares de privacidad y seguridad al recolectar datos biométricos de las personas.

La línea roja de escanear el iris

Para WorldCoin (“MundoMoneda” si hacemos una traducción literal), la identidad digital es una herramienta básica para garantizar la seguridad y la confiabilidad de las transacciones de criptomonedas. Para garantizar que cada participante sea una persona real, escanea su iris con un dispositivo llamado Orb y lo convierte en un código alfanumérico. Si la persona aún no se había registrado en WorldCoin, recibe una participación cuando se registra por primera vez.

Orb, la esfera plateada de WorldCoin que escanéa el iris de los usuarios. Fuente: WorldCoin, CC BY-SA

En el contexto de las criptomonedas, la identidad digital juega un papel esencial, dado que garantiza que las partes involucradas sean quienes afirman ser, lo que ayuda a prevenir el fraude y el robo. Por ejemplo, cuando un usuario de criptomonedas desea enviar fondos a otro usuario, debe proporcionar su identidad digital al destinatario. El destinatario puede, luego, verificar la identidad del usuario utilizando su identidad digital. Una vez que la identidad del usuario ha sido verificada, el destinatario puede aceptar los fondos.

La imagen original de los iris no se almacena ni se carga y no es necesaria otra información personal. A través de la criptografía moderna, este código alfanumérico no está vinculado ni a la tarjeta, ni a la cuenta bancaria ni a las transacciones del usuario, lo que protege aún más su privacidad.

Una vez que WorldCoin ha recibido un escáner de iris único, el proyecto emite una identidad digital denominada World ID. El ID no son los datos biométricos del usuario, sino un identificador creado mediante un método criptográfico denominado pruebas de conocimiento cero.

No obstante, esto no significa que no haya peligros.

La parte frontal de la placa base de Orb, la esfera plateada que escanea el iris de los usuarios de WorldCoin. Fuente: WorldCoin, CC BYEl nuevo DNI en WorldCoin

Las zero-knowledge proofs o pruebas de conocimiento cero son un tipo de criptografía que permite a una parte (el prover) demostrar a otra (el verifier) que algo es cierto, sin revelar ninguna información adicional.

Funcionan mediante interacciones cuidadosamente diseñadas en las que el prover responde preguntas del verifier. Al final, el verifier queda convencido de la veracidad de la afirmación, pero sin obtener datos confidenciales.

Se utilizan para validar transacciones preservando la privacidad. El prover demuestra que posee fondos para una transacción, sin exponer su saldo real. WorldCoin aplica este concepto a la identidad digital, permitiendo verificar usuarios sin compartir datos biométricos reales.

La promesa de una democratización de las finanzas

Bajo la promesa de una posible renta básica universal, WorldCoin ha despertado esperanzas, pero también suspicacias desde una perspectiva decolonial. Si bien la idea de una renta básica incondicional o universal suena atractiva, algunos críticos advierten sobre los riesgos de implementarla mediante recolección masiva de datos biométricos en países en vías de desarrollo. Esto podría perpetuar dinámicas coloniales donde potencias extranjeras extraen recursos y datos de poblaciones vulnerables.

Además, la falta de un marco regulatorio claro en muchos de estos países genera dudas sobre la violación de derechos y privacidad de los usuarios. La promesa de WorldCoin parece benigna, pero es crucial analizarla críticamente y asegurar que no replique injusticias del pasado en el contexto del colonialismo de datos.

Los gobiernos y ciudadanos de países en vías de desarrollo deben exigir transparencia, consentimiento informado y protección de datos antes de adoptar esta controvertida tecnología.The Conversation

Sobre el autor: Aníbal M. Astobiza, Investigador Posdoctoral, especializado en ciencias cognitivas y éticas aplicadas, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Para qué escanea el iris de millones de usuarios una aplicación de criptomonedas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La música de las rocas

Jue, 2023/08/17 - 11:59

Si alguna vez habéis golpeado una roca con un martillo geológico, habréis comprobado que no siempre se produce el mismo ruido. Obviamente, ese sonido depende, directamente, de la composición de esa roca. Os podéis encontrar con algo parecido a un «chof» apagado y sordo si machacáis una arcilla, pero también seréis capaces de desvelar un agudo sonido metálico al hacer chocar vuestro acero inoxidable con un sulfuro de hierro que os transportará a las melodías que se desprenden en una forja. Esto que a veces nos sirve en el campo a las personas que nos dedicamos a la Geología para hacernos una primera idea, muy burda y grosera, de los materiales que nos encontramos en nuestra investigación, se ha trasladado incluso al mundo de la música. Y no me estoy refiriendo a emplear diferentes aleaciones metálicas para construir instrumentos musicales, sino a utilizar directamente rocas para jugar con los sonidos que producen y generar así melodías muy particulares.

Detalle de la txalaparta de piedra del grupo musical Oreka TX, construida con lajas de roca pizarra.Fuente: OrekaTX

Un ejemplo muy directo y, probablemente, el más conocido entre la gente del norte de la Península Ibérica, lo encontramos en un grupo de música folk del País Vasco llamado Oreka TX. Este grupo se caracteriza por emplear instrumentos musicales tradicionales de la cultura vasca, en especial la txalaparta. Para que os hagáis una idea, una txalaparta es una especie de xilófono de grandes dimensiones que se toca por, al menos, dos personas puestas en pié y que dejan caer dos grandes palos de manera vertical sobre las tablas de madera que conforman el instrumento. Pues hace unos años este grupo decidió innovar un poco y crearon la primera txalaparta de piedra, en concreto, formada a partir de láminas de una roca metamórfica denominada pizarra. La pizarra procede de la transformación de una roca sedimentaria siliciclástica como la arenisca (formada principalmente por granos de cuarzo o SiO2) debido a la presión y la temperatura sufridas por su enterramiento durante millones de años. Y tiene una característica que la hace muy especial y útil para el ser humano denominada pizarrosidad: aparece formando planos muy finos a través de los cuales es muy fácil separar lajas o láminas de la roca, por lo que se ha empleado durante siglos como cubiertas de paredes y tejados en nuestros edificios. Pero esta debilidad a lo largo de las superficies planares se convierte en una enorme resistencia ante la presión en dirección perpendicular a las mismas. Vamos, que si golpeamos una pizarra de manera vertical en la superficie formada a 90 grados de sus planos de debilidad, nos va a costar mucho fracturarla. Pues Oreka TX aprovechan esta propiedad de la roca, creando láminas de pizarra de diferentes grosores y longitudes a las que golpean con fuerza en la vertical, arrancando curiosas melodías de las rocas. El sonido que desprende esta txalaparta, comparado con los que se obtienen de una tradicional de madera, es mucho más agudo, vibrante y profundo, transportándonos, si me permitís que me ponga un poco poética, a los ruidos que nos regala el agua goteando lentamente en la profundidad de una cueva.

Tubos de piedra del órgano inacabado de Novelda construidos en “mármol Rojo Alicante” y expuestos en el Santuario de Santa María Magdalena. Foto: Blanca María Martínez

Os he puesto de ejemplo un instrumento de percusión, el tipo de instrumentos en los que podemos pensar si hablamos de usar rocas para hacer música. Pero, ¿os imagináis que pueda existir un instrumento de viento o, mejor dicho y para ser más correcta, un instrumento de aire insuflado mediante un teclado construido en piedra? Pues para conocerlo debemos viajar al levante español, en concreto, a la localidad alicantina de Novelda. Allí, a los pies de su muralla medieval, se encuentra el Santuario de Santa María Magdalena, una iglesia de estilo modernista que recuerda mucho a la Sagrada Familia de Barcelona. En su interior se encuentra un inacabado órgano cuyos tubos están tallados en piedra. En concreto, se ha empleado una roca extraída de los alrededores y que recibe el nombre comercial de «mármol Rojo Alicante».

Detalle de un afloramiento de calizas rojas jurásicas de los alrededores de Novelda de las que se extrae la roca ornamental “mármol Rojo Alicante”. Foto: Blanca María Martínez

Se trata de una roca sedimentaria carbonatada, es decir, una caliza, formada en un ambiente marino poco profundo, de aguas transparentes, cálidas y bien oxigenadas del Jurásico, que suele presentar un abundante contenido fósil, entre el que destacan unos cefalópodos de concha enrollada llamados ammonites, muy similares a los actuales nautilus, y unos de concha recta, antecesores de los recientes calamares, denominados belemnites. La denominación de «rojo» procede de la presencia de hierro en el sedimento carbonatado original, cuya oxidación ha proporcionado a la roca unos tonos anaranjados cuyo brillo destaca una vez pulidas las losas. Como os comento, el órgano está sin terminar, pero tienen expuestos en el Santuario los tubos ya fabricados, dentro de los que insuflan aire para que las personas visitantes podamos apreciar su sonido. Y, de nuevo, me resulta muy difícil describirlo, porque su tonalidad es completamente diferente al sonido producido por cualquier órgano común construido con tubos de metal. Si le sumamos la reverberación y el eco generados por el edificio, en el que también han empleado diversas rocas ornamentales típicamente explotadas en los alrededores, como el propio «mármol Rojo Alicante», el efecto que produce este particular instrumento de piedra te transporta a los sonidos primordiales generados por la naturaleza.

La existencia de estos instrumentos de piedra nos hace viajar, de nuevo, a nuestros orígenes. Cuando quienes nos precedieron golpeaban dos rocas entre sí para generar fuego o construir herramientas, descubrieron que también podían crear sonidos armoniosos y con diferentes timbres y tonos dependiendo de su composición. Al menos, yo imagino el origen de la música de esta manera. Un arte que luego se ha ido perfeccionando con el tiempo hasta convertirse en algo indispensable para nuestra vida actual. Y el motivo por el que yo viaje una semana todos los años a la provincia de Alicante durante el mes de agosto, lo que me ha permitido conocer y disfrutar de su órgano de piedra, uniendo así dos de mis pasiones. Sin duda, como siempre digo, la Geología está en todas partes, hasta en los instrumentos musicales.

Agradecimientos:

Quiero dar las gracias a Francisco «Patxy» García Garmilla, Catedrático jubilado de Petrología Sedimentaria de la Universidad del País Vasco, magnífico profesor y mejor persona, por dar a conocer la existencia del órgano de piedra de Novelda durante una conferencia magistral que impartió con motivo de una Sesión Científica de la Sociedad Geológica de España celebrada en Leioa. Y a mi mejor amiga, Jone Mendicoa, por acompañarme a visitar el Santuario de Santa María Magdalena de Novelda durante nuestras vacaciones para disfrutar de los sonidos de la piedra, junto a muchos otros sonidos de metal, y darme la idea de escribir este artículo.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo La música de las rocas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Usando la lógica para encontrar al pez

Mié, 2023/08/16 - 11:59

Estamos en Sumerlandia. Un ladrón ha entrado de noche en el acuario de esta ciudad y ha robado el último ejemplar conocido del pez dorado de Sumerlandia.

pezEl pez dorado de Sumerlandia, adaptado a partir de la imagen de un carpín de Wikimedia Commons.

La policía de la ciudad ha seguido el rastro dejado por el ladrón hasta la calle Five que posee cinco casas idénticas. No tienen suficientes agentes para entrar en todas las casas simultáneamente. Temen que, si entran en una de ellas y no es la del ladrón, este podría darse cuenta de que la policía le sigue de cerca y escaparía con el pez.

Las pistas recopiladas por la policía

Los agentes de policía han investigado a las personas que habitan estas cinco casas y conocen una serie de datos sobre ellas. Saben que:

  • el dueño de cada casa es de una nacionalidad distinta (alemán, británico, danés, noruego y sueco), bebe una bebida diferente (agua, café, cerveza, leche y té) y fuma un tipo distinto de cigarro (Blend, Blue Masters, Dunhill, Pall Mall y Prince);

  • cada casa tiene las paredes interiores pintadas de un color diferente (amarillo, azul, blanco, rojo y verde); y

  • en cada casa habita, además del dueño, un animal distinto (caballo, gato, pájaro, perro y pez).

Y, gracias a sus indagaciones conocen también algunos datos adicionales sobre estas personas. Saben que:

  1. el británico vive en la casa pintada de rojo;

  2. el sueco tiene un perro como mascota;

  3. el danés bebe solo té;

  4. la casa verde está situada justo a la izquierda de la blanca;

  5. el dueño de la casa verde toma café a todas horas;

  6. el fumador de cigarrillos de la marca Pall Mall tiene un loro como mascota;

  7. el dueño de la casa amarilla fuma cigarros Dunhill;

  8. el hombre que vive en la tercera casa bebe leche;

  9. el noruego vive en la primera casa;

  10. el que fuma cigarros de la marca Blend vive junto al que habita con un gato;

  11. el que tiene un caballo vive junto al fumador de Dunhill;

  12. el hombre que fuma Blue Masters bebe cerveza;

  13. el alemán fuma cigarros de la marca Prince;

  14. el noruego tiene como vecino al de la casa pintada de azul; y

  15. el fumador de Blend vive junto a un hombre que solo bebe agua.

¿Podrías ayudar a la policía a encontrar al pez?

Usando la lógica para encontrar al culpable… y al pez

Vamos a construir una tabla 6×6 en la que vamos a ir incorporando la información que vamos deduciendo al analizar los datos:

pez

La solución que se plantea aquí, extraída de la referencia, usa las pistas en un orden determinado. Así, empezamos añadiendo a la tabla anterior la información proporcionada por las pistas 8 y 9.

Como el noruego está al principio de la calle, solo tiene una casa vecina, que es la de paredes azules según la pista 14.

La pista 5 dice que el hombre que vive en la casa verde bebe café. Esa no puede ser la tercera casa, porque ya sabemos (por la pista 8) que su propietario toma leche. Pero tampoco puede ser la segunda casa porque acabamos de ver que ésa tiene paredes azules. Además, la pista 4 afirma que la casa pintada de verde está justo a la izquierda de la de paredes blancas, así que no puede ser ni la primera (porque a su derecha está la casa azul) ni la quinta casa (que no está a la izquierda de ninguna). Así, la casa de paredes verdes y el bebedor de café es la cuarta casa. Y, por tanto, la casa blanca es la quinta.

La pista 1 dice que el británico vive en la casa roja. Así que esa casa debe ser la tercera (no puede ser la primera porque su dueño es noruego).

De aquí se deduce que la primera casa debe de ser amarilla, el único color que faltaba. Y usando la pista 7, sabemos que su propietario fuma Dunhill.

La pista 11 afirma que el dueño del caballo vive junto al fumador de Dunhill. Como ese hombre vive en la primera casa, el caballo trota en el jardín de la segunda casa.

¿Y qué bebe el habitante de la primera casa? Recordemos que es noruego. Solo nos quedan tres bebidas para analizar: agua, cerveza o té. Pero no puede beber té, porque la pista 3 dice que el amante del té es danés. Además, la pista 12 afirma que el bebedor de cerveza fuma Blue Masters. Así, concluimos que el noruego de la primera casa bebe agua.

La pista 15 asegura que el que fuma Blend vive junto al bebedor de agua. Como ése habita en la primera casa, el fumador de Blend es el de la segunda casa.

La pista 12 afirma que el hombre que fuma Blue Masters bebe cerveza. Y debe ser entonces el de la quinta casa, porque la quinta columna de nuestra tabla es la única en la que no hay asignada la bebida y la marca de cigarros. Así, la única bebida no asignada, el té, debe corresponder al habitante de la segunda casa, que por la pista 3, es la casa del danés.

La cuarta casa es la única que no tiene asignadas la nacionalidad y la marca de cigarros. Podemos usar la pista 13 para deducir que es esa casa vive un alemán que fuma cigarros de la marca Prince. Y sólo nos queda una marca de cigarros por asignar, Pall Mall, que es la marca del británico de la tercera casa. Por lo tanto, el sueco (la única nacionalidad por asignar), debe vivir en la quinta casa.

La pista 6 dice que el que fuma Pall Mall, el propietario de la tercera casa, tiene a un pájaro como mascota. Y la pista 2 asegura que el sueco, el de la quinta casa, tiene un perro como compañero.

Solo nos queda por usar la pista 10, que afirma que el hombre que fuma cigarros de la marca Blend (el de la segunda casa) vive junto al que habita con un gato. En la tercera casa la mascota es un pájaro, así que el gato vive en la primera casa.

pez

¡El ladrón es el alemán que vive en la cuarta casa! ¡Resuelto el enigma!

Referencia

Visto y adaptado de la lección TED-Ed del profesor de matemáticas Dan Van der Vieren titulada ¿Puedes resolver el «Acertijo de Einstein»?

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Usando la lógica para encontrar al pez se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

La transición vítrea observada en tiempo real

Mar, 2023/08/15 - 11:59

Desde la fabricación de fármacos, dispositivos electrónicos o materiales de alta tecnología a la criopreservación de proteínas, células y tejidos vivos, el conocimiento de qué sucede cuando un vidrio se calienta y pasa a una fase líquida subenfriada es de vital importancia. La llamada transición vítrea ha sido observada primera vez en tiempo real en un microscopio.

transición vítreaImagen de la corrugación superficial provocada por el proceso de transición vítrea obtenida por primera vez mediante microscopía de fuerza atómica. Fuente: UAB

Los vidrios son materiales sólidos con una estructura tan desordenada que podrían considerarse como líquidos de una viscosidad extraordinariamente elevada. Los encontramos en las ventanas, en las pantallas de televisión y en los dispositivos móviles, en la fibra óptica, en materiales industriales plásticos, y también en el estado que presentan proteínas, estructuras celulares y tejidos vivos cuando se congelan para criopreservarlos.

Pese a ser tan habituales, es muy difícil desarrollar teorías y modelos que puedan explicar su comportamiento en detalle. Los mecanismos por los que un líquido se enfría y se transforma en un vidrio y a la inversa —cómo un vidrio se transforma en líquido al calentarse, la llamada transición vítrea— no terminan de entenderse. No se sabe a ciencia cierta si se trata de una transición de fase y se puede considerar el vidrio como un estado termodinámico diferente de los estados líquido y sólido, o si, por el contrario, el vidrio es simplemente un líquido subenfriado —enfriado por debajo de la temperatura de congelación pero manteniendo propiedades de líquido— cuyos átomos o moléculas tienen muy poca movilidad.

Una de las mayores dificultades para entender este proceso está en los desafíos que aparecen para poder visualizarlo a través del microscopio con suficiente resolución, ya que la estructura del líquido subenfriado y la del vidrio son indistinguibles a efectos prácticos.

Ahora, un equipo de investigación ha desarrollado una metodología que permite salvar esta dificultad. Ha trabajado con vidrios orgánicos ultraestables, que se preparan mediante evaporación térmica. Son más densos y exhiben una mayor estabilidad cinética y termodinámica que los vidrios convencionales obtenidos directamente a partir de líquidos.

A diferencia de los vidrios convencionales que, tal y como se ha visto hasta ahora, se transforman hacia el estado líquido de forma global, sin distinciones claras entre diferentes regiones del material, estos vidrios ultraestables hacen la transición hacia un estado líquido subenfriado de modo similar a como lo hacen los sólidos cristalinos cuando pasan al estado líquido, con la formación de zonas en fase líquida que van creciendo progresivamente. Se trata de un proceso que ya se ha descrito de forma indirecta mediante medidas de nanocalorimetría y que se ha observado solo en modelos computacionales.

transición vítreaEsquema de funcionamiento de la nueva metodología. Fuente: UAB

La nueva metodología consiste en crear un sándwich insertando el vidrio ultraestable entre dos capas de vidrio con una temperatura de transición más elevada. Cuando la capa de vidrio ultraestable se calienta por encima de su temperatura de transición, las inestabilidades que se producen en la superficie se trasladan a las capas exteriores del sándwich y pueden ser observadas directamente mediante un microscopio de fuerza atómica.

“Se trata de movimientos y compresiones muy pequeños, del orden de unos pocos nanómetros cuando comienza la transformación, pero lo suficientemente grandes como para poder ser medidos de forma precisa con un microscopio de este tipo, que monitoriza in situ las deformaciones de la superficie que aparecen por encima de la temperatura de transición”, explica Marta Ruiz Ruiz, primera autora del estudio.

De esta manera se puede seguir en tiempo real la ‘desvitrificación’ del vidrio. La metodología Permite cuantificar la dinámica del proceso de relajación en los cristales ultraestables hacia un líquido subenfriado mediante la medida directa de las distancias existentes entre los dominios líquidos que van apareciendo, mientras se observa la deformación de la superficie y su evolución a lo largo del tiempo. De esta forma se ha podido confirmar cómo estas distancias entre zonas líquidas son extraordinariamente grandes en este tipo de vidrio. También se ha podido comparar directamente los resultados de los modelos computacionales con la realidad física y determinar la correlación de estas distancias con las escalas de tiempo del material.

Referencia:

Ruiz-Ruiz, M., Vila-Costa, A., Bar, T. et al. (2023) Real-time microscopy of the relaxation of a glass. Nat. Phys. (2023). doi: 10.1038/s41567-023-02125-0

Edición realizada por César Tomé López a partir de materiales suministrados por la Universitat Autònoma de Barcelona.

El artículo La transición vítrea observada en tiempo real se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Trasplante fecal para reforzar al sistema inmunitario frente al cáncer

Lun, 2023/08/14 - 11:59

En el interior de nuestro cuerpo existe un mundo microscópico de gran complejidad que apenas se ha explorado: la microbiota intestinal, el conjunto de microorganismos (virus, bacterias, hongos, arqueas y diversos parásitos) que residen en el tracto gastrointestinal. Consta de miles de millones de microbios que suelen vivir en armonía con nosotros y que pueden llegar a tener un peso de en torno a 500 gramos. Este vasto ecosistema microscópico desempeña varias funciones vitales como la protección frente a la invasión de bacterias perjudiciales o la producción y absorción de determinados nutrientes como la vitamina K y varias vitaminas del grupo B.

Foto: danilo.alvesd / Unsplash

La microbiota intestinal (conocida erróneamente como «flora intestinal» en la cultura popular) ha recibido un gran interés científico y médico en la última década. Los amplios avances en las tecnologías para estudiar el genoma de la inmensa variedad de microorganismos que colonizan el tracto intestinal han permitido empezar a conocer cómo estos podrían modular aspectos tan diferentes de la salud como el riesgo de padecer obesidad,  alergias, diabetes tipo 2 o enfermedad inflamatoria intestinal. Sin embargo, la microbiota intestinal sigue siendo un gran misterio y multitud de especies que la pueblan (sobre todo virus) son desconocidas. De hecho, a día de hoy, ni siquiera sabemos qué es lo que diferencia a una microbiota sana de una enferma (salvo cuando existen infecciones por bacterias claramente patógenas), por la extrema variabilidad de la composición de esta entre distintas personas.

A pesar de nuestro limitado conocimiento de la microbiota intestinal, los científicos están desarrollando y evaluando potenciales tratamientos a partir de esta. En la actualidad, la terapia con más respaldo científico de entre todos ellos es el trasplante fecal para tratar a las personas que sufren una infección intestinal persistente por la bacteria Clostridioides difficile. Este microorganismo forma parte de la microbiota normal de muchísimas personas sin que cause ningún problema. No obstante, el uso de antibióticos y otros factores pueden destruir la microbiota normal y provocar que esta bacteria se expanda por el intestino y provoque graves enfermedades intestinales.

El pasado abril, la Administración de Alimentos y Medicamentos de los Estados Unidos aprobó el primer producto de microbiota fecal por vía oral para la prevención de la recurrencia de la infección por Clostridioides difficile. En España, la empresa biotecnológica Mikrobiomik está llevando a cabo un ensayo clínico en fase III en más de 20 hospitales para evaluar un medicamento basado en la microbiota intestinal con el mismo fin.

Microbiota fecal contra el cáncer

En los últimos años los investigadores han descubierto que la microbiota intestinal podría ser una aliada inesperada en al tratamiento de diferentes tipos de cáncer. En concreto, el trasplante de microbiota fecal (TMF) podría potenciar la respuesta del sistema inmunitario contra el tumor, en combinación con las inmunoterapias que también estimulan a este sistema defensivo. Este enfoque se está evaluando actualmente en múltiples ensayos clínicos a lo largo del mundo.

Uno de los estudios más importantes y pioneros, que despertó el furor sobre la microbiota fecal contra el cáncer, apareció en la revista Science en 2020. Los autores evaluaron por primer primera vez en un ensayo clínico (fase I) la respuesta de diez pacientes con melanoma y metástasis al TMF en combinación con un tratamiento de inmunoterapia al que no respondieron antes. El pronóstico de un melanoma en un estadio tan avanzado suele ser muy pobre,  la gran mayoría de los afectados no llega a sobrevivir ni 5 años. Las inmunoterapias son una opción para estos pacientes, pero no todos responden: en el 40-50% de los pacientes estas no resultan eficaces y se sospecha que la microbiota intestinal podría influir en la respuesta.

En el citado estudio, de aquellos que recibieron el novedoso trasplante, dos respondieron de forma parcial al tratamiento combinado y uno de forma completa, a pesar de que previamente no habían mostrado una respuesta positiva a la inmunoterapia. Además, diversas pruebas sugerían que el TMF había estimulado al sistema inmunitario para atacar con más eficacia al tumor.

Aunque el estudio anterior no nos permite asegurar que la aplicación de microbiota fecal sea una opción eficaz frente al cáncer, por sus importantes limitaciones (pocos pacientes y sin grupo control), sí que plantea indicios de que podría serlo. Desde la publicación de dicho ensayo han ido apareciendo resultados de más investigaciones que respaldan el valor del TMF. Ahora, un reciente estudio, publicado en la revista Nature Medicine, refuerza la idea de que esta novedosa estrategia terapéutica realmente podría potenciar los tratamientos de inmunoterapia.

En esta ocasión, los investigadores administraron a 20 pacientes con melanoma avanzado (sin haber recibido tratamiento previo) TMF de donantes sanos e inmunoterapia (nivolumab o pembrolizumab). En concreto, los voluntarios recibieron en una sola sesión en torno a 40 cápsulas con microbiota fecal una semana antes del comienzo de la inmunoterapia. El ensayo no solo mostró que el TMF es un tratamiento seguro, sino que también encontró resultados prometedores: el 65 % de los pacientes que conservaban la microbiota recibida tenían una respuesta clínica al tratamiento combinado. Sin embargo, cinco pacientes tuvieron que cesar el tratamiento de inmunoterapia por eventos adversos.

El mismo grupo de científicos ya ha puesto en marcha la fase II del ensayo clínico para conocer mejor los efectos del TMF, en combinación con la inmunoterapia, sobre el melanoma. Además, el equipo también está investigando el efecto de esta novedosa estrategia terapéutica en cáncer de pulmón, pancreático y de riñones. Sin duda, en los próximos 10 años vamos a conocer con mucha más profundidad el potencial del TMF frente al cáncer.

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo Trasplante fecal para reforzar al sistema inmunitario frente al cáncer se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

El entorno cultural de niños y niñas influye en el desarrollo de sus rasgos prosociales

Dom, 2023/08/13 - 11:59

prosociales

prosocialesFoto: Mieke Campbell / Unsplash

Los seres humanos somos animales cooperativos. En general, lo somos más que otros primates, aunque hay importantes diferencias entre culturas y, seguramente, también entre épocas históricas. Aún hoy no somos capaces de determinar si el comportamiento prosocial, o cooperativo, es simplemente consecuencia de las relaciones de parentesco y de las expectativas de reciprocidad o si, además de esos dos, actúan otros factores.

La transmisión cultural en el seno de grupos humanos es un mecanismo fundamental en la adopción por sus integrantes de las normas sociales de las que depende el comportamiento cooperativo. Los modelos matemáticos basados en los principios de la coevolución genético-cultural predicen que las diferencias de comportamiento prosocial entre grupos humanos han de ser más pronunciadas cuanto mayores son los costes de la cooperación, y que esas diferencias han de aparecer conforme los niños adquieren las normas en sus respectivas comunidades. Por esa razón es importante estudiar la ontogenia de la prosocialidad. Con ontogenia, me refiero a la variación que ocurre a lo largo de la vida del individuo (normalmente de su morfología o estructura), y suele utilizarse en contraste con filogenia, que describe la historia evolutiva de un grupo de individuos. Ontogenia es un término procedente de la biología del desarrollo, y aquí se utiliza haciendo una extensión de su campo semántico al ámbito del comportamiento.

Un equipo de investigación ha sometido a contraste las predicciones de los modelos de coevolución genético-cultural [1], estudiando experimentalmente grupos de individuos de diferentes edades (entre 3 y 14 años, y también adultos) pertenecientes a seis sociedades humanas muy diferentes entre sí. Los grupos humanos investigados fueron urbanitas de Los Ángeles (EEUU), horticultores y recolectores marinos de la Isla Yasawa (Islas Fiji), cazadores-recolectores Aka (República Centroafricana), pastores y horticultores Himba (Namibia), horticultores Shuar (Ecuador), y cazadores-recolectores Martu (Australia). Los experimentos se basaron en juegos similares a algunos de los propios de teoría de juegos (se pueden consultar en la referencia original).

Los niños y niñas de menor edad (entre 4 y 6 años) tenían comportamientos prosociales muy similares en las diferentes sociedades estudiadas. Dado que el aprendizaje social modela el comportamiento infantil ya desde muy temprano, el hecho de que hubiese mínimas diferencias entre los más pequeños de distintas culturas quiere decir que no es el aprendizaje social temprano el que determina las diferencias que se observan posteriormente entre culturas, sino que esas diferencias han de tener su origen en periodos vitales posteriores.

Efectivamente, el comportamiento cooperativo empieza a divergir entre poblaciones (entre culturas) a partir de los 6 o 7 años de edad, y las diferencias se van afianzando durante lo que se considera la infancia media, esto es, desde los 6-7 años y hasta la madurez sexual. Esto sugiere que los chicos y chicas de esas edades empiezan a ser sensibles a la información propia de cada sociedad acerca de la forma de comportarse en situaciones de cooperación costosa. No es en absoluto sorprendente que el intervalo de edades en que se produce la divergencia sea, precisamente, un periodo clave en el desarrollo cognitivo humano, ya que es en el que niños y niñas se incorporan a la comunidad cultural más amplia a la que pertenece su familia. Por eso, se trata de un periodo especialmente importante desde el punto de vista de la acomodación o adaptación a las normas sociales locales.

El comportamiento prosocial que se va diferenciando entre chicos y chicas de distintas culturas a partir de los 6 y 7 años es, sobre todo, el que conlleva costes. Esta observación coincide con las predicciones de los modelos de coevolución genético-cultural que se han citado antes, en el sentido de que las normas sociales e institucionales ejercen una mayor influencia cuando el comportamiento beneficioso para el grupo es costoso y, por lo tanto, más difícil de poner en práctica y mantener en el tiempo.

Por último, el comportamiento prosocial se desarrolla de forma diferenciada dependiendo del contexto cultural en el que se desenvuelven los niños y niñas y adolescentes. Los comportamientos cooperativos que conllevan costes empiezan a divergir a partir de los 6 o 7 años de edad, y esa divergencia es la que se acaba manifestando en las edades adultas. Por lo tanto, no cabe considerar un único modelo de desarrollo ontogenético de la prosocialidad en nuestra especie, sino que resulta ser muy dependiente del contexto cultural.

Fuente: B. R. House, J. B. Silk, J. Henrich, H. C. Barrett, B. A. Scelza, A. H. Boyette, B. S. Hewlett, R. McElreath y S. Laurence (2013): «Ontogeny of prosocial behavior across diverse societies». PNAS 110 (36): 14586-14591

Nota:

[1] En la evolución humana intervienen, de forma interactiva, elementos de carácter genético y de naturaleza cultural. Es lo que se conoce como coevolución genético-cultural. En virtud de esa coevolución, los mecanismos de transmisión genética y de transmisión cultural interaccionan dando lugar a la adopción y extensión, en dominios muy diferentes, de rasgos con valor adaptativo.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El entorno cultural de niños y niñas influye en el desarrollo de sus rasgos prosociales se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Bacterias magnetotácticas con funcionalidades mejoradas

Vie, 2023/08/11 - 11:59

El grupo de Magnetismo y Materiales Magnéticos de la UPV/EHU lleva más de una década trabajando con bacterias magnetotácticas, un grupo de bacterias acuáticas que en su entorno natural sintetizan cristales de magnetita (un mineral de hierro), que actúan como brújulas y posibilitan que estas bacterias se orienten y naveguen a lo largo de las líneas del campo magnético terrestre.

“Las funcionalidades intrínsecas de estas bacterias hacen que sean muy interesantes para el ámbito clínico, ya que tienen todas las características que se necesitan para ser utilizadas como nanorrobots. Además de poder guiarlas mediante campos magnéticos a la zona a tratar, numerosos trabajos han demostrado el potencial que las bacterias magnetotácticas tienen para ser utilizadas en diferentes prácticas, como la hipertermia magnética (una terapia contra el cáncer), como portadores de fármacos y como agentes de contraste para imágenes por resonancia magnética”, detalla Lucía Gandarias Albaina, investigadora del grupo de investigación y primera autora del presente estudio.

No obstante, estas bacterias presentan una dificultad: “No son fáciles de modificar; sus interesantes características las tienen de forma intrínseca, pero no resulta sencillo introducir nuevas funcionalidades”, señala la investigadora. Una de las estrategias que se sigue en este sentido reside en enriquecer el medio de cultivo con ciertas sustancias, y ver el efecto que esto tiene en las bacterias.

El equipo de investigación se propuso estudiar el efecto que tendría añadir terbio (Tb) y gadolinio (Gd) en el medio de cultivo de la bacteria Magnetospirillum gryphiswaldense, es decir, “cómo cambiaría el potencial de esta bacteria como agente biomédico al incorporar estos elementos”, precisa Gandarias.

BacteriasImágenes de la bacteria Magnetospirillum gryphiswaldense (referida como MSR-1). Izquierda: imágenes obtenidas con microscopía electrónica de transmisión donde se puede ver en detalle de la cadena de magnetosomas dentro de la bacteria. Resto de imágenes: imágenes de microscopía de fluorescencia de rayos X donde se observa la localización del hierro (que coincide con la cadena de magnetosomas) y el terbio/gadolinio (que se distribuye por toda la bacteria). Estas imágenes fueron obtenidas en la línea I14 del sincrotrón Diamond Light Source (Didcot, Reino Unido).Agentes biomédicos con capacidades diagnósticas mejoradas

La internalización del terbio y el gadolinio por parte de las bacterias trajo la aparición de nuevas funcionalidades. Así lo describe la investigadora: “En nuestros análisis vimos, por un lado, que el terbio convierte las bacterias fluorescentes, por lo que podrían ser utilizadas como biomarcadores, ya que sería posible rastrear dónde se encuentran. Por otro lado, comprobamos que, al incorporar el gadolinio, las bacterias adquieren carácter de agentes de contraste duales para resonancias magnéticas, que es hacia donde se están dirigiendo las investigaciones en este campo de estudio”.

Es conocido que la resonancia magnética requiere que la persona que se va a someter a ella tome agentes de contraste, una clase de productos que mejoran la diferenciación por imagen entre el tejido normal y el dañado y facilitan el diagnóstico. Actualmente se utilizan dos tipos de contraste, los positivos, o T1, que son los más utilizados y están basados en compuestos de gadolinio, y los negativos, o T2, que son nanopartículas de óxido de hierro. “Dado que nuestras bacterias ya contaban con partículas de hierro como parte de sus partículas magnéticas y son capaces de integrar gadolinio del medio de cultivo, pueden funcionar como agentes de contraste duales”, explica Gandarias. Porque la aparición de las nuevas funcionalidades descritas no ha hecho desaparecer las que previamente tenían.

A la vista de estos resultados, la investigadora augura un futuro muy prometedor para el uso de bacterias en la práctica clínica: “Aunque estamos en los inicios, se está trabajando en el uso de bacterias para tratamientos contra el cáncer; hay muchos estudios en diferentes fases. En nuestro caso, en las pruebas in vitro realizadas hemos comprobado que las bacterias no son tóxicas para las células, lo cual nos permitirá continuar estudiando en esta línea”.

Referencia:

Lucía Gandarias, Elizabeth M. Jefremovas, David Gandia, Lourdes Marcano, Virginia Martínez-Martínez, Pedro Ramos-Cabrer, Daniel M. Chevrier, Sergio Valencia, Luis Fernández Barquín, M. Luisa Fdez-Gubieda, Javier Alonso, Ana García-Prieto & Alicia Muela (2023) Incorporation of Tb and Gd improves the diagnostic functionality of magnetotactic bacteria Materials Today Bio doi: 10.1016/j.mtbio.2023.100680

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Bacterias magnetotácticas con funcionalidades mejoradas se ha escrito en Cuaderno de Cultura Científica.

Categorías: Zientzia

Páginas