Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 29 min 29 sec ago

Las microestufas de los pájaros

Thu, 2021/09/02 - 11:59
Carbonero garrapinos (Periparus ater). Ilustración: María Lezana

Muchas veces, cuando estoy en leyendo o trabajando, levanto la vista del libro a de la pantalla y miro al exterior para descansar. A veces miro a lo lejos, hacia el Ganeko o el Pagasarri, y otras contemplo a los gorriones y otros pajarillos que visitan mi terraza y que van de un lado para otro, dando pequeños saltos. En los días fríos, desapacibles, a menudo lluviosos, tan frecuentes en nuestros inviernos y comienzos de primavera, los gorriones tienen una apariencia curiosa. Parecen haber engordado de repente, de un día para otro. Más que gorriones, parecen pelotas de tenis con pico y patas. Solo lo parecen; ese aspecto no tiene nada que ver con que estén más o menos gordos, con que tengan más o menos depósitos de grasa.

El aspecto esférico que adoptan no es sino el resultado de cómo disponen el plumaje. Al adoptar esa disposición se aíslan del exterior y evitan de esa forma perder demasiado calor. Expanden plumas y plumones y generan así una amplia capa alrededor de su cuerpo. Es una capa de aire, el que queda retenido entre los filamentos más finos de las plumas. Además, la forma esférica es la que, en términos relativos, menos superficie expone al exterior, por lo que minimiza también la fuga de calor corporal.

Las aves son homeotermas y para regular su temperatura corporal deben, cuando hace frío, evitar una pérdida excesiva de calor. El aire es mal conductor térmico, mucho peor que el agua. Pero pueden llegar a perder mucho calor si el aire se mueve, si hace viento, por ejemplo. Por esa razón, al generar una capa de aire de cierto espesor que permanece estancado entre plumas y plumones, se minimiza mucho esa pérdida. No es casual que se haya recurrido a las plumas para rellenar el interior de fundas de ropa de abrigo o de cama: el aire que retienen en su interior es la mejor garantía de un excelente aislamiento. Imitamos, sí, a las aves.

Como decía, para las aves es un mecanismo muy útil, y sobre todo para los pájaros pequeños. Tienen, en proporción a su volumen o su masa, una superficie corporal muy grande, mayor que la de los animales grandes. Por esa razón los pequeños tienden a perder más calor y, por ello, contar con un buen aislamiento térmico en caso de necesidad es especialmente importante en estos animales.

Pero los pajarillos no solo se defienden del frío aislándose con el plumaje. Si, a pesar de ese aislamiento tan sofisticado, corren el riesgo de sufrir un descenso de su temperatura corporal, pueden recurrir a producir más calor de origen metabólico. Hasta la fecha se sabía que el músculo esquelético (los músculos del vuelo) de algunas aves elevan su intensidad metabólica en invierno, además de aumentar de tamaño, y que su capacidad para elevar la tasa metabólica máxima que pueden desarrollar, es un factor que determina su capacidad para vivir en lugares fríos. Pero hay más.

Las mitocondrias de sus glóbulos rojos1 y, probablemente, otros tejidos, elevan su metabolismo activando vías específicamente termogénicas. Esto es, elevan su metabolismo de manera que el flujo de protones que, en circunstancias normales, alimentaría la producción de ATP al moverse a favor de gradiente electroquímico desde el espacio intermembranal hasta la matriz mitocondrial, no se produce a través de la sintetasa de ATP de la membrana interna de la mitocondria y, de esa forma, la energía se disipa en forma de calor. Es el mismo “truco” que utiliza la grasa parda (o marrón) de los mamíferos, ese tejido lleno de capilares sanguíneos y mitocondrias que sirve para mantener caliente el cuerpo de los bebés humanos, el de los cetáceos, y para producir el calor que necesitan los mamíferos hibernantes en sus despertares.

En un estudio con el herrerillo (Cyanistes caeruleus), el carbonero común (Parus major) y el carbonero garrapinos (Periparus ater) han encontrado que en especial los dos carboneros, elevan el volumen y la respiración mitocondrial de los eritrocitos en la transición de otoño a invierno, y que ese aumento del metabolismo no conduce a una mayor síntesis de ATP, sino que refleja un desacoplamiento del transporte de electrones de aquella síntesis. De esta forma, y dado que ese desacoplamiento, como hemos visto en la grasa parda de los mamíferos, surte efecto termogénico, la consecuencia es una mayor producción de calor. Compensa así la mayor pérdida de calor en invierno.

Bien mirado, es lógico que los pajarillos dispongan de herramientas como esa. Dado su pequeño tamaño, un abrigo excelente no es suficiente para mantenerse calientes. Necesitan además una estufita interior. Los glóbulos rojos cumplen esa función; son microestufas circulantes, llevan el calor allí donde se necesita.

Fuentes:

Nord, A, Metcalfe, NB, Page, JL, Huxtable, A, McCafferty, DJ, Dawson, NJ. Avian red blood cell mitochondria produce more heat in winter than in autumn. The FASEB Journal. 2021; 35:e21490. https://doi.org/10.1096/fj.202100107R

Swanson, D.L., Vézina, F. Environmental, ecological and mechanistic drivers of avian seasonal metabolic flexibility in response to cold winters. J Ornithol 156, 377–388 (2015). https://doi.org/10.1007/s10336-015-1192-7

Nota:

1 En efecto, mitocondrias de los glóbulos rojos, porque los eritrocitos de las aves, a diferencia de los de mamíferos (salvo excepciones), sí tienen mitocondrias.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Las microestufas de los pájaros se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El ingenio de los pájaros, de Jennifer Ackermann
  2. La estufa interior
  3. La grasa de los cetáceos, abrigo y estufa a un tiempo
Categories: Zientzia

Constance Reid y Julia Robinson, las hermanas Bowman

Wed, 2021/09/01 - 11:59

 

Julia y Constance Bowman. Foto: Ralph Bowman. Fuente

 

Constance y Julia Bowman nacieron en San Louis (Misuri, EE. UU.) con casi dos años de diferencia; eran hijas de Ralph Bowman y Helen (Hall) Bowman. En 1921 falleció su madre; su padre se casó al poco tiempo y la familia se trasladó a San Diego (California). En 1924 nació su hermana Billie; Julia enfermó de escarlatina y tuvo que guardar una larga cuarentena lejos de su familia. Este problema temprano de salud –que se complicó con unas fiebres reumáticas– le impidió compartir más tiempo con sus hermanas y le provocó problemas cardíacos durante toda su vida. Pero Constance y Julia permanecieron siempre unidas.

Julia Robinson (1919-1985), la matemática cautivada por el décimo problema de Hilbert

Julia ingresó en 1936 en la Universidad Estatal de San Diego; era la única mujer siguiendo algunas materias como matemáticas o física. En 1939, animada por algunos profesores, se trasladó a la Universidad de California en Berkeley donde empezó a disfrutar de las matemáticas.

Julia Robinson. Fuente

 

En 1941 se casó con Raphael Robinson (1911-1995), su profesor de teoría de los números durante su primer año de carrera. Julia era en ese momento profesora asistente en Berkeley y tuvo que abandonar su puesto al prohibir la institución que los dos miembros de un matrimonio trabajaran en el mismo departamento. No le quedó más remedio que quedarse en su casa; aunque consiguió contratos esporádicos en algún otro departamento e institución. Al quedar embarazada, sus problemas de corazón empeoraron, perdió el niño que esperaba y le diagnosticaron poco tiempo de vida. El desánimo la llevó a refugiarse en las matemáticas.

A finales de 1942, Julia asistió a un seminario impartido por Alfred Tarski (1902-1983) en el que el matemático planteó un problema que ella le llevó resuelto dos días más tarde. Tarski le propuso realizar la tesis doctoral bajo su dirección y, en 1948, Julia presentó la memoria titulada Definability and Decision Problems in Arithmetic. En ella demostraba que los números enteros podían definirse aritméticamente en términos de números racionales mediante cierto tipo de operaciones.

Julia se interesó entonces por el décimo problema de Hilbert:

¿Existe un método que permita determinar, en un número finito de pasos, si una ecuación diofántica es resoluble en números enteros?

Es decir, David Hilbert (1862-1943) se preguntaba si había algún procedimiento universal para, dada una ecuación diofánticaecuación algebraica con coeficientes enteros de la que se buscan soluciones enteras– arbitraria, responder a la existencia de soluciones simplemente con un sí o un no.

En 1961, Julia Robinson publicó un artículo con Martin Davis (1928) y Hilary Putnam (1926-2016) –The decision problem for exponential diophantine equations– en el que introducían la que denominaban hipótesis de Robinson. Consistía en encontrar un cierto tipo de relación diofántica que implicaba necesariamente la no existencia del método aludido por Hilbert.

Introducción de “The decision problem for exponential diophantine equations”, Annals of Maths 74 (3) (1961) 425-443.

 

Julia siguió buscando una solución al problema hasta que, en 1970, el matemático Yuri Matiyasevich (1947) encontró una relación del tipo indicado en la hipótesis de Robinson usando los términos de la sucesión de Fibonacci. El teorema de Matiyasevich confirmaba la irresolubilidad del décimo problema de Hilbert. Con los mismos intereses científicos, Julia y Yuri colaboraron publicando algunos artículos.

Robinson realizó también una importante aportación a la teoría de juegos, demostrando que la dinámica de un jugador ficticio converge hacia un equilibrio de Nash en una estrategia mixta en el marco de un juego de suma cero con dos jugadores.

En 1976 Julia fue elegida miembro de la división de matemáticas de la National Academy of Science: fue la primera mujer en obtener este cargo. También fue la primera presidenta de la American Mathematical Society entre 1982 y 1984. Falleció debido a una leucemia el 30 de julio de 1985.

Constance Reid (1918-2010), la biógrafa de Hilbert y de su hermana entre otros matemáticos

En 1938 Constance se licenció en la Universidad Estatal de San Diego –obtuvo un Bachelor of Arts y conoció a futuro marido, Neil D. Reid, mientras estudiaba un máster en educación en la Universidad de California en Berkeley. Se casaron en 1950 y tuvieron dos hijos.

Constance Reid (2001). Foto: George Csicsery. Fuente

 

Trabajó como profesora de inglés y periodismo entre 1939 y 1950 y, tras su matrimonio, como escritora independiente.

En 1952 escribió su primer texto relacionado con las matemáticas; fue en la revista Scientific American: Perfect Numbers. El artículo comienza de una manera realmente sugerente: «Seis es uno de esos números: es la suma de todos los números que lo dividen excepto él mismo. En 2000 años se han encontrado doce números perfectos; ahora un ordenador ha descubierto cinco más.».

¿Por qué un artículo sobre este tipo de números? Julia había hablado a su hermana de uno de los primeros usos exitosos de la computadora electrónica digital SWAC: era un problema de teoría de los números en el que estaba trabajando su marido Raphael. El matemático había programado el test de primalidad de Lucas-Lehmer para determinar cuándo 2n−1 es primo para todos los primos n menores que 2304. Así, descubrió cinco números primos de Mersenne, los números primos más grandes conocidos en ese momento. Recordemos que si el número de Mersenne 2n–1 es primo, entonces 2n–1(2n–1) es un número perfecto par.

Uno de los editores de Scientific American invitó a Constance a escribir un libro sobre números. Y lo hizo; fue From Zero to Infinity: What Makes Numbers Interesting (1955).

Para escribir su primera biografía Constance se inspiró en un libro con breves reseñas de matemáticos relevantes: Men of Mathematics (1937) de Eric Temple Bell, que incluye anécdotas y detalles sobre la personalidad y el trabajo de sus protagonistas. Constance deseaba escribir un ensayo similar sobre matemáticos contemporáneos, pero quedó fascinada por David Hilbert (1862-1943) y escribió su biografía: Hilbert (1970). El matemático Freeman Dyson (1923-2020) decía sobre este libro:

Esta biografía entrelaza tres temas distintos. Presenta un emotivo retrato de un gran ser humano. Describe de forma precisa e inteligible, sin tecnicismos, el mundo de las ideas matemáticas en el que Hilbert creó sus obras maestras. E ilustra el trasfondo de la historia social alemana en el que se desarrolló el drama de la vida de Hilbert. […] Pero el libro es mucho más que una pieza de investigación histórica convencional. Más aún, es un poema en elogio a las matemáticas.

Algunas de las biografías escritas por Constance Reid.

 

Posteriormente, Reid escribió sobre otros matemáticos como Richard Courant (1888-1972) –Courant in Göttingen and New York: The Story of an Improbable Mathematician (1976)–, Jerzy Neyman (1894-1981) –Neyman—From Life (1982)– o Eric Temple Bell (1883-1960) –The Search for E.T. Bell, Also Known as John Taine (1993)–.

Aunque, sin duda, su biografía más personal fue la última, la dedicada a su hermana Julia y que escribió en primera persona: Julia, a Life in Mathematics(1996).

En 1987, Reid recibió el George Polya Award de la Mathematical Association of America por The Autobiography of Julia Robinson. En 1996 recibió el Beckenbach Book Prize por su biografía de Bell.Y en 1998 le concedieron el JPBM Communications Award por el conjunto de su trabajo dedicado a llevar información matemática precisa a un público no experto.

Constance Reid falleció el 14 de octubre de 2010, tras una larga enfermedad.

Como decíamos al principio, Constance y Julia permanecieron siempre unidas. Lo estuvieron como hermanas y como contribuidoras, cada una desde su formación, a la historia de las matemáticas.

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Constance Reid y Julia Robinson, las hermanas Bowman se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Gaston Julia y su ‘Grand Prix des sciences mathématiques’
  2. El problema de las flechas de Mahavira
  3. Pierre Fatou, un matemático poco (re)conocido
Categories: Zientzia

Los fenicios fueron los primeros en circunnavegar África hace más de 2500 años

Tue, 2021/08/31 - 11:59
En 2010 Phillip Beale, con la réplica de un barco fenicio, demostró que un barco así podía circunnavegar África.

Los fenicios contribuyeron muy significativamente al conocimiento antiguo en dos ámbitos principalmente: geografía y navegación. Los fenicios fueron los grandes marineros de la antigüedad, navegando en expediciones comerciales desde sus ciudades portuarias de Tiro, Sidón y Biblos en el Mediterráneo oriental. Abrieron toda la región mediterránea al comercio, navegando más allá del Estrecho de Gibraltar (los Pilares de Heracles) a finales del segundo milenio a.e.c.

Fundaron las ciudades portuarias de Cartago y Útica en el norte de África y Cádiz en España y los griegos estaban convencidos de que los fenicios habían creado la ruta comercial con Tartessos en la costa atlántica de la península ibérica. Fueron los fenicios de Cartago los encargados de crear un gran imperio comercial que se extendía desde el norte de África hasta Sicilia e Iberia y en el Atlántico desde las Islas Británicas hasta la costa occidental de África. La comprensión algo errática de Homero de la geografía en la Odisea debe mucho a la exploración fenicia.

Los griegos, que emergieron de su Edad Media en el siglo VIII a.e.c., tomaron prestado el alfabeto fenicio. Irónicamente, pocos registros sobreviven de las ciudades-estado fenicias, incluida Cartago. Las fuentes sobre la exploración y la ciencia fenicias son escritores griegos y romanos.

Fuente: Wikimedia Commons

Heródoto, escribiendo a mediados del siglo V a.e.c., describió en detalle a los pueblos del antiguo Oriente Próximo, registrando historias que había escuchado sobre los fenicios. Le dijeron, por ejemplo, que cuando el rey persa Jerjes marchaba contra los griegos en el 480 a.e.c., ordenó a los fenicios que construyeran un puente a través del Helesponto (el estrecho de los Dardanelos), el estrecho que separa Asia de Europa. Los constructores de puentes fenicios atravesaron el estrecho amarrando barcos juntos, uno al lado del otro, con gruesas cuerdas hechas de lino; finalmente colocaron enormes tablones a las cubiertas de los barcos que permitieron el paso de cientos de miles de tropas persas, la marabunta de servidores y comerciantes que seguía al ejército y todos los animales asociados a ambos grupos.

El mundo según Heródoto. Fuente: Wikimedia Commons

Heródoto también describió una de las más grandes expediciones de exploración de todos los tiempos. La conoció gracias a los egipcios, cuando viajó a Egipto para investigar para su libro. El faraón Necao II había ordenado, alrededor del año 600 a.e.c., a los marineros fenicios que descubrieran la extensión y la naturaleza de África, llamada por los griegos Libia. En el libro 4 de Historias, Heródoto narra el viaje de los fenicios, quienes zarparon desde el extremo norte del Mar Rojo, salieron al Océano Índico y prosiguieron a lo largo de la costa oriental de África. Sus pequeños barcos de madera eran lo suficientemente marineros como para navegar por las aguas someras cercanas a la costa. Heródoto afirma que haciendo gala de una excelente planificación y paciencia, hacían puerto al entrar el otoño, sembraban semillas, esperaban, exploraban y cazaban, recogían la cosecha y luego continuaban el viaje descansados, con la primavera bien entrada y bien provistos de alimentos. Emplearon más de dos años en hacer el viaje, durante el cual observaron y registraron sus hallazgos. Tras circunnavegar el continente, rodeando el Cabo de Buena Esperanza navegando de este a oeste, entraron en aguas del Atlántico y navegaron por la costa de África hasta el golfo de Guinea. Luego rodearon el cuerno de África, luchando contra los vientos y las corrientes contrarias, hasta llegar finalmente a los Pilares de Heracles y al Mediterráneo.

Una vez de regreso al río Nilo, informaron a Necao de un extraño fenómeno. Navegando hacia el oeste desde el océano Índico al Atlántico, rodeando el Cabo de Buena Esperanza, veían el sol en el lado de babor (a la derecha del sentido de avance) de sus barcos. Cuando Heródoto escuchó esto, se mostró incrédulo, sabiendo por su experiencia que los barcos que navegaban hacia el oeste en el Mediterráneo siempre tenían el sol a estribor (a la izquierda). De todos modos, registró la dudosa historia, proporcionando así a los observadores posteriores una clara evidencia de que los fenicios habían cruzado el Trópico de Capricornio hacia el hemisferio sur, donde para los viajeros que van de este a oeste, los rayos del sol siempre están hacia el norte.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los fenicios fueron los primeros en circunnavegar África hace más de 2500 años se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Hace 16 años ya: el hundimiento del Prestige
  2. Flores en su tumba, hace 16.000 años
  3. Técnicas artísticas de hace 40.000 años
Categories: Zientzia

15 años con el planeta enano Plutón

Mon, 2021/08/30 - 11:59

Carlos de la Fuente Marcos

Tras intensos debates en la comunidad astronómica mundial y a pesar de las protestas de muchos aficionados, el 24 de agosto de 2006 Plutón dejó de ser un planeta y pasó oficialmente a ser un planeta enano. Mientras se acaba de zanjar la polémica, este cautivador mundo helado se ha convertido en la primera etapa de una nueva época de descubrimientos en los confines del sistema solar.

Imagen de Plutón captada por la nave New Horizons de la NASA cuando pasó cerca de este planeta enano en julio de 2015. Fuente: NASA/JHUAPL/SwRI

Hace casi un siglo, el 14 de marzo de 1930, periódicos de todo el mundo se hacían eco del descubrimiento de Plutón con titulares como este: “Descubierto el noveno planeta al borde del sistema solar: el primero encontrado en los últimos 84 años”.

Su clasificación como planeta se mantuvo durante décadas, pero justo hace ahora 15 años, el 24 de agosto de 2006, pierde ese estatus y pasa a ser clasificado como ‘planeta enano’, tras un encendido debate en la XXVI Asamblea General de la Unión Astronómica Internacional (UAI) celebrada en Praga (República Checa) y la subsiguiente votación: 237 votos a favor del cambio, 157 en contra y 17 abstenciones.

Pocos acontecimientos han dividido tanto a la comunidad astronómica mundial, tanto aficionada como profesional, como la reclasificación de Plutón. Sin embargo, este tipo de reclasificaciones de objetos una vez que se ha comprendido mejor su naturaleza no es ajena a la historia de la propia astronomía.

Ahí está el caso de Ceres. Cuando Giuseppe Piazzi anunció su descubrimiento el 24 de enero de 1801, los únicos objetos del sistema solar conocidos eran los ocho planetas, algunas de sus lunas y los cometas. Lógicamente y tras calcularse su órbita con una precisión razonable, Ceres fue clasificado en principio como planeta.

Asteroides y planetas menores

Pero los años pasaron y aunque los libros y otros materiales educativos seguían hablando del planeta Ceres, la comunidad astronómica continuó encontrando objetos con propiedades similares. Herschel acuñó el término ‘asteroide’en 1802 para referirse a ellos, el almanaque británico The Nautical Almanac and Astronomical Ephemeris comenzó a denominarles ‘planetas menores’ en 1841, y el Observatorio Naval de EEUU como ‘pequeños planetas’ en 1868.

Las palabras asteroide y planeta menor fueron aceptadas rápidamente por la comunidad astronómica y las designaciones estándar (1 Ceres, 2 Palas, 3 Juno, etc.) para los asteroides fueron adoptadas en 1851.

No fue necesario realizar una votación oficial para reclasificar a Ceres. El tiempo y la ausencia de una directriz oficial posibilitaron una transición paulatina y sin traumas.

A medida que se produjeron nuevos descubrimientos, la comunidad astronómica comprendió que estos eran fundamentalmente distintos de los planetas conocidos y dejó paulatinamente de referirse a ellos como planetas, comenzando a llamarles asteroides, planetas menores o cuerpos menores, aunque esta última acepción también incluye a los cometas.

De hecho, es poco habitual encontrar en publicaciones del siglo XX referencias a Ceres o a alguno de los asteroides del cinturón principal como planetas. El caso de Plutón guarda cierto paralelismo con el de Ceres, aunque el primero haya sido reclasificado oficialmente.

Unos años antes, el 30 de agosto de 1992, David C. Jewitt y Jane X. Luu observando desde el observatorio de Mauna Kea en Hawái (EE UU) descubrieron 15760 Albion, cuya designación provisional fue 1992 QB1. Era la primera vez que se descubría un objeto tan distante como Plutón y la prensa no tardó en referirse a él como el décimo planeta.

Pero poco duró: cientos de los llamados objetos transneptunianos fueron descubiertos entre 1992 y 2006, cuando la UAI decidió reclasificar a Plutón. Algunos tienen órbitas similares a la suya, otros se mueven en trayectorias mucho más excéntricas y distantes.

Varios de los objetos transneptunianos descubiertos, en concreto Eris (cuyo estudio condujo al ‘destierro’ de Plutón como planeta), Makemake y Haumea, rivalizan en tamaño con Plutón o lo superan. Junto a Ceres, son los cinco planetas enanos.

Comparación aproximada de tamaños de los planetas enanos Plutón (con su satélite Caronte), Haumea, Eris, Makemake y Ceres respecto a la Tierra y la Luna. Fuente: NASA, ESA, JPL, A. Feild (STScI)

Plutón había dejado de ser un objeto único, peculiar o especial. Como Ceres, para muchos ahora estaba claro que es fundamentalmente diferente de los ocho planetas clásicos, aunque haya sido también visitado por nuestras sondas espaciales. En concreto, por la nave New Horizons de la NASA, que el 14 de julio de 2015 se aproximó a una distancia de 12.500 km de Plutón.

Sin embargo, su naturaleza misteriosa había cautivado durante décadas la imaginación tanto del público en general como de sectores de la comunidad astronómica. Un cambio drástico como el que se votó aquel 24 de agosto de 2006 tenía que ser necesariamente polémico y suscitar reacciones encontradas.

Pasar página a una controversia que sigue

Desafortunadamente, la controversia asociada a la decisión de reclasificar a Plutón como planeta enano todavía persiste quince años después. Quizás ya es hora de mirar hacia adelante y dejar de lado controversias improductivas. En su momento, Plutón representó el salto de una barrera, la de las 30 unidades astronómicas o UA (1 UA es la distancia media entre la Tierra y el Sol, y 30 es la distancia media entre Neptuno y el Sol).

Pero los nuevos descubrimientos nos han llevado mucho más allá, abriéndonos horizontes previamente inexplorados, despejando viejas incógnitas y trayéndonos infinidad de nuevas cuestiones a resolver.

La controversia de Plutón ha restado brillo al reciente cruce de una nueva barrera, la de las 100 UA que define de forma aproximada el denominado frente de choque de terminación y la heliopausa o frontera que separa el viento solar del medio interestelar.

El 17 de diciembre de 2018 se anunció el descubrimiento de 2018 VG18 o FarOut, el primero objeto del sistema solar encontrado a una distancia más allá de 100 UA. Lo encontraron los astrónomos estadounidenses Scott S. Sheppard, David J. Tholen y Chadwick Trujillo a casi 124 UA de la Tierra.

Pero afortunadamente las buenas noticias no acaban aquí. El 10 de febrero de 2021, el mismo equipo anunció el descubrimiento de un objeto aún más lejano: 2018 AG37 (apodado Farfarout), situado a más de 132 UA.

La ventana de las 100 UA ya está abierta y la comunidad astronómica está lista para empezar a explorarla. Los astrónomos Malena Rice y Gregory Laughlin de la Universidad de Yale (EE UU) anunciaron en diciembre de 2020 el descubrimiento, con el telescopio espacial TESS, de ocho objetos situados a más de 100 UA, incluyendo un candidato localizado a más de 200 UA.

¿Nuevos planetas en el sistema solar?

Pero esto puede ser sólo el principio. El Atacama Cosmology Telescope (ACT) ha observado en microondas varios objetos candidatos situados a distancias de entre 300 UA y 2000 UA. La colaboración encabezada por Sigurd Naess cree que alguno de ellos podría corresponder a un cuerpo celeste con una masa igual o superior a las cinco masas terrestres; es decir, se trataría de un planeta propiamente dicho, pero de menor masa que Urano y Neptuno.

La confirmación y el eventual estudio de objetos tan remotos como estos necesitan de los mayores telescopios disponibles, como el Gran Telescopio Canarias (GTC) de 10,4 metros de diámetro, actualmente el mayor telescopio óptico operativo completamente orientable.

GTC ha sido capaz de observar 2018 VG18 y 2018 AG37 y ha comenzado un sondeo para intentar recuperar los candidatos anunciados por la colaboración ACT y quizás otros nuevos. Las primeras observaciones ya han sido realizadas y el análisis de los datos está en curso. Se esperan resultados preliminares antes de que acabe el año.

El descubrimiento de Plutón fue solo el principio, gracias a disponer de telescopios de mayor tamaño y de mejor tecnología ahora podemos ir mucho más allá. Probablemente surgirán nuevas controversias científicas, pero la exploración del sistema solar más distante, que comenzó con el hallazgo de Plutón, sin duda nos va a deparar grandes descubrimientos en los próximos años.

Diferencia entre planeta y planeta enano

En la misma asamblea de 2006 donde la UAI acordó que Plutón es un planeta enano, se definió planeta como un cuerpo celeste que (a) está en órbita alrededor del Sol, (b) tiene suficiente masa para que su autogravedad supere las fuerzas del cuerpo rígido, de modo que asume una forma de equilibrio hidrostático casi redonda, y (c) ha despejado [de objetos] la vecindad alrededor de su órbita.

En el caso de los planetas enanos coinciden los puntos (a) y (b), aunque respecto a que deben ser aproximadamente esféricos, alguno como Haumea es más bien elipsoidal. Pero en lo que son diferentes es en la (c), ya que los planetas enanos no han limpiado la vecindad alrededor de su órbita, es decir, puede tener objetos de similar tamaño en órbitas relativamente cercanas. En los planetas, no.

Por ejemplo, coorbitando con la Tierra se mueven los Arjunas, un tipo de objetos cercanos con período orbital en torno al Sol virtualmente idéntico al de nuestro planeta. Puede que haya cientos o incluso miles de ellos. Sin embargo, los Arjunas más grandes tienen tamaños del orden del kilómetro, miles de veces más pequeños que nuestro planeta.

Sin embargo, en el caso de los objetos del cinturón de Kuiper, hay varios con tamaños similares al de Plutón.

Sobre el autor: Carlos de la Fuente Marcos es astrónomo de la Universidad Complutense de Madrid (UCM), especialista en objetos transneptunianos.

Este artículo se publicó originalmente en SINC. Artículo original.

El artículo 15 años con el planeta enano Plutón se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El planeta enano Haumea tiene anillo
  2. #Naukas15 El año que descubrimos Plutón
  3. Planeta océano: el corazón líquido que nos mantiene vivos
Categories: Zientzia

El velo de la ignorancia en mangostas

Sun, 2021/08/29 - 11:59
Fuente: Wikimedia Commons

Las mangostas rayadas, Mungos mungo, no crían a su propia progenie. En casi todos los grupos de la especie las hembras adultas dan a luz el mismo día. La sincronía viene de semanas atrás. Todas entran en celo alrededor del décimo día después de haber parido. Tras quedar preñadas de nuevo, las que completan la gestación dan a luz a sus crías en un cubil bajo tierra. Se forma así una especie de camada comunal compartida.

Esa ajustada sincronía parece eliminar las claves de la maternidad, los elementos que permiten identificar a las crías propias. Durante el primer mes de vida de las recién nacidas, las madres amamantan a unas y otras con independencia de si son suyas o no; es más, las crías maman de diferentes madres. Ahora bien, en las raras ocasiones en que sí hay claves de maternidad, como cuando no se sincroniza la reproducción de todo el grupo de madres, o cuando a las de más edad se les suministran anticonceptivos, unas hembras matan a las crías de las otras en vez de cuidar de ellas. Esto sugiere que esas claves no existen en las camadas comunales sincrónicas propias de condiciones normales.

Transcurrido el periodo en que las crías son amamantadas, salen de la hura y se asocian de forma biunívoca con adultos, sus escoltas, que pueden ser cualquier macho o hembra del grupo, con independencia del grado de parentesco que haya entre ellos. Cada escolta se ocupa de su cachorro, lo alimenta y protege hasta que, con unos noventa días de edad, es capaz de mantenerse por sí mismo. Tanto los escoltas como las crías contribuyen a mantener el vínculo entre ambos. El escolta reconoce de forma individual y responde preferentemente a las llamadas del cachorro al que cuida, y lo busca activamente si se separa o se pierde. Lo alimenta casi de manera exclusiva; el cachorro recibe casi todo el alimento de su escolta y le pide comida de forma continua.

Salvo en los insectos sociales, en las especies en que hay cuidado parental, los progenitores cuidan de sus propios descendientes. De esa manera son ellos y, con ellos, sus propios genes, los que tienen mayor probabilidad de perpetuar su linaje. En Mungos mungo no ocurre tal cosa.

En un experimento reciente con mangostas rayadas en que se suministró más alimento a un grupo de madres que a otras, se observó que las que contaban con más recursos alimentaban preferentemente a las crías de menor tamaño. Crecían de esa forma más que las otras, y acababan teniendo todas similar peso. Así pues, en esta especie las madres invierten los recursos para la crianza de manera que minimizan el riesgo de que su propia progenie se encuentre en posición de desventaja, en vez de hacerlo de manera que la privilegien. Y es la ignorancia acerca de la relación de parentesco la que permite que se produzca la redistribución de recursos que reduce las posibles desigualdades.

Hasta ahora, solo en nuestra especie sabíamos de la disposición a pagar un precio por atenuar desigualdades, aunque tales desigualdades pudieran favorecer a los individuos que lo pagan. Se favorece así la cooperación, porque cuando hay incertidumbre con respecto al retorno esperable del desempeño de diferentes roles sociales, el compartir de forma igualitaria los recursos asegura a quienes interaccionan frente al riesgo de encontrarse en posición de desventaja. Las mangostas se comportan de acuerdo con la lógica del “velo de la ignorancia” de John Rawls: al ignorar quiénes son sus crías, el trato que les dan tiende a eliminar las desigualdades entre ellas.

Fuente: Marshall, H.H., Johnstone, R.A., Thompson, F.J. et al. (2021): A veil of ignorance can promote fairness in a mammal society. Nat Commun 12, 3717.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El velo de la ignorancia en mangostas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La reacción de las madres al llanto de los bebés es universal
  2. Cuando se escoge la ignorancia
  3. La frontera de la ignorancia no deja de expandirse, por Juan Ignacio Pérez
Categories: Zientzia

Infraestructuras para el retorno de la vida a la ría del Nervión

Sat, 2021/08/28 - 11:59
En primer término la estación depuradora de aguas residuales (EDAR) de Galindo. Fuente: FYSEG

Bizkaia tuvo un enorme desarrollo económico, tecnológico y social en la segunda mitad del siglo el siglo XIX, y alcanzó su máximo esplendor a finales de ese siglo y a principios del siglo XX. Este desarrollo fue consecuencia de la confluencia de varios factores, entre los que se encontraba la explotación eficiente de los recursos minerales del territorio. La industrialización asociada en el entorno de la ría del Nervión supuso un impacto ecológico enorme en el que solo las especies animales muy resistentes a la contaminación podían subsistir. La recuperación de la ría supuso una decidida inversión en infraestructuras con la vista puesta en el largo plazo, que es nuestro hoy. El vídeo forma parte del proyecto «La Ría del Nervión a la vista de las ciencias y las tecnologías».

Edición realizada por César Tomé López

El artículo Infraestructuras para el retorno de la vida a la ría del Nervión se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Recuperación de fauna en la ría de Bilbao
  2. La ría de Bilbao como medio de transporte de mineral
  3. La Ría del Nervión a vista de ciencia y tecnología
Categories: Zientzia

Alta velocidad: ineficiente, injusta e insostenible

Fri, 2021/08/27 - 11:59

David Hoyos, Andoni Kortazar y Gorka Bueno Mendieta

Un tren de alta velocidad a su paso por el viaducto de Roden (Zaragoza). Foto: Shutterstock / pedrosala

 

En 2022 se cumplirán 30 años desde la puesta en marcha de la primera línea de alta velocidad en España, Madrid-Sevilla. Tras más de 56 000 millones de euros invertidos en la segunda red más extensa del mundo (3 086 km), los argumentos sociales, económicos y ambientales favorables al modelo español de alta velocidad ferroviaria se han desvanecido a la luz de la evidencia científica acumulada.

La emergencia climática no hace sino apuntalar el sinsentido del AVE y urge a repensar la política española de transportes con medidas concretas y creíbles, consistentes con los compromisos climáticos del Acuerdo de París.

Piedra angular de la movilidad sostenible

La Comisión Europea declaraba 2021 como el año europeo del ferrocarril. La promoción de modos más sostenibles de transporte ha sido una de las prioridades de la política europea desde finales del siglo pasado. El objetivo ha sido reconciliar un crecimiento imparable del transporte de pasajeros y mercancías con unos crecientes efectos perjudiciales para la sociedad, el medio ambiente e incluso la propia economía.

El ferrocarril, central en esta nueva política de transporte, ha adquirido un protagonismo especial en el caso español en forma de inversiones masivas en alta velocidad ferroviaria.

Paradójicamente, entre 1990 y 2018, la cuota modal del ferrocarril ha bajado del 7 % al 6 % en el transporte de pasajeros y del 10 % al 4 % en lo que se refiere al transporte de mercancías. No es de extrañar que en el periodo de vigencia del Protocolo de Kyoto, el transporte es el único sector que ha aumentado sus emisiones de gases de efecto invernadero (GEI) (+73 %), representando en la actualidad un 31 % del total.

Ineficiente en lo económico e injusta en lo social

La evaluación económica del modelo ferroviario de alta velocidad español ha concluido en la ausencia de rentabilidad financiera y social de todos los corredores. En otras palabras, la sociedad nunca recuperará el dinero invertido.

Detrás de estos resultados se encuentra una escasa demanda fruto de una planificación deficiente y alejada de las necesidades sociales y unas inversiones caracterizadas por permanentes retrasos, sobrecostes y corrupción –como han reflejado diversos informes de los tribunales de cuentas europeo y español–. Todo ello convierte a ADIF-Alta Velocidad en la empresa pública más endeudada del Estado.

Los promotores de este modelo ferroviario destacan la necesidad de culminar una red mallada en todo el Estado para mejorar su utilidad. Sin embargo, los estudios realizados concluyen que la rentabilidad social es aún menor en la medida en que se conectan núcleos con menor demanda potencial de pasajeros.

Desde el punto de vista social, la escasa demanda obedece a la inexistencia de una disposición a pagar alta velocidad por parte de los usuarios (que apenas alcanza a cubrir los costes variables del servicio). Esto se traduce en una regresividad de la inversión.

El AVE tampoco ha demostrado favorecer el desarrollo regional ni cambios en productividad. Sus mayores efectos se reducen a la propia construcción y a la reorganización (especulación) urbana en torno a las estaciones.

Otra de las consecuencias de las masivas inversiones en alta velocidad ha sido el abandono de la red española de cercanías. Esta da servicio al 90 % de los usuarios del ferrocarril en España y atiende fundamentalmente a la movilidad obligada.

Insostenible en lo ambiental

Dejando a un lado importantes efectos ambientales negativos, como la ocupación de suelo, el efecto barrera, el impacto paisajístico o la contaminación acústica y atmosférica, el debate sobre el carácter ecológico del tren de alta velocidad se ha centrado en el balance de emisiones de gases de efecto invernadero debido, lógicamente, a su implicación en el cambio climático.

Los defensores del tren de alta velocidad han argumentado, con razón, que dadas sus menores emisiones por persona/mercancía transportada, desviar tráficos desde la carretera y el avión hacia el ferrocarril de alta velocidad era beneficioso para el medio ambiente.

Sin embargo, estos análisis han contado con una carencia fundamental: obviar la contabilidad de las emisiones asociadas a la construcción de estas infraestructuras. Ninguna familia valoraría, por ejemplo, sustituir un electrodoméstico por otro de mayor eficiencia energética sin tener en cuenta el coste del nuevo electrodoméstico.

El análisis de ciclo de vida es vital en este contexto. La amenaza del cambio climático alienta numerosas propuestas de energías “limpias” que, tras ser debidamente analizadas, acaban teniendo un balance neto incluso negativo. Se ha visto recientemente, por ejemplo, en el caso del hidrógeno azul.

Según los resultados de nuestro reciente estudio, el primero –del que tengamos conocimiento– que ha intentado abordar este análisis en el marco de las publicaciones académicas, el balance medioambiental neto del conjunto de la red española de alta velocidad es, sin ser perjudicial, considerablemente más pobre de lo que se pensaba.

Teniendo como referencia el año 2016 (últimos datos disponibles), la red española de alta velocidad requiere una media de 15 años de funcionamiento para compensar las emisiones GEI asociadas a su construcción (hasta 62 y 87 años en lo que se refiere a emisiones de SO₂ y partículas PM₁₀ respectivamente). No obstante, encontramos diferencias notables entre los corredores: 9 años en el corredor andaluz, 12 en el catalán, 20 en el corredor levantino y 79 en el caso del corredor norte.

Al igual que ocurría con la evaluación económica, el factor más influyente en estos pobres resultados es la baja densidad de transporte, la escasa desviación de viajeros de modos más contaminantes como el automóvil o el avión y el hecho de ser una red exclusiva de pasajeros, dejando fuera el transporte de mercancías que se realiza casi exclusivamente por carretera.

El estudio constata, además, que los resultados empeoran a medida que la red se expande a corredores con menor demanda de transporte.

El problema, sin embargo, no es solo que algunos corredores no estén justificados. Una vez ponemos en su contexto los resultados del balance climático de la red española de alta velocidad, nos encontramos con que apenas contribuye a reducir un 1 % las emisiones anuales totales de transporte en España.

El AVE ante la emergencia climática

Todo lo anterior debería haber servido para alentar un debate en torno a la inversión en alta velocidad ferroviaria en España hace 20 o 30 años. Habría permitido abandonar unas inversiones que se han demostrado beneficiosas para las empresas constructoras y perjudiciales para el resto de la sociedad.

Sin embargo, el debate actual no es –o al menos, no debería ser– este. El debate actual nada tiene que ver con estar a favor o en contra del tren de alta velocidad como modo de transporte, ya que indudablemente tiene virtudes como su rapidez, comodidad y puntualidad.

El contexto ha cambiado radicalmente al encontrarnos en una situación inédita global de emergencia climática. La comunidad científica mundial ha hecho un llamamiento unánime a reducir drásticamente las emisiones de gases de efecto invernadero con el fin de limitar el aumento de la temperatura global a 1,5 grados. Una llamada a la acción que se está traduciendo en compromisos internacionales de reducción de emisiones cada vez más ambiciosos –neutralidad climática en 2050 y hasta un 55 % en 2030, en apenas 8 años–. “No hay plan B porque no hay planeta B”, decía recientemente Emmanuel Macron en el aniversario del Acuerdo de París.

Así, el debate necesario y urgente es en qué medida puede contribuir o no el AVE a la reducción drástica de emisiones comprometidas en París y que, a la luz de los resultados del último informe del IPCC, deberá ser aún mayor tras la Conferencia de Glasgow.

Y es en este contexto donde nos encontramos que el modelo ferroviario de alta velocidad no solo no es la solución, sino que la obstaculiza y nos hace perder un tiempo que no tenemos en la necesaria transición ecológica del transporte en España.The Conversation

Sobre los autores: David Hoyos es profesor agregado en el Departamento de Métodos Cuantitativos, Andoni Kortazar, profesor interino en el Departamento de Economía Aplicada V y Gorka Bueno Mendieta, profesor titular de Tecnología Electrónica de la Universidad del País Vasco/Euskal Herriko Unibertsitatea.

Este artículo fue publicado originalmente en The Conversation. Arículo original.

El artículo Alta velocidad: ineficiente, injusta e insostenible se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El impacto medioambiental del ciclo de vida del tren de alta velocidad en España
  2. Cómo regular la velocidad de disolución de los biometales de las prótesis
  3. Un equipo de alta fidelidad de ciencia ficción
Categories: Zientzia

El error de usabilidad que definió la temperatura más alta de la Tierra

Thu, 2021/08/26 - 11:59
Foto: Jarosław Kwoczała / Unsplash

Si me preguntan a mí, la temperatura más alta de la historia debió de producirse el sábado pasado en el salón de mi casa. No tenía ningún termómetro a mano, pero según mis estimaciones, la sensación térmica durante la ola de calor en el centro de Madrid ascendió a los 74,3 ºC (74,5 ºC cuando el ventilador apuntaba para otro lado).

Los climatólogos, en cambio, tienen su propia versión de los hechos. Según sus registros históricos, la temperatura más alta de la Tierra jamás anotada por un ser humano ascendió a 58 grados centígrados. Esta fue la cifra que nos legó un soldado italiano durante un tórrido verano en el desierto de Libia, en 1922. Sin, embargo no está exenta de polémica. Existen varias inconsistencias en estos registros que parecen apuntar a un error. Concretamente, a un error de usabilidad de su termómetro.

Pero pongámonos en contexto. Estamos en 1922. Imagina que eres un soldado destinado en la región de Al Azizia, cerca de Trípoli. En algún momento, te han dado instrucciones para apuntar diariamente lo que marca el termómetro, pero probablemente no te han explicado muy bien cómo hacerlo ni tampoco para qué. Y ahí estás tú, sudando como un pollo, viendo hincharse una barrita de Mercurio en medio del desierto africano.

Probablemente, la sensación térmica de ese soldado debió de parecerse bastante a la de mi piso de Madrid. Se le derretía el alma y la mollera, y él ni siquiera contaba con un triste ventilador. Aún así, tuvo la paciencia de fijarse en el termómetro cada día y fue anotando sus numeritos: 50, 56, 58, 53, 53… da calor solo de leerlo. Difícilmente podía saber que sus anotaciones pasarían a definir en el récord de temperatura registrada sobre la Tierra durante un total de 90 años.

Parte de la hoja de observación meteorológica original de El Azizia, septiembre de 1922. Fuente

 

Los apuntes de aquel soldado nos permiten rastrear las huellas de su posible error. Dos días antes del 13 de septiembre (el día en que se batió el récord), la caligrafía de los registros cambia. Resulta evidente que entra en escena un nuevo apuntador. El mismo día el orden de todos los datos se invierte: la temperatura máxima pasa a estar en la columna de la izquierda, la mínima a la derecha. Claramente, nuestro héroe no estaba prestando mucha atención. ¿Pero es posible que se confundiese, también, al interpretar su aparato de medición?

Esta es la hipótesis que defienden los autores de un estudio publicado hace algunos años por la Organización Meteorológica Mundial (OMM)1. Durante 2010 y 2011, un panel internacional de expertos llevó a cabo una investigación en profundidad sobre este récord en los registros y concluyó que no podían darse por buenos. Las mediciones de aquel soldado no solo son incoherentes con las registradas en otras estaciones cercanas. Tampoco pueden compararse con los valores de temperatura observados posteriormente en el mismo lugar, y constituirían un microclima impropio de la región. Pero además, parece que el propio termómetro podría haber jugado un papel en aquel error. Se trataba de un modelo Bellani-six, con dos masas flotantes sobre dos columnas de fluido. Al contraerse o dilatarse, el fluido empujaba las masas, que se superponían sobre una escala e indicaban la temperatura máxima y mínima del aire durante el día. Pero aquellas masillas eran bastante alargadas y era importante saber que la temperatura debía medirse en su punto más bajo (esto es, inmediatamente, encima de la columna de fluido).

Si aquel soldado italiano, por inexperiencia o por falta de atención, hubiese anotado la temperatura que figuraba encima de la masa del termómetro, todas sus mediciones habrían resultado anormalmente altas, como de hecho sucede. Un error que recuerda poderosamente al de cierto compositor europeo, que se aceleró, quizás, al anotar los tempi de sus sinfonías2.

En 2012 y tras concluir su estudio, la Organización Meteorológica Mundial decidió descartar los registros de Al-Haziza de 1922. Desde entonces, la temperatura más alta registrada en la Tierra ha descendido 1,3 ºC. El 7 de julio de 1913, en el Valle de la Muerte de Estados Unidos, California, algún desdichado con el cerebro achicharrado anotó una temperatura de 56,7 ºC (esperamos que con algo más de acierto, aunque tampoco está del todo claro).

Referencias:

1K.I, El & Cerveny, R.s & Burt, Christopher & Eden, Philip & Parker, David & Brunet, Manola & Peterson, Thomas & Mordacchini, Gianpaolo & Pelino, Vinicio & Bessemoulin, Pierre & Stella, José & Driouech, Fatima & M.M, Abdel & Pace, Matthew. (2013). World Meteorological Organization Assessment of the Purported World Record 58°C Temperature Extreme at El Azizia, Libya (13 September 1922). Bulletin of the American Meteorological Society. 94. 199-204. 10.1175/BAMS-D-12-00093.1.

2Martín-Castro A., Ucar I. (2020). Conductors’ tempo choices shed light over Beethoven’s metronome. PLOS ONE 15 (12) : e0243616. doi: 10.1371/journal.pone.0243616

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El error de usabilidad que definió la temperatura más alta de la Tierra se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El misterio de la temperatura constante
  2. Un equipo de alta fidelidad de ciencia ficción
  3. Escaneando la Tierra con neutrinos solares
Categories: Zientzia

Siempre es buen momento para jugar: Pong Hau Ki y Madelinette

Wed, 2021/08/25 - 11:59

 

Había pensado empezar esta entrada del Cuaderno de Cultura Científica diciendo que el verano es un buen momento para jugar a cualquier tipo de juego, ya sea un juego popular, de ingenio, de estrategia, de azar, de construcción, solitario, matemático o del tipo que sea, aunque la verdad es que cualquier época del año es un buen momento para jugar. No nos olvidemos nunca de jugar.

En otras entradas de la sección Matemoción ya hemos hablado de algunos juegos, como el molino o alquerque de nueve (en la entrada Mujeres jugando (el juego del molino) relacionada con un cuadro del Museo de Bellas Artes de Bilbao), el tangram (por ejemplo, en las entradas Tangram o Un teorema sobre el tangram), el tchuka ruma (en la entrada Tchuka Ruma, el mancala solitario), el juego coreano kono (en la entrada El juego coreano kono), …

El juego koreano Kono

 

… el salto de la rana, el cinco por cinco, veinticuatro, o el puzle dieciséis inglés (en El salto de la rana y familia), el juego Vee-21 (en la entrada Embaldosando con L-triominós (Un ejemplo de demostración por inducción)), el clásico y universal mancala (en Juegos del mundo: el mancala), el Tetris (en Tetris, embaldosados y demostraciones), algunos juegos con tabletas de chocolate (como los comentados en la entrada Juegos matemáticos con tabletas de chocolate), el rompecabezas geométrico cubo soma (en El cubo soma: diseño, arte y matemáticas), el juego de cartas SET (cuyo análisis matemático presentamos en dos entradas, Matemáticas en el juego de cartas SET (1) y Matemáticas en el juego de cartas SET (2)), el juego probabilístico que analizó el matemático inglés Arthur Cayley, la ratonera (explicado en la entrada La ratonera, el juego de Cayley), el Sim (en El juego del Sim), el solitario locura instantánea (en la entrada Locura instantánea, un rompecabezas con cubos de colores), el tradicional juego de la morra (en La morra, jugando a contar con los dedos), algunos rompecabezas matemáticos (en las entradas Rompecabezas matemáticos con números y Más rompecabezas matemáticos con números) o el margarita y el bloqueado (analizados en la entrada La simetría como estrategia ganadora: la margarita y bloqueado).

En esta entrada del Cuaderno de Cultura Científica me ha parecido una buena idea recuperar un juego tradicional, estos son siempre una fuente de inspiración y de entretenimiento, que analicé en el libro Del ajedrez a los grafos, la seriedad matemática de los juegos (RBA, 2015), el pong hau ki.

Tablero del Pong Hau Ki

 

El pong hau ki es un juego tradicional chino, que también encontramos en Corea, con el nombre ou moul ko no, en Tailandia como sua tok tong o en la India como do guti, cuyo tablero y forma de juego nos recuerda al clásico tres en raya. En Europa no se empezó a jugar hasta más recientemente, quizás en la época medieval, con el nombre la herradura, así como una variación más moderna de este, el madelinette.

El tablero del pong hau ki está formado por cinco vértices, los cuatro de un cuadrado y el dado por la intersección de las dos diagonales del mismo, y siete aristas que los unen, todas las posibles, menos uno de los lados del cuadrado (véase la imagen de arriba o el esquema de abajo). Hay dos fichas de cada color (por ejemplo, blancas y negras), colocadas inicialmente como se muestra en la siguiente imagen, y cada color le corresponde a un jugador.

Tablero del Pong Hau Ki, con las dos fichas blancas y negras en la posición inicial del juego

 

Las reglas del pong hau ki son las siguientes. Cada uno de los dos jugadores, por turnos, mueve una ficha de su color hacia la casilla adyacente que esté vacía. Por ejemplo, en la posición inicial, tanto las blancas como las negras, si empiezan la partida, solo pueden mover una de sus fichas a la casilla central. Gana el jugador que consigue bloquear las dos fichas de su oponente, de forma que este no pueda mover a la casilla libre.

Se considera que este es un juego infantil por su sencillez, como ocurre con el tres en raya o el salto de la rana, pero al igual que estos, tiene más interés del que pueda parecer a primera vista.

Empecemos analizando cuál es el número de posiciones posibles en el juego ou moul ko no. Tenemos cuatro fichas que debemos colocar en el tablero y dejar un hueco vacío. Si todas las fichas fuesen distintas (por ejemplo, las denominamos blanca 1, blanca 2, negra 1 y negra 2) y marcásemos la casilla vacía con una ficha trasparente, entonces el número de formas de colocar las cinco fichas en las cinco casillas sería el factorial de 5, denotado en matemáticas como 5!, cuyo valor es 5! = 5 x 4 x 3 x 2 x 1 y que son el número de permutaciones de cinco elementos (véase El problema matemático de las cartas extraviadas). Sin embargo, las dos fichas blancas son iguales, luego podemos intercambiar las casillas en las que están y sigue siendo la misma posición, luego debemos dividir entre dos. Lo mismo para las fichas negras. De hecho, hemos obtenido la regla para calcular las permutaciones con repetición. En consecuencia, hay 30 posiciones distintas en el juego, ya que:

Por otra parte, si miramos la simetría respecto al eje vertical central del tablero, hay dos posiciones que son simétricas respecto a ese eje, es decir, la parte de la izquierda de la posición es igual a la parte de la derecha (que se corresponden con las posiciones 1 y 9 de la siguiente imagen), y catorce pares de posiciones relacionadas, esto es, al intercambiar las fichas de un lado y otro del eje se pasa de una posición a la otra (por ejemplo, la posición 2 de la siguiente imagen –las dos fichas negras abajo, una ficha blanca en medio y una ficha blanca en la posición de arriba a la derecha– se corresponde con la posición simétrica siguiente: las dos fichas negras abajo, una ficha blanca en medio y una ficha blanca en la posición de arriba a la izquierda). Luego, esencialmente tenemos que hay 16 posiciones distintas (salvo simetría) en el sua tok tong.

Si numeramos las casillas del 1 al 5, de arriba abajo y de izquierda a derecha, y etiquetamos cada posición diciendo qué ficha está en cada casilla (B para blanca, N para negra y 0 para vacía), por ejemplo, BN0NB es la posición inicial, podemos listar las 16 posiciones del juego.

Las dieciséis posiciones posibles, salvo isometría, del Pong Hau Ki

 

El matemático Philip D. Straffin, en su artículo Position graphs for Pong Hau K’i and Mu Torere (Mathematics Magazine, 1995), analizó mediante grafos (véase Locura instantánea, un rompecabezas con cubos de colores o El problema de los tres caballeros y los tres criados), la estrategia ganadora del Pong Hau Ki. Cada una de las dieciséis posiciones del juego es un vértice del grafo y existe una arista entre dos vértices si es posible realizar un movimiento que lleve de una posición a otra. El grafo es además etiquetado, puesto que cada arista llevará la etiqueta B o N, dependiendo de si el movimiento lo realiza el jugador que juega con blancas, o el que juega con negras. El grafo no es dirigido puesto que el movimiento entre dos posiciones puede ser en ambos sentidos.

En consecuencia, el grafo asociado a la herradura, teniendo en cuenta las dieciséis posiciones esenciales del mismo, es el siguiente.

Solo existe una posición ganadora para las blancas, si les toca mover a las negras, que es la posición 15, 0BBNN. Lo mismo para las negras, si mueven blancas, la posición 13, 0NNBB (vemos que es la misma configuración, solo se intercambia la posición de las casillas de las fichas blancas y negras). Para que las blancas lleven la partida a la posición 15, tienen que hacerlo a través de las posiciones 14 o 16, sin embargo, las negras pueden evitar esas posiciones. Lo mismo ocurre para las negras, en relación a la posición 13. De hecho, el juego, bien jugado, se mantendrá en un movimiento infinito entre los ciclos 1-2-3-4-5-6 y 4-11-10-9-8-7. Lo cual implica que el pong hau ki siempre terminará en tablas, salvo que se cometa un error, como ocurre con el tres en raya.

Una forma alternativa de jugar a la herradura, para darle un poco más de interés, es que el tablero esté inicialmente vacío y que los jugadores empiecen colocando por turnos cada una de sus fichas en el mismo. Si observamos el grafo anterior, la táctica para no perder es la misma que partiendo de la posición inicial dada (posición 1), solo que ahora hay que evitar las posiciones conflictivas al ir colocando las fichas al principio. Si empiezan las blancas, las negras evitarán las posiciones en las que tocándole mover a las blancas ganen, que son las posiciones 14 y 16, y las blancas evitarán la posición 13, que es la posición ganadora para las negras si mueven blancas (o, en ambos casos, sus posiciones simétricas).

Tablero y posición inicial del juego conocido como el mandelinette

 

El madelinette es una versión más compleja e interesante del juego de la herradura, que podría haber sido inventada por el militar y matemático aficionado francés Henri August Delannoy (1833-1915). El madelinette se juega con tres fichas de cada color y al tablero se le añade el segmento horizontal que pasa por el centro, obteniéndose así un total de siete casillas (como se muestra en la imagen anterior). Según el matemático francés Édouard Lucas (1842-1891), en sus Recreaciones matemáticas, las posiciones ganadoras, perdedoras y de tablas de los juegos la herradura y el madelinette fueron estudiadas por Henri Delannoy.

El madelinette se puede jugar a partir de la posición inicial que aparece en la anterior imagen, o con el tablero vacío, y el objetivo es de nuevo bloquear las fichas del jugador contrario.

Con un argumento similar al del juego pong hau ki se obtiene que el número de posiciones distintas del madelinette es

que dan lugar a 70 parejas de posiciones simétricas, una de la otra, respecto al eje vertical central.

Si pintásemos el grafo etiquetado asociado a este juego, resulta ser más complejo que el del pong hau ki, puesto que de cada posición (vértice del grafo) podemos pasar mediante un movimiento a más posiciones que antes. Por ejemplo, si empezasen moviendo las fichas negras, de la posición inicial se podría pasar a una de las siguientes tres posiciones siguientes. Además, aunque en la primera posición las blancas solo tendrían un movimiento posible, en las otras dos posiciones existirían dos opciones de movimiento.

Delannoy estudió qué posiciones son ganadoras, perdedoras o que terminan en tablas, jugando bien, suponiendo que mueven blancas (un razonamiento simétrico se obtiene si mueven negras). De las 70 posiciones diferentes (salvo simetría) hay 21 ganadoras para las blancas, 12 para las negras y 37 que serán empates.

A continuación, como ejemplo mostramos tres posiciones, una ganadora para las blancas, otra ganadora para las negras y otra que termina en empate, suponiendo que mueven blancas:

Al contrario que en la herradura, aquí hay más posiciones ganadoras para ambos colores, hay muchas más combinaciones y es fácil cometer fallos o despistes. Por eso mismo, el juego se hace más interesante.

Para terminar, lo que decimos siempre, lo mejor de un juego es jugar y disfrutarlo. Divertíos.

Bibliografía

1.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, El mundo es matemático, RBA, 2015.

2.- Philip D. Straffin, Position graphs for Pong Hau K’i and Mu Torere, Mathematics Magazine, vol. 68, n. 5, 1995.

3.- Édouard Lucas, Recreaciones Matemáticas, vol. 1 – 4, Nivola, 2007, 2008.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Siempre es buen momento para jugar: Pong Hau Ki y Madelinette se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Adivinando o empleando la lógica?
  2. Ajedrez y matemáticas: el problema de Guarini
  3. En el lugar correcto en el momento adecuado
Categories: Zientzia

Los mitos como protociencia

Tue, 2021/08/24 - 11:59
Apolo, Zeus y Hera. Fuente: Wikimedia Commons

Los mitos son una expresión de la existencia de la especie, un espejo en constante cambio de las percepciones de la condición humana. Los mitos se basan en un pasado real impreciso en el tiempo, una realidad del comportamiento humano que trasciende un tiempo y un lugar determinados. La ciencia también tiene estos atributos. La estrecha asociación entre el mito y la ciencia se ve claramente cuando se considera la ciencia antigua. Los antiguos lucharon por explicar el entorno natural y su propia humanidad con respecto a lo divino. Las explicaciones iniciales incorporaron dioses y héroes, sucesos fantásticos y acontecimientos dignos de ser recordados. Debajo de lo fantástico y lo extraordinario de la tradición oral, los poemas cantados por el antiguo bardo, existía un verdadero intento de comprender y describir la naturaleza y al propio ser humano.

La antigua civilización sumeria fue el resultado de la organización, el trabajo y la ingeniería de los diques y canales que controlaban los ríos Tigris y el Éufrates, muy propensos a las inundaciones, y que irrigaban la tierra reseca durante la estación seca. La cultura sumeria se basa en última instancia en al agua y sus usos. La epopeya sumeria de la creación, Enûma Elish, describe a Apsu, la personificación deificada de las aguas originales de la creación; a Adad, la de las tormentas; a Ea, la de las aguas; a Ennugi, la del riego; Ningirsu, la de la fertilidad del suelo regado; a Ninurta, la de los de pozos de agua dulce.

Los sumerios está clero que pensaban mucho en el agua. La lluvia y el agua del río daban lugar a abundantes cosechas, vigiladas por Nisaba, la diosa de las cosechas. Ninhursag, la diosa madre, también supervisaba todas las plantas y animales o, lo que es equivalente, a todos los alimentos. Una vez que se recogían las cosechas, Shulpae se encargaba del éxito de los banquetes; Siduri aportaba lo suyo, como diosa del vino que era. Los milagros del agua, la comida, la abundancia, la bebida, los banquetes y los estómagos llenos tenían que ser explicados, y no era concebible otra que no fuese por la benevolencia de los dioses.

Serket protegiendo la caja de vasos canopos de Tutanjamón (Tutankamón). Fuente: Wikimedia Commons

Los egipcios, igualmente, dependían del clima, como todas las civilizaciones, pero especialmente del Nilo y sus inundaciones anuales, y del Sol siempre presente. El Sol era tan importante que se necesitaban varios dioses para compartir su poder: Amón, Ra (el sol al mediodía), Atón (el sol al mediodía), Atón (el disco solar), Jepri (el sol en el este), Atum (el sol en el oeste). También se necesitaban varias deidades para el Nilo, gobernando varias regiones de Egipto según la ubicación del propio Nilo (alto o bajo Egipto). Los dioses y diosas de la fertilidad se asociaban con frecuencia con el Nilo: Happi era el dios de las inundaciones del Nilo durante el verano. Nun y Nefertum eran deicaciones de las aguas del abismo que estuvieron presentes en la creación. Sobek, el dios cocodrilo, era el dios del pantano.

Los egipcios, dedicados a comprender la naturaleza de la que tanto dependían, adoraban a los dioses de la ciencia y el saber. Imhotep, quien supuestamente fue un constructor durante la era de las pirámides en el tercer milenio a. e. c., evolucionó hasta ser un dios de la curación y la magia. Serket era su contraparte femenina, la diosa de la curación. Seshat y Thoth eran las deidades de la erudición, de los escribas y de la sabiduría.

Prometeo (1868) de Gustave Moreau.  Fuente: Wikimedia Commons

Grecia es un paisaje de profundos valles, enormes crestas, bosques ocultos y montañas infranqueables. Los dioses de Grecia eran, por tanto, los de las montañas, los bosques, los ríos, la costa rocosa y las islas del Egeo y el Adriático. Se cree que antes de la llegada al poder de los griegos micénicos, los primeros griegos y la gente de Creta y las islas adoraban a las deidades de la naturaleza dominadas por las diosas de la fertilidad. Atenea, Afrodita, Hera, Artemisa, Hestia, Deméter y Rea fueron una vez, en el pasado mítico, los principales objetos de culto entre los griegos.

En un momento dado, el hijo de Rea, Zeus, dio un golpe de estado divino ocupando el lugar de su padre Cronos y llevando al poder también a sus hermanos Poseidón y Hades. Zeus gobernaba a través de la fuerza, a través del terrible rayo, que solo él controlaba, y que inspiraba terror tanto a dioses como a humanos. Poseidón personificó el mar; Hades se identificó tanto con su cometido que terminó convirtiéndose en él, el inframundo. Las diosas de la fertilidad perdieron poder o cambiaron de forma; por ejemplo, Atenea se convirtió en una virgen con apariencia de hombre; Hera se convirtió en una diosa malhumorada e impotente, siempre regañando a su hermano y esposo Zeus; Afrodita pasó a ser una diosa casquivana del amor que siempre metía a dioses y humanos en líos con la lujuria y el adulterio como fatores comunes; Deméter conservó su papel de diosa de la fertilidad del grano y de la agricultura.

Los poemas de Homero y de Hesíodo ilustran cómo los antiguos bardos personificaban los fenómenos naturales y humanos por medio de los dioses y diosas. Hesíodo explicó la presencia del mal mediante Pandora y su estúpido esposo Epimeteo, quien poseía el don de la retrospectiva pero no el de la previsión, que era la especialidad de su hermano Prometeo. Las mentiras y los robos se explican por la presencia de Hermes, experto en juegos de manos. Hesíodo, creyente en el recurrente concepto a través de los tiempos de que vivía en una época que encarnaba el declive de la cultura de «los buenos tiempos», argumentó que su época era una Edad de Hierro de maldad y desesperación, a diferencia de las edades anteriores de la humanidad: la Edad de Oro de los hombres que eran como dioses; la Edad de Plata, cuando Zeus castigó la arrogancia humana; la Edad del Bronce, cuando los humanos eran gigantes; y la Era Heroica, cuando existían héroes, descendiente de los dioses, pero destruida por la Guerra de Troya.

Los himnos homéricos y la Ilíada y la Odisea describen una cosmovisión totalmente antropomórfica. Los dioses y diosas se mezclan constantemente con los humanos, tanto que los humanos nunca están completamente seguros de quién es dios y quién es mortal. Quizás el extraño en la puerta sea un ser divino enviado para probar al ser mortal, une duda y preocupación recurrentes en los personajes de la Ilíada y la Odisea. Los dioses simbolizan la mente consciente y lo que hoy llamaríamos el subconsciente, por ejemplo, cuando Aquiles quiere destruir a Agamenón en el Libro 1 de la Ilíada, es la diosa Atenea la que interviene personalmente para calmar su ira y proporcionándole razón y paciencia.

La Odisea describe la dicotomía de civilización (el pensamiento, personificado por Ulises) y salvajismo (el cíclope). Ulises utiliza repetidamente su ingenio, artimañas, engaños y, en fin, el pensamiento analítico para salir de apuros. Ulises tiene sabiduría, es decir, ejerce la razón sobre las pasiones, tiene previsión y retrospectiva, tiene paciencia cuando los demás son impulsivos. Las divinidades de la sabiduría, el pensamiento y el ingenio lógicamente ayudan a Ulises. Atenea lo cuida, al igual que Hermes (después de todo era su bisnieto).

De hecho, encontramos en la mitología griega un énfasis en las deidades que personifican el pensamiento humano de una forma u otra. Además de Atenea, Apolo es un dios de la sabiduría, de la lira, de los sueños, de la profecía, de los videntes. Prometeo enseña a los humanos la creatividad, el pensamiento analítico, la inventiva y la curación.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los mitos como protociencia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cristalografía (1): Protociencia, del «Homo erectus» a Linneo
  2. Mesopotamia (1): La epopeya de Gilgamesh
  3. Antes del hierro
Categories: Zientzia

Células madre para el tratamiento de la enfermedad inflamatoria intestinal

Mon, 2021/08/23 - 11:59

María Larumbe / GUK

Células madre mesenquimales humanas de origen adiposo (AT-MSCs) encapsuladas en hidrogeles de alginato. Tinción live/dead: células viables (verde) y no viables (rojo).

La enfermedad inflamatoria intestinal (EII) es un concepto amplio que se usa para describir distintas patologías inmunomediadas, inflamatorias y crónicas, como la enfermedad de Crohn y la colitis ulcerosa, que presentan inflamación crónica del tracto digestivo. En la descripción que da la ACCU – Confederación Crohn y Colitis Ulcerosa – ambos trastornos alteran la capacidad del organismo para digerir los alimentos y absorber los nutrientes. Las personas que padecen esta enfermedad pueden presentar diarrea, sangre en las heces, cansancio, dolor abdominal, pérdida de apetito y peso o fiebre, entre otros síntomas.

En los últimos años, se está viviendo un aumento de la incidencia de la EII en la población a nivel mundial, sobre todo en las zonas urbanas de los países desarrollados. Más allá de las causas de componente genético, se sabe que algunos factores como el estrés que conlleva un estilo de vida frenético, las sustancias tóxicas presentes en el ambiente y la alimentación juegan un papel fundamental en la alteración de la flora intestinal. Esto provoca una respuesta inmune anómala que da lugar a la inflamación y sintomatología de la EII, dando como resultado que se reporten más casos de esta enfermedad.

Hasta la fecha no existe ningún tratamiento que cure esta enfermedad. Los fármacos disponibles en el mercado — como los aminosalicilatos, corticoesteroides e inmunomoduladores — tratan de disminuir la inflamación intestinal, evitar brotes de los síntomas y mantener la dolencia en remisión, pero no consiguen dar una respuesta definitiva.

Sin embargo, la evolución de las terapias avanzadas en farmacia y medicina abre la puerta al tratamiento efectivo de este tipo de patologías inflamatorias e inmunológicas. En concreto, en el grupo de investigación de NanoBiocel de la Facultad de Farmacia de la UPV/EHU — expertos en el desarrollo y encapsulación de medicamentos — llevan desde 2017 trabajando en un proyecto que tiene como objetivo desarrollar un medicamento efectivo para tratar esta enfermedad basado en células madre mesenquimales.

¿Por qué se han decantado por este tipo de células? Como explica Rosa Hernández — catedrática en Farmacia y responsable del proyecto dentro del grupo — “las células madre mesenquimales poseen una gran capacidad terapéutica a través de las sustancias que secretan entre ellas múltiples citoquinas y factores de crecimiento, y que pueden regular el funcionamiento de un sistema inmune alterado como sucede en el caso de pacientes con enfermedad de Crohn o colitis ulcerosa”.

Las terapias celulares no son desconocidas. Se llevan aplicando desde hace tiempo para el tratamiento de enfermedades como la leucemia. Es el caso del trasplante de médula ósea, que consiste en el reemplazo de células enfermas por células madre sanas.

Sin embargo, la aplicación de las terapias celulares en el tratamiento de la EII, presenta, según Hernández, ciertos problemas que son necesarios solventar para desarrollar un medicamento efectivo. “La célula es un organismo vivo que no se puede comprimir al igual que otros principios activos sintéticos como el ácido acetilsalicílico — principio activo de la Aspirina —. Por tanto, es necesario desarrollar nuevos sistemas que puedan encapsular esas células para implantarlas en el cuerpo y que sean capaces de secretar las sustancias terapéuticas durante largo tiempo”.

En este sentido, como afirma Hernández, no son los primeros en tratar de aplicar este tipo de terapias al servicio del tratamiento de la EII. “Partiendo de investigaciones previas en este ámbito, nuestro objetivo es desarrollar un sistema de administración que consiga potenciar y alargar los efectos positivos de las células madre, evitando además los problemas asociados a este tipo de terapias como son la rápida eliminación del organismo y la generación de trombos. Para ello, la correcta encapsulación de la célula es clave”.

Se trata de una investigación ambiciosa y colaborativa, financiada por el Ministerio de Ciencia e Innovación, que cuenta — además de con la participación del propio grupo de la UPV/EHU — con la colaboración de expertos en medicina, bioquímica, farmacia y biología de otras universidades como Harvard (EE.UU), la Universidad Católica de Lovaina (Bélgica) o centros médicos como el servicio de patología del Hospital Universitario de Álava.

Una factoría celular 24/7

Dentro de esta investigación multidisciplinar y colaborativa, el principal reto consiste en conseguir encapsular las células madre de forma efectiva y lograr que estén el suficiente tiempo en el organismo para mitigar la inflamación persistente y regenerar los tejidos dañados.

Para conseguir este objetivo, altamente complejo, han trabajado en el desarrollo de tres elementos fundamentales: un hidrogel para encapsular las células (soporte); las propias células madre (principio activo del medicamento) y el interferón gamma (sustancia activadora de las células).

Desarrollo de un sistema multifuncional para potenciar las propiedades terapéuticas de las células madre mesenquimales (MSCs). Las MSCs se encapsulan en hidrogeles de alginato-colágeno que contienen micropartículas cargadas con interferón para promover su efecto inmuno-modulador y favorecer la retención del implante.

En primer lugar, para resolver el problema de la encapsulación, han desarrollado un hidrogel en colaboración con la Universidad de Harvard, el cual funciona a modo de soporte y protege la célula. “Este hidrogel, compuesto por polímeros de origen natural, posee unas características biomiméticas que permiten que la célula se encuentre ‘como en casa’, proporcionando las condiciones adecuadas para que su supervivencia sea mayor”. Además, al introducir las células en este hidrogel, se tienen localizadas y se evita que puedan migrar a cualquier otra parte del organismo.

Por otro lado, el segundo componente que se ha utilizado para desarrollar este medicamento es el más importante: el propio principio activo, es decir, la célula. “En este caso, hemos optado por células madre mesenquimales de origen adiposo. A futuro, si todo va bien, al realizar la traslación clínica, el objetivo sería poder obtener las células de la grasa del propio paciente para que fuese un trasplante totalmente autólogo y que ocasione menos problemas desde el punto de vista de la respuesta inmune”. En este sentido, también se está investigando en el uso de otras células como las del folículo piloso, que tienen muy buenas propiedades inmuno-moduladoras y requieren de técnicas muy poco invasivas.

Por último, el tercer componente busca activar las células madre para que puedan secretar de manera continuada y prolongada las sustancias inmuno-moduladoras requeridas para tratar esta enfermedad. “Lo que hemos desarrollado son unas micropartículas que hemos unido a una sustancia ‘activadora’ llamada interferón gamma, que da las señales a la célula madre para que secrete las sustancias beneficiosas que disminuyan los síntomas de la EII.”

Este trabajo se ha realizado con el objetivo de crear un sistema multifuncional para su administración a nivel subcutáneo en el paciente, de forma que libere ininterrumpidamente estas sustancias terapéuticas, como si se tratara de una fábrica celular en constante funcionamiento.

Actualmente, la investigación se encuentra en fase preclínica. “Acabamos de realizar la primera prueba de concepto en ratones, siguiendo el modelo en estos animales para conseguir reproducir la enfermedad al igual que en los humanos”. Para llevar a cabo esta tarea, han contado con la colaboración del servicio de patología del Hospital Universitario de Álava, que diagnostica la enfermedad patológica en humanos y les han apoyado en la creación del modelo en ratones.

Tras realizar la autopsia a los ratones, “lo que se ha comprobado es que las células encapsuladas continúan vivas y siguen secretando las sustancias inmuno-moduladoras, lo que supone un paso hacia adelante en la investigación”, afirma Hernández. Sin embargo, hasta que no comprobemos los resultados histológicos no podremos determinar si este tratamiento ayuda a la regeneración tisular, es decir, de los tejidos del organismo”, afirma Hernández.

Tratamiento para otras enfermedades inmunológicas

La investigación, que comenzó hace cuatro años, tiene todavía un largo camino por delante. “Tendremos que acometer ajustes e ir controlando poco a poco el sistema, incorporando nuevos elementos que conseguirán mejorar el comportamiento de la célula en cuanto a las secreciones. Además de esto, probaremos otro tipo de células con propiedades inmuno-moduladoras, aunque las que estemos utilizando actualmente sean el gold standard.

A futuro, este tipo de terapias, tal y como explica Hernández, “se podrán introducir en el tratamiento de otras patologías inmunológicas en las que también aparecen inflamaciones o respuestas inmunes disfuncionales, como es el caso del lupus u otras enfermedades autoinmunes. Además, hoy en día también las estamos aplicando en terapias de regeneración de heridas crónicas con buenos resultados”.

En este sentido, las terapias celulares se están utilizando incluso en ensayos clínicos para la investigación de la COVID-19, tratando de frenar la respuesta inmune exacerbada en algunos pacientes con este virus.

Conseguir dar el salto del laboratorio al paciente y traducirlo en una mejora de su calidad de vida es el objetivo último de esta investigación. “Queremos aportar todo nuestro conocimiento en el desarrollo de fármacos para ayudar a conseguir unos tratamientos que sean más prolongados en el tiempo, más seguros y que mejoren la calidad de vida de los pacientes con estas patologías”.

Grupo de investigación NanoBioCel de la Facultad de Farmacia de la UPV/EHU.

Rosa Hernández es catedrática en Farmacia y Tecnología Farmacéutica y miembro del grupo de investigación NanoBioCel de la Universidad del País Vasco UPV / EHU.

El artículo Células madre para el tratamiento de la enfermedad inflamatoria intestinal se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Medicina regenerativa: utilización de células madre para el tratamiento de enfermedades humanas
  2. Naukas Pro 2017: Manuel Collado y las células madre
  3. Cómo criopreservar células madre
Categories: Zientzia

Se suponía que esto era el futuro, una reseña

Sun, 2021/08/22 - 11:59

Juan Ignacio Pérez Iglesias, lector

Cuando vi por primera vez una imagen de la portada de este libro pensé “no puede ser, es amarillo”. “Es raro que algo de fuste merezca una cubierta amarilla”. Lo pueden comprobar, echen un vistazo a su biblioteca y verán que el amarillo es uno de los colores más escasos. No es que esté por completo ausente, en nuestra biblioteca hay algunos, pero son raros; no hay más de tres de cada cien libros que tengan el lomo de ese color, y menos aún los que lo sean enteramente.

Cuando compramos “Se suponía que esto era el futuro” y lo abrimos, nos dimos cuenta, sin embargo, de que el color de la portada encajaba con el tratamiento que la editorial había querido dar a la maqueta. El uso del color en este libro es espectacular; juega un papel fundamental en la presentación porque ayuda a definir espacios y secciones, y a poner el foco en los conceptos clave que se tratan a lo largo del texto.

El libro de Alvy y Wicho es tan denso de contenido como ligero en su presentación y lectura. Está lleno de nociones e ideas, algunas ciertamente complejas, pero tratadas con un lenguaje que permite hacerlas accesibles a personas de muy diferente nivel de formación y contexto cultural. A quienes tengan por costumbre leer el blog Microsiervos, no les resultará nueva la forma de tratar los temas. A quienes no conozcan el blog o no acostumbren a leerlo, seguramente sí. Por resumir, Alvy y Wicho llevan lustros haciendo comprensibles y amenos conceptos que, de suyo, no lo son. Tras tanto adiestramiento, se nota que dominan el arte de la anotación breve, un difícil arte. Esto, en lo que a la forma se refiere.

Y si nos vamos al fondo, lo que tenemos son una pléyade de nociones de ciencia y, sobre todo, tecnología, esenciales para hacernos una idea cabal de a dónde nos han conducido los avances habidos durante el último medio siglo, aproximadamente, en áreas tales como informática, telecomunicaciones, exploración espacial, y otras relacionadas (o no tanto). Los autores son escépticos, y eso tiene reflejo en la forma en que tratan los temas y también en algunos de sus contenidos. Y dedican algunos apartados a desmontar mitos muy arraigados. El libro es, en cierto sentido, un destilado asequible de cultura tecnológica contemporánea. Y para quienes -como quien suscribe- el futuro siempre resultó una quimera inalcanzable, una valiosa guía para orientarme por sus vericuetos extraños.

Una última observación: me parece un libro muy útil para personal docente de enseñanza primaria y secundaria obligatoria, y también para padres y madres de criaturas y adolescentes; mucho de lo que se trata en este libro debería transmitírseles a los chicos y chicas que se desenvuelven con aparente (a la par que engañosa) normalidad en un entorno cuyos recovecos, con sus sombras y sus luces pueden ofrecer, más que una vista fiel de la realidad, un caleidoscopio de espejismos. Mejor incluso: regálenles el libro.

Post scriptum: Después de leer “Se suponía que esto era el futuro” he llegado a la conclusión de que solo podía tener cubierta amarilla.

Ficha:

Autor: Álvaro «Alvy» Ibáñez  & Javier «Wicho» Pedreira

Título:  Se suponía que esto era el futuro

Año: 2021

Editorial: Montena

 

En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.

El artículo Se suponía que esto era el futuro, una reseña se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. En el control de la inteligencia artificial nos jugamos el futuro
  2. Sin moda no hay futuro
  3. El futuro es inescrutable, sus amenazas también lo son
Categories: Zientzia

Recuperación de fauna en la ría de Bilbao

Sat, 2021/08/21 - 11:59

Bizkaia tuvo un enorme desarrollo económico, tecnológico y social en la segunda mitad del siglo el siglo XIX, y alcanzó su máximo esplendor a finales de ese siglo y a principios del siglo XX. Este desarrollo fue consecuencia de la confluencia de varios factores, entre los que se encontraba la explotación eficiente de los recursos minerales del territorio. La industrialización asociada en el entorno de la ría del Nervión supuso un impacto ecológico enorme en el que solo las especies animales muy resistentes a la contaminación podían subsistir. Eso ha cambiado tal y como se muestra en este vídeo. El vídeo forma parte del proyecto «La Ría del Nervión a la vista de las ciencias y las tecnologías».

 

Edición realizada por César Tomé López

El artículo Recuperación de fauna en la ría de Bilbao se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La recuperación de la fauna en la ría de Bilbao
  2. La ría de Bilbao como medio de transporte de mineral
  3. La recuperación de la vida marina en el Abra de Bilbao
Categories: Zientzia

Claves del éxito invasor de especies vegetales en Europa

Fri, 2021/08/20 - 11:59

La fecha de introducción y el origen geográfico determinan en gran medida la abundancia, extensión geográfica y amplitud ecológica de las plantas invasoras; y sus características biológicas, ligadas a un crecimiento rápido, juegan un importante papel en ese éxito. Estas tres dimensiones biológicas (abundancia, extensión geográfica y amplitud ecológica) son fundamentales para entender el éxito de esas especies invasoras.

Esta es una de las conclusiones principales de un estudio internacional en el que ha participado Idoia Biurrun, profesora del Departamento de Biología Vegetal y Ecología, de la Facultad de Ciencia y Tecnología de la UPV/EHU, aportando datos de la presencia y abundancia de plantas exóticas en comunidades vegetales del norte de la Península Ibérica, así como colaborando en la interpretación de los resultados del estudio. Estos datos, combinados con datos de toda Europa, han sido imprescindibles para calcular el éxito de cada especie exótica en las tres dimensiones: abundancia local, extensión geográfica y amplitud ecológica. Este marco tridimensional mejorará nuestros conocimientos sobre la dinámica de la distribución de las plantas y, por tanto, ayudará a anticipar y gestionar futuras invasiones.

Cortaderia selloana, Fuente: Wikimedia Commons

Las plantas exóticas son aquellas que crecen lejos de su hábitat natural, tras haber sido introducidas en estos nuevos territorios gracias a la acción humana. Las que son capaces de establecerse en estos nuevos ambientes y mantener poblaciones capaces de reproducirse son las especies naturalizadas, y algunas de ellas se vuelven invasoras y pueden producir graves impactos ecológicos y socioeconómicos. Como comenta Idoia Biurrun, son bien conocidos en nuestro ámbito el carrizo de la pampa (Cortaderia selloana) o el bambú japonés (Reynoutria japonica). No todas las especies introducidas tienen la misma “invasividad”, concepto que expresa el éxito o la efectividad a la hora de invadir nuevos hábitats. En consecuencia, un equipo internacional de científicos encabezados por el profesor Mark van Kleunen, experto en invasiones biológicas mundialmente reconocido, ha investigado los diferentes tipos de “invasividad”, así como los potenciales factores que la determinan en las especies introducidas en Europa.

Se investigaron estas tres dimensiones (abundancia local, extensión geográfica y amplitud ecológica) en el ámbito continental europeo para una gran proporción de la flora, tanto nativa como exótica. La introducción temprana en Europa y la capacidad de crecer rápido son características comunes de muchos “super invasores”. Estos descubrimientos mejoran nuestro conocimiento sobre la distribución de las especies vegetales –tanto invasoras como nativas– y pueden ayudar a una mejor predicción y gestión de futuras invasiones.

¿Son todas las especies exóticas igualmente invasoras?

Los expertos en el campo de la ecología son cada vez más conscientes de que el término “invasor” no describe una única propiedad. Existen diferentes características en la distribución de las especies que nos informan sobre su posible carácter invasor. Con el objetivo de conocer más sobre las diferentes vías que pueden seguir las especies introducidas para hacerse invasoras, los autores han combinado dos grandes bases de datos: la base de datos global sobre flora exótica naturalizada (the Global Naturalized Alien Flora –GloNAF-) y la base de datos europea de vegetación (European Vegetation Archive –EVA-).

El estudio partía de la premisa de que estas dimensiones deberían estar relacionadas en las plantas exóticas, tal y como lo están en las distribuciones nativas. Después de todo, las especies exóticas en un lugar son nativas en algún otro lugar. El estudio demostró que las asociaciones entre las tres dimensiones (abundancia local, extensión geográfica, amplitud ecológica) de las especies exóticas que son invasoras en Europa siguen el mismo patrón que la flora nativa europea: las plantas que tienen éxito en una de las dimensiones también tienden a tenerlo en las otras.

A pesar de las similitudes entre plantas nativas y exóticas en sus patrones de asociación, existe una diferencia decisiva entre ambos grupos: a diferencia de las plantas nativas, las invasoras no evolucionaron en los hábitats invadidos en los que se han introducido recientemente. Por ello, los autores del estudio se propusieron como segundo objetivo identificar los condicionantes o factores clave para el éxito de la invasión en cada una de las tres dimensiones, independientemente de que las tres dimensiones puedan estar relacionadas.

Descubrieron que las plantas que tienen valores altos en las tres dimensiones tienden a proceder de otros continentes, como Asia o América, mientras que las plantas que se han introducido desde otras partes de Europa no suelen tener gran éxito como especies invasoras. Además, los “super-invasores” extra europeos a menudo tienen propiedades biológicas que les ayudan a crecer rápido, a cambio de mecanismos de defensa menos desarrollados. Estos resultados apoyan la hipótesis conocida como enemy release hypothesis, que se podría traducir como “hipótesis del escape de los enemigos”. La idea es que las especies invasoras, cuando invaden nuevos territorios, dejan atrás muchos de sus patógenos, herbívoros y competidores, con los que evolucionaron en sus hábitats nativos. Ello les permite “crecer fuera de control”, y este efecto puede ser aún más pronunciado cuando en el proceso de invasión se han cruzado fronteras continentales, tales como océanos o grandes cordilleras.

El equipo científico también encontró excepciones a la regla antes mencionada por el que las plantas con éxito en una dimensión de la invasión también lo tienen en las otras dimensiones, e identificaron algunas causas posibles para estas excepciones. Por ejemplo, cuanto más reciente es la fecha de introducción, más probable es que la planta invasora no cumpla esta regla. Ello se debe a que estas plantas son nuevas en el territorio, y todavía no han desarrollado su potencial. Ello implica que nos debemos de preocupar por las plantas invasoras que tienen éxito en una única dimensión pero son de introducción reciente, pues es bastante probable que se expandan también en las otras dimensiones. Por consiguiente, este marco de las “dimensiones de la invasividad” no solo es una herramienta eficaz para explicar los actuales patrones de naturalización y mejorar nuestro entendimiento sobre la dinámica de la distribución de las especies, también nos puede ayudar a anticipar futuras invasiones y desarrollar estrategias de gestión individualizadas para un mejor control de las plantas invasoras.

Referencia:

Fristoe TS, Chytrý M, Dawson W, Essl F, Heleno R, Kreft H, Maurel N, Pergl J, Pyšek P, Seebens H, Weigelt P, Vargas P, Yang Q, Attorre F, Bergmeier E, Bernhardt-Römermann M, Biurrun I, et al. (2021) Dimensions of invasiveness: Links between local abundance, geographic range size, and habitat breadth in Europe’s alien and native floras PNAS doi: 10.1073/pnas.2021173118

 

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

 

El artículo Claves del éxito invasor de especies vegetales en Europa se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los vegetales de la dieta neandertal
  2. Especies exóticas invasoras
  3. Cómo pronosticar el éxito del tratamiento del cáncer con inmunoterapia
Categories: Zientzia

El misterio del suelo número 726 y la búsqueda de vida en Marte

Thu, 2021/08/19 - 11:59

César Menor-Salván

Imagen tomada por el módulo de aterrizaje de la sonda Viking 2 que muestra la Utopia Planitia en Marte. Fuente: NASA

 

El 20 de julio se cumplía el 45 aniversario del aterrizaje en Marte de la histórica misión Viking. Días después, fallecía Gilbert Levin, uno de los investigadores principales de la misión. A pesar del tiempo transcurrido, y (en mi caso) de modo muy tangencial, aún pudimos participar en la discusión de uno de los aspectos más polémicos de la misión: las evidencias de vida en Marte. Esta es la historia.

Hacia 2007, en el Centro de Astrobiología de Madrid estábamos iniciando una línea de investigación sobre los restos moleculares que los seres vivos dejan en materiales geológicos (biofirmas orgánicas o biomarcadores). Acabábamos también de proponer instrumentación para estudiar la composición orgánica de Titán y Encelado, que viajaría en la futura misión TandEM.

Nuestro trabajo llamó la atención de Christopher McKay, del Centro de Investigación Ames de la NASA, quien nos envió una muestra del suelo número 726. Era el último coletazo de 30 años de discusión científica sobre los resultados de la misión Viking a Marte.

La misión Viking constaba de dos naves, cada una de ellas formada por un orbitador y un aterrizador (lander). Viking 1 aterrizó en Marte el 20 de Julio de 1976 en Chryse Planitia. Viking 2 lo hizo el 3 de septiembre en Utopia Planitia, al otro lado del planeta. Los landers transmitieron datos hasta noviembre de 1982. Los objetivos de la misión eran obtener imágenes, datos ambientales, geofísicos y de composición de la atmósfera y suelo. También intentaba responder a la gran pregunta: ¿hay o hubo vida en Marte?

Modelo a tamaño real del aterrizador Viking, situado en el Centro de Astrobiología. Se observa el brazo para toma de muestras de suelo. Foto: Jorge Pla García

Viking en busca de vida

Los Viking realizaron, entre otros, dos experimentos:

  • El experimento LR (labeled release o radiorespirometría), desarrollado por los equipos de Harold Klein, director del Equipo de Biología, y Gilbert Levin.
  • El experimento de análisis molecular (molecular analisis experiment), usando el instrumento GCMS, desarrollado por el químico del MIT Klaus Biemann.

Para el experimento LR, se incubó suelo con nutrientes orgánicos marcados con carbono-14, midiéndose la emisión de CO₂ radiactivo, lo que sugeriría la presencia de actividad metabólica.

El objetivo del instrumento GCMS era identificar compuestos orgánicos presentes en el suelo o el aire. Para el análisis, una muestra de suelo se calentaba a alta temperatura, para volatilizar posibles compuestos orgánicos. Los compuestos orgánicos volatilizados entrarían en el analizador para identificarlos.

El método es intuitivo: si calentamos cualquier muestra de suelo a temperatura elevada, emitirá compuestos orgánicos procedentes de la vida microscópica y restos vegetales presentes en el suelo. En la Tierra, ni siquiera es necesario calentar, pues el petricor, que hace tan agradables las tormentas veraniegas, ya es un biomarcador.

En Marte, el experimento LR dio un resultado positivo. Sin embargo, el instrumento GCMS no detectó ningún compuesto orgánico en el suelo marciano. ¿Qué significaba? ¿Había vida en el suelo, pero no se podían detectar sus componentes? ¿Acaso no había vida y el resultado se debía a un efecto químico?

El suelo número 726

Los datos de la misión Viking no respondían a la pregunta sobre si había vida en Marte, pero tampoco lo negaban. Más bien abrían nuevas cuestiones. Antes del lanzamiento de la misión, los instrumentos se probaron con diversos tipos de suelos, para obtener una librería de referencia que ayudara a interpretar los datos de Marte.

El equipo de Gil Levin realizó los experimentos con el suelo 726. Este fue recogido en 1966 en la Antártida, en un remoto nunatak llamado Coalsack Bluff, en las montañas Transantárticas. En las pruebas, el suelo 726 daba un resultado similar al del suelo marciano: positivo en el experimento LR y ningún compuesto orgánico detectado con el instrumento GCMS.

El suelo 726 contenía trazas de partículas de carbón y kerógeno, un material de origen biológico común en las rocas. ¿Significaba esto que en Marte había algo de vida? ¿Por qué el GCMS no podía detectar compuestos orgánicos en el suelo 726? ¿Era debido a que el diseño del instrumento no era adecuado? Había que discutirlo, ya que no podemos permitirnos enviar un instrumento cuestionable para detectar huellas de vida.

Para Levin, los datos de Viking sugerían la presencia de vida. Para otros, el resultado del experimento LR era explicable si el suelo es químicamente oxidante. Se discutió la capacidad del instrumento GCMS para detectar pequeñas cantidades de componentes orgánicos.

Se planteó que el problema no era el instrumento, un prodigio técnico, sino que el tratamiento de la muestra no era adecuado para la misión. Tal como estaba diseñado, solo podría detectar ciertos compuestos orgánicos presentes en una cantidad elevada. Por ello, McKay nos envió muestras del suelo 726 a varios implicados en el estudio de biomarcadores. El objetivo era comprobar si podían verse componentes orgánicos en el suelo, y decidir si el tratamiento de muestra del Viking era adecuado o no.

Aspecto del suelo 726 a simple vista y bajo el microscopio. Está formado por minerales de origen volcánico, como olivinos y diópsido. Foto: César Menor-Salván

Perclorato y la esterilidad del suelo de Marte

La discusión terminó en 2008, cuando el Phoenix Mars Lander descubrió perclorato en el suelo de Marte. Una explicación a los resultados de la Viking era el carácter oxidante del suelo. Las sales de perclorato son oxidantes y se descomponen formando hipoclorito (lejía), entre otras cosas, debido a la radiación que asola la superficie marciana. La combinación de oxidantes y radiación sugería que el suelo marciano es estéril e incompatible con la materia orgánica.

Así, la superficie no es el lugar idóneo para buscar vida o biomarcadores. Aun en el caso de que los hubiera en el suelo, estables gracias a la baja temperatura y sequedad del planeta, en el momento en el que se intentaran analizar serían destruidos por el perclorato. Por ello, Viking no podía identificar huellas de vida en ningún caso. Había que cambiar de estrategia: buscar huellas de vida en el subsuelo o atrapadas en arcillas, así como evidencias indirectas a través del estudio de minerales y rocas.

Materia orgánica extraída de 100 g de suelo 726 en nuestro laboratorio. La masa marronácea contiene hidrocarburos, biofirmas de bacterias y plantas y contaminantes de origen humano. Foto: César Menor-Salván

¿Y el suelo 726? Sí, contenía biomarcadores. McKay y sus colaboradores tenían razón: el experimento de análisis molecular, tal como estaba configurado en la Viking, no tenía sensibilidad suficiente, aunque ya daba igual. Ahora sabemos que los experimentos de Viking se diseñaron bajo una perspectiva demasiado geocéntrica. Se necesitaba otro enfoque, que se aplica en los rovers Curiosity y Perseverance.

Un instrumento similar al GCMS de Viking, sin embargo, puede ser importante en la exploración de otros lugares, como Europa o Titán, donde los compuestos orgánicos son claves. Será fascinante ver los datos de las misiones en curso y futuras.The Conversation

Sobre el autor: César Menor-Salván es profesor ayudante doctor de bioquímica y astrobiología en el Departamento de Biología de Sistemas de la Universidad de Alcalá

Este artículo fue publicado originalmente en The Conversation. Artículol original.

El artículo El misterio del suelo número 726 y la búsqueda de vida en Marte se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Marte y el enigma de la vida: el gran desembarco robótico de 2021
  2. Sería buena noticia que no hubiera vida en Marte ni la hubiese habido nunca
  3. La FCT viaja a Marte
Categories: Zientzia

La ley de Stigler… o de Merton, ¿o quizás de Boyer?

Wed, 2021/08/18 - 11:59

 

El matemático Stephen Mack Stigler (1941) es profesor emérito de la Universidad de Chicago. Especialista en estadística, su investigación se ha centrado en la historia de esta disciplina y en la teoría de estimadores robustos.

Stephen Mack Stigler, Robert King Merton y Carl Benjamin Boyer.

 

Es muy conocido por la llamada ley de Stigler, un axioma que formuló en 1980 y que puede enunciarse del siguiente modo:

«Ningún descubrimiento científico recibe el nombre de quien lo descubrió en primer lugar».

En el artículo Stigler’s law of eponymy, Stephen Mack Stigler comienza hablando del sociólogo Robert King Merton (1910-2003) quien, según afirma el matemático, es el verdadero creador de “su ley”, la ley de Stigler.

Pero empecemos por el principio. En 1968 Merton analizó el fenómeno que denominó efecto Mateo en su artículo The Matthew Effect in Science. En este ensayo, el sociólogo estudiaba cómo los científicos de mayor prestigio reciben a menudo un crédito excesivo por sus contribuciones, mientras que aquellos menos conocidos obtienen menor reconocimiento por sus descubrimientos o avances en investigación.

Merton comenzó a pensar en este efecto a raíz de su artículo Resistance to the Systematic Study of Multiple Discoveries in Scienceen el que analizaba las posibles explicaciones del fenómeno de «descubrimiento simultáneo» por el que dos o más científicos logran un descubrimiento idéntico, aproximadamente al mismo tiempo y de manera independiente. El sociólogo argumentaba que, en general, el investigador más famoso consigue el crédito de ese avance en investigación, independientemente de quién fue el primero o de la importancia real de la contribución en comparación con la de la otra persona. Merton lo denominó efecto Mateo en referencia al versículo de la Biblia (Evangelio de Mateo 25:29) que dice: «Porque a todo el que tiene se le dará y le sobrará, pero al que no tiene, se le quitará hasta lo que tiene».

En 1979 se invitó a Stigler a contribuir con un artículo en un libro en homenaje a Merton. El matemático conocía su trabajo sobre el efecto Mateo y el término de profecía autocumplida también acuñada por el sociólogo. Y decidió escribir un texto incorporando ambos conceptos: Stigler’s law of eponymy. Con este título confirmaba, además, que los nombres de los hallazgos o invenciones no suelen ser los de sus creadores…

Algunos ejemplos de la ley de Stigler en matemáticas

Algunos ejemplos de la ley de Stigler en ciencia

Nota 1

En 1972, casi de manera simultánea a Merton, el matemático Hubert Kennedy (1931) acuñó el nombre de ley de Boyer en su artículo Who Discovered Boyer’s Law?. Esta ley afirma que:

«Las fórmulas y teoremas matemáticos generalmente no reciben el nombre de sus descubridores originales».

Es prácticamente la ley de ley de Stigler. ¿Y quién es Boyer? Es el historiador de las matemáticas Carl Benjamin Boyer (1906-1976) quien, en su libro A History of Mathematics (1968), daba algún ejemplo de este fenómeno descrito por Kennedy. Tras hablar de las llamadas series de Maclaurin y de cómo otros autores habían hablado antes de ellas, Boyer comentaba en su libro: «Clío, la musa de la historia, ¡es a menudo voluble al asignar nombres a los teoremas!». Por este motivo Boyer forma parte del título de esta entrada.

Nota 2

El efecto Matilda alude a la discriminación sistemática que han sufrido las mujeres en el ámbito de la ciencia. Recibe este nombre por la activista Matilda Joslyn Gage quien fue la primera persona en hacerse eco de este fenómeno.

La socióloga Harriet Zuckermann sufrió este efecto: sus investigaciones fueron cruciales para que Merton reconociera, describiera y definiera el efecto Mateo en The Matthew Effect in Science, sin citar a la científica excepto en algún pie de página. Ya lo decía Mateo: «Porque a todo el que tiene se le dará y le sobrará, pero al que no tiene, se le quitará hasta lo que tiene».

Recomiendo el artículo de Uxune Martinez Mujer, ciencia y discriminación: del efecto Mateo a Matildapara saber más del tema.

Referencias:

[1] Karl Smallwood, Stigler and “his” law of eponymy, Today I found out,17 febrero 2016

[2] Richard H. Williams and Roy D. Mazzagatti, Mathematical Firsts—Who Done It?, Mathematics Teacher 79 (5) (1986) 387-391

[3] Wikipedia, ley de Stigler

[4] List of examples of Stigler’s law

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo La ley de Stigler… o de Merton, ¿o quizás de Boyer? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El ethos de la ciencia y las normas de Merton
  2. La ciencia quizás tenga valores… pero no sabemos cuáles son
  3. Variaciones artísticas del teorema de Napoleón
Categories: Zientzia

Después del hierro

Tue, 2021/08/17 - 11:59
Reproducción de una espada de hierro/acero de la Cultura de La Tène (alrededor de 450 a.e.c.), realizada por Arma Epona Smithy (República Checa).  Fuente: Etsy

A finales del segundo milenio a.e.c. en Asia Menor tuvo lugar una revolución en la metalurgia que condujo a importantes cambios en la distribución del poder y la riqueza, a la adopción de nuevas herramientas por parte de los agricultores y de nuevas armas para los soldados. Esta revolución fue fue el desarrollo de un proceso aparentemente simple: extraer mineral de hierro del suelo y calentarlo a temperaturas tan altas que el hierro purificado se podía trabajar con el yunque y el martillo.

Después de milenios de herramientas y armas de bronce, que eran difíciles de fabricar y, por tanto, caras y destinadas a la aristocracia, el hierro señaló el paso de buena parte del poder al comerciante y al agricultor de clase media del primer milenio a.e.c. La difusión de la alfabetización y la acuñación de moneda fueron otros factores que también contribuyeron a esta redistribución de la influencia y el poder económicos y sociales en detrimento de la antigua aristocracia terrateniente. Y entonces, cada vez más, la filosofía y la ciencia se convirtieron en una actividad en la que otros, además de unos pocos privilegiados, podían participar.

Los primeros usuarios del hierro fueron los hititas del este de Anatolia, que dependían de la experiencia de los armenios para trabajar el hierro. Al parecer, este pueblo había descubierto los medios para calentar el hierro de la misma manera que se calienta el cobre para expulsar las impurezas; el herrero podía entonces martillar el hierro forjado para darle forma. Sin embargo, el hierro forjado no era útil como arma y tenía un uso esencialmente decorativo. Los egipcios, que tomaron prestado el uso del hierro de los hititas, al principio usaando hierro procedente de meteoros, el «hierro del cielo», empleaban hierro forjado.

El acero es un conjunto de aleaciones que contienen fundamentalmente hierro con distintas proporciones de carbono (hasta el 1,7 %) y, en ocasiones, pequeñas cantidades de otros elementos como manganeso, silicio, cromo, molibdeno o níquel. El proceso de convertir el hierro en acero probablemente ocurrió por primera vez hacia el final del segundo milenio a.e.c. en Anatolia. Este nuevo proceso implicaba el uso de la fragua y los fuelles. El carbón se hacía arder en un recinto semicerrado, la fragua, donde se insuflaba oxígeno con los fuelles, hasta que se alcanzaban temperaturas extremas, más de 1.100 grados Celsius. A estas temperaturas el hierro se fundía hasta un punto en el que se eliminaban las impurezas e incorporaba una pequeña proporción de carbono.

Los primeros pueblos que utilizaron armas de hierro con filo de acero —los hititas de Turquía, los dorios que invadieron Grecia y destruyeron la civilización micénica y los pueblos del mar, como los filisteos que se expandieron por el Mediterráneo oriental arrasando y conquistando— no destacaban precisamente por sus avances culturales. Sin embargo, estos pueblos aparentemente primitivos conquistaron pueblos mucho más sofisticados que todavía usaban armas de bronce.

A partir del 1000 a.e.c., en la región mediterránea, los guerreros que podían elegir escogían armas de hierro. Durante el primer milenio a.e.c. todavía se usaron armas de bronce, pero lo hacían los perdedores.

Espadas celtíberas cortas con antenas atrofiadas procedentes de las necrópolis de «La Osera» y «Cardeñosa», ambas en la provincia de Ávila (España). Pertenecen a la Cultura de las Cogotas-II (alrededor del 400 a.e.c.). Ilustración de Juan Cabré Aguiló (1931): «Tipología del puñal en la cultura de Las Cogotas». Archivo Español de Arqueología, Madrid

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Después del hierro se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Antes del hierro
  2. Después del bronce
  3. ¿Por qué hay hierro en Bizkaia?
Categories: Zientzia

La clave ecológica en el uso de herramientas en aves

Mon, 2021/08/16 - 11:59

Más de dos décadas de estudio sobre el uso de herramientas en aves apuntan al papel determinante de los factores ecológicos en el desarrollo de esta habilidad.

Hoy sabemos que el uso de herramientas, antiguamente atribuido exclusivamente al ser humano, está presente en multitud de taxones y no es necesariamente un indicativo de una notable capacidad cognitiva. Muchos animales simplemente repiten ciertos mecanismos de manera instintiva, automatizada e invariable.

Un grupo de creciente interés en este ámbito es el de las aves. Se sabe que varias familias de aves, como los córvidos o los loros, tienen una elevada capacidad cognitiva y la evolución les ha hecho más capaces de observar e interaccionar con su entorno de manera flexible e inteligente. Sin embargo, pese a la abundancia de especies dentro de estas familias notables de aves, los casos de uso habitual de herramientas en su entorno natural son escasos.

https://culturacientifica.com/app/uploads/2021/07/Uso-Herramientas-Aves1.mov

Vídeo: Las aves y el uso de herramientas. (Animación: Alberto Molina Serrano)

Los cuervos de Nueva Caledonia (Corvus moneduloides), los cuervos hawaianos (Corvus hawaiiensis) o el pinzón de Darwin carpintero (Camarhynchus pallidus) comparten un factor importante, el entorno. Tanto Nueva Caledonia, Hawaii o las Galápagos (los lugares de origen de las tres especies, respectivamente) son entornos aislados, donde (hasta la llegada del ser humano) los depredadores eran escasos o inexistentes y donde tampoco abundaban las fuentes fáciles de alimento. La escasez de competencia en estos entornos dejaba disponibles ciertos nichos de alimentación de difícil acceso (frutos con pinchos, larvas de insectos escondidas en la corteza de los árboles, etc.). La necesidad de alimentarse, unida a la tranquilidad y el tiempo disponible por no tener que escapar de depredadores, permitió a estas aves explorar, innovar y finalmente, perfeccionar el uso de herramientas para sobrevivir.

Se sabe que, aunque ciertos animales no utilicen herramientas en su hábitat, poseen la capacidad fisiológica y cognitiva para hacerlo. El ejemplo más notable se llamaba «Fígaro», una cacatúa de las Tanimbar (Cacatua goffiniana), especie que en la naturaleza no había sido observada nunca utilizando herramientas, alojada en el Messerli – Research Institute en Viena, que improvisó una herramienta de madera para alcanzar una piedra que había caído fuera de su jaula. El resto de cacatúas del centro aprendieron rápidamente, inicialmente por observación e imitación, pero pronto experimentando y modificando el mecanismo. Otro suceso notable lo protagonizó un ejemplar de la misma especie, esta vez perteneciente a una población invasora establecida en Singapur, que fue observado utilizando ramitas para agujerear un coco y alimentarse de su interior.

El creciente número de estudios y observaciones de estos comportamientos en aves parecen subrayar la importancia de las condiciones ecológicas como condicionantes del uso de herramientas.

Referencias consultadas:

Osuna-Mascaró y Auersperg, (2018). On the brink to tool use? Object combinations during foraging in a feral Goffin’s cockatoo (Cacatua goffiniana) may result in rewarding tool innovations. Animal Behavior and Cognition, 5(2), 229–234. DOI: 10.26451/abc.05.02.05.2018

Autor: Alberto Molina Serrano (@alb_molinas), alumno del Postgrado de Ilustración Científica de la UPV/EHU – curso 2019/20

Artículo original: Sobre el origen del uso de herramientas en aves. Antonio J. Osuna Mascaró, Cuaderno de Cultura Científica, 24 de junio de 2017.

Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.

El artículo La clave ecológica en el uso de herramientas en aves se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sobre el origen del uso de herramientas en aves
  2. Las aves de Prometeo
  3. Tamaño corporal y función renal de aves y mamíferos
Categories: Zientzia

Hormigas que esclavizan hormigas

Sun, 2021/08/15 - 11:59
La cara de un esclavista. Cabeza de un individuo de Harpagoxenus sublaevis, una de las especies estudiadas. Fuente: AntWeb

Las llamamos, con toda propiedad, esclavistas. Las esclavas no son de su misma especie, sino de otra muy próxima desde el punto de vista biológico. Esclavizan a sus parientes genéticos, por así decir. Algunas hormigas esclavistas capturan obreras de la especie a la que esclavizan y las llevan a su colonia para que trabajen para ellas: atienden a sus crías, les ayudan a defenderse, buscan alimento para ellas y mantienen limpias las colonias. Lo más frecuente es que capturen los ejemplares en estados muy tempranos de desarrollo, en forma de larvas o pupas; las llevan a su colonia y, una vez se convierten en hormigas obreras, empiezan a trabajar para sus dueñas. Pero en algunas especies capturan trabajadoras adultas.

La emergencia de la eusocialidad en las hormigas, esto es, el desarrollo de sociedades complejas, con castas de individuos que desempeñan diferentes tareas (trabajo, reproducción, defensa) y que cooperan para mantener una colonia y sacar adelante a la prole, vino acompañado por una multiplicación de los genes que codifican las moléculas quimiorreceptoras, tanto del olor como del sabor; ello da muestra de la gran importancia que tiene la comunicación química en estas especies. Por eso, tiene especial interés el hecho de que las obreras de hormigas esclavistas sean capaces de reproducirse. Podría decirse que han recuperado ese rasgo, lo que se atribuye a la pérdida de la capacidad para percibir y responder a las feromonas de la hormiga reina que inhiben la actividad reproductora.

En un estudio reciente han secuenciado el genoma de ocho especies de hormigas, tres parásitas, sus tres especies parasitadas y dos especies no parasitadas, para averiguar si en esas tres especies parásitas se habían perdido quimiorreceptores. Y lo que han encontrado es que las parásitas tenían la mitad de los receptores del gusto que las otras cinco especies y tres cuartas partes de los del olfato. En otras palabras, en esas especies se ha perdido la capacidad gustativa en un 50% y la olfativa en un 25%. Son capaces, por tanto, de identificar por esas vías muchas menos sustancias que las que identifican las parasitadas y las dos que no son ni parásitas ni parasitadas.

La pérdida de los receptores gustativos se atribuye a que esas especies ya no buscan alimento, porque lo hacen por ellas -y a sus órdenes- las parasitadas y, por lo tanto, no necesitan recibir y decodificar tanta información por esa vía. Y la desaparición de receptores olfativos se atribuye, en parte al menos, a la pérdida o atenuación de la condición eusocial en esas especies. Es perfectamente lógico que, de la misma forma que la eusocialidad vino acompañada por una multiplicación de los quimiorreceptores, la pérdida de parte de estos conlleve igualmente una atenuación de esa condición tan especial.

Muchos de los genes del olfato perdidos por las especies parásitas son comunes a las tres estudiadas. Se trata, por lo tanto, de lo que los biólogos denominamos una convergencia, pues la pérdida de los genes en cuestión se ha producido de forma independiente en esas especies. Y dado que es muy improbable que tales cosas ocurran por casualidad, la consecuencia que se extrae es que se trata de una pérdida ventajosa, una de la que decimos que es de alto valor adaptativo, probablemente porque producirlos y mantenerlos conlleva un coste que no se ve compensado por una ganancia equivalente.

La metáfora resulta sugerente: en las hormigas, la adopción del esclavismo conlleva la atenuación o pérdida de la eusocialidad y de las capacidades sensoriales que la posibilitan. La evolución no sigue ninguna flecha temporal; la historia humana seguramente tampoco.

Fuente:

Jongepier E. et al (2021): Convergent loss of chemoreceptors across independent origins of slave-making in ants. bioRxiv 2021.05.11.443570. doi: 10.1101/2021.05.11.443570

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Hormigas que esclavizan hormigas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Al rescate
  2. Rana come mosquito
  3. Una desorbitada debilidad por los escarabajos
Categories: Zientzia

El Puente Bizkaia, icono de la era industrial

Sat, 2021/08/14 - 11:59
Foto: jarnogz / 123rf

Bizkaia tuvo un enorme desarrollo económico, tecnológico y social en la segunda mitad del siglo el siglo XIX, y alcanzó su máximo esplendor a finales de ese siglo y a principios del siglo XX. Este desarrollo fue consecuencia de la confluencia de varios factores, entre los que se encontraba la explotación eficiente de los recursos minerales del territorio. Clave en esta explotación estuvo el uso de la ría del Nervión como medio de transporte. El crecimiento en habitantes e instalaciones en sus márgenes llevó a la necesidad de construir sistemas que permitieran pasar personas y mercancías de una margen a la otra. Ahí surge la idea del puente Bizkaia en 1888. El Puente de Bizkaia está reconocido por la UNESCO como Patrimonio Mundial de la Humanidad.

En este vídeo se recogen los hitos más importantes en la construcción del Puente de Bizkaia actual, así como algunas de sus características estructurales. El vídeo forma parte del proyecto «La Ría del Nervión a la vista de las ciencias y las tecnologías».

Edición realizada por César Tomé López

El artículo El Puente Bizkaia, icono de la era industrial se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Por qué hay hierro en Bizkaia?
  2. La ría de Bilbao como medio de transporte de mineral
  3. Cuando por Bizkaia corrían rinocerontes
Categories: Zientzia

Pages