S'abonner à flux Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Mis à jour : il y a 1 heure 19 sec

Geometría en los pavimentos romanos cosmatescos

mer, 2021/12/15 - 11:59

 

El mundo está lleno de casualidades. Mi anterior entrada del Cuaderno de Cultura Científica titulada Paseando entre árboles de Pitágoras terminaba con una construcción similar al árbol de Pitágoras, pero tomando como base un triángulo equilátero, en lugar de un triángulo rectángulo, junto a los tres cuadrados apoyados en los lados del triángulo. Esta construcción da lugar, no a un árbol fractal, sino al mosaico rhombitrihexagonal.

Las dos siguientes imágenes son las que cerraban la anterior entrada. La primera es la estructura generada utilizando el triángulo equilátero y los tres cuadrados laterales, después de cuatro pasos, aunque representando solo los cuadrados.

Fuente:  Wikimedia Commons

 

Mientras que la segunda es el mosaico rhombitrihexagonal que, como comentábamos, se puede generar con esta construcción.

Fuente:  Wikimedia Commons

 

Lo curioso es que unos días después de publicarse esa entrada me fui de viaje a Roma, esa monumental y hermosa ciudad italiana que muchos hemos conocido a través del cine, de la mano de Gregory Peck y Audrey Hepburn subidos a una moto Vespa en la película Vacaciones en Roma (1953) de William Wyler o junto a Anita Ekberg y Marcelo Mastroianni en la Dolce Vita (1960) de Federico Fellini, con la mítica escena de sus personajes bañándose en la Fontana de Trevi, entre otras películas.

Mi primera sorpresa llegó nada más aterrizar en el Aeropuerto de Roma-Fuimicino, mientras salía del mismo. Uno de los carteles publicitarios del aeropuerto mostraba la siguiente imagen.

Foto: Marian Espinosa

Esta imagen, que pertenecía a la publicidad del pabellón italiano en la Expo Dubai 2020, que debido al covid 19 se está celebrando entre octubre de 2021 y marzo de 2022, no era otra que la de la construcción geométrica anterior. ¡Qué bonita casualidad!

La siguiente casualidad no lo era tanto si tenemos en cuenta que la ciudad de Roma está llena de hermosos mosaicos geométricos muy bien conservados. Con la intención de visitar la Boca de la Verdad, para emular a Gregory Peck y Audrey Hepburn, entré en la Basílica de Santa María en Cosmedin. Allí se encuentra esta antigua máscara de mármol pavonazzetto, que según cuenta la leyenda quién miente se queda sin mano al meterla en el hueco de la boca de la misma. La Basílica de Santa María en Cosmedin fue construida en el siglo VIII sobre los restos romanos del Templum Herculis Pompeiani, templo de la Antigua Roma dedicado a Hércules, y destaca por su decoración en estilo cosmatesco. Este estilo de decoración debe su nombre a la familia Cosmati, una familia de artesanos, de alrededor del siglo XII, que cogían mármol de antiguas ruinas romanas y utilizaban sus fragmentos para crear nuevas decoraciones geométricas, como las que podemos ver en la Basílica de Santa María en Cosmedin.

Vista general del interior y el pavimento de la Basílica de Santa María en Cosmedin. Foto:  Dnalor01 / Wikimedia Commons

 

Observando este hermoso pavimento me llevé algunas sorpresas. Una de ellas fue una parte del pavimento en el que aparecía el mosaico rhombitrihexagonal anteriormente mencionado, que está formado por triángulos equiláteros (aunque en este mosaico cosmatesco estos están divididos a su vez en cuatro pequeños triángulos equiláteros), cuadrados y hexágonos regulares, con mármoles blancos veteados, rojos y verdes. ¡Qué bella realización del mosaico rhombitrihexagonal!

Parte del pavimento de la Basílica de Santa María en Cosmedin con el mosaico rhombitrihexagonal, formado por triángulos equiláteros, cuadrados y hexágonos. Foto: Marian Espinosa

 

Llegados a este punto podríamos pensar un poco en los mosaicos desde el punto de vista de las matemáticas, de la geometría.

Para empezar, imaginemos que queremos embaldosar un suelo con baldosas que tengan la misma forma y tamaño. En concreto queremos que las baldosas sean sencillas, que sean polígonos regulares, que son aquellos polígonos cuyos lados –y también ángulos interiores- son iguales entre sí, como en el triángulo rectángulo, el cuadrado o polígonos con más lados como el pentágono, el hexágono, el heptágono o el octógono regulares. Además, queremos embaldosar el suelo de forma regular, es decir, no solo que las baldosas sean polígonos regulares, sino que estén pegadas lado con lado. Si pensamos en mosaicos de este tipo, llamados embaldosados o teselaciones regulares, se nos ocurrirán tres sencillos ejemplos que están muy presentes en nuestro día a día, con triángulos equiláteros, con cuadrados y con hexágonos, como se muestra en la siguiente imagen.

Embaldosados regulares con triángulos, cuadrados y hexágonos. Composición a partir de imágenes de R. A. Nonenmacher en Wikimedia Commons

 

El siguiente mosaico del pavimento de la Basílica de Santa María en Cosmedin toma como base el embaldosado regular con cuadrados, aunque algunos cuadrados no son lisos, sino que tienen su propio diseño geométrico (con pequeños cuadrados y triángulos).

Mosaico del pavimento de la Basílica de Santa María en Cosmedin que toma como base el embaldosado regular con cuadrados. Foto: Marian Espinosa

 

Mientras que este otro mosaico del mismo lugar, toma como base el mosaico regular hexagonal. Aunque en este ejemplo los propios lados de los hexágonos están muy marcados al ser pequeñas baldosas –es lo que se llama un teselado hexagonal achaflanado- y además el interior de los hexágonos está a su vez decorado a base de rombos.

Mosaico del pavimento de la Basílica de Santa María en Cosmedin que toma como base el embaldosado regular con hexágonos. Fuente: Wikimedia Commons

 

Pero volviendo a la geometría, la cuestión importante es si hay más embaldosados regulares. Ya en la entrada Diseños geométricos con chocolate abordábamos esta cuestión, que recuperamos en esta entrada.

Si nos fijamos en un vértice cualquiera de alguno de los tres embaldosados anteriores, formados por triángulos equiláteros, cuadrados o hexágonos regulares, en él confluyen un cierto número de baldosas (triangulares, cuadradas o hexagonales). En el caso del mosaico triangular, en cada vértice se juntan 6 triángulos equiláteros, puesto que el ángulo interior del triángulo equilátero es de 60 grados, y seis veces 60 grados son 360 grados (6 x 60 = 360), que es la vuelta completa alrededor del vértice. En la teselación por cuadrados se juntan 4 de estos polígonos, cada uno de ellos con un ángulo interior de 90 grados en el vértice, y de nuevo, 4 veces 90 grados son 360 grados (4 x 90 = 360). Finalmente, los ángulos interiores de los hexágonos son de 120 grados, lo cual es coherente con el hecho de que alrededor de cada vértice del embaldosado por hexágonos, hay exactamente tres hexágonos en la configuración alrededor del vértice (es decir, 120 x 3 = 360).

La pregunta, llegados a este momento, es si es posible que existan más embaldosados mediante polígonos regulares. La respuesta viene de la mano de la configuración alrededor de cualquier vértice del mosaico. Dada una teselación, alrededor de cada vértice hay un cierto número n de baldosas, luego los ángulos del polígono medirán 360 / n grados, por lo que podemos ver qué posibilidades existen: i) 360 / 2 = 180 grados (que no nos da ningún polígono); ii) 360 / 3 = 120 grados (hexágonos); iii) 360 / 4 = 90 grados (cuadrados); iv) 360 / 5 = 72 grados (pero no hay ningún polígono regular con un ángulo interior de 72 grados); v) 360 / 6 = 60 grados (triángulos); y no hay más posibilidades que nos den un polígono. En consecuencia, acabamos de demostrar el siguiente teorema:

Los únicos embaldosados regulares lado a lado son los formados con triángulos equiláteros, con cuadrados o con hexágonos regulares.

No es posible embaldosar el pavimento con losetas pentagonales regulares. Los ángulos interiores de un pentágono valen 108 grados, luego con tres baldosas pentagonales no acabamos de completar los 360 grados alrededor de un vértice, pero con cuatro baldosas nos pasamos

 

Por cierto, que los ángulos interiores de un pentágono miden 108 grados, de un heptágono 128,6 grados, y en general, para un polígono regular de n lados, no es difícil de probar que el ángulo interior vale (n – 2) x 180 / n grados.

Este tipo de embaldosado regular –con triángulos equiláteros, cuadrados o hexágonos regulares- es muy frecuente en la decoración de nuestra vida. Sin embargo, consideremos embaldosados un poco más complejos. Imaginemos que ahora en lugar de considerar únicamente baldosas con la forma de un único polígono regular, se construyen mosaicos utilizando varios polígonos regulares distintos como baldosas. El número de lados de las baldosas puede variar, pero no la longitud de cada lado, ya que las baldosas se seguirán pegando lado con lado. Por ejemplo, en el mosaico rhombitrihexagonal se utilizan baldosas triangulares, cuadradas y hexagonales, con lados de la misma longitud. Otro ejemplo aparece en la siguiente imagen, que es un mosaico formado por hexágonos y triángulos equiláteros cuyos lados son iguales (aunque de nuevo, en este pavimento, los triángulos equiláteros están divididos a su vez en cuatro pequeños triángulos equiláteros, para darle más riqueza geométrica al pavimento), que se llama mosaico trihexagonal.

Parte del pavimento de la Basílica de Santa María en Cosmedin con un mosaico formado con triángulos equiláteros y hexágonos. Foto: Marian Espinosa

 

Estos dos ejemplos de mosaicos se llaman embaldosados o teselaciones uniformes, o semiregulares, ya que alrededor de cualquiera de sus vértices se tiene la misma configuración de polígonos regulares, en el primer caso en cada vértice vemos cuadrado, triángulo, cuadrado y hexágono, mientras que en el segundo es triángulo, hexágono, triángulo, hexágono. Si queremos estudiar qué tipos de teselaciones uniformes existen, el procedimiento es similar al anterior para las regulares.

Para empezar, el número de polígonos regulares –denotémoslo k– alrededor de cada vértice del embaldosado semiregular es menor o igual que 6, ya que el polígono regular con menor ángulo interior es el triángulo, con un ángulo de 60 grados, y solo puede haber 6 triángulos en un vértice. Por lo tanto, tomando los posibles valores de k como 3, 4, 5 o 6, y realizando un pequeño razonamiento sobre los ángulos interiores de los polígonos regulares se puede deducir que las únicas posibilidades son las siguientes:

i) Para k = 6 (seis polígonos en cada vértice), solo puede haber 6 triángulos equiláteros alrededor de cada vértice. A esta configuración la denotamos (3, 3, 3, 3, 3, 3) y da lugar a la teselación regular triangular.

ii) Para k = 5 (cinco polígonos en cada vértice), hay tres configuraciones posibles (3, 3, 3, 3, 6) –cuatro triángulos y un hexágono-, (3, 3, 3, 4, 4) –tres triángulos y dos cuadrados- y (3, 3, 4, 3, 4) –de nuevo, tres triángulos y dos cuadrados, pero en otro orden-.

iii) Para k = 4, hay siete configuraciones posibles, a saber (3, 3, 6, 6) –dos triángulos y dos hexágonos-, (3, 6, 3, 6) –dos triángulos y dos hexágonos, con otro orden-, (3, 4, 4, 6) –un triángulo, dos cuadrados y un hexágono-, (3, 4, 6, 4) –un triángulo, dos cuadrados y un hexágono, con otro orden-, (3, 3, 4, 12) –dos triángulos, un cuadrado y un dodecágono-, (3, 4, 3, 12) –dos triángulos, un cuadrado y un dodecágono, en otro orden- y (4, 4, 4, 4) –cuatro cuadrados-.

iv) Y para k = 3, hay diez configuraciones posibles, que son (3, 7, 42), (3, 8, 24), (3, 9, 18), (3, 10, 15), (3, 12, 12), (4, 5, 20), (4, 6, 12), (4, 8, 8), (5, 5, 10) y (6, 6, 6).

En la siguiente imagen vemos todas las 21 posibles configuraciones en los vértices de una teselación uniforme.

Lista de las 21 configuraciones posibles de vértices para mosaicos uniformes. Imagen del artículo k-uniform tilings by regular polygons, de Nils Lenngren

 

Por lo tanto, no puede haber embaldosados uniformes tal que los vértices tengan configuraciones diferentes a estas 21 que acabamos de mostrar. Sin embargo, esto no quiere decir que todas estas configuraciones den lugar a mosaicos semiregulares. De hecho, trabajando configuración a configuración se puede obtener que solamente existen 8 embaldosados uniformes, obviando los 3 regulares ya conocidos (luego 11 en total), que se muestran en la siguiente imagen.

Ilustraciones de los 8 embaldosados uniformes no regulares. Composición a partir de imágenes de Tomruen en Wikimedia Commons

 

Por ejemplo, si se hacen “baldosas” de cartón (o de cualquier otro material) de triángulos equiláteros (3) y hexágonos (6) se puede ver que la configuración (3, 3, 6, 6) no da lugar a ningún embaldosado, aunque la configuración (3, 6, 3, 6) sí, como se muestra en la anterior imagen. Veamos el razonamiento. Dada la configuración (3, 3, 6, 6) en un vértice (como se muestra en la siguiente imagen, en gris las dos baldosas hexagonales y en azul las dos triangulares) e intentamos completar el vértice marcado en amarillo con un hexágono solo hay dos opciones. En la primera (imagen superior) en el vértice amarillo quedaría la configuración (3, 6, 3, 6), que no es la buscada, mientras que en la segunda (imagen inferior) nos provocaría que en el vértice marcado en rosa aparecieran ya tres triángulos, lo que tampoco es la configuración buscada (3, 3, 6, 6). Luego esta configuración es imposible.

Volviendo a la Basílica de Santa María en Cosmedin, los dos mosaicos mostrados arriba se corresponden con las configuraciones (3, 4, 6, 4), el rhombitrihexagonal, y (3, 6, 3, 6), el trihexagonal. Pero veamos que aún hay algún otro embaldosado uniforme en esta hermosa iglesia. En la siguiente imagen podemos apreciar el mosaico (3, 6, 3, 6) anteriormente comentado y el (4, 8, 8), llamado embaldosado cuadrado truncado, formado por cuadrados y octógonos.

Embaldosados (3, 6, 3, 6) y (4, 8, 8) de la Basílica de Santa María en Cosmedin. Foto: Sailko / Wikimedia Commons

 

Si a la teselación (3, 3, 3, 3, 6), que se conoce con el nombre de teselado hexagonal romo, se le juntan los dos triángulos de cada vértice del hexágono para formar un rombo, como se muestra en esta imagen

se obtiene el siguiente pavimento de esta basílica romana.

Mosaico construido a partir del embaldosado uniforme (3, 3, 3, 3, 6) en Basílica de Santa María en Cosmedin. Foto: Denhgiu / Wikimedia Commons

 

Llegados a este punto de la escritura de esta entrada, me puse a buscar algún ejemplo más de pavimento cosmatesco con alguno de los mosaicos uniformes que me faltaban, entonces me encontré con esta imagen (aunque como la descarté en un inicio no tengo la referencia de la misma, ¡perdón!).

En la misma teníamos triángulos, cuadrados y octógonos, luego no podía ser uno de los once embaldosados uniformes. Entonces me fijé en los vértices y observé que había dos tipos de vértices, aquellos con una configuración (3, 8, 3, 8) y otros con (3, 4, 3, 8). Como el ángulo interior de un octógono es de 135 grados, en la primera configuración los ángulos alrededor del vértice sumarían 60 + 135 + 60 + 135 = 390 grados, lo cual supera la vuelta entera, mientras que en el otro caso, la suma de los ángulos alrededor del vértice sería 60 + 90 + 60 + 135 = 345, que no llega a una vuelta entera. Por lo tanto, en este mosaico hay una pequeña trampa y las baldosas no son polígonos regulares, por ejemplo, el triángulo puede no ser equilátero o el cuadrado ser realmente cualquier otro cuadrilátero, ya sea un paralelogramo, un trapecio o un trapezoide.

Aunque podíamos haber tenido un mosaico con polígonos regulares y dos tipos de vértices con configuraciones distintas, es lo que se llama teselaciones 2-uniformes. Por ejemplo, en la siguiente imagen podemos ver un mosaico de la Catedral de Santa María de la Asunción en Sutri.

Si nos fijamos bien en la parte posterior de la imagen y consideramos el rombo formado por dos triángulos equiláteros, entonces la estructura del mosaico sería la siguiente.

Es un mosaico que tiene dos tipos de vértices, con configuraciones (3, 3, 6, 6) y (3, 6, 3, 6), es decir, es un embaldosado 2-uniforme. Pero dejemos este tipo de embaldosados para otra ocasión.

Aunque como decía al principio de esta entrada del Cuaderno de Cultura Científica, la Basílica de Santa María en Cosmedin me deparó alguna sorpresa más, pero de eso hablaremos en una siguiente entrada.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Geometría en los pavimentos romanos cosmatescos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Una escala de pH para el mundo real

mar, 2021/12/14 - 11:59
Algas en el río Tinto. Foto: Paco Naranjo / Wikimedia Commons

El pH es un índice omnipresente: desde la publicidad cosmética hasta el estado de la piscina. Es una escala sencilla, y cualquiera puede determinar el valor de una muestra fácilmente en caso de necesidad. Incluso el concepto no es demasiado complicado, bastan las matemáticas y la química de secundaria para tener una idea bastante precisa.

Pero lo que está bien para un ciudadano medio puede no estarlo para un científico. Hace unos años un divulgador de fama mundial publicaba un artículo sobre organismos extremófilos en entornos de acidez extrema, con valores de ph negativos. Una microbióloga de fama también mundial en los comentarios llamó la atención sobre lo que ella consideraba un error, los pHs negativos.

Increíble, pero cierto. Porque los pHs negativos existen, por definición de pH.

Hechos como este hacen que uno se cuestione sobre el nivel de formación química elemental de algunos personas con títulos universitarios: desde graduadas en medicina que prescriben homeopatía (cuyo mero concepto es incompatible con la existencia de los átomos), por ejemplo, a microbiólogas de renombre, como hemos visto. Como, a fin de cuentas, esto es algo que no podemos remediar en su conjunto, vamos a intentar explicar el concepto de pH que debería conocer, no ya un científico, sino un ciudadano informado, y más que nada por si alguien lo busca en Internet, siguiendo la filosofía educativa de según qué ministres. Para ello haremos un repaso más o menos formal sobre el concepto habitualmente admitido, luego nos iremos al fútbol y finalmente veremos como nos queda la definición de pH.

Un poco de historia

Svante Arrhenius fue un químico sueco al que habitualmente se le atribuye la idea de que las moléculas en disolución acuosa se disocian en sus iones (esto es discutible; Max Planck, de fama cuántica, tendría algo que decir, pero esta es otra historia). Una parte muy interesante de este concepto es que se encuentran similitudes y, por tanto, se pueden pueden aplicar las ecuaciones termodinámicas, entre una disolución en la que el soluto está parcialmente ionizado con un gas parcialmente disociado. Siguiendo esta línea de razonamiento Wilhelm Ostwald llegó a su “ley de la dilución” en 1887, posteriormente confirmada experimentalmente, en la que afirma que existe una relación constante entre el grado de disociación (α) de una molécula y el volumen de la disolución (v) que contiene un mol del electrolito, en concreto

α2/(1- α)v = k

donde k , como se demostraría más tarde, es la constante de equilibrio. Esta relación proporciona un modo de medir la fortaleza de ácidos y bases. Veámoslo.

Consideremos el agua, que se disocia como:

2H2O ↔ H3O+ + OH–

Como a partir de medidas de conductividad sabemos que α para el agua es del orden de 10-8, la ley de Ostwald podemos aproximarla a

k = α2/v, ya que (1- α) es prácticamente 1.

Por otro lado, la constante de equilibrio de la disociación, es decir,

k = [H3O+][OH–]/[H2O]

donde los corchetes indican concentración de la especie moles por litro (o dm3), se puede reducir a

k’ = [H3O+][OH–]

Lo que es cierto porque la cantidad de agua es muy grande y, por tanto, [H2O], prácticamente constante.

Este producto, llamado producto iónico del agua, es constante a ciertas temperaturas en las que, en la práctica, toma un valor de 10-14 mol2/dm6. Esto es lo mismo que afirmar que para el agua pura a determinadas temperaturas

[H3O+] = [OH–] = 10-7 mol/dm3.

Si bien varios investigadores ya habían sugerido que la concentración de ion hidronio (H3O+) podía usarse como una referencia para comparar la fortaleza de los ácidos y bases, no fue hasta 1909 que el bioquímico sueco Søren Peder Lauritz Sørensen sugirió eliminar el uso de un número exponencial, con exponente negativo además, y sustituirlo por el logaritmo en base 10 cambiado de signo de [H3O+] , formando de esta forma una escala que iba convenientemente de 1 a 14, con el 7 para “neutro”. Como Sørensen, que se expresaba en alemán, abrevió la “potencia de la concentración de ion hidronio” a potenz-H, o pH, esto es,

pH = -log10[H3O+]

La escala de pH tuvo una aceptación inmediata entre la comunidad biológica/bioquímica. Los químicos no empezaron a usarla hasta unos años después, con la aparición del libro de 1914 de Leonor Michaelis sobre las concentraciones de ion hidronio. La emigración de Michaelis a Estados Unidos en 1926, propagó la escala a aquel país, y la aparición del pehachímetro portátil de Arnold Beckam en 1935 terminó de convertir a los indecisos.

Escala del pH de andar por casa.

Una definición conveniente para sistemas biológicos (terráqueos)

Hoy día esta definición de pH es la que aparece en la mayoría de libros de texto de química general, y es la que la inmensa mayoría de personas asume. Pero démonos cuenta de que se hacen muchas suposiciones en esta definición, entre otras que las especies no interaccionan entre sí, esto es, que el ácido o la base se disocian en agua y esta disociación no se ve afectada por otras especies presentes. Además que los efectos de la temperatura son despreciables y que la cantidad de agua es mucho mayor que las especies disueltas en ella.

Si nos fijamos esas suposiciones encajan bastante bien con los sistemas biológicos que conocemos y el rango de la escala definida se adapta convenientemente. A título de ejemplo señalemos que el pH más bajo que tiene nuestro cuerpo se mide en el estómago, corresponde al ácido gástrico y vale 1; nuestra piel tiene un pH de 5,5, la sangre del orden de 7,4 (como comparación el agua a 37ºC tiene 6,8; 7 solamente en condiciones normalizadas) y las secreciones del páncreas, que son las más básicas, 8,1.

El problema surge cuando se tratan sistemas químicos alejados de las condiciones idealizadas de esta definición de pH o cuando tratamos sistemas biológicos en condiciones extremas: alta salinidad, temperaturas muy bajas o muy altas, cantidades mínimas de agua líquida presente, etc. De hecho, el artículo al que nos referíamos al comienzo trata de la búsqueda de vida extremófila en un entorno en el que el pH es de -3,6 (menos tres coma seis). Un simple cálculo nos indica que, con la definición de pH que tenemos, la concentración de ion hidronio es de ¡3981 moles por litro de disolución! ¡No tiene sentido!. ¿Se han equivocado los autores? No, es que la definición de pH que hemos visto no es válida en términos estrictos para ningún sistema real. Como el concepto nuevo que necesitamos puede ser un poco complicado de entender al principio, vámonos al fútbol primero.

Bienvenidos al Estadio Olímpico de Páramos de Hiendelaencina

Consideremos [esto a los españoles les costará menos] que en Páramos de Hiendelaencina, que tiene 1000 habitantes pero está cerca de una parada de tren de alta velocidad y también está próximo al nuevo aeropuerto intercontinental, hace unos pocos años se construyó un estadio olímpico con capacidad para 150.000 personas, todas sentadas. Mientras llegan o no las olimpiadas y aviones al aeropuerto, el estadio lo usa el equipo de fútbol del pueblo que, gracias al patrocinio del constructor local y presidente, milita en la segunda división B.

Un aficionado al fútbol de Páramos, con algún conocimiento de matemáticas y química, decide crear una escala de popularidad/fortaleza de los equipos de fútbol que visitan el estadio en función del número de espectadores que acuden a verlo. Su fórmula es muy sencilla: es el logaritmo cambiado de signo del número resultante de dividir los espectadores que acuden a un partido por el número de asientos que tiene el estadio. Ha llamado a su escala PdH, y en ella cuanto más bajo es el número más fuerte es el equipo visitante.

Estos son algunos resultados obtenidos, incluyendo partidos de la Copa del Rey:

Observando la tabla vemos las limitaciones de la escala en aquel año histórico en el que el Páramos jugó la final de la Copa del Rey. La escala otorga la misma fuerza a un Atleti que a un Barcelona o un Real Madrid y, aunque en justicia ello es así, la realidad es que la capacidad de atracción de los dos últimos equipos es mucho mayor.

¿Cómo tendríamos que reformar la escala para que siguiese siendo válida? Tendríamos que tener en cuenta la misma unidad de medida básica, espectadores, aunque existen otras posibilidades además de los que van al estadio como los espectadores por televisión, u otras variables más rebuscadas como el precio de la reventa. A efectos de nuestra exposición vamos a considerar además de los espectadores en el estadio solo a los espectadores presentes en Páramos, esto es, a los que acuden a las pantallas habilitadas en la era del tío Eufrasio, antiguo Campo Municipal de fútbol. Fijémonos que, al incluir a estos espectadores, la PdH se hace negativa.

Sin embargo, el creador de la escala, queriendo prepararla para el futuro, se da cuenta de que su definición no sirve para captar la fortaleza de un equipo si no considera otros factores además de los espectadores del estadio y de las pantallas. Entre ellos están el tiempo meteorológico, el morbo del partido (como el clásico con el Valdepiedras) y la competición que se juega. Así que crea una nueva variable a la que llama actividad y que incluye de alguna forma todo lo anterior y define la nueva escala PdH+ en función del logaritmo cambiado de signo de esa actividad.

Una escala de pH para el mundo real

En una disolución real nos ocurre exactamente igual. Tenemos que tener en cuenta la temperatura de la disolución y el entorno en el que se van a encontrar los iones. De la misma forma que no es lo mismo un amistoso para recaudar fondos para el asilo con el Valdepiedras que el partido decisivo de la liguilla de ascenso con el mismo equipo, o ir a ver el partido con tu abuelo que con los setenta de la peña, la acidez de una sustancia depende de qué otras cosas haya en juego en la disolución.

Al igual que nuestro amigo de Páramos, también se define una actividad química en términos de lo una variable termodinámica que se llama potencial químico, que tiene en cuenta todos los factores que hemos mencionado y algunos más. Pero, ¿tanto afecta el entorno realmente? Veamos un ejemplo. El cloruro magnésico es una sal que se disuelve bien en agua. En un mundo ideal el pH de una disolución de un ácido no debería verse afectado por la presencia de cloruro magnésico. Sin embargo, esto no es así. Cuando una disolución muy ácida (pH = 1) que contiene el indicador verde de metilo se añade [él (ácido) sobre ella (agua), siempre] a una disolución 5 M de cloruro de magnesio, el color del indicador vira de verde a amarillo, señalando que la acidez ¡ha aumentado!

Es por ello que las constantes de equilibrio se definen en términos de actividad, no de concentraciones, aunque se usen éstas como aproximaciones. Como las constantes de equilibrio están en la base de la definición de pH, éste se define como el logaritmo cambiado de signo de la actividad del ion hidronio.

Con esto en mente ya sabemos que si vamos a estudiar, por ejemplo, la vida en sitios como el río Tinto, que el pH medido variará significativamente de un día de invierno a bajo cero a uno de verano a 40 ºC a la sombra; que variará además si el agua está muy turbia o cristalina (la has podido enturbiar tú al coger la muestra) y que variará por el lugar donde tomes la muestra, no sólo por la posible dilución sino por el aporte iónico del suelo por el que haya pasado.

Por tanto, a la hora de interpretar un dato de pH debemos tener en cuenta la temperatura a la que se midió y la composición exacta de la muestra. Pero esto sólo cuando necesitamos un poquito de precisión; para la piscina puedes seguir usando papelitos de colores.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este texto se publicó en Naukas el 9 de mayo de 2012.

El artículo Una escala de pH para el mundo real se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El caso de la dieta de los esquimales

lun, 2021/12/13 - 11:59

Esta historia comienza en la década de los setenta del siglo pasado, cuando dos estudiantes de medicina daneses, Jan Dyerberg y Hans Olaf Bang, entonces en el Hospital del Norte de Aalborg, en Dinamarca, viajaron en trineo hasta 500 kilómetros al norte del Círculo Polar Ártico, en la costa occidental de Groenlandia, a la ciudad de Uummannaq, con 900 habitantes más siete asentamientos cercanos, con 1350 habitantes en total. Allí tomaron muestras de sangre de 130 esquimales, con 69 mujeres. Conservaron las muestras a 20ºC bajo cero, las transportaron a su centro e hicieron los análisis de sangre habituales.

Uummannaq. Fuente: Wikimedia Commons

Un par de años antes, en 1968, un editorial anónimo en el noticiario semanal de la Sociedad Médica de Dinamarca mencionaba la tasa muy baja y poco habitual de enfermedades cardiovasculares entre los esquimales de Groenlandia, entonces región autónoma danesa. El autor del editorial animaba a los investigadores a profundizar en este hecho y, añadía, “antes de que sea demasiado tarde”. Un joven estudiante y científico en ciernes, Jan Dyerberg, leyó el editorial con interés y se propuso profundizar en el asunto que mencionaba el autor anónimo. Dos años después, en 1970, junto a su colega Hans Olaf Bang, iniciaban la primera de cinco expediciones a Groenlandia, al norte del Círculo Polar Ártico.

Dyerberg y Bang viajaron para comprobar el rumor que era, también, una creencia popular: los esquimales de Groenlandia tenían una incidencia muy baja de enfermedades cardiovasculares, que se situaba entonces entre el 8.5% y el 11.8% del total de muertes. Su hipótesis inicial era que esta baja incidencia estaba relacionada con la dieta de los esquimales y, en concreto, con su ingesta de ácidos grasos polinsaturados, los llamados Omega-3, abundantes en el pescado que era la base de su alimentación. Los dos médicos querían probar la relación según la concentración de lípidos en la sangre.

Los primeros datos de Dyerberg y Bang se publicaron en 1971 en la revista The Lancet. Los resultados del análisis de las muestras de sangre muestran concentraciones menores en lípidos totales, colesterol y triglicéridos que en daneses sanos. Según la hipótesis de los autores estos datos pueden explicar la baja incidencia de enfermedades cardiovasculares entre los esquimales.

Años después, Dyerberg y Bang confirmaron la dieta de los esquimales con la toma de muestras de los alimentos de 50 inuits, la mitad mujeres, de la costa occidental de Groenlandia, durante 3 a 7 días y analizando 178 muestras. Focas y pescado eran los alimentos principales, con una concentración alta de ácidos grasos y, sobre todo, de Omega-3. De nuevo, en su publicación, relacionan la dieta con la baja incidencia de enfermedades cardiovasculares.

Sin embargo, en los 2000 se han publicado varios meta-análisis que dudan de la metodología de la investigación de Dyerberg y Bang, de la relación entre la dieta de los esquimales y la baja incidencia de enfermedades cardiovasculares y, además, en la eficacia de las grasas Omega-3 en la prevención de esas enfermedades. Vayamos por partes y en orden.

En 2012, se publicó un meta-análisis en el Journal of American Medical Association, firmado por Evangelinos Rizos y sus colegas, de la Universidad de Ioannina, en Grecia, que, después de revisar 20 estudios con 68680 pacientes, no encuentran que los suplementos nutricionales de grasas de pescado, con Omega-3, tengan relación con las enfermedades cardiovasculares, los ataques al corazón o los derrames cerebrales. Otro estudio, publicado un año después, en 2013, confirmó las conclusiones de Rizo. Venía de Italia, del Grupo de Estudio de Riesgo y Prevención. Incluía el seguimiento de 12513 pacientes que tomaban suplementos con Omega-3 o un placebo durante cinco años. Los autores no encuentran reducción en las enfermedades cardiovasculares ni en la mortalidad que provocan.

Dos años más tarde, en 2014, George Fodor y su equipo, de la Universidad de Ottawa, en Canadá, publicaron una revisión sobre la incidencia de las enfermedades cardiovasculares entre los esquimales, punto central de los trabajos de Dyerberg y Bang. Cuando estudiaron en detalle la incidencia de estas enfermedades, para su sorpresa, encontraron que era parecida a la encontrada en poblaciones no esquimales.

Afirman que Dyerberg y Bang no investigaron directamente la tasa de enfermedades cardiovasculares entre los esquimales y tomaron sus datos de las listas del Oficial Médico de Dinamarca que, a su vez, se basaban en certificados de defunción e ingresos en hospitales. Pero, para una población tan dispersa como la de los esquimales en Groenlandia, las cifras finales no son muy fiables. Hasta un 30% de los inuits vivía en lugares remotos, a los que no llegaba la sanidad oficial, lo que, a su vez, implica que solo el 20% de los fallecimientos tenía un certificado de defunción.

De hecho, los datos revisados por Fodor demuestran que, por ejemplo, los infartos son una enfermedad común entre los inuit de Groenlandia o que la mortalidad por derrame cerebral es alta. Su esperanza de vida es 10 años menor y su tasa de mortalidad el doble que la de los daneses que le sirven a Fodor para comparar. Afirma Fodor que Dyerberg y Bang investigaron únicamente la dieta de los esquimales y, en cambio, no lo hicieron directamente con su tasa de enfermedades vasculares.

Fodor concluye que, con estos datos de enfermedades cardiovasculares más ajustados, su dieta, más que recomendable, debería ser considerada un riesgo para la salud. Sin embargo, las conclusiones de Dyerberg y Bang todavía se citan con frecuencia para recomendar la toma de suplementos nutricionales, muy publicitados, con grasas de pescado, con Omega-3, para prevenir las enfermedades cardiovasculares.

Hasta la fecha de la publicación de Fodor, en 2014, más de 5000 trabajos se habían publicado sobre los beneficios de los ácidos grasos Omega-3 con la cita del estudio de los esquimales. Por cierto, las citas actuales del artículo de Dyerberg y Bang de 1971 son, según Google Académico, de 1059. En Estados Unidos, Europa y Canadá, los nutricionistas recomiendan el consumo de pescado, sobre todo de pescado azul, como el salmón, rico en Omega-3, para prevenir estas enfermedades. Y, por otra parte, son, para 2016, 32000 millones de dólares los que se movieron con la comercialización de los suplementos nutricionales con Omega-3 y, todo ello, según Fodor, basado en una hipótesis cuestionable desde que se publicó en los setenta.

Además, otro estudio, esta vez dirigido por Matteo Fumagalli, del Colegio Universitario de Londres, añade otro aspecto, muy diferente, a la polémica sobre la dieta de los esquimales. Después de un análisis genético de 191 esquimales, han encontrado que tienen varias mutaciones que implican cambios en el metabolismo de las grasas, sobre todo de las Omega-3. Aparecen en el 100% de los esquimales estudiados, en el 2% de los europeos o en el 15% de los chinos de la etnia han. Son cambios aparecidos hace unos 20000 años y permiten la adaptación a dietas ricas en grasas. Metabolizan grasas Omega-6 y Omega-3 a lípidos menos saturados y con un riesgo más bajo respecto a las enfermedades cardiovasculares. Por tanto, suponen menos grasas peligrosas en el organismo y una mejor adaptación a la dieta habitual de los inuit.

Sin embargo y para terminar, los estudios de Dyerberg y Bang y, ahora, las publicaciones de Rizos, Fodor y Fumagalli, llevan a muchos investigadores a revisar el papel de las grasas del pescado en la prevención de las enfermedades cardiovasculares que, a pesar de todo, parecen recomendables para una dieta saludable. Quizá, como a menudo ha ocurrido en ciencia, un error o, más bien, una conclusión sin suficientes evidencias, ha llevado a muchos científicos a investigar hechos que, en último término, son verídicos y recomendables.

Así, en una revisión reciente de Richard Kones y U. Rumana, del Instituto de Investigación Cardiometabólica de Houston, relatan que la controversia a favor y en contra de los Omega-3 continua muy activa. Revisan 19 estudios de 16 países, con el seguimiento durante varios años de 45637 pacientes, un 37% son mujeres, con una media de 59 años de edad y un rango de 18 a 97 años.

El resultado final es que los Omega-3 disminuyen modestamente el riesgo de enfermedad cardiovascular, aunque los datos no tienen relación con la toma de suplementos nutricionales y su recomendación a la población. Añaden que poco pueden decir pues no conocen con exactitud la pureza de los suplementos, ni lo aclara su etiquetado y tampoco las razones de los propios consumidores para tomarlos.

Con unos días de diferencia, Evangelinos Rizos y Moses Elisaf, de la Universidad de Ioannina, en Grecia, publican otro meta-análisis centrado en los suplementos con Omega-3. Repasan 21 estudios y la conclusión es que no suponen ninguna mejora consistente para la protección respecto a las enfermedades cardiovasculares.

Referencias:

Bang, H.O. et al. 1971. Plasma lipid and lipoprotein pattern in Greenlandic west-coast Eskimos. The Lancet 297: 1143-1146.

Bang, H.O. et al. 1980. The composition of the Eskimo food in north western Greenland. American Journal of Clinical Nutrition 33: 2657-2661.

Fodor, G. et al. 2014. “Fishing” for the origins of the “Eskimos and Heart Disease” story: Facts or wishful thinking? Canadian Journal of Cardiology 30: 864-868.

Fumagalli, M. et al. 2015. Greenlandic Inuit show genetic signatures of diet and climate adaptation. Science 349: 1343-1347.

Kones, R. & U. Rumana. 2017. Omega-3 polyinsaturated fatty acids: new evidence supports cardiovascular benefits. Journal of Public Health and Emergency doi: 10.21037/jphe.2017.03.04

McCoy, T. 2014. Fish oil may not prevent heart disease. The Washington Post May 16.

Rizos, E.C. et al. 2012. Association between Omega-3 fatty acid supplementation and risk of major cardiovascular disease events. A systematic review and meta-analysis. Journal of American Medical Association 308: 1024-1033.

Rizos, E.C. & M.S. Eliaf. 2017. Does supplementation with Omega-3 PUFAs add to the prevention of cardiovascular disease? Current Cardiology Reports DOI: 10.1007/s11886-017-0856-8

The Risk and Prevention Study Collaborative Group. 2013. n-3 fatty acids in patients with multiple cardiovascular risk factors. New England Journal of Medicine 368: 1800-1808.

Wikipedia. 2020. Dieta Inuit. 20 diciembre.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo El caso de la dieta de los esquimales se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El sexto ángel

dim, 2021/12/12 - 11:59

Tocó el sexto ángel… Entonces oí una voz que salía de los cuatro cuernos del altar de oro que está delante de Dios; y decía al sexto ángel que tenía la trompeta: «Suelta a los cuatro ángeles atados junto al gran río Éufrates.» Y fueron soltados los cuatro ángeles que estaban preparados para la hora, el día, el mes y el año, para matar a la tercera parte de los hombres. El número de su tropa de caballería era de 200.000.000; pude oír su número. Así vi en la visión los caballos y a los que los montaban: tenían corazas de color de fuego, de jacinto y de azufre; las cabezas de los caballos como cabezas de león y de sus bocas salía fuego y humo y azufre. Y fue exterminada la tercera parte de los hombres por estas tres plagas: por el fuego, el humo y el azufre que salían de sus bocas.

Juan de Patmos (siglo I e.c.) Apocalipsis 9: 13-18.

Foto: Pixabay

La llamada guerra fría, con la amenaza latente de las armas nucleares, dejó episodios en los que, por momentos, pareció que todo podía irse al garete. El de máximo peligro, quizás, fue el de la crisis de los misiles en Cuba. Los máximos mandatarios de las dos superpotencias en conflicto reconocieron después que hubo momentos en los que ni siquiera tuvieron el control de sus propias fuerzas.

Una guerra nuclear tendría efectos a varias escalas y causaría muertes por causas diferentes. En primer lugar, por los efectos directos de las explosiones. Serían efectos térmicos -por el calor liberado y el fuego-, mecánicos -por la onda expansiva-, y químicos -por la radiactividad liberada-. Matarían a decenas o centenares de millones de personas, aunque los efectos serían locales. Las bombas de Hiroshima y Nagasaki fueron el antecedente de lo que, a mucha mayor escala, podría ocurrir.

Se producirían también efectos globales en plazos de tiempo más largos -meses-, debidos a los efectos del polvo radiactivo. Es difícil calibrar cuál sería su alcance, pues dependería, sobre todo, de la magnitud del enfrentamiento. No obstante, aunque provocase la pérdida de millones de vidas y una destrucción enorme, no sería suficiente para acabar con nuestra especie, según los datos que aporta Toby Ord en “Precipice”, harían falta diez veces más bombas atómicas que las existentes en la actualidad para acabar con gran parte de la humanidad a causa de los efectos de la radioactividad.

La mayor pérdida de vidas humanas provendría, sin embargo, de otro fenómeno, también de carácter global: el invierno nuclear. Como consecuencia de las explosiones y los incendios, finísimas partículas y el humo ascenderían hasta la estratosfera, por encima de la altura a la que se forman las nubes y, por tanto, sin poder ser retirados por la lluvia en plazos de tiempo no demasiado largos. Esas finísimas partículas y gases liberados por la combustión generada por los incendios se extenderían por todo el globo e impedirían la llegada de la luz a la superficie de la Tierra. El efecto sería similar al provocado por el impacto de un gran asteroide contra nuestro planeta o la explosión de un supervolcán de magnitud muy grande. Las temperaturas caerían en todo el planeta unos 7 °C, provocando heladas en amplias zonas del planeta. El descenso térmico se prolongaría durante no menos de cinco años, y harían falta diez más para su recuperación. Entre tanto, sobrevendrían hambrunas, graves conflictos, destrucción y muertes.

Bajo las peores condiciones que pudieran darse, una catástrofe como esa podría acabar con la humanidad o dejarla en una postración total. Pero no parece que tal eventualidad nos deba quitar el sueño. Las opciones de que eso ocurra se estiman de una entre mil en el próximo siglo. Hay amenazas peores.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El sexto ángel se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Naukas Bilbao 2021: Clara Grima – Maryam y sus colores

sam, 2021/12/11 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

Si a una persona aficionada a las matemáticas le piden que complete el nombre y le dicen «Maryam», probablemente lo pronuncie mal (algo como «mirza’kani»), pero se referirá sin duda a Maryam Mirzajaní (transliteración al castellano del persa مریم میرزاخانی‎ ). Clara Grima nos habla de ella como solo Clara sabe hacer.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Clara Grima – Maryam y sus colores se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Resistencia bacteriana y consumo de antibióticos: el caso de Helicobacter pylori

ven, 2021/12/10 - 11:59
Helicobacter pylori. Imagen: drmicrobe / 123rf.com

Helicobacter pylori (H. pylori) es una de las infecciones bacterianas más comunes en todo el mundo que afecta a más del 40 % de la población y es una de las causas de los síntomas digestivos como el malestar epigástrico, la pesadez o la hinchazón del estómago, o de otras enfermedades más graves como el desarrollo de úlceras gástricas y duodenales, el linfoma gástrico o el cáncer gástrico. Así, por ejemplo, se debería investigar y descartar su presencia en personas sanas que han tenido un progenitor o un hermano con cáncer gástrico.

La resistencia a los antibióticos es la principal causa del fracaso del tratamiento de las enfermedades infecciosas como ocurre con la infección por H. pylori. En 2017 la Organización Mundial de la Salud (OMS) ya publico una lista de patógenos, en el que incluía a la infección por H. pylori, en el que alertaba de la necesidad de investigar y promover nuevas alternativas terapéuticas por el impacto que tenían estas bacterias en la salud pública por la resistencia a los antibióticos y la falta de opciones terapéuticas. La resistencia bacteriana a los antibióticos cambia con el tiempo en función de múltiples factores; por tanto, es esencial conocer la tendencia de los patrones de resistencia a los medicamentos para diseñar estrategias para disminuir el desarrollo de la resistencia y mejorar las pautas de tratamiento.

“Desgraciadamente —comenta Luis Bujanda Fernández de Piérola, catedrático de Medicina de la UPV/EHU— conocemos que en los últimos años la eficacia de los tratamientos contra la bacteria H. pylori es baja, está por debajo del 80 % muchas veces a pesar de utilizar conjuntamente dos antibióticos durante 7 a 10 días. Por ello, es muy importante obtener una visión o fotografía general de lo que está ocurriendo en la actualidad para investigar los motivos por los que esta bacteria es resistente a los antibióticos”.

Por ello, “este estudio elaborado a lo largo en el periodo de 2013-2020, en el estado español y otros países europeos como Italia, Francia o Noruega pretendía conocer y analizar cuál es la resistencia de esta bacteria a los antibióticos que habitualmente utilizamos para tratar la infección y dar con el tratamiento eficaz y apropiado”, señala Luis Bujanda. Para ello, “hemos recogido alrededor de 4.000 cultivos de personas afectadas por dicha bacteria; no es una tarea fácil, puesto que para aislarla hay que extraer el tejido del estómago a través de una biopsia para su análisis en los laboratorios de microbiología. La muestra para la biopsia se extrae gracias a una gastroscopia”, explica el catedrático de la UPV/EHU.

“La claritromicina, el levofloxacino y el metronidazol son los tres antibióticos que habitualmente se utilizan para tratar la infección. Sin embargo, hemos visto que al mismo tiempo son los que mayor resistencia generan. Muestran unas resistencias de un 25 %, 20 % y 30 %, respectivamente, y se trata de cifras muy elevadas”, comenta Luis Bujanda. Por tanto, “es fundamental cambiar las estrategias de tratamiento. No es suficiente utilizar solo dos antibióticos para erradicar la infección porque la tasa de éxito se sitúa por debajo del 80 %, sino que hay que utilizar al menos tres antibióticos entre 10 y 14 días con los posibles efectos secundarios que puede generar el mayor uso de antibióticos. Nuestro objetivo con la infección de H. pylori es llegar a alcanzar un éxito de mas del 90 %”, dice Luis Bujanda.

Según Bujanda, “a pesar de que las resistencias a los antibióticos que utilizamos habitualmente son altas, este estudio demuestra que existe una tendencia a disminución a lo largo del tiempo. Es decir, por un lado, tenemos una noticia mala, pero, por otro lado, una noticia buena porque esa tendencia va a menos”. “Probablemente —añade— eso sea porque hay una concienciación por la población y por los médicos a una mejor utilización de los antibióticos, puesto que las resistencias a esta bacteria están muy unidas al consumo y al mal uso de los antibióticos. Las resistencias, en este caso, van paralelas al consumo de estos antibióticos por otras infecciones en los 10-15 años previos”.

En un futuro, “deseamos que las resistencias a estos antibióticos bajen del 15 % y que podamos utilizar menos antibióticos para erradicar la infección con tasas de éxito mayores al 90 %, y todo esto pasa por racionalizar el uso de los antibióticos para evitar que las resistencias sigan aumentando”, concluye Luis Bujanda.

Referencia:

Luis Bujanda, Olga P. Nyssen, Dino Vaira, Ilaria M. Saracino, Giulia Fiorini, Frode Lerang , Sotirios Georgopoulos, Bojan Tepes, Frederic Heluwaert, Antonio Gasbarrini, Theodore Rokkas, Dmitry Bordin, Sinead Smith, Vincent Lamy, María Caldas, Elena Resina, Raquel Muñoz, Ángel Cosme, Ignasi Puig, Francis Megraud, Colm O’Morain, Javier P. Gisbert and on behalf of the Hp-EuReg Investigators (2021) Antibiotic Resistance Prevalence and Trends in Patients Infected with Helicobacter pylori in the Period 2013–2020: Results of the European Registry on H. pylori Management (Hp-EuReg) Antibiotics doi: 10.3390/antibiotics10091058

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Resistencia bacteriana y consumo de antibióticos: el caso de Helicobacter pylori se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿De qué está hecha la arena?

jeu, 2021/12/09 - 11:59
Aspecto en lupa binocular de la arena de Islandia, con fragmentos de rocas volcánicas de color negro y algunos cristales del mineral olivino de color verde. Foto: Julio Rodríguez Lázaro / Dpto. de Geología de la UPV/EHU.

 

Esta es una de las preguntas más habituales que el público asistente a un evento de divulgación científica nos hace a los geólogos. Y la respuesta es siempre la misma: depende.

Aunque parezca que estamos intentando disimular que no somos capaces de dar una explicación, en realidad es la respuesta correcta, porque la composición de la arena depende del lugar en donde la hayamos recogido. Y es que, en Geología, el término arena define un tamaño de grano del sedimento muy concreto y no hace referencia a la naturaleza del mismo.

Los sedimentos son las partículas o materiales sólidos que están sin consolidar y que pueden ser transportados por la acción del agua o del viento hasta su acumulación en la superficie terrestre o en el fondo de los mares y océanos. Cuando queremos hacer una clasificación de los sedimentos, tenemos dos opciones: o bien considerar su composición, o bien referirnos a su tamaño. Y es en este último caso donde encontramos el término arena.

Aspecto en lupa binocular de la arena del desierto de Uadi Rum (Jordania), con granos de cuarzo cubiertos por una pátina de óxidos de hierro que les da una coloración rojiza. Foto: Julio Rodríguez Lázaro / Dpto. de Geología de la UPV/EHU.

De acuerdo a la actual escala estandarizada y universal empleada para la clasificación por tamaño de grano del sedimento, se define como arena a todas aquellas partículas cuyas dimensiones están comprendidas entre 0,063 mm y 2 mm, independientemente de su composición. Si queréis un truco más fácil para identificar si el sedimento es arena o no, coged un poco en la mano y rozadlo con los dedos; si notáis que os pincha o araña la piel, habéis encontrado arena.

Además, podemos hacer subdivisiones dentro de la clasificación arena de acuerdo al diámetro de las partículas que la componen. De esta manera, diferenciamos arena muy fina (0,063-0,125 mm), arena fina (0,125-0,25 mm), arena media (0,25-0,5 mm), arena gruesa (0,5-1 mm) y arena muy gruesa (1-2 mm).

Y respondiendo a la pregunta relativa a su composición, pues realmente depende del tipo de materiales geológicos que se encuentran en su área fuente, es decir, en la zona de la que procede el sedimento, por lo que podemos encontrarnos con arenas de naturaleza muy diversa. Os voy a poner algunos ejemplos.

Aspecto en lupa binocular de la arena de la playa de Trengandín (Noja, Cantabria), con granos de cuarzo de colores transparentes y grisáceos y fragmentos de organismos marinos con colores amarillentos y pardos. Foto: Julio Rodríguez Lázaro / Dpto. de Geología de la UPV/EHU.

La arena de las playas del margen Cantábrico está formada, principalmente, por granos de cuarzo acompañados por otros minerales, como feldespatos y carbonatos, y algunos fragmentos de conchas y caparazones de organismos marinos. Esta composición mixta es la que provoca que tenga esas tonalidades cromáticas pardas que todos reconocemos. Por el contrario, en las playas bañadas por el Mar Caribe, la arena está compuesta casi en su totalidad por fragmentos de organismos marinos carbonatados, sobre todo de corales, adoptando un color muy blanquecino. Sin embargo, en las playas de las Islas Canarias encontramos arena constituida por fragmentos de diferentes tipos de rocas volcánicas, que le dan una coloración en tonos negros, grises o pardos.

Aunque el ejemplo más curioso lo encontramos en las playas de Tunelboka y Gorrondatxe, ambas situadas en la localidad de Getxo (Bizkaia), ya que aparece una arena muy particular. En esta zona del litoral, las corrientes marinas han ido acumulando todos los vertidos realizados por las empresas metalúrgicas de los márgenes del río Nervión al mar Cantábrico durante el siglo pasado, incluidas las escorias de fundición. Así que estas playas están cubiertas por una arena negra brillante formada por fragmentos de escorias de fundición que, además, tienen una componente magnética, por lo que resultan atraídas si les acercas un imán.

Pero no solo encontramos arena en las playas. Las partículas sedimentarias acumuladas en grandes desiertos, como el Sahara, y que son transportadas por el viento, también tienen tamaño arena. Y su composición, de nuevo, varía de acuerdo a las rocas previas de las que provienen estos granos sedimentarios.

Ya lo decía el poeta William Blake, “para ver un mundo en un grano de arena”. Y es cierto, cada grano de arena es un mundo en sí mismo que nos cuenta una historia apasionante, sólo hay que saber escucharla con oídos geológicos.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo ¿De qué está hecha la arena? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Conozco tu número, y ahora sé que tú también sabes el mío

mer, 2021/12/08 - 11:59

 

Andrés, Beatriz, César y Dafne se aburren en una tarde de lluvia. Andrés les propone un juego: escribe un número en un papel y se lo pasa a Beatriz (sin que César y Dafne lo vean) y escribe otro y se lo pasa a César (sin que Beatriz y Dafne lo vean). Además, dice a sus amigos:

Estoy pensando en un conjunto (con al menos dos elementos) de números enteros positivos distintos, cada uno de ellos inferior a 7. A Beatriz le he dado el resultado de la suma de los elementos del conjunto y a César el de su producto. ¿Sabéis qué números he pensado?

Dubitativa, Beatriz le dice a César: «No sé si tú sabes mi número».

Por su lado, César reflexiona un momento y responde a su amiga: «Conozco tu número, y ahora sé que tú también sabes el mío».

¿Cómo han averiguado Beatriz y César el número? Dafne es la única que no ha visto ninguno de los números, aunque ha escuchado las dos afirmaciones de Beatriz y César. Andrés se dirige a Dafne en estos términos:

Confío en tus capacidades de razonamiento. Creo que eres capaz de resolver el enigma.

Tenemos la misma información que Dafne, así que deberíamos poder responder a la pregunta de Andrés. Pensemos en las afirmaciones de Beatriz y de César; es importante comprender cómo sus preguntas y respuestas (lo que no saben y lo que saben en cada momento) les han ayudado a encontrar la solución.

Beatriz no está segura de que César conozca su número, aunque cree que puede conocerlo: «No sé si tú sabes mi número». Por otro lado, César comenta a Beatriz: «Conozco tu número», y solo puede conocerlo si hay una única manera de factorizar el número que Andrés le ha pasado. Por ejemplo, el producto no puede ser el 6 (o un número con dos factores primos distintos) porque habría distintas factorizaciones posibles: 1×6 o 1x2x3.

El número de César solo puede ser un primo p (1xp) o el cuadrado de un número primo p2 (1xp2). En ambos casos hay exactamente una suma posible (1+py 1+p2, respectivamente). ¿Por qué? Recordemos que los números del conjunto de César son todos distintos, es decir, una factorización de la forma 1xpxp no es posible. Tampoco es posible que el producto sea un número como el 8, porque hay diferentes maneras de factorizarlo (2×4 o 1x2x4) y, por lo tanto, diferentes opciones para la suma.

Como los números del conjunto de Andrés son inferiores a 7, teniendo en cuenta la anterior observación, se concluye que el producto de César tiene que ser uno de los cuatro siguientes: 1×2, 1×3, 1×4 o 1×5, o lo que es lo mismo, las sumas de Beatriz son 1+2=3, 1+3=4, 1+4=5 o 1+5=6.  Recordemos que Beatriz duda sobre si César conoce su número. Así, podemos eliminar de la anterior lista las sumas 3 y 4, ya que los productos en esos casos son 2 y 3, y Beatriz no dudaría sobre si César conoce o no su número. Sin embargo, una suma de 5 puede obtenerse como 1+4 o 2+3. Del mismo modo, una suma de 6 puede conseguirse como 1+5, 1+2+3 o 2+4.

Es decir, en el momento en el que Beatriz dice a César: «No sé si tú sabes mi número», se deduce que ella solo puede tener un 5 o un 6. Y eso también lo sabe César. De hecho, en ese momento, incluso Dafne conoce esa información. Aunque César es el único que tiene información sobre el producto.

César comienza diciendo a Beatriz: «Conozco tu número…». Razonemos sobre los posibles números de Beatriz. ¿Qué pasaría si el número de ella fuera el 5? Como hemos comentado antes, esa suma solo es posible como 1+4 o 2+3, con lo que César tendría un 4 o un 6. El 4 le diría a César lo que tiene Beatriz, porque solo hay una manera de tener 4 como producto: 1×4. ¿Y qué pasaría si el número de Beatriz fuera 6?  El 6 puede descomponerse de tres maneras: 1+5, 1+2+3 o 2+4. Y entonces César no sabría si el número de Beatriz es 5 (1×5) o 6 (1x2x3). 

Así, la suma de 5 y el producto de 4 son soluciones al enigma de Andrés. Pero, ¿son las únicas soluciones posibles? Para responder a esta pregunta es necesario recordar la última parte de la afirmación de César: «…, y ahora sé que tú también sabes el mío».

Si el número de Beatriz fuera el 6 (1+5, 1+2+3 o 2+4), César tendría un producto de 5, 6 u 8, respectivamente. Si César tuviera un 5, sabría que Beatriz tiene un 6. Y si el producto fuera 8, las posibilidades de Beatriz serían 2+4 o 1+2+4. Solo el 6 (2+4) sería posible, así que César sabría, de nuevo, que Beatriz tiene un 6. En resumen, si Beatriz tuviese un 6, ella no sabría si César tiene un 5 o un 8. Eso contradice la segunda mitad de lo que dice César y, por lo tanto, los números correctos tienen que ser 5 en el caso de Beatriz y 4 en el caso de César. O lo que es lo mismo, el conjunto de números en el que ha pensado Andrés es {1,4}.

Nota:
Este problema se ha extraído de ¿Puedes resolver el acertijo del submarino rebelde?

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Conozco tu número, y ahora sé que tú también sabes el mío se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La madre de todos los prejuicios

mar, 2021/12/07 - 11:59

 

La evolución de la visión del mundo de un adolescente es un tema apasionante. En mi caso, atribuyo a la idealización de la figura del médico que tenía mi madre el querer ser médico desde que tenía uso de razón (existen fotografías y restos de libros que demuestran la seriedad de mi compromiso). Entonces, con 14 años ocurrió Cosmos de Carl Sagan, la serie primero y el libro para Reyes después. Y quise ser físico/astrónomo/científico.

Un efecto colateral de Cosmos fue mi descubrimiento de la figura de Einstein. La fascinación, común a muchos, fue inmediata. Leía todo lo que encontraba en bibliotecas sobre él. De entre todo lo que leía había un punto, sin embargo, que solía pasar sin pena ni gloria, como un dato más, que a mí me llamó poderosamente la atención: su admiración por Baruch Spinoza. Dispuesto a explorar por mi mismo el origen de esa admiración, a los 16 compraba mi primera Ética (una no demasiado buena edición de Bachiller, como me hizo notar mi primo Pedro, estudiante por aquel entonces de filosofía en Salamanca). A esta primera copia han seguido otras cuantas.

¿Imagináis ese momento en que la lectura y meditación de solo un párrafo supone una revolución en tu forma de ver el mundo? ¿Algo que hace que todo encaje de cierta forma? ¿Una idea que hará que digieras la información de determinada manera el resto de tu vida? A mí me ocurrió con 16 años con el Apéndice del libro I de la Ética. Si solamente tuvieses que leer en tu vida unas páginas de filosofía yo te recomendaría ese apéndice que se lee en menos de 10 minutos. Una de las ideas principales de ese apéndice y la revolucionaria, según mi punto de vista, cuando se medita, es esta:

[…]Todos los prejuicios que intento indicar aquí dependen de uno solo, a saber: el hecho de que los hombres supongan, comúnmente, que todas las cosas de la naturaleza actúan, al igual que ellos mismos, por razón de un fin […]

Spinoza, escribiendo este texto en la soledad de su habitación en los primeros años 70 del siglo XVII describe lo que la psicología y la sociología constatan hoy día. De hecho si se lee el Apéndice completo comprobaremos que, salvo la sintaxis y el léxico, estamos ante un texto de una actualidad manifiesta. El ser conscientes de la existencia de este prejuicio de forma activa cambia tu visión del universo. Ahora podía empezar a comprender la admiración de Einstein.

Para una persona con cultura científica pensar que el universo no tiene fin ni propósito alguno es algo que debería darse por descontado si solo se atiene a los hechos; algo que no es así para la inmensa mayoría de los humanos. Y, sin embargo, el prejuicio sigue ahí, acechante, incluso entre los científicos de primer nivel.

Un estudio realizado por un equipo de investigadores encabezado por Deborah Kelemen, de la Universidad de Boston (EE. UU.), ilustra perfectamente este hecho. Han encontrado que, a pesar de años de formación científica, químicos, geólogos y físicos de universidades de primer nivel mundial (Harvard, MIT, Yale entre otras) también sucumben al prejuicio de creer que los fenómenos naturales tienen un propósito. Veamos el resultado con un poco más de detalle.

Cuando los científicos tienen tiempo de reflexionar acerca de por qué pasan las cosas rechazan explícitamente las explicaciones teleológicas, que es como se llama a las explicaciones que se basan en asumir la existencia de un fin o propósito y que son las que permean todas las religiones de una u otra forma. Sin embargo, según el estudio que nos ocupa, cuando se pide a los científicos que piensen muy rápido, aparece una tendencia subyacente a encontrar un propósito en la naturaleza. Estos resultados serían una prueba bastante sólida de que la mente humana tiene una posición por defecto, bien implantada, para favorecer las explicaciones basadas en fines.

Para comprobar la hipótesis de que existe una preferencia natural a las explicaciones teleológicas los investigadores pidieron a un grupo de científicos de universidades estadounidenses de alto nivel que juzgasen afirmaciones del tipo “Los árboles producen oxígeno para que los animales puedan respirar” o “La Tierra tiene una capa de ozono para protegerla de la radiación ultravioleta” presentadas de tal manera que no tenían prácticamente tiempo para pensar sus respuestas. Otro grupo de científicos, equivalente al anterior, pudo dar sus respuestas sin límites de tiempo. Los investigadores encontraron que, a pesar de tener una gran precisión en los ítems de control (expresiones falsas más allá de la componente teleológica), los científicos bajo presión mostraban una mayor aceptación de las explicaciones finalistas sin base científica que sus colegas sin presión de tiempo, que consistentemente las rechazaban.

La misma pauta de mayor orientación al fin se presentó en dos grupos de control, estudiantes (que en psicología viene a ser equivalente a población en general) y graduados universitarios de la zona de la misma edad que los científicos, si bien los científicos aceptaban menos las explicaciones teleológicas comparativamente. ¿Sería esto así por la formación científica, o por la capacidad intelectual de estos últimos?

En un segundo ensayo los investigadores encontraron que, a pesar de los años de formación científica, los químicos, geólogos y físicos no tenían un prejuicio cognitivo menor que profesores de historia o de literatura de las mismas universidades. Esto es, la actividad  intelectual de alto nivel aminora el sesgo teleológico (posiblemente por la capacidad intelectiva asociada), pero no así la formación en ciencias físicas y naturales. Un resultado sorprendente. E ilustrativo de la fortaleza de los sesgos cognitivos.

Parece, por tanto, que nuestras mentes tienen una disposición natural hacia la religión más que a la ciencia. Y que conseguir comprender las cosas como son en vez de como aparentan ser lleva un esfuerzo asociado que no todo el mundo está dispuesto a hacer. Pero de esto ya se dio cuenta Spinoza hace 344 años de la misma forma que Feynman arreglaba radios: pensando.

Referencia:

Kelemen, D., Rottman, J., Seston, R. (2013) Professional Physical Scientists Display Tenacious Teleological Tendencies: Purpose-Based Reasoning as a Cognitive Default. Journal of Experimental Psychology: General doi: 10.1037/a0030399

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este texto se publicó en Naukas el 22 de octubre de 2012.

El artículo La madre de todos los prejuicios se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Envejecer sanamente gracias al ejercicio físico

lun, 2021/12/06 - 11:59

María Larumbe / GUK


La Organización Mundial de la Salud (OMS) define la salud como un estado de completo bienestar físico, mental y social y no solamente a la ausencia de afecciones o enfermedades. Y en este peregrinaje vital hacia el bienestar en las tres esferas, el ejercicio físico tiene un peso considerable, tanto en la física -da fuerza, estabilidad, ayuda a mantener el equilibrio-, como en la social -aumenta la sensación de pertenencia a un grupo- y en la mental -reduce el nivel de ansiedad y depresión-, entre otros efectos beneficiosos.

Asimismo, la actividad física regular y constante tiene efectos positivos a lo largo de todas las etapas del ciclo vital, incluida la vejez, y puede contribuir a disminuir los efectos negativos del envejecimiento, como la fragilidad física, un síndrome multifactorial que afecta principalmente a las personas mayores y hace que tengan una mayor vulnerabilidad para sufrir eventos adversos -caídas, hospitalizaciones, dependencia o, incluso, mortalidad-.

En este sentido, el grupo de investigación AgeingOn del departamento de Fisiología de la Facultad de Medicina y Enfermería de la UPV/EHU trabaja desde hace años en el desarrollo de distintas herramientas y estrategias para hacer frente a la fragilidad de las personas mayores, promoviendo un envejecimiento saludable y estimulante que permita a las personas mayores mejorar su calidad de vida a nivel físico, social y mental mediante el ejercicio y la actividad física.

Programa para mejorar la calidad de vida de las personas que viven en residencias de mayores

En 2015, y con el fin de mejorar la calidad de vida de las personas mayores vulnerables, en el grupo AgeingOn se preguntaron si las personas mayores que viven en residencias de mayores tenían capacidad para revertir la fragilidad. “La mayoría de los estudios y programas de ejercicio físico planteados hasta la fecha se habían realizado en personas que vivían en comunidad y que no habían alcanzado un nivel de dependencia como aquellas que viven en geriátricos”, explica Ana Rodríguez Larrad, miembro del grupo y profesora de Fisioterapia del departamento de Fisiología de la UPV/EHU.

“Nuestra hipótesis era que podríamos frenar el deterioro que sufren estas personas, e incluso mejorar su condición física, mental y social, y, por lo tanto, revertir la fragilidad, a través de un programa de ejercicio”.

Partiendo de esa premisa, el grupo diseñó un novedoso programa de ejercicio físico individualizado y progresivo dirigido a las personas mayores que viven en residencias. Tal y como explica Rodríguez Larrad, este trabajo consistió en la validación de dicho programa, que ha demostrado considerables beneficios a nivel físico, mental y social para estas personas, reduciendo las caídas y el nivel de fragilidad”.

Como se puede ver en el vídeo, se trata de un programa de ejercicio multicomponente, es decir, que trabaja de manera combinada el equilibrio, la fuerza y la capacidad aeróbica y que cuenta con tres características principales: individualización, progresividad y trabajo a intensidades moderadas.

La primera característica es que consiste en un programa de ejercicio individualizado. “Todas las personas participantes tenían unas características muy variadas, pero nos interesaba que los realizaran en grupo por el componente social, aunque de manera individualizada adaptando los ejercicios, intensidad, y gustos a cada participante”.

La segunda es que este programa contempla el ejercicio físico de manera progresiva, “de menor a mayor intensidad, respetando la evolución de cada uno de los participantes”, apunta Rodríguez Larrad. Y, por último, la tercera característica es que se trabaja a intensidades moderadas. “Hasta ese momento, los programas que se habían dirigido a las personas mayores que viven en residencias eran siempre de muy baja intensidad”.

“Hemos observado cómo aquellas personas que participaron en el programa han conseguido mejorar su capacidad funcional, no solo a nivel físico sino también a nivel cognitivo y, lo que es aún más importante, mejorando su calidad de vida y bienestar con respecto a las personas del grupo control que no realizaron el ejercicio físico. Asimismo, también hemos podido observar una reducción en el número de caídas y en el nivel de fragilidad de estas personas”, explica Rodríguez Larrad.

En resumen, los y las participantes en el estudio obtuvieron efectos beneficiosos en mejoras de fuerza, reducciones de prevalencia de fragilidad, mejora de parámetros cognitivos -memoria, agilidad mental, resolución de problemas-, reducción de niveles de ansiedad y depresión, mejora de la percepción de la soledad, etc. Curiosamente, incluso el grupo control, que no hizo ejercicio, redujo también esta sensación de soledad, aunque de manera más discreta. “Esto puede explicarse por la participación en el estudio y el contacto con el personal de investigación, que les realizaba valoraciones periódicas”.

Este programa se implantó en más de 10 residencias de Gipuzkoa con un acogimiento “espectacular” por parte de los participantes y personal de las residencias. Asimismo, contó con la participación de más de 100 personas mayores de 70 años residentes en estos centros y sus familiares. Las sesiones se realizaban dos días a la semana y consistían en una hora de ejercicio, entre el calentamiento, la sesión propiamente dicha y la vuelta a la calma.

En cuanto a la tipología de ejercicios, como se ha señalado antes, las personas participantes trabajaron principalmente el equilibrio, la fuerza y la capacidad aeróbica. “La fuerza la trabajaron mediante pesas, mancuernas y tobilleras lastradas; la capacidad aeróbica, mediante paseos; y el equilibrio, con el uso de otros materiales e interactuando con otros participantes, creando esa sensación de grupo”.

Modalidades en remoto

Como es de suponer, la pandemia provocada por la COVID-19 ha supuesto grandes retos para la implementación de este tipo de programas. “La mayoría de proyectos en los que estábamos trabajando desde el grupo AgeingOn estaban ya en fase de seguimiento, pero el no poder acceder a las residencias nos ha puesto de manifiesto la necesidad de desarrollar programas que se puedan realizar en modalidad remota”.

A este respecto en la actualidad el grupo trabaja en el diseño y puesta en marcha de distintos proyectos en modalidad online, entre ellos, planes de ejercicio en remoto dirigidos a auxiliares de geriatría. “Hemos visto que en este grupo hay una alta prevalencia de dolor músculo-esquelético y que las modalidades online tienen buena acogida y seguimiento en este colectivo. Por ahora se trata de una experiencia piloto pero el feedback es muy prometedor”. A posteriori, la idea es conseguir adaptar este tipo de programas a modalidad remota también para las personas que viven en residencias.

Bien sea en modalidad online o presencial, este tipo de estrategias preventivas, que ponen el foco en trabajar las capacidades más que en reducir los efectos producidos por las enfermedades, ayudan a las personas mayores a continuar su proyecto de vida de manera normalizada, mejorando su autoestima, calidad de vida y sensación de bienestar en esta etapa tan importante de la vida que es la vejez.

Ana Rodríguez Larrad es fisioterapeuta, profesora de Fisioterapia del departamento de Fisiología de la Facultad de Medicina y Enfermería de la UPV/EHU y miembro del grupo AgeingOn.

Grupo AgeingON, Donostia (izquierda) y Leioa (derecha)

Agradecimientos

Matia Fundazioa (Bermingham, Rezola, Fraisoro, Otezuri, Lamourous, Txara I), Fundación Caser (Lurreamendi, Uzturre), DomusVi (Berra, Villa Sacramento, Fundación Zorroaga).

A las y los participantes de todas las residencias y a sus familiares por su cooperación, disponibilidad y entusiasmo.

El artículo Envejecer sanamente gracias al ejercicio físico se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

La física cuántica no es tan extraña como temíamos

dim, 2021/12/05 - 11:59

Patricia Contreras Tejada y Giannicola Scarpa

Shutterstock / Yellow duck

 

Dicen que todas las buenas historias tienen un conflicto, y en este equipo había conflicto para rato. Los dos economistas estaban convencidos de que el “teorema del acuerdo”, un resultado central en economía, tenía que cumplirse también en el mundo cuántico. Pero para sus tres colegas de tecnologías cuánticas era imposible que se cumpliera. No querían involucrarse en un proyecto destinado al fracaso.

El teorema del acuerdo, que demostró Robert Aumann (Premio Nobel de Economía en 2005), dicta que, si dos personas racionales parten de los mismos conocimientos previos, no pueden estar de acuerdo sobre su desacuerdo.

Más precisamente: cada persona puede estimar la probabilidad de un evento basándose en la información que conozca. Esta información siempre será parcial, por tanto las estimaciones pueden ser diferentes. Es decir, las personas pueden estar en desacuerdo. Pero si las estimaciones se convierten en conocimiento común, este desacuerdo no se puede mantener. Juntando toda la información, las personas necesariamente alcanzan la misma conclusión. Es decir, se ponen de acuerdo.

Este resultado vertebra la coherencia de los mercados económicos, de ahí que los economistas estuvieran tan convencidos de que la teoría cuántica tenía que respetarlo. Pero, según les recordaban sus colegas de la cuántica, en esta teoría es imposible conocer dos propiedades incompatibles sobre un mismo objeto con la máxima precisión. Si conoces una, la otra se te escapa. Lo dice el principio de incertidumbre de Heisenberg (otro Premio Nobel, esta vez de Física en 1932).

La economía, en peligro por culpa del mundo cuántico

Parecía que el teorema del acuerdo estaba en conflicto directo con el principio de incertidumbre. Dos personas podrían intentar estimar la probabilidad de un evento según la información que ya conocían. Pero incluso juntando toda la información, la única conclusión posible sería que ese evento no se podía conocer. Ambas estimaciones serían válidas, y el desacuerdo se mantendría.

Más allá del optimismo, sin embargo, los economistas tenían un buen argumento para comenzar esta investigación. Si el teorema del acuerdo también se aplicaba al mundo cuántico, estarían demostrando que la teoría que mejor describe el mundo tiene una coherencia interna hasta ahora desconocida.

Si, por el contrario, resultaba que la teoría cuántica no cumplía el teorema, las implicaciones podrían ser dramáticas. No sería raro que las tecnologías cuánticas se utilizaran para hacer finanzas en un futuro cercano. En este caso, podría volverse imposible acordar el precio de las cosas. La economía mundial podría estar en peligro.

Tanto si la teoría cuántica cumplía el teorema del acuerdo como si no, las repercusiones irían mucho más allá de la física. Los economistas habían convencido a sus colegas de la cuántica: había que conocer la respuesta. Otra prueba de que cuanto más hay en juego, mejor funcionan los conflictos.

El camino no fue fácil. El lenguaje de la teoría cuántica y el de la economía no tenían nada que ver. Traducir entre ellos era muy complicado. Pero, poco a poco, comenzaban a surgir ejemplos de situaciones donde no se cumplía el teorema del acuerdo.

Eso sí, ninguna parecía tener una representación en la teoría cuántica.

Rescatando la coherencia

Hasta que, de repente, descubrieron por qué. Ninguno de los ejemplos podía tener representación cuántica, y la clave estaba en un teorema fundamental en esta teoría física. El teorema de Tsirelson, simple pero profundo. Parecía que simplificaba los cálculos. El equipo al completo se puso manos a la obra a atar los cabos que faltaban. Por fin, las matemáticas lo confirmaron: la teoría cuántica respetaba el teorema del acuerdo.

El conflicto se había resuelto. Efectivamente, la teoría cuántica es coherente. La economía mundial puede respirar tranquila y, a pesar de que a veces se resista a nuestra intuición, la teoría cuántica no es tan rara como pensábamos.

Nuestro equipo protagonista, ya reconciliado, ha publicado esta semana sus resultados en Nature Communications.

Una buena historia acabaría aquí. Conflicto resuelto, final feliz, misión cumplida. Pero la realidad no siempre se atiene a las normas de la narración, y nuestra historia tiene un epílogo sorprendente.

¿Nuevas teorías físicas?

Que la teoría cuántica cumpla el teorema del acuerdo tiene implicaciones que van más allá de la propia teoría. Podría ocurrir que, en un futuro, desarrolláramos una nueva teoría que superara a la cuántica en cuanto a capacidad de explicar el mundo en el que vivimos. Si esta teoría no cumpliera el teorema del acuerdo, ¿qué deberíamos pensar?

Según el equipo investigador, deberíamos descartarla. Plantean considerar el teorema del acuerdo como un principio físico. Es más, proponen una prueba para nuevas teorías: solo la superan las que cumplan el teorema del acuerdo. Así, es sencillo asegurarse de que cualquier nueva teoría tiene coherencia interna.

El teorema del acuerdo se añade a la larga lista de principios físicos que ya se han propuesto. El objetivo es descartar cualquier teoría que no los respete. Conforme crezca la lista, iremos rechazando cada vez más teorías y, quizá, nos encontremos con que la cuántica es la única teoría que cumple todos los principios. Solo así podremos dejar de buscar, porque sabremos que la teoría cuántica es la mejor descripción posible de la naturaleza.The Conversation

Sobre las autoras: Patricia Contreras Tejada es investigadora en matemáticas e información cuántica en el Instituto de Ciencias Matemáticas (ICMAT-CSIC) y Giannicola Scarpa es profesor ayudante doctor en la Escuela Técnica Superior de Ingeniería de Sistemas Informáticos de la Universidad Politécnica de Madrid (UPM)

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo La física cuántica no es tan extraña como temíamos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Naukas Bilbao 2021: Isabel Moreno y José Miguel Viñas – Milibares en los bares, el tiempo entre costuras climáticas

sam, 2021/12/04 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

En los bares se habla de muchas cosas: de política, de fútbol, cotilleos varios. Pero algo que nunca falla es hablar del tiempo: del calor cuando hace calor, del frío cuando hace frío, de si llueve porque llueve, de si no llueve porque no llueve. Ahora, eso sí la conversación de bar de dos meteorólogos tiene que ser para no perdérsela, y eso es lo que son Isabel Moreno y José Miguel Viñas.



Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: Isabel Moreno y José Miguel Viñas – Milibares en los bares, el tiempo entre costuras climáticas se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Rusia contra Estados Unidos: por qué la exploración espacial debe contar con todos

ven, 2021/12/03 - 11:59

Santiago Pérez Hoyos y Jorge Hernández Bernal

La Estación Espacial Internacional fotografiada desde una nave espacial Soyuz el 30 de octubre de 2018.
NASA / Roscosmos

 

“El espacio no es un lugar remoto. Está a una hora en coche, si puedes conducir hacia arriba”. Esta frase del siempre brillante y polémico astrofísico Fred Hoyle tiene muchas lecturas. Ante el reciente incidente espacial entre Rusia y Estados Unidos nos ofrece una nueva interpretación. Apenas cien kilómetros sobre nuestras cabezas se desarrolla la misma estrategia geopolítica que en la superficie del planeta, con los mismos defectos y los mismos peligros para la humanidad.

Comencemos por los hechos: Rusia realiza una prueba de un misil tierra-espacio, destruye un satélite inoperativo y genera una gran cantidad de fragmentos con diferentes trayectorias.

Estados Unidos denuncia que este evento ha puesto en peligro a los astronautas de la Estación Espacial Internacional y ha contribuido a aumentar la ya inquietante cantidad de basura espacial en órbitas bajas.

Rusia resta importancia al evento y apunta en cambio a la negativa estadounidense a suscribir un tratado contra la proliferación de armas espaciales.

Denunciemos en primer lugar y con claridad cualquier acción que ponga en riesgo vidas humanas y que contribuya a degradar aún más el entorno espacial. Pero, más allá de su pobreza argumental, es importante señalar que Rusia no carece de razón. Los Estados Unidos también han participado anteriormente en este tipo de pruebas balísticas y no han querido poner control a nuevos tipos de armas.

Esto, bajo la perversa lógica en la que vivimos inmersos, ha empujado a otros países a seguir los mismos pasos y repetir las mismas acciones que la potencia americana. Parece bastante obvio que en este caso, así como en los relativos a las armas nucleares, los Estados Unidos carecen, no ya de capacidad coercitiva para controlar a sus oponentes, sino de autoridad moral para reclamar responsabilidades.

¿Quién lleva la razón en este conflicto? Todas las partes tienen una porción de ella y ninguna la tiene por completo. Sorprende por ello la sobrerreacción mediática comparada con otros eventos que han puesto en riesgo a los astronautas o con decisiones políticas y militares de Estados Unidos con respecto al espacio que han sido aceptadas sin más por la opinión pública.

Añadamos a las ya citadas pruebas militares, por ejemplo, la proliferación de satélites de telecomunicaciones de empresas privadas o los planes de explotación de recursos espaciales que, aunque parezcan lejanos en el tiempo, adquieren mayor importancia ante la evidente escasez de recursos en nuestro planeta para mantener de forma indefinida el crecimiento económico.

La administración Obama otorgó una auténtica patente de corso a las grandes corporaciones estadounidenses para la explotación de unos recursos que, aunque los tratados internacionales son ambiguos al respecto, deberían ser aprovechados por toda la humanidad.

Una exploración espacial alejada del colonialismo

Somos muchos los que queremos una exploración civil y pacífica del espacio. También los que pensamos que, si en algún momento decidimos explotar los recursos que nos ofrece, no pueden ser propiedad del primero que llegue a ellos. La carrera tecnológica que nos lleva al espacio no se desarrolla en igualdad de condiciones para todos los países: la larga historia mundial de colonialismo y guerras deja a buena parte de la humanidad fuera del reparto de beneficios de una forma que muchos consideramos injusta.

En todo caso, sería positivo que estas decisiones se discutieran abiertamente en la esfera pública, con la participación de diferentes puntos de vista e intereses en un debate que nos permita tomar decisiones sensatas y sostenibles.

El espacio no es un lugar remoto. Apenas a una hora en coche, o incluso a cuatro días de viaje espacial, estamos proyectando muy eficientemente los mismos problemas que oscurecen nuestro futuro en la Tierra. La misma incapacidad de establecer acuerdos entre potencias que hemos visto en la reciente cumbre del clima, la misma preponderancia de intereses económicos explotados por unos pocos, como en el conflicto sobre el Ártico. Es hora de terminar esta película de vaqueros y comenzar a escribir el futuro guión de la humanidad. No está tan lejos.The Conversation

Sobre los autores: Santiago Pérez Hoyos es profesor titular y Jorge Hernández Bernal investigador en el Grupo de Ciencias Planetarias de la UPV/EHU.

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Rusia contra Estados Unidos: por qué la exploración espacial debe contar con todos se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

¿Es posible cantar dos notas a la vez?

jeu, 2021/12/02 - 11:59

En el año 2014, la voz de Anna-Maria Hefele dio la vuelta al mundo. La cantante alemana acaba de subir su primer víde a Youtube y en apenas cinco minutos de grabación convenció a internet entero de que sabía hacer magia con la garganta. En menos de diez días, su vídeo alcanzó los cinco millones de visitas (hoy ocumula más de 19), The Guardian lo clasificó como el segundo vídeo más viral del momento (solo por detrás de unos canguros haciendo boxeo) y hasta el Huffington Post se hizo eco de aquel canto “completamente extraño”. Hefele acabó visitando incluso El Hormiguero. Pero es que lo que hacía con su voz no era ni medio normal, no sonaba a algo de este mundo. Como si tuviese un grillo mágico escondido en su garganta, Hefele estaba entonando dos notas al mismo tiempo.

¿Cómo es posible esta brujería?

Bien, hoy vamos a intentar explicarlo. Pero la clave del asunto es que Hefele, en realidad no está cantando dos notas, a pesar de lo que te cuenten tus oídos. La cantante está produciendo un único tono con sus cuerdas vocales. Pero este tono está compuesto por muchísimos armónicos, y ella consigue moldearlos con la lengua, atenuarlos o reforzarlos selectivamente, para que tu oído perciba dos notas por separado.

De hecho, todos los sonidos de nuestro entorno son, en realidad, una combinación de muchos sonidos. ¿Recuerdas cuando en el colegio te decían que la luz blanca era la suma de todos los colores? Pues bien, con el sonido, pasa lo mismo: cada tono es, en realidad, una combinación de muchas frecuencias diferentes. Para ver los colores que hay en la luz blanca, podemos usar un prisma, como hizo Newton, o un CD. En cambio, para descomponer el sonido en sus muchas frecuencias (sus colores internos) tenemos la cóclea, de la que ya hemos hablado en alguna ocasión.

La cóclea es un órgano fascinante. En su espiral se separan las frecuencias más graves y más agudas, como una trenza que se deshace en incontables hilos. Pero la clave es que tu oído no sólo descompone los sonidos que percibe. Lo que tú oyes no es una lista de frecuencias, como quien recita una tabla de datos de Excel: 42 Hz, 740 Hz, 1200 Hz, 3000 Hz… No, lo que tú oyes es el sonido rugoso del mar cuando alguien charla contigo en la playa, mientras las gaviotas chillan de fondo y en un chiringuito cercano ponen reguetón. Para construir este paisaje, tu oído debe volver a juntar todas esas frecuencias que se separaron en la cóclea y formar un tapiz con ellas. Necesita darles un sentido, convertirlas en información útil.

Existen diferentes estrategias que ayudan a tu oído a volver a unir los hilos y que le permiten averiguar qué frecuencias proceden de una misma fuente sonora (¿qué frecuencias forman “gaviota”?, ¿cuáles “reguetón”?). Una de ellas, la que nos interesa en este caso, es la de agrupar frecuencias armónicas. Son las frecuencias que forman la voz humana y tienen la peculiaridad de estar relacionadas por números enteros. Por ejemplo: 100 Hz, 200 Hz, 300 Hz, 400 Hz… forman una serie armónica.

Todas las notas que salen de tu boca cuando cantas, todos los sonidos que haces con tus cuerdas vocales, siguen este mismo patrón. Por eso, resulta especialmente útil que tu oído agrupe las frecuencias armónicas. En lugar de oír 100 Hz, 200 Hz, 300 Hz… simplemente, escuchas “una voz”. Por dentro, esa voz es un tapiz, está formada por multitud de hilos que tu oído ha aprendido a unir. Por eso, lo mágico no es que Anna-Maria Hefele pueda hacernos oír dos notas, sino que normalmente solo oigamos una.

¿En qué consiste la magia de esta cantante entonces? ¿Cómo consigue romper el tapiz de su voz en dos?

¡Pues lo consigue con la lengua! Cuando hablamos, nuestra garganta y nuestra boca filtran el sonido producido por las cuerdas vocales, como si fuesen un ecualizador. De este modo, algunas frecuencias resuenan y otras se atenúan. Parece una perogrullada, pero por eso movemos la boca para hablar. Al cambiar la posición del paladar, la lengua y los labios, los sucesivos armónicos cambian de intensidad y se escuchan distintas vocales. Puedes comprobarlo con ayuda de este espectrógrafo (el prisma de los sonidos): pulsa en el icono del micrófono observa cómo cambia la imagen cuando cantas a – e – i – o – u.

Lo que hace Hefele es colocar la lengua en una posición que le permite reforzar uno solo de los armónicos superiores de su voz, de modo que su sonido “sobresale” respecto al resto del tapiz. Pero además, la cantante es capaz de elegir qué armónico quiere destacar. De ese modo, cuando lo cambia, tu oído se fija, sobre todo, en la diferencia con el sonido anterior. Es parecido a lo que sucede en este otro vídeo, donde se apagan sucesivamente los armónicos de un mismo tono.

Este tipo de técnica se conoce como canto difónico o “overtone singing”, en inglés, y es típico, principalmente, de la región de Mongolia, aunque varias culturas en el mundo lo han desarrollado. Si quieres saber más sobre su origen, y cómo se produce, te recomiendo ver mi última colaboración con Jaime Altozano, donde además intentamos cantarlo nosotros mismos.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo ¿Es posible cantar dos notas a la vez? se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Paseando entre árboles de Pitágoras

mer, 2021/12/01 - 11:59

 

En esta entrada del Cuaderno de Cultura Científica vamos a hablar de una bella construcción geométrica relacionada con el teorema de Pitágoras, el conocido como árbol (fractal) de Pitágoras.

Escultura en bronce Árbol fractal ingleteado II (2000), diseñada en la década de 1980 y realizada inicialmente en madera por el artista y matemático neerlandés Koos Verhoeff. Imagen de Mathematical Arts Gallery

 

Esta construcción geométrica surge del diagrama básico asociado al teorema de Pitágoras. Recordemos que este resultado geométrico digno de una hecatombe (véase Pitágoras sin palabras) dice que “dado un triángulo rectángulo, entonces el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos” o en su versión más algebraica, que a2 + b2 = c2, si a y b son los catetos y c la hipotenusa del triángulo rectángulo. El esquema básico asociado es el siguiente.

El árbol de Pitágoras es un fractal (véase Fractus, arte y matemáticas) que fue inventado por el ingeniero y profesor de matemáticas neerlandés Albert E. Bosman en 1942 (aunque en esos momentos Bosman desconocía que esa estructura fuese un fractal). Esta construcción fue publicada, por primera vez, en su libro Het wondere onderzoekingsveld der vlakke meetkunde (algo así como El maravilloso campo de exploración de la geometría plana) de 1957.

Para explicar la construcción de este objeto fractal vamos a empezar por un caso particular, el mismo que utilizó Bosman, que es el esquema pitagórico para un triángulo rectángulo isósceles, es decir, los catetos son de la misma longitud (lo que nos lleva a que los ángulos del triángulo son 45, 45 y 90 grados), que se ve en la siguiente imagen.

La construcción del árbol de Pitágoras, para un triángulo rectángulo isósceles, es la siguiente. En el primer paso se tiene el esquema básico del teorema de Pitágoras, es decir, un cuadrado abajo, cuyo lado es la hipotenusa del triángulo rectángulo isósceles, y dos cuadrados iguales arriba, cuyos lados son los catetos del triángulo (véase la anterior imagen). Obsérvese que, por el teorema de Pitágoras, el área del cuadrado de abajo es igual a la suma de las áreas de los dos cuadrados de arriba.

Para el segundo paso, se considera cada uno de los dos cuadrados de la parte superior (el de la izquierda y el de la derecha) y se actúa sobre ellos como en el primer paso, es decir, añadiendo dos nuevos cuadrados para cada uno de ellos que con el anterior conforman un nuevo esquema básico del teorema de Pitágoras. El resultado de este segundo paso es el siguiente:

De nuevo, por el teorema de Pitágoras la suma de las áreas de los cuatro nuevos cuadrados es igual a la suma de las áreas de los dos cuadrados intermedios, que es igual al área del cuadrado de la base.

En el paso tercero se realiza la misma operación, pero para cada uno de los cuatro nuevos cuadrados, incorporándose así a la construcción ocho nuevos cuadrados, como aparece en la siguiente imagen.

Y así se continúa en cada paso, siempre añadiendo un par de nuevos cuadrados asociados a cada uno de los cuadrados “externos” del paso anterior. Además, la suma de las áreas de los cuadrados añadidos en cada paso es igual al área del cuadrado base.

El fractal conocido como árbol de Pitágoras se genera cuando llevamos esta construcción hasta su límite infinito. El resultado es el que aparece en la siguiente imagen (que hemos generado mediante el Pythagorean tree generator).

En la siguiente imagen podemos disfrutar del dibujo que realizó el profesor de matemáticas Alfred E. Bosman, por cierto, vecino del artista M. C. Escher (1898-1972), de su construcción.

Volviendo a la construcción del árbol de Pitágoras, la cantidad de cuadrados en cada paso es 1 (si tomamos como paso cero cuando tenemos solo el cuadrado inicial de la hipotenusa), 2, 4, 8, 16, 32, etc., es decir, 2n para el paso n-ésimo. Más aún, si el cuadrado inicial –situado abajo- tiene lado 1, luego área también 1, entonces el área –por el teorema de Pitágoras- de los cuadrados añadidos en cada paso son 1/2, 1/4, 1/8, etc., es decir, el área de cada uno de los cuadrados del paso n-ésimo es 1 / 2n.

Esta construcción, el árbol de Pitágoras, ha inspirado a algunos artistas. Uno de ellos, el autor de la escultura con la que iniciábamos esta entrada del Cuaderno de Cultura Científica, el matemático, científico computacional y artista neerlandés Koos Verhoeff (1927-2018), del cual vemos otra escultura.

Escultura en bronce, Árbol fractal ingleteado I (2010), diseñada en la década de 1980 y realizada inicialmente en madera, del artista y matemático neerlandés Koos Verhoeff. Imagen de Mathematical Arts Gallery

 

El escultor neerlandés Anton Bakker, dentro de su proyecto artístico Perspectives in Symmetry incluye una serie de esculturas en homenaje a su mentor, el artista y matemático Koos Verhoeff.

Imagen de la escultura Árbol fractal de Koos, del escultor Anton Bakker, basado en una creación de Koos Verhoeff, durante la exposición Alternative perspective/Perspectiva alternativa en el National Museum of Mathematics-MoMath

 

El artista belga Jos de Mey (1928-2007), conocido por sus pinturas y dibujos de objetos imposibles, también utilizó el árbol de Pitágoras dentro de sus composiciones. A continuación, mostramos algunos ejemplos.

Galería de mampostería con senderos que conducen a un árbol de cuento de hadas, del artista belga Jos de Mey. Imagen de la página Impossible world

 

Árbol de Pitágoras, del artista belga Jos de Mey. Imagen de la página Impossible world

 

Portada del libro Bomen van Pythagoras: variaties van Jos de Mey, de Bruno Ernst

 

Por otra parte, en la entrada Pitágoras en el arte mostrábamos una escultura del artista conceptual austriaco Hartmut Skerbisch (1945-2009) basada en el árbol fractal de Pitágoras. Sin embargo, vamos a añadir en esta entrada la escultura de otra artista para terminar esta parte. Se trata de la obra Recogiendo frutos del árbol de Pitágoras (2018), de la profesora de matemáticas y artista griega Georgia J. Maragkou.

Recogiendo frutos del árbol de Pitágoras (2018), de la profesora de matemáticas y artista griega Georgia J. Maragkou. Imagen de Mathematical Arts Gallery

 

Pero sigamos con la construcción del árbol de Pitágoras. De la misma forma que lo hemos construido este fractal a partir del diagrama básico del teorema de Pitágoras para el triángulo rectángulo isósceles, se puede hacer para cualquier otro triángulo rectángulo, como así aparece también en el libro de Bosman. Aunque ahora la construcción, aunque igualmente hermosa, ya no será igual de simétrica que lo era para el caso isósceles. Por ejemplo, en la siguiente imagen vemos el resultado de esta construcción geométrica para el triángulo rectángulo de ángulos 30, 60 y 90 grados, realizada también con el generador del árbol de Pitágoras: Pythagorean tree generator.

La parte principal de este árbol de Pitágoras está relacionada con la serie de obras del artista conceptual estadounidense Mel Bochner (1940) tituladas Pitágoras.

Pitágoras (2006), del artista estadounidense Mel Bochner. Imagen de WikiArt

 

El artista suizo Eugen Jost (1950), cuya obra artística podríamos catalogar como matemática, tiene una serie de cuadros titulados Pitágoras encuentra a Fibonacci, basada en esta construcción, en la rama principal de la misma. Pitágoras aparece a través de la construcción de la rama del árbol de Pitágoras, mientras Fibonacci aparece a través de la conocida sucesión de Fibonacci 1, 1, 2, 3, 5, 8, 13, 21, … (véase Póngame media docena de fibonaccis), ya que las áreas de los cuadrados, desde los pequeños a los mayores, son los primeros elementos de esta sucesión.

Pitágoras encuentra a Fibonacci, del artista suizo Eugen Jost. Imagen de IDW

 

El árbol de Pitágoras, para el caso general, también ha sido utilizado por el matemático y artista japonés Kentaro Okamoto. En este caso utiliza un triángulo rectángulo de ángulos, más o menos, de 52, 38 y 90 grados, además el área de cada color es la misma, como hemos explicado en la construcción (debido al teorema de Pitágoras).

Árbol de Pitágoras (2021), del matemático y artista japonés Kentaro Okamoto. Imagen de su cuenta de Instagram

 

El propio Bosman también observó (como puede verse en su libro) que en su construcción del árbol de Pitágoras que si se cambia alternativamente la orientación del triángulo rectángulo (no para el caso del triángulo isósceles que se queda igual) entonces se obtiene un nuevo tipo de árbol de tipo conífera. Por ejemplo, si se toma el triángulo rectángulo de ángulos 30, 60 y 90 grados, cuyo árbol de Pitágoras se ha representado arriba, entonces el árbol de Pitágoras de tipo conífera quedaría de la siguiente forma (realizado, de nuevo, con el Pythagorean tree generator).

O se puede generar un árbol de tipo semiconífera, como el de la siguiente imagen.

A partir de estas simples, pero hermosas, ideas de Alfred E. Bosman se pueden generar estructuras arbóreas diferentes. Por ejemplo, cambiar los cuadrados originales por rectángulos, de forma que se obtienen imágenes como las siguientes (que son de tipo normal, semiconífera y conífera), generadas con el Pythagoras tree generator de la página online math tools:

Más aún, podemos cambiar en cada paso los ángulos de los triángulos rectángulos y las dimensiones de los rectángulos, obteniendo imágenes como la siguiente (generadas con el Pythagoras tree generator).

Otro elemento que se puede modificar es el triángulo rectángulo. Es decir, tomar un triángulo cualquiera y colocar tres cuadrados en sus lados, creando así el diagrama básico, como en el caso del teorema de Pitágoras. Por ejemplo, si se toma un triángulo equilátero (de lados iguales y ángulos iguales, de 60 grados), se generaría la siguiente estructura, después de cuatro pasos (imagen de wikimedia commons).

De hecho, de esta forma se genera el mosaico Rhombitrihexagonal, que vemos en la siguiente imagen (Wikimedia Commons).

Podríamos hablar de más posibles variaciones, pero ya son demasiadas variaciones para una sola entrada, por lo que lo dejaremos aquí. Aunque, vamos a terminar con una artista matemática estadounidense, Gwen Beads, que utiliza el árbol de Pitágoras en algunas de sus obras, como en Doodle 35: conversación en la azotea (2019).

Doodle 35: conversación en la azotea (2019), de la artista estadounidense Gwen Beads. Imagen del blog de Gwen Beads

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Paseando entre árboles de Pitágoras se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Correcto es lo que hace la mayoría: el principio de la prueba social

mar, 2021/11/30 - 11:59

La risa enlatada, heredera de la claque teatral, no es un invento precisamente moderno. Nació en la radio estadounidense de los años cuarenta cuando el guionista Bill Morrow insistió en introducirla en un programa no demasiado gracioso. Sesenta años después sigue usándose, fundamentalmente en televisión, si bien en algunos casos se sustituye por una audiencia en directo, eso sí, convenientemente dirigida y animada. Y esto tiene que ver mucho con el éxito de los “me gusta” de Facebook, las tendencias de Twitter, los espacios en las portadas de los medios digitales con los artículos más leídos, los más compartidos o los más comentados, con las listas de los libros más vendidos, con los bares con más gente, los restaurantes de carretera con más camiones y con los círculos sociales cerrados de las religiones.

Nosotros, que nos creemos tan racionales habitualmente, nos dejamos guiar a la hora de tomar qué nos gusta o qué opinamos en innumerable número de ocasiones por unas reglas generales que traemos de serie por el hecho de ser miembros de la especie llamadas sesgos cognitivos para, una vez tomada la decisión, racionalizarla después. Uno de estos sesgos cognitivos es la prueba social.

Mujeres Kayan (mujeres jirafa) | Fuente: Wikimedia Commons

Correcto es lo que hace la mayoría

El principio de la prueba social (PPS) afirma que determinamos lo que es correcto averiguando lo que los demás piensan que es correcto. El PPS se aplica especialmente cuando decidimos qué constituye un comportamiento correcto en una situación dada. Y decidimos que un comportamiento es correcto en una determinada coyuntura cuando vemos a los demás adoptarlo, ya sea qué hacer con un bote de refresco vacío a la salida del cine, a qué velocidad circular por un tramo de autopista, cómo responder a un tuit o cómo comer el marisco en una boda de postín.

Como regla general el PPS tiene sentido y acierta en buen número de ocasiones. En principio cometeremos menos errores actuando conforme a lo que los congéneres consideran bueno que yendo en contra. Habitualmente, cuando mucha gente hace algo resulta ser la elección correcta. Esta característica del PPS es a la vez su mayor fortaleza y su mayor debilidad.

Si te fijas la próxima vez que veas un programa de televisión con risas incorporadas te darás cuenta de que la gente que te rodea sonríe casi sistemáticamente cuando se oyen las risas…aunque sean incapaces de explicar el chiste, suponiendo que éste exista y tenga gracia. Este es el peligro del PPS: responder a la prueba social de una forma tan automatizada e irreflexiva que seamos engañados por argumentos parciales o, directamente, falsos. Y aquí nace la posibilidad de manipulación y abuso.

Suelo repetir que la mejor ventana a la forma de funcionar de la mente humana es un libro de técnicas de venta. No suelen tener un contenido científico en el sentido habitual del término, pero sí suelen concentrar la sabiduría acumulada durante siglos sobre cómo usar los sesgos cognitivos, aunque ni los llamen así o ni siquiera sepan lo que son, para convencer a una persona de que será más feliz separándose de su dinero. Una de las máximas que se suele encontrar basada en el PPS podría resumirse así: “Dado que el 95% de las personas son imitadoras y sólo el 5% iniciadoras, resulta que la inmensa mayoría de la gente se ve más persuadida por las acciones de los otros que por ninguna razón que puedas esgrimir. Por tanto convence a ese 5%, que los demás le seguirán.” Un buen ejercicio la próxima vez que veas la televisión o un vídeo de YouTube es detectar cuántos anuncios o promociones internas se basan total o parcialmente en esta expresión del PPS.

El PPS tiene un poder enorme, mucho más del que estamos dispuestos a atribuirle, tanto que toda una vida puede cambiarse por lo que el PPS nos permite creer. Estudios realizados sobre el PPS indican que funciona mejor cuando la prueba social la da un grupo numeroso de personas. Pero, ¿qué ocurre si es todo nuestro entorno el que piensa que algo es lo correcto aunque objetivamente sea un sinsentido? Pues ocurre que entramos en el mundo de las sectas religiosas, y entren aquí todas las religiones organizadas, entendiendo por religión también algunos movimientos políticos populistas y acríticos, que separen a sus miembros de la interacción libre con el conjunto de la sociedad, efecto este potenciado por las burbujas que se crean en redes sociales. Y es que, tengámoslo claro, no es necesario que se ejerza una coerción sobre la persona, es la persona misma la que usa la prueba social para convencerse de que lo que prefiere que sea cierto parezca que es cierto.

El mesías anunciado por los profetas, el ungido del Señor, Sabbatai Zevi

Hay muchos ejemplos del poder maléfico del PPS a lo largo de los siglos. La Alemania nazi es un ejemplo evidente, movimientos políticos en el poder de corte populista recientes también lo son, pero, para mí, ninguno supera la historia de los sabateos, los seguidores de Zevi, el llamado mesías.

Sabbatai Zevi nació en 1626 en Esmirna (Imperio Otomano) en una familia judía asquenazí. La fecha de su nacimiento, el nueve de av (Tisha b’Av), es un día dedicado a lamentar la destrucción de los templos de Jerusalén (el primero de Salomón y el segundo de Zorobabel, reformado por Herodes el Grande, del que sólo queda el Muro de las lamentaciones). Este día se consideraba tradicionalmente por los rabinos el día del nacimiento del mesías prometido. Zevi terminó tomándose esta coincidencia muy en serio.

Primera versión impresa del Zohar, Mantua 1558 | Fuente: Wikimedia Commons

Zevi recibió una educación judía tradicional en el Talmud y la ley rabínica; pero desde muy joven se vio atraído por el estudio en profundidad del Zohar , obra fundacional de la Cábala que se escribió en Castilla en el siglo XIII. Zevi recibió el título de jajam cuando aún era un adolescente, aunque nunca ejerció formalmente como rabino de una congregación. Eso sí, su personalidad carismática atraía a buen número de jóvenes que estudiaban el Talmud bajo su dirección, y los más devotos a su persona seguían sus estrictas prácticas ascéticas para prepararse para los secretos ocultos de la Torá. Incidentalmente, entre estas prácticas estaba la abstinencia sexual: aparentemente Zevi nunca consumó ninguno de sus varios matrimonios.

Según algunos rabinos 1648 sería el año de la redención de los judíos. Ese año Zevi comenzó a pronunciar en público frecuentemente el tetragrámaton, una práctica prohibida en el judaísmo rabínico y que las autoridades religiosas locales tomaron como señal de su inestabilidad psicológica. Finalmente fue expulsado de Esmirna en 1651, un castigo tanto por sus actuaciones como por sus opiniones, y comenzó una vida errante por el Mediterráneo oriental. Finalmente, a principios de la década de 1660, llegó a Gaza donde conoció a Natán ben Elisha Haleví, más conocido como Natán de Gaza. Poco después, Natán tuvo una visión mística en la que se le reveló que Zevi no era otro que el mesías prometido.

A comienzos de 1665, Natán de Gaza anuncia públicamente que Zevi es el mesías. A la primera persona a la que ha de convencer es al propio Zevi, que tampoco opuso demasiada resistencia, y para mayo de 1665 se proclamaba a sí mismo como mesías. Natán, adoptando el papel del profeta Elías, consigue crear mucho entusiasmo por su maestro. El rabinato de Jerusalén, como es lógico, no se queda quieto y en el verano de 1665 expulsa a Zevi de Palestina, con lo que éste regresa a Esmirna.

Zevi llegó como un ciclón a la comunidad judía de Esmirna. Tras tomar la sinagoga, suspender la ley judía y proclamarse “el ungido del Señor” anunció que la redención tendría lugar el 18 de junio de 1666. La noticia corrió como la pólvora, para los estándares de la época, a través de las rutas comerciales. En un período de tiempo muy breve los judíos de varias partes del Oriente Medio, Europa e incluso las Indias Occidentales participaban en la fiebre mesiánica.

Sabbatai coronado rey. Amsterdam, 1666 | Fuente: Wikimedia Commons

Pero en ninguna parte prendió el fuego mesiánico tanto como en la cerrada comunidad judía sefardí de Amsterdam, en la que la conversión de los líderes (iniciadores) hizo que el PPS llevase a una transformación masiva en el comportamiento (considerado correcto) de la comunidad (seguidores).

Los sufrimientos de los años anteriores a Zevi habían predispuesto a los judíos más mesiánicos de Amsterdam a buscar un propósito en todo ese padecimiento. La guerra continua con Inglaterra y la plaga de 1664-65, con una tasa de mortalidad elevadísima, tuvieron su colofón esotérico con el cometa de 1664. Cuando las informaciones sobre Zevi “el mesías” llegaron a Amsterdam en noviembre de 1665 encontraron un terreno abonado.

Más aún si tenemos en cuenta que la comunidad estaba dirigida desde 1660 por el rabino cabalista Aboab. La comunidad en su conjunto, salvo raras y perseguidas excepciones, se convirtió, tirando por la borda toda precaución y previsión para el futuro, preparándose para viajar a Tierra Santa. Comenzaron a malvender sus bienes, a violar los mandamientos (especialmente los relativos a fiestas) y planeando exhumar a sus muertos para llevárselos a Palestina. Los editores de Amsterdam comenzaron a a producir copias en hebreo, español y portugués (las lenguas sefarditas) del libro de oraciones que había escrito Natán de Gaza. Curiosamente no se conservan copias de la época en yiddish (la lengua asquenazí).

Sin embargo las autoridades políticas tenían algo que decir. El sultán otomano no estaba dispuesto a consentir revueltas de infieles en su territorio, por lo que en febrero de 1666 Zevi fue encarcelado en la fortaleza de Gallipoli. Allí se le planteó una elección: o se convertía al islam o se le cortaba la cabeza. Pasado el 18 de junio, sin redención aparente, Zevi tomó su decisión y en septiembre se convertía al islam.

Ante este hecho asombroso para alguien considerado el mesías, ¿qué hicieron sus seguidores? Muchos se sintieron defraudados e intentaron rehacer sus vidas. Pero un buen número, muchos venidos de Amsterdam, continuó creyendo en Zevi: simplemente vieron su apostasía como parte del gran plan y trataron de racionalizarla lo mejor que pudieron, pasando a interpretarla como un mandamiento para pasar a practicar una religión oculta y secreta.

Se estima que aproximadamente un tercio de los judíos creyó en Zevi en algún momento. Hoy día sus seguidores, los sabateos, siguen existiendo en Turquía, son los llamados dönmeh.

Obviamente otros prejuicios cognitivos intervinieron en esta historia, fundamentalmente el principio de autoridad y la necesidad de consistencia (ambos también muy empleados en ventas y publicidad), pero es fundamental el papel que jugó entonces, y sigue jugando hoy día, lo que tu grupo piense para lo que tú consideres correcto. Por absurdo o dañino que sea.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Una versión anterior de este texto se publicó en Naukas el 9 de enero de 2013.

El artículo Correcto es lo que hace la mayoría: el principio de la prueba social se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Humberto Maturana: pensamiento para la ciencia y la conciencia mundiales

lun, 2021/11/29 - 11:59

Alfredo Erlwein Vicuña

El biólogo chileno Humberto Maturana (1928 – 2021). Foto: Rodrigo Fernández / Wikimedia Commons

Alfredo Erlwein Vicuña, Universidad Austral de Chile

Humberto Maturana (1928-2021) recibió el Premio Nacional de Ciencias de Chile en 1994, y fue nombrado miembro honorario de la Sociedad Mundial de Cibernética el 2020. Tuve la suerte de conocerlo hace dos décadas. Sin conocerme ni ser yo su estudiante, accedió a coguiarme en una investigación para entrar a un postgrado en Inglaterra.

Allá nos enseñaron la teoría de Santiago (como se conoce el trabajo de Maturana y Francisco Varela) en ramas tan disímiles como filosofía de la ciencia o teoría de la complejidad (biología, matemática, ecología). Desde entonces he pensado y enseñado la teoría, que aún no termino de entender. No obstante, me convencí de que su trabajo marcaría un hito mundial en el campo de la ciencia, y de allí a diversos ámbitos del saber humano.

La autopoiesis

El enfoque sistémico (cibernético) de Maturana lo llevó a estudiar la organización de la vida, en lugar de sus componentes por separado. La vida no es una “cosa”, sino un proceso, una ininterrumpida onda circular de autoproducción: autopoiesis.

El físico Fritjof Capra, referente mundial en teoría de sistemas, sostiene lo siguiente sobre la autopoiesis:

“Se basa en dos ideas revolucionarias: que la esencia de la vida biológica es un cierto patrón de organización –una red autogenerada de procesos metabólicos–; y que todos los organismos vivos se regeneran continuamente al interactuar cognitivamente con su entorno. Con base en estas dos ideas, Maturana y Varela crearon la primera teoría científica que unifica mente, materia y vida”.

Ya hace 25 años, en La trama de la vida, Capra afirmaba:

“Desde mi perspectiva, la teoría de Santiago es el primer constructo científico coherente que realmente supera la separación cartesiana”.

En otras palabras, se trata de un quiebre con más de 350 años de tradición científica, que diluye la separación entre cuerpo y mente, sujeto y objeto, organismo y medio ambiente, ciencias duras y ciencias blandas, individuo y sociedad.

Personalmente me enfoqué más en investigar su teoría aplicada a la ecología. Lynn Margulis se interesa por la autopoiesis en sintonía con su endosimbiosis (la mejor explicación al origen de las células eucariontes), y es ella la que le da un fundamento microbiológico a la teoría de Gaia, de James Lovelock, que plantea que el planeta se comporta como un superorganismo.

Autopoiesis y vida

La noción de vida de Maturana también podía aplicarse a la idea de Gaia. La autorregulación a escala planetaria es también una forma de autopoeisis: la vida creando las condiciones ambientales ideales para la vida. Un sistema vivo planetario que está constantemente creando el medio ambiente adecuado para mantenerse (el origen de los servicios ambientales). Y ello ocurriría no por magia, sino por recursión de la adaptación evolutiva. Tanto Gaia como la autopoiesis plantean que organismo y medio ambiente coevolucionan acopladamente, no hay uno sin el otro. Si la Tierra es autopoiética, entonces probablemente está viva.

Digo probablemente, pues autopoiesis y vida no son exactamente lo mismo. Dependiendo del criterio de distinción, existirían sistemas autopoiéticos no vivos, como el fuego o los remolinos de un río. Por otra parte, la autopoiesis no describe qué es la vida, sino qué hace la vida. En ese sentido no se resuelve definitivamente la pregunta por la vida, pero la autopoiesis es hoy la mejor definición de vida que tiene la ciencia.

Maturana a su vez desmitifica la competencia como eje principal de la evolución. Existe la competencia, pero es la cooperación lo que ha diversificado, complejizado y fortalecido a la biosfera. Cada gran paso en la evolución ha sido un paso cooperativo: de células a redes de células (organismos multicelulares) a redes de organismos (organismos sociales) a comunidades de especies, a redes ecosistémicas. La cooperación es constitutiva a la vida.

El lenguaje no escaparía a ello. Si el lenguaje es coordinación (ordenarse con), su requisito es la cooperación (operar con). Ello implica la aceptación mutua de los individuos que interactúan. Así, Maturana incorpora en su trabajo un tema principal en la cultura universal, pero prohibido en la ciencia natural: el amor. Lo define biológicamente como “la aceptación del otro como un legítimo otro en la convivencia” o “dejar que el otro aparezca”, y afirma que es la emoción que funda lo humano.

Una teoría presente en muchos ámbitos

La teoría de este biólogo chileno se expandió a otros campos del saber porque redefine lo que es la vida, el lenguaje y el conocer. Eso sencillamente lo cambia todo, incluyendo lo que entendemos por realidad y conciencia. Maturana plantea que para todo ser vivo la realidad es distinta, pues esta se percibe de acuerdo con los procesos sensoriales de cada organismo.

La experiencia del vivir se realiza en la corporalidad, y por ello es única e intransferible, pero ocurre siempre en la interacción: con los otros, con el ambiente y consigo mismo. En simple: como el conocer es un proceso que ocurre también dentro del organismo (con o sin sistema nervioso), ningún ser vivo tiene acceso a una realidad independiente de su propio organismo. Lo que vemos o sentimos es lo que le pasa a nuestro cuerpo en el encuentro con algo, lo que ese algo gatilla en nosotros, pero no podemos saber cómo es ese algo sin nosotros.

Por esa razón, nadie puede afirmar que tiene acceso a una verdad absoluta. Si bien siempre se supo en ciencia que no existe la verdad absoluta, la teoría de Santiago entrega una base teórica para ello, socavando de paso uno de los supuestos más importantes de la ciencia moderna: la objetividad.

La “verdad” surge en el conversar, como un consenso con otros, y por ello cambia constantemente de acuerdo con cada momento histórico. La verdad sería relativa, pero no en términos absolutos, pues, como seres vivos, estamos acoplados estructuralmente a nuestro medio: he ahí nuestro “cable a tierra”.

Asimismo, al ser organismos que vivimos en el lenguaje, cada nueva “verdad” (idea aceptada colectivamente) tiene el potencial de cambiarnos a nosotros también, pues un nuevo lenguaje implica también una nueva percepción. Por ejemplo, hace solo 100 años no existía el concepto de ecosistema; por ello no podíamos “ver” un ecosistema.

Al crearse la palabra emergió un mundo nuevo. Paradójicamente, desde esta perspectiva, efectivamente “el lenguaje crea realidad”, como diría Maturana, haciendo además una importante distinción entre hablar (solo “lenguajear”) y conversar (etimológicamente “girar juntos”; fluir entre lenguajear y emocionar: involucrarnos emocionalmente en el hablar).

Contrario a nuestra creencia convencional, la razón y la lógica serían menos gravitantes que las emociones. “Los humanos somos seres emocionales que usamos la razón para justificar o negar según nuestras propias preferencias”, diría también. Así lo ha constatado la neurociencia, respecto a que las emociones preceden al pensamiento analítico en el proceso cognitivo.

Una cultura sería entonces una red de conversaciones de un grupo humano acoplado. De esta forma, para Maturana la democracia no sería solo un sistema de gobierno, sino un modo de vida en el coexistir, y por ende amoroso.

Humberto Maturana, el científico chileno más citado en el mundo, expandió nuestra conciencia, devolvió nuestra mirada hacia la vida y nos invitó al amor. Para llevar su teoría a la práctica, tenemos hoy en el mundo la mejor oportunidad: en medio de grandes discusiones sobre nuevos modelos de desarrollo. Debemos volver a lo esencial humano, a ser capaces de conversar, consensuar qué queremos. Pues, en la autopoiesis de la sociedad humana, crearemos los acuerdos que crearán el planeta que seremos en las próximas décadas.The Conversation

Sobre el autor: Alfredo Erlwein Vicuña es profesor e investigador en el Instituto de Ingeniería Agraria y Suelos de la Facultad de Ciencias Agrarias y Alimentarias y en el Centro Transdisciplinario de Estudios Ambientales CEAM de la Universidad Austral de Chile.

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Humberto Maturana: pensamiento para la ciencia y la conciencia mundiales se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

El quinto ángel

dim, 2021/11/28 - 11:59

Tocó el quinto ángel… Entonces vi una estrella que había caído del cielo a la tierra. Se le dio la llave del pozo del Abismo. Abrió el pozo del Abismo y subió del pozo una humareda como la de un horno grande, y el sol y el aire se oscurecieron con la humareda del pozo. De la humareda salieron langostas sobre la tierra, y se les dio un poder como el que tienen los escorpiones de la tierra. Se les dijo que no causaran daño a la hierba de la tierra, ni a nada verde, ni a ningún árbol; sólo a los hombres que no llevaran en la frente el sello de Dios. Se les dio poder, no para matarlos, sino para atormentarlos durante cinco meses.

Juan de Patmos (siglo I e.c.) Apocalipsis 9: 1-5.

Foto: Martin Sanchez / Unsplash

Se estima que la peste negra del siglo XIV provocó la muerte de entre una cuarta parte y la mitad de los europeos, la tercera parte de sirios y egipcios, además de causar estragos en la India y Extremo Oriente. Aunque no se dispone de datos fiables con relación a la mortalidad, probablemente acabó con entre el 5 % y el 14 % de la población mundial. La llegada de los europeos al continente americano y su conquista provocaron la desaparición del 90% de la población nativa de las Américas, la mayor parte a causa de las enfermedades que llevaron con ellos. Y sin remontarnos tan atrás en el tiempo, la mal llamada gripe española de 1918 mató a entre el 3 y el 6 % de la población mundial, alrededor de 50 M de personas.

Hoy seguimos sufriendo los efectos de una pandemia provocada por un coronavirus que se expandió por el mundo en el invierno de 2020. Desde entonces se han registrado algo más de 5 M de muertes a causa de la enfermedad que provoca, aunque es posible que el número real supere los 15 M.

Las circunstancias actuales hacen que las pandemias se expandan más fácilmente, por lo que el peligro es cada vez mayor. Los factores responsables son los siguientes: (1) hay mucha más población que en cualquiera de las pandemias citadas; (2) su densidad es también mucho más alta, con numerosas zonas del planeta densamente pobladas; (3) las prácticas ganaderas en muchos países favorecen la transmisión de patógenos a los seres humanos; y (4) la movilidad de la gente es muy superior a la del pasado.

No obstante, a pesar del efecto de esos factores, lo cierto es que no es nada fácil que un patógeno “normal” suponga un riesgo existencial a la humanidad. Sabemos que llegarán más pandemias, y que algunas pueden tener efectos devastadores, pero la probabilidad de que acaben con la existencia de la humanidad es muy baja. Toby Ord la estima en una en diez mil.

Sin embargo, lo que no es tan improbable es que se produzcan fugas accidentales de patógenos muy peligrosos, incluso en los laboratorios de máxima seguridad (BSL-4). Además, algunos podrían ser de virulencia o transmisibilidad aumentada de forma artificial. Ha habido varios episodios de fugas de patógenos peligrosos que fueron contenidas a tiempo. Por otro lado, tampoco cabe descartar su posible uso malicioso. La biotecnología ofrece, tanto a los estados como a muchos particulares, grandes posibilidades de crear microorganismos de especial peligrosidad. No es descabellado pensar que en algún momento esa posibilidad pueda materializarse. Toby Ord indica que la probabilidad de que se produzca una pandemia por difusión de un patógeno de diseño en los próximos 100 años es de una en treinta. Es una probabilidad como para empezar a tomársela en serio.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El quinto ángel se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Naukas Bilbao 2021: José Luis Crespo (Quantum Fracture) – La bomba atómica nazi

sam, 2021/11/27 - 11:59

El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.

Los nazis tenían su propio proyecto nuclear, el Proyecto Uranio. Y hasta qué punto fue un proyecto viable nos los cuenta José Luis Crespo, más conocido en los ambientes como Quantum Fracture.



Más vídeos de Crespo sobre este asunto: aquí y aquí.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2021: José Luis Crespo (Quantum Fracture) – La bomba atómica nazi se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Invertir en conocimiento geológico

ven, 2021/11/26 - 11:59

Fernando Sarrionandia-Ibarra Eguidazu

Fuente: Instituto Geográfico Nacional

Domingo 19 de septiembre de 2021, 14:13 hora local, entra en erupción un volcán en la isla de La Palma (archipiélago canario). La erupción volcánica acapara los medios informativos por su excepcionalidad, pero sobre todo porque se está desarrollando en una zona poblada. En los primeros días las coladas de lava, los piroclastos y los gases emitidos por el volcán afectan principalmente a cuatro municipios, con más de 7.000 personas evacuadas. Pasada la primera semana se estima que los daños económicos superan ampliamente los 400 millones de euros. Afortunadamente, el eficaz desarrollo del Plan Especial de Protección Civil y Atención de Emergencias por Riesgo Volcánico (PEVOLCA) está minimizando el impacto de los productos volcánicos sobre la población, sin que haya víctimas entre los habitantes de la zona. En las siguientes líneas se explican las causas del volcanismo en la isla de La Palma, la dimensión relativa de la erupción del Cumbre Vieja a escala terrestre, y se invita a la siguiente reflexión: ¿es preciso la inversión económica en investigación geológica?

Las islas oceánicas

La Palma es una isla oceánica (708 km2) formada por la erupción y acumulación progresiva de lavas procedentes del manto terrestre sobre el fondo oceánico. Esa isla se corresponde con un enorme volcán de geometría cónica, con una planta casi circular de 75 km. de diámetro y una altura de 6,5 km. En efecto, se eleva desde una profundidad de casi 4.000 m. hasta una altura de más de 2.400 m. sobre el nivel del mar.

La ubicación de las islas oceánicas no es aleatoria, sino que está relacionada con la existencia de anomalías térmicas en determinadas zonas del manto terrestre denominadas “plumas mantélicas”. El manto es una región del interior terrestre de aproximadamente 2.890 km. de espesor cuya composición litológica difiere de la de la capa más superficial, denominada corteza (cuyo espesor medio en las áreas oceánicas es de 6 km. y en las continentales de 30-35 km.). La temperatura del manto superficial (800-1000 ºC) contrasta con la de su base (2600 ºC), provocando la formación de células convectivas en su interior que transportan calor y materia hacia la superficie. En ocasiones, ese fenómeno convectivo desencadena en los 200 km. inferiores del manto (en la zona de contacto con el núcleo terrestre) la formación de penachos o plumas de masas rocosas que ascienden hacia la superficie, desarrollando una geometría parecida a la de los hongos de las explosiones nucleares. El diámetro de las cabezas de estas plumas es del orden de 2.000 km. Sus ascensos se ven frenados en la parte superior del manto, de carácter rígido, al que se denomina manto litosférico. Las plumas retenidas provocan el abombamiento de la litosfera que, junto con la acumulación de energía térmica y la descompresión de las rocas mantélicas, generan los magmas basálticos y, por extensión, el volcanismo de las islas oceánicas.

El volcanismo en el archipiélago canario

En las Islas Canarias la ubicación del volcanismo ha ido cambiando progresivamente de lugar, ya que la placa litosférica africana, sobre la que se encuentra este archipiélago, se desplaza respecto a la pluma subyacente a unos 9 milímetros al año. La formación de las primeras islas (Lanzarote y Fuerteventura) comenzó hace ya 20 Ma (millones de años). El progresivo desplazamiento hacia el noreste de la placa litosférica africana trajo consigo la extinción del volcanismo en esas primeras islas, pero la emersión sobre las aguas oceánicas de otras nuevas (Gran Canaria, 15 Ma; Tenerife, 12 Ma; La Gomera, 10 Ma). Las islas más occidentales, La Palma y El Hierro, son las más jóvenes (1.8 Ma) y están en una etapa de crecimiento activo, por lo que presentan actividad volcánica histórica. En la isla de La Palma la actividad volcánica más reciente se localiza en la mitad meridional, a lo largo del rift volcánico Cumbre Vieja, que integra varios centros eruptivos alineados en una dirección norte sur a lo largo de 17 km. En esa zona de la isla se han producido nueve erupciones volcánicas en los últimos 550 años.

Magnitud de la erupción de La Palma

Aunque nos pueda parecer sorprendente, la erupción volcánica de Cumbre Vieja es una erupción modesta conforme al Índice de Explosividad Volcánica (VEI), que permite medir la magnitud de las erupciones volcánicas. El VEI tiene en cuenta, entre otros parámetros, el volumen de material piroclástico emitido y la altura de la columna eruptiva, que es proporcional a la explosividad del volcán. En función de esos parámetros, la escala VEI varía desde un valor de 0 (erupción sólo efusiva) hasta un máximo de 8 (máxima explosividad). Aunque todavía es pronto para hacer una valoración adecuada, probablemente la erupción de La Palma no sobrepase el valor 2 del VEI (volumen de lava emitido comprendido entre 0,001 km3 y 0,01 km3; altura de la columna eruptiva inferior a 5 km). Esa erupción, en lo que a explosividad se refiere, se está comportando hasta el momento como una típica erupción estromboliana con algunos pulsos vulcanianos excepcionales. A modo de comparación, las erupciones de VEI 8 emiten más de 1.000 km3 de materiales piroclásticos y forman columnas eruptivas que superan los 25 km. de altura.

Por otro lado, las coladas de lava emitidas en la actual erupción de La Palma tienen unas dimensiones modestas comparadas con otras coladas emitidas a lo largo del tiempo geológico. Hasta el momento la colada de lava del aparato volcánico Cumbre Vieja cubre unas 250 hectáreas, con una potencia máxima de en su frente de avance que no llega a los 25 m. La colada Roza, en la región de Columbia River (estados de Idaho y Oregón, USA), fue emitida hace 15 Ma con una tasa de emisión de lava de 1 km3/día. Esa colada tiene una longitud de 400 km., una potencia media de 50 m. y cubre una extensión de 40.000 km2, 57 veces la superficie de La Palma.

Invertir en investigación geológica

La investigación geológica está permitiendo predecir con mayor precisión cuándo y dónde van a tener lugar las erupciones volcánicas, incluso el posible nivel de explosividad. Además, también ha permitido identificar erupciones volcánicas, algunas de ellas catastróficas a escala terrestre, que todavía no han sido observadas por el ser humano, pero que probablemente vuelvan a producirse. Acercarse a observar lo que ocurre en un volcán en erupción es tremendamente peligroso. Sin embargo, es posible estudiar aparatos volcánicos extintos, parcialmente erosionados, en los que afloran sus depósitos y las estructuras internas. La investigación geológica básica realizada en volcanes extintos, acometida por unos pocos investigadores durante las últimas décadas, está contribuyendo en el conocimiento del comportamiento de los volcanes activos. Ese es el reto al que se enfrenta la comunidad científica-geológica hoy. Parafraseando a Derek Bok, rector de la Universidad de Harvard entre 1971 y 1991, «quien piense que la inversión en investigación básica es cara y prescindible, que pruebe con la ignorancia”.

Sobre el autor: Fernando Sarrionandia-Ibarra Eguidazu es profesor agregado del Departamento de Geología y miembro del Grupo de Investigación GIU20/010 de la UPV/EHU

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Invertir en conocimiento geológico se ha escrito en Cuaderno de Cultura Científica.

Catégories: Zientzia

Pages