Suscribirse a canal de noticias Cuaderno de Cultura Científica
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Actualizado: hace 32 mins 51 segs

Contando lentejas, las particiones de los números

Mié, 2021/09/22 - 11:59

 

Hace unos años escribí una biografía sobre el matemático británico Arthur Cayley (1821-1895), que es uno de esos matemáticos por los que siento cierta admiración. Arthur Cayley investigó prácticamente en todas las áreas de las matemáticas –escribió 967 artículos y un libro sobre funciones elípticas–, en un tiempo en el que la investigación matemática era como una de esas expediciones geográficas, llenas de aventuras, del siglo XIX y principios del siglo XX, pero por territorio matemático. Escribiendo el libro Cayley, el origen del álgebra moderna aprendí algunas cosas sobre las particiones de los números naturales, tema al que vamos a dedicar esta entrada del Cuaderno de Cultura Científica.

Portada del libro Cayley, el origen del álgebra moderna (Raúl Ibáñez), de la colección Genios de las Matemáticas, RBA, 2017

 

Sin embargo, me gustaría empezar con un poco de literatura. En concreto, con una cita de la novela El contable hindú (Anagrama, 2011), del escritor estadounidense David Leavitt, novela que se centra en la relación de los matemáticos Srinivasa Ramanujan (1887-1920) y Godfrey H. Hardy (1877-1947), y en el ambiente de la Universidad de Cambridge de principios de siglo XX.

Por la mañana, va hasta las habitaciones de Hardy. Cuando se quita el abrigo, las lentejas se le caen del forro.

¿Le pasa algo? — pregunta Hardy— Parece agotado.

Me pasé la noche cocinando. Voy a dar una cena. El martes que viene. Me pregunto si me haría el honor de asistir.

Pues claro —dice Hardy—. ¿Qué se celebra?

Que Chatterjee se va a casar. […]

¿Está seguro de que se encuentra bien? —pregunta Hardy. Ramanujan asiente con la cabeza.

Se lo pregunto porque parece un poco distraído. ¿Es por la cena?

Qué va. Son las lentejas.

¿Qué lentejas?

Las del rasam. —Y Ramanujan se pone a explicarle que, mientras preparaba los ingredientes para el rasam, se dedicó a contar las lentejas, y eso le hizo pensar en las particiones.

No es la primera vez que hablan sobre las particiones. De hecho, tienen la teoría de las particiones en mente (aunque de un modo bastante disperso) desde que Hardy recibió la primera carta de Ramanujan y se topó con un enunciado sobre la serie theta cuya inexactitud permitía enfocar la cuestión desde un ángulo nuevo realmente sorprendente. Calcular p(n) —el número de particiones de un número— es fácil cuando n es 5 o 7; el problema es que, a medida que el número va siendo más alto, p(n) aumenta a un ritmo asombroso. Por ejemplo, el número de particiones de 7 es 15, mientras el número de particiones de 15 es 176. Así que ¿cuál es el número de particiones de 176? 476.715.857.290. Y entonces, ¿cuál sería el número de particiones de 476.715.857.290?

¿Y adónde le han llevado las lentejas?

Tengo una idea sobre una fórmula para calcular el número de particiones de un número. Aunque sea un número muy alto. —Se levanta—. ¿Puedo?

Claro. —Hardy borra la pizarra, y Ramanujan se acerca a ella. Empieza a trazar diagramas: puntitos que representan las lentejas. Luego escribe la serie theta de su primera carta. Entonces Hardy menciona la función generadora que descubrió Euler, y […].

Portada de la novela El contable hindú, de David Leavitt, publicada por Anagrama en 2011

 

Pero vayamos con las particiones. Una partición de un número natural es una forma de expresarlo como suma de números naturales, donde el orden no es relevante. Por ejemplo, el número 3 puede expresarse como suma de números naturales de tres formas distintas

1 + 1 + 1, 2 + 1, 3,

es decir, hay tres particiones del número 3, mientras que existen cinco particiones del número 4, a saber,

1 + 1 + 1+ 1, 2 + 1 + 1, 2 + 2, 3 + 1, 4.

Dicho de una forma un poco más técnica, una partición de un número entero positivo n es una sucesión no creciente de números enteros

de forma que su suma es n,

Se denota por p(n) el número de particiones de un número n y por convención se toma p(0) = 1. Calcular las particiones de números pequeños es un problema sencillo, incluso un juego entretenido. Se puede ver fácilmente que p(6) = 11, p(7) = 15, p(8) = 22, p(9) = 30 y p(10) = 42. Sin embargo, la cuestión se complica según vamos avanzando en los números naturales. Por ejemplo, un número bajo como 100 tiene ya p(100) = 190.569.292 particiones, que no es precisamente un número pequeño. Solo en escribir explícitamente las particiones de 100 tardaríamos bastante más de 18 años y eso considerando que se estuviese escribiendo a un ritmo muy rápido y sin parar a descansar en todo el día, las 24 horas del día. O 36 años, a 12 horas diarias. Además, como se menciona en El contable hindú es una función que crece exponencialmente.

Por otra parte, se define como pk(n) el número de particiones del número n con k, o menos, sumandos. Por ejemplo, p3(6) = 7, ya que el 6 se puede expresar como suma de 3, o menos, sumandos de estas siete formas distintas

2 + 2 + 2, 3 + 2 + 1, 3 + 3, 4 + 1 + 1, 4 + 2, 5 + 1, 6.

Mientras que se denota por qk(n) al número de particiones del número n cuyos sumandos son menores, o iguales, a k. Por ejemplo, q3(6) = 7, ya que existen siete particiones del 6 cuyos sumandos son 1, 2 o 3,

1 + 1 + 1 + 1 + 1 + 1, 2 + 1 + 1 + 1 + 1, 2 + 2 + 1 + 1, 2 + 2 + 2, 3 + 1 + 1 + 1, 3 + 2 + 1, 3 + 3.

Se estudian muchos más tipos de particiones: con números impares, con números distintos, con determinado tipo de números, con solo ciertos números, planas, perfectas, etcétera. Además, si en las particiones se tuviera en cuenta el orden se obtendrían las composiciones o particiones ordenadas, pero hoy no vamos a hablar de estas.

La primera referencia a las particiones aparece en una carta, de 1669, del matemático alemán Gottfried Leibniz (1646-1716) al matemático suizo Johann Bernoulli (1667-1748), aunque las llama «divulsiones». Sin embargo, fue Leonhard Euler quien realizó el primer estudio serio de las particiones en su libro Introductio in analysin infinitorum (1748). Además de Euler, han estudiado las particiones de los números matemáticos como Arthur Cayley, James J. Sylvester (1814-1897), Percy A. MacMahon (1854-1929), Godfrey H. Hardy, Srinivasa Ramanujan y muchos más.

Edición original del libro Introductio in analysin infinitorum (1748), de Leonhard Euler. Imagen de la Galería Swann

 

En el texto Introductio in analysin infinitorum, Leonhard Euler expresó la sucesión de los números de particiones {p(n)} como coeficientes de una función generatriz, una serie infinita de potencias. En concreto, demostró que

pero no vamos a explicar en esta entrada del Cuaderno de Cultura Científica el significado e importancia de esta potente fórmula matemática, sino que vamos a mostrar una técnica más visual de estudio de las particiones de los números, los denominados diagramas de Ferrers.

Norman Macleod Ferrers (1829-1903) fue un matemático británico de la Universidad de Cambridge, como muchos de los protagonistas del estudio de las particiones de los números. Un diagrama de Ferrers es un diagrama de puntos en el que cada partición se representa con una serie de puntos de forma que en cada fila haya tantos puntos como el número que se está sumando. Por ejemplo, la partición 21 = 6 + 4 + 4 + 2 + 2 + 2 + 1 se representa con una fila de seis puntos, dos de cuatro puntos, tres de dos puntos y una de un punto, como se ve en la siguiente imagen.

Si en el diagrama de Ferrers de una cierta partición se intercambian las filas por las columnas, se obtiene el diagrama de una nueva partición del mismo número, que es la denominada partición conjugada de la primera. Por ejemplo, si al diagrama de la imagen anterior, correspondiente a la partición 21 = 6 + 4 + 4 + 2 + 2 + 2 + 1, se le intercambian filas y columnas, se obtiene el diagrama de la partición conjugada de la anterior, la partición 21 = 7 + 6 + 3 + 3 + 1 + 1.

Observando los diagramas de Ferrers de particiones conjugadas se deduce que dada una partición de un número n con k, o menos, sumandos (el número de sumandos se corresponde con el número de filas, que no puede ser mayor que k), su partición conjugada es una partición de n donde los sumandos son números menores, o iguales, que k (puesto que ahora el número de puntos de cada columna no puede exceder k, que era la cantidad de filas que había antes). Y el recíproco también es cierto. Por ejemplo, en las imágenes anteriores, la partición 6 + 4 + 4 + 2 + 2 + 2 + 1, tiene siete o menos sumandos, y su conjugada, 7 + 6 + 3 + 3 + 1 + 1, tiene sumandos que no son mayores que siete.

En consecuencia, los diagramas de Ferrers ofrecen una sencilla demostración de la «bella ley de Euler», como la denominó Sylvester,

pk(n) = qk(n),

es decir, el número de particiones de n con k, o menos, sumandos es igual al número de particiones con sumandos que no exceden a k.

Veamos otro resultado sencillo que puede demostrarse con la ayuda de estos diagramas:

pk(n) = pk – 1(n) + pk(n – k).

Como ya hemos mencionado en más de una ocasión en la sección Matemoción del Cuaderno de Cultura Científica las demostraciones son una parte muy importante, de hecho, fundamental, de las matemáticas, por lo que este ejemplo nos sirve para ilustrar el proceso de una demostración matemática.

Vamos a demostrar la anterior fórmula. Es decir, la vamos a demostrar que pk(n) –el número de particiones del número n con k, o menos, sumandos- es igual a la suma de pk – 1(n) –el número de particiones del número n con k – 1, o menos, sumandos- y pk(n – k) –el número de particiones del número n – k con k, o menos, sumandos-. Para demostrarlo vamos primero a dividir el conjunto S de particiones del número n con k, o menos, sumandos en dos subconjuntos, a saber, el subconjunto S1 de particiones del número n con exactamente k sumandos y el conjunto S2 de particiones del número n con menos de k sumandos. Luego si contamos la cantidad de elementos de los subconjuntos S1 y S2, obtendremos que su suma es igual al número de elementos del conjunto S, esto es, pk(n).

Pero claramente el conjunto S2 es igual al conjunto de particiones del número n – 1 con k, o menos, sumandos, de donde se deduce que la cantidad de elementos de S2 es igual a pk – 1(n).

Para obtener el número de elementos de S1 vamos a utilizar los diagramas de Ferrers. Como los elementos de S1 tienen exactamente k sumandos, sus diagramas de Ferrers tienen exactamente k filas, como se muestra en el ejemplo de la imagen, luego si se elimina la primera columna –que para cualquier elemento de S1 tiene k puntos- se obtiene una partición de nk (ya que se han quitado k puntos) con k, o menos, sumandos. Por lo tanto, el número de elementos de S1 es pk(n – k).

Dos ejemplos de cómo una partición del número 21 en exactamente 7 sumandos, nos da –al quitar la primera columna- una partición de 21 – 7 = 14 con 7, o menos sumandos

 

En conclusión, pk(n) es igual a la suma de las cantidades de elementos de S1 y S2, luego pk(n) = pk – 1(n) + pk(n – k); QED (Quod erat demonstrandum).

Otra propiedad, esta vez de las particiones autoconjugadas –aquellas particiones de un número que son iguales a sus conjugadas-, que se puede probar fácilmente de forma visual teniendo en cuenta los diagramas de Ferrers es la siguiente:

El número de particiones autoconjugadas es igual al número de particiones con números impares distintos.

La idea que subyace a esta prueba es que una línea con un número impar de puntos se puede plegar en una partición autoconjugada (con una única fila y una única columna, con la misma cantidad de puntos en ambas), como en la siguiente imagen.

A partir de la anterior idea se puede observar que el número de particiones autoconjugadas es igual al número de particiones con números impares distintos, sin más que aplicar el plegado a cada una de las filas con un número impar de puntos, todos ellos distintos, como se muestra en la siguiente imagen.

Observemos que si hay dos columnas con el mismo número impar de puntos no se genera una partición autoconjugada, como se muestra en el siguiente ejemplo.

Estos ejemplos nos sirven para mostrar, una vez más, como en ocasiones podemos diseñar herramientas visuales potentes para realizar demostraciones matemáticas, como son el caso de los diagramas de Ferrers en el estudio de las particiones de los números.

Cartel de una de las representaciones de la obra teatral Partition, de Ira Hauptman, en la Universidad de California, Berkeley. Imagen: University of California, Berkeley. Para más información la entrada de Marta Macho, Particiones: Hardy y Ramanujan

 

Aunque pueda sorprender por su sencillez, las particiones de los números, como muchas otras herramientas de la combinatoria, tienen muchas aplicaciones en ciencia y tecnología. Aparecen en ocasiones en las que hay que contar determinado tipo de elementos o estructuras que pueden pensarse como particiones de los números. Por ejemplo, el matemático inglés Arthur Cayley se interesó en el estudio de la teoría de particiones como herramienta en el cálculo de ciertos invariantes algebraicos, pero lo mismo ocurre con muchas otras ramas de las matemáticas, y también de la física de partículas, la computación o la estadística, entre otras.

Más aún, las particiones están relacionadas, por ejemplo, con lo que en teoría combinatoria se llaman “problemas de ocupación”, que consisten en contar el número de formas de colocar una cierta cantidad de bolas n en una cierta cantidad de cajas k. Las particiones, en general, se corresponden con los problemas en los que las bolas son indistinguibles. Si las cajas son también indistinguibles, son las particiones propiamente dichas, y si son distinguibles, son las particiones ordenadas. Un ejemplo, de una aplicación de un problema de ocupación lo mostramos en la entrada Aprendiendo técnicas para contar: lotería primitiva y bombones.

Bibliografía

1.- Raúl Ibáñez, Cayley, el origen del álgebra moderna, Genios de las Matemáticas, RBA, 2017.

2.- R. B. J. T. Allenby, Alan Slomson, How to count, an introduction to combinatorics, CRC Press, 2011.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Contando lentejas, las particiones de los números se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Particiones: Hardy y Ramanujan
  2. Calcular el área contando puntos
  3. Dos conjeturas sobre números primos
Categorías: Zientzia

Montañas y explicaciones naturalistas

Mar, 2021/09/21 - 11:59

Incluso cuando las sociedades mediterráneas se volvieron más sofisticadas y la mente científica griega despertó del letargo, las montañas seguían siendo distantes, misteriosamente temibles e inaccesibles. Era tal el efecto que producían a quien se aventuraba en ellas que, como a Polibio, que viajó a través de los Alpes y vio el monte Atlas a la distancia, solo las cifras equivalentes al infinito servían para describirlas.

Dolomitas, en el norte de Italia. Foto: Andrew Mayovskyy / Shutterstock

Los pocos ascensos de montañas registrados se produjeron por razones militares. Así, Alejandro de Macedonia en el siglo IV a.e.c. cruzó las montañas Tauro del sureste de Turquía y el Hindú Kush de Afganistán. Aníbal de Cartago atacó Roma en el 218 a.e.c. después de haber cruzado los Pirineos y luego los Alpes. El historiador romano Livio registró el ascenso del monte Hebrus en Tracia a principios del siglo II a.e.c. por parte del rey Filipo de Macedonia, en guerra con Roma. Filipo habría subido a la montaña para espiar los movimientos de las tropas romanas. Los montañeros tardaron tres días en atravesar las estribaciones y ascender a la cima. El descenso posterior duró dos días. El sufrimiento de los hombres fue inmenso, sobre todo por el frío; la tercera noche en la cumbre fue terrible en este sentido. Según Livio, quien obviamente sabía poco sobre montañismo, la espesa niebla que envolvió a Filipo y sus hombres en la cima era un fenómeno inusual.

Los griegos, y después de ellos los romanos, rara vez intentaron explicar los fenómenos montañosos. La ciencia requiere no solo observación, sino análisis basado en la experiencia directa y, cuando es posible, en la experimentación. Y a los griegos les faltó la voluntad de ascender a las altas cumbres. Además, las montañas se consideraban sagradas, asociadas con lo sobrenatural y trascendente.

Lucrecio el epicúreo, que se negaba a creer en todo lo que no pudiera explicarse según la materia en movimiento, el movimiento perpetuo de los átomos invisibles [1], no hizo una excepción con las montañas y los fenómenos asociados a ellas. Las montañas son huecas, creía Lucrecio, y las erupciones volcánicas ocurren cuando los átomos de fuego son expulsados del cono. Más cercana a la realidad fue su observación de que las nubes se forman en los picos de las montañas debido al aire caliente que sube por las laderas hacia el frío de la cumbre.

Monte Vesuvio. Fuente: Wikimedia Commons

El romano más famoso que investigó las montañas fue Cayo Plinio Secundo, Plinio el Viejo. En el 79 e.c. el Monte Vesubio entró en erupción, arrojando cenizas, gases y lava. Plinio, que podía ver el volcán desde su casa en la bahía de Nápoles, se hizo a la mar para investigar la densa columna de humo que se elevaba desde el Vesubio. Tomó notas de sus observaciones y cuando el barco llegó a las costas al sur de Pompeya, continuó observando la caída de ceniza y rocas hasta su muerte por asfixia [2].

Contemporáneamente, en el siglo I e.c., una nueva secta palestina, los cristianos, supusieron una renovación de la fascinación judía con las montañas. Su líder fundador, Jesús de Nazaret, encontró, como Moisés milenios antes en el Sinaí o Zacarías en el Monte de los Olivos, significado y trascendencia en las pequeñas montañas que rodean Jerusalén. Sin embargo un teórico de la ya religión, Agustín de Hipona, varios siglos después, condenó la fascinación humana por las montañas a expensas de la autoconciencia. La influencia de san Agustín explica el desdén de la europea medieval hacia los monumentos físicos al Creador y su concentración en lo incorpóreo y espiritual. Hubo que esperar al Renacimiento para que se despertase de nuevo el interés por las montañas, y fue con una excusa espiritual: el humanista y montañista Francesco Petrarca en el siglo XIV mostró las posibilidades de autodescubrimiento y contemplación en la experiencia de ascender una montaña.

Procession de saint Janvier à Naples pendant une éruption du Vésuve (1822)  de Antoine Jean-Baptiste Thomas. Procesión de San Jenaro para implorar la intervención divina ante una erupción del Vesubio.

Nota:

[1] Algunos periodistas televisivos, al informar sobre erupciones volcánicas, siguen a Lucrecio, sin saberlo. Es más, oyéndoles uno pensaría que creen que la lava es algo que está ardiendo, pero uno no lo piensa porque no puede creer que la ignorancia y la incompetencia lleguen a esos niveles.

[2] En vulcanología se llama erupción pliniana a la erupción violenta de un volcán liberando gases en una columna eruptiva que puede alcanzar decenas de kilómetros, como la del Vesubio, en honor a Plinio el Viejo.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Montañas y explicaciones naturalistas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Montañas y mitos
  2. En Marte el viento crea montañas
  3. Galileo vs. Iglesia Católica redux (III): Observaciones
Categorías: Zientzia

Julio Garavito, con la mirada en la Luna

Lun, 2021/09/20 - 11:59

Alberto Mercado Saucedo

El billete de veinte mil pesos colombianos es un raro ejemplo: lleva impreso el retrato de un matemático. En efecto, entre sus similares de los países de habla hispana es común encontrar militares y políticos, algunas personalidades de la pintura o de la literatura, pero casi nunca de las ciencias. Este billete lleva impresas figuras geométricas, una representación de la Luna y la imagen de Julio Garavito Armero. Su uso en las transacciones cotidianas ha llevado a una curiosa costumbre urbana alrededor de la tumba de Garavito en el cementerio de Bogotá, que se ha convertido en objetivo de visitas espontáneas de diversas personas, especialmente en medio de la noche, que dejan pequeños regalos como flores azules, del mismo color del billete, en solicitud o agradecimiento de favores personales. Como si fuera un santo a quien acuden en peregrinación. Su nombre también aparece en otro inusual lugar: un cráter de la Luna. Julio Garavito Armero, esta es su historia.

Nació en Bogotá el 5 de enero de 1865. De joven, al tiempo que asistía a la escuela, trabajó para contribuir al ingreso de la familia y después de sus estudios secundarios se interesó por seguir aprendiendo ciencias. Como frecuentemente ocurría durante el siglo XIX (y parte del XX) en países de Latinoamérica, la enseñanza de las matemáticas estaba mayormente enfocada a la ingeniería, área que estudiaban quienes se sentían atraídos por la disciplina de Pitágoras. Además, los distintos cambios políticos de la época, usualmente violentos, afectaron el desarrollo de las ciencias, como ocurrió con los planes de Garavito: a causa de la guerra civil colombiana de 1885, la Universidad Nacional cerró por algún tiempo y él debió esperar a que reabriera para poder estudiar.

Finalmente estudió en la Facultad de Matemáticas e Ingeniería, donde además de los estudios de ingeniería, se podía optar al titulo de profesor de matemáticas, para lo cual se debía de realizar una tesis de temática adecuada. Garavito fue el primer graduado como profesor de matemáticas. Podemos encontrar registros de dos trabajos de tesis que realizó: uno donde estudia matemáticamente el funcionamiento de un barómetro, aparato para medir la presión de un gas, y una segunda tesis donde estudió el problema que hoy conocemos como la aguja de Buffon, que consiste en calcular la probabilidad de que una aguja, arrojada a una superficie reglada por líneas paralelas (como una hoja de cuaderno) separadas por la misma longitud de la aguja, resulte en una posición en que toca a una de las líneas. La solución no se obtiene directamente por algún proceso de conteo y son necesarios argumentos de geometría integral para obtener el resultado: el valor de 2/. De manera interesante, esto proporciona un método práctico para aproximar a  (se debe realizar el experimento repetidas veces, digamos N, contar el número de casos favorables A, y entonces A/N se acercará a 2/ cuando N es grande, de donde se puede despejar el valor de ).

Después de graduarse, Garavito dictó clases en la Facultad y se fue interesando cada vez más en lo que se convertiría en su pasión por el resto de su vida: la Astronomía. Ideó métodos para establecer latitudes y longitudes del país, llevó a cabo con éxito un proyecto para cartografiar Colombia y en particular para obtener la latitud de Bogotá. También trabajó en la predicción del paso del cometa Halley. Fue director del Observatorio Nacional desde 1892 y hasta su muerte, ocurrida el 11 de marzo de 1920, cuando tenía apenas 55 años de vida.

Quizá el más grande logro científico de Garavito es el relacionado con sus cálculos sobre el movimiento lunar, lo que está incluido en varios de sus trabajos, en particular en uno de sus artículos de la Academia Colombiana de Ciencias. Extendiendo un método propuesto anteriormente, resolvió las ecuaciones que rigen el movimiento de la Luna alrededor de la Tierra. La teoría de la gravitación universal, desarrollada con Newton un par de siglos antes, junto con todas las herramientas del cálculo diferencial, habían proporcionado un marco matemático para modelar, de manera precisa, el movimiento de los astros. Pero la Luna ha tenido por costumbre volver locas a las personas, y ésta no fue una excepción. Siendo el cuerpo celeste más cercano a nosotros, se le ha observado desde la antigüedad, y la comparación con las observaciones se convirtió en una verdadera prueba para la teoría de gravitación, que no era evidente que aprobara fácilmente.

La ley de gravitación universal permitió comprender de forma conjunta dos fenómenos que ya se habían estudiado: la ley de inercia y las leyes de Kepler del movimiento elíptico. Con las nuevas herramientas matemáticas comenzó una era en la que los detalles del universo podrían cabalmente ser descritos. La luz de las matemáticas iluminó rincones que habían permanecido oscuros. Nació así el área de estudio con el bello nombre de mecánica celeste. En particular, surgió un problema que en términos generales se puede plantear de la siguiente manera: si se conocen las posiciones y velocidades iniciales de N cuerpos celestes en el espacio, los cuales afectan unos a otros por medio de la gravedad ejercida mutuamente, se debe determinar las posiciones y velocidades que tendrían en el curso del tiempo. Para N=2, se tiene un sistema de dos cuerpos, (pensemos en el Sol y la Tierra), que fue resuelto poco después de que Newton estableciera su teoría. Pero para valores mayores, la cuestión es mucho más compleja.

Es asombroso pensar que, en el problema de los N cuerpos, aumentar un objeto para simplemente pasar de dos a tres cuerpos (el Sol y dos planetas girando a su alrededor, por ejemplo) complica enormemente la complejidad del problema, y ya no hay soluciones explícitas. A finales del siglo XIX, el matemático francés Poincaré encontró que este tipo de sistemas siempre incluyen soluciones caóticas (esto significa que pequeños cambios en la situación inicial de los cuerpos pueden llevar, con el curso del tiempo, a inmensas diferencias). Actualmente se conocen algunas soluciones particulares, en particular para el caso de tres cuerpos de la misma masa, pero no del problema en general. Es interesante constatar que recién el año 2000 fue encontrada un nuevo tipo de órbitas de tres cuerpos: la figura del ocho, que es recorrida por tres planetas distribuidos de forma simétrica a lo largo de la trayectoria y que se persiguen mutuamente. Esto fue encontrado por el matemático estadounidense Richard Montgomery en lo que significó un importante descubrimiento. Como dato curioso, la conocida novela de ciencia ficción El problema de los tres cuerpos, de Cixin Liu, se inspira en la trayectoria encontrada por Montgomery.

Fuente: Wikimedia Commons

Dentro del problema de los tres cuerpos, es natural pensar en el ejemplo de los tres astros que tenemos más cerca en nuestra vida diaria: nuestro hogar la Tierra, el Sol y, claro, la Luna. Este sistema tiene la peculiaridad de que un cuerpo es de masa mucho menor comparada con los otros dos, por lo que podemos pensar en una simplificación: considerarlo como un punto en el espacio, con masa despreciable. Además, se puede simplificar pensando que los tres cuerpos se mueven dentro de un plano. Entonces resulta lo que se conoce como el problema restringido de los tres cuerpos, planteado por Poincaré y que ha sido estudiado a lo largo del tiempo.

Uno de los principales aportes en el problema restringido de los tres cuerpos fue realizado por George William Hill (1838-1914) y continuado por Ernest William Brown (1866-1938). La teoría de Hill-Brown, construida a finales del siglo XIX, fue un gran avance en el estudio del movimiento lunar y sirvió como el método más preciso para calcular las efemérides lunares por décadas. Uno de los puntos geniales en este trabajo fue el uso de series complejas infinitas por Hill, quien usó su conocimiento fino de la teoría desarrollada por Euler sobre números complejos (recordemos la fórmula de Euler, la más hermosa de las matemáticas: exp( i) = -1), para encontrar una solución periódica al problema restringido de los tres cuerpos. Fue tal el éxito de esta teoría que astrónomos proponían medir el tiempo usando las efemérides lunares en vez del tiempo universal (lo cual no tuvo mayor éxito, en parte por el descubrimiento de precisos métodos de cálculo del tiempo usando relojes atómicos).

Pues bien, aún siendo muy precisa, la teoría de Hill-Brown no bastaba para describir completamente el movimiento lunar en todos sus detalles, y con el tiempo aparecieron más y más discrepancias entre las observaciones y la teoría. Garavito se abocó a la tarea de mejorar tal teoría, lo que consiguió después de mucho trabajo. Mejoró los resultados de Hill y Brown, resolviendo las ecuaciones diferenciales de la teoría con varios grados mayores de precisión. Llegó a construir las tablas del movimiento lunar más adelantadas de su época. En 1970, la Unión Astronómica Internacional decidió asignar el nombre de Garavito a un cráter de la Luna, en conmemoración de este inmenso logro intelectual. En la Luna, Garavito es vecino de Poincaré y otros nombres de científicos que también fueron asignados a varios cráteres.

Garavito también se interesó en problemas de álgebra y geometría. Por ejemplo, publicó una demostración original del Teorema Fundamental del Álgebra y de varias propiedades de geometría no euclidiana, entre las cuales está una demostración … del Quinto Postulado de Euclides. Evidentemente, una demostración equivocada, pues sabemos que tal axioma es independiente de los otros, aunque muchas personas se empeñaron en demostrar lo contrario a lo largo de la historia. Y sucede que Garavito tuvo una relación complicada con las geometrías no euclidianas, la que podríamos resumir diciendo que simplemente no las aceptaba, no le hacían sentido como modelo de la geometría del universo real. Comprendía bien y dominaba los resultados referentes a propiedades geométricas de la esfera y de las geometrías hiperbólicas (de hecho, publicó varios artículos en tales temas, más allá de sus intentos por probar el Quinto Postulado). Pero todo parece indicar que, para Garavito, la euclidiana era la geometría del universo.

¿Qué es la geometría no euclidiana? Como su nombre lo indica, es la teoría que se sigue cuando nos salimos de las reglas establecidas por Euclides, el conocido geómetra de la Grecia clásica. No se trata de que Euclides se haya equivocado o que queramos corregirlo. Euclides realizó un compendio de lo que se sabía de Geometría, con la característica que lo escribió como un sistema lógico completo: primero los axiomas, que son algo así como las reglas básicas del juego, establecidas como verdades absolutas, de los cuales se desprenden los teoremas, las propiedades de las figuras y toda la teoría. Uno de esos axiomas causaba especial atención: el Quinto Postulado, que afirma que siempre es posible trazar paralelas a una recta dada, exactamente una paralela para cada punto exterior a la recta. Sucede que algunas personas creían que tal propiedad se podría deducir de los demás axiomas, quizá por considerarla tan natural y evidente. Eso habría vuelto el Quinto Postulado como innecesario, se habría convertido en un teorema. Podemos pensar que Euclides tuvo bastante intuición al incluirlo como postulado, sobre todo por todo lo que ocurrió durante los siglos siguientes.

Con el tiempo, ocurrieron muchos intentos por demostrar el Quinto Postulado, aparecían artículos donde se afirmaba que se tenía una prueba matemática, que con el tiempo era descubierto que tenía un error. Se dice fácil, pero es impresionante darse cuenta de que pasaron unos 18 siglos para que a alguien se le ocurriera una jugada genial: no intentar demostrar el axioma, sino negarlo. Es decir, considerar el juego que se obtiene al cambiar esta regla: al fin y al cabo, si éste no es un resultado que depende de los demás axiomas, entonces puede considerarse independiente, y por tanto su negación proporcionará otro sistema lógico con validez. Eso fue lo logrado por Bolyai, Lobachevsky y otros matemáticos del siglo XIX. Fue una jugada genial, pues surgieron teorías matemáticas precisas e interesantes. Básicamente hay dos opciones cuando se niega el Quinto Postulado: que no existe ninguna paralela o que exista más de una. En la segunda opción nos encontramos con lo que se conoce como geometría esférica: los meridianos en la tierra son las rectas, pues realizan la distancia más corta entre dos puntos (es decir, un círculo máximo es la trayectoria que realiza la trayectoria de un avión). Pues bien, dos meridianos siempre se intersectan (en dos puntos opuestos) y por tanto, en la geometría esférica no hay paralelas. Por otra parte, si asumimos que hay más de una paralela, se llega a lo que se conoce como geometría hiperbólica, la que, para sorpresa (y rechazo) de muchas personas de ciencia, llegaría a mostrarse como un modelo del universo.

Regresando a Garavito, todo indica que comprendía las geometrías no euclidianas, pero no las consideraba sino meros malabarismos de las matemáticas puras (citando a Alvárez Lleras, su principal biógrafo). Artificios alejados de la sólida estructura edificada por Euclides y en la cual se basa la física de Newton y de Laplace, la verdad absoluta e inmutable del universo real que habitamos. Hay evidencia que indica que esta postura pudo haber sido motivada por la fuerte influencia del positivismo en el espacio y tiempo que habitaba Garavito. Lo que está claro es que, ya para entonces, se conocían contradicciones entre observaciones astronómicas y la teoría clásica, como el célebre experimento de Michelson y Morley, que hoy sabemos es explicado por la teoría de la relatividad, que justamente establece que el espacio-tiempo de nuestro universo se comprende nítidamente a través de los lentes de la geometría no-euclidiana, pues la gravedad ocasiona una curvatura que los dominios de Euclides simplemente no permiten. Pero, para muchas personas, no era claro si tales discrepancias se debían a errores de cálculo o a algo más profundo.

En su momento, la teoría de la relatividad tuvo oposición en el medio científico. No es difícil imaginarlo, dado el cambio de paradigma que traía consigo. Probablemente Garavito, como muchos otros, consideraba la teoría desarrollada por Newton como la culminación del poder de las matemáticas para modelar el universo: Como ya mencionamos, por medio de la teoría de la gravitación y usando el cálculo infinitesimal es posible calcular el movimiento de los cuerpos celestes. Las discrepancias con lo observado eran producto de los factores no tenidos en cuenta o de las aproximaciones particulares usadas en cada cálculo. Todo era cuestión de mejorar los métodos, alcanzar mejores aproximaciones, como él mismo hizo respecto a los cálculos de Brown-Hill, y listo. No había más que matematizar los fenómenos por estudiar. Como ya lo dijimos, es la influencia del positivismo, corriente filosófica que otorga completa confianza en los fenómenos observados, los cuales tienen un carácter positivo, y elimina posibles explicaciones alternativas. Se tiende siempre a la búsqueda de leyes universales que funcionen en todo contexto, y los detalles son menospreciados. Para Garavito, las discrepancias en las observaciones astronómicas eran de una naturaleza distinta a las verdades establecidas por Newton.

Por supuesto, no tiene sentido juzgar a Garavito por su postura en un contexto particular de hace más de un siglo. Más allá de las influencias filosóficas que hayan existido, consideremos que la mecánica newtoniana es efectivamente una elegante y poderosa caja de herramientas para comprender el universo, que ya para ese tiempo mostraba falencias pero que podía ser mejorada, pulida constantemente por los trabajadores de la ciencia como Garavito, quien ciertamente se dedicó a ello durante toda su vida. Es comprensible que existiera resistencia a abandonar el mundo clásico para dar ese salto incierto que la relatividad demandaba. Garavito falleció con sólo 55 años, al parecer por complicaciones ocasionadas por una tuberculosis. No sabemos qué hubiera pasado si hubiera vivido algunas décadas más, si la Luna lo habría continuado inspirando, quizá, para cambiar de opinión. Pero muy probablemente hubiera continuado trabajando con la constante y absoluta pasión con la que siempre lo hizo.

Referencias

  1. Los ingeniero-matemáticos colombianos del siglo XIX y comienzos del XX. Las tesis para ser Profesor en Ciencias Matemáticas. Facultad de Matemáticas e Ingeniería 1891-1903. Clara Helena Sánches. Universidad Nacional de Colombia. Facultad de Ciencias, Bogotá. ISBN: 978-958-701-843- 1. 2007.
  2. ¿Por qué Garavito?. Charla de Bernardo Mayorga, The 1st Colombia-ICRANet Julio Garavito Armero Meeting, Bucaramanga, 2015. Bogotá, Colombia.
  3. Fórmulas definitivas para el cálculo del movimiento de la luna por el método de Hill-Brown y con la notación usada por Henri Poincaré en el Tomo III de su curso de Mecánica Celeste. Julio Garavito Armero. Rev. Acad. Colomb. Cienc. Ex. Fis. Nat. 1945, 6 (24):560-570. http://dx.doi.org/10.18257/raccefyn.568

  4. Garavito Armero, J. (2017). Fórmulas definitivas para el cálculo del movimiento de la luna por el método de Hill-Brown y con la notación usada por Henri Poincaré en el Tomo III de su curso de Mecánica Celeste. Rev. Acad. Colomb. Cienc. Ex. Fis. Nat.41(Suplemento), 80-91. https://doi.org/10.18257/raccefyn.568

  5. Wilson, Curtis. The Hill-Brown theory of the moon’s motion.
    Its coming-to-be and short-lived ascendancy (1877–1984). With an appendix of undated pages from a file of George William Hill. Sources and Studies in the History of Mathematics and Physical Sciences. Springer, New York, 2010.

  6. Jacques Féjoz. The N-body problem. Celestial Mechanics (ed. Alessandra Celletti). EOLSS publishers, Oxford. 2015. https://www.ceremade.dauphine.fr/~fejoz/Articles/Fejoz_2014_nbp.pdf

  7. Richard Montgomery. The Three-Body Problem. ScientificAmerican. August 2019.

  8. Editorial, Rev. Acad. Colomb. Cienc. Ex. Fis. Nat. 44(170): 9-13, enero-marzo de 2020.

  9. Sobre las geometrías no euclidianas: Notas históricas y bibliográficas. Francisco José Duarte Isava. Rev. Acad. Colomb. Cienc. Ex. Fis. Nat. 1946, 7 (25-26): 63-81.

  10. El positivismo en la física moderna y la evolución de la ciencia. Jorge Álvarez Lleras. Conferencia del curso de extensión universitaria, Universidad de Bogotá, enero 1937.

  11. Gabriel Poveda Ramos. Historia de las matemáticas en Colombia. Ediciones UNAULA 2012.

Sobre el autor: Alberto Mercado Saucedo es profesor de matemáticas en la Universidad Técnica Federico Santa María (Valparaíso, Chile)

El artículo Julio Garavito, con la mirada en la Luna se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una mirada topológica al conjunto de Cantor
  2. Otra mirada al planeta: arte y geología
  3. La pandemia desde una mirada infantil
Categorías: Zientzia

Microorganismos, sin ellos, usted no estaría leyendo este artículo

Dom, 2021/09/19 - 11:59

Ignacio López-Goñi y Víctor Jiménez Cid

Placa de Petri con bacterias, levadura y moho.
Shutterstock / luchschenF

 

Cada 17 de septiembre se celebra el Día Internacional de los Microorganismos. Dicha celebración parece contradictoria en medio de una pandemia, como si algo bueno pudiera salir de estos seres vivos. Los gérmenes nos causan enfermedades e incluso la muerte, pero no permitamos que el árbol no nos deje ver el bosque: la inmensa mayoría de los microorganismos son buena gente. Es más, son necesarios para nuestra supervivencia y la todos los ecosistemas del planeta, así que se merecen que celebremos su día.

Una de las 190 cartas que el holandés Anton Van Leeuwenhoek escribió a la Royal Society entre los años 1673 y 1723.
Wikimedia Commons / WikiProject Royal Society / Mike Peel

Pero, ¿por qué el 17 de septiembre?

Probablemente el 17 de septiembre de 1683 amaneció frío y lluvioso en la pequeña ciudad holandesa de Delft, famosa por sus canales. Anton van Leeuwenhoek, comerciante de telas primero y luego empleado municipal, sin formación científica alguna, decidió ese día enviar una carta que cambiaría el curso de la ciencia. En aquella misiva, dirigida a la Royal Society de Londres, describía por primera vez los microorganismos, formas de vida microscópicas aparentemente simples que él denominó “animálculos”.

Anton van Leeuwenhoek.
Wikimedia Commons, CC BY

Leeuwenhoek era aficionado a construir pequeñas lupas que los comerciantes empleaban para analizar la calidad de los tejidos. Pulía sus propias lentes biconvexas que fijaba entre dos hojas de latón y sostenía muy cerca del ojo. Las muestras se colocaban sobre una especie de alfiler, que se podía acercar o alejar de la lente para enfocar mediante unos tornillos. Tenía tal habilidad para pulir lentes que sus lupas llegaban a alcanzar más de 250 aumentos y un poder de resolución (capacidad para diferenciar entre dos puntos muy próximos entre sí) de 1,5 micras. Esto alcanza casi la resolución de un moderno microscopio óptico. Fue, por tanto, la primera persona que logró observar bacterias y otros microorganismos.

Réplica de uno de los ‘microscopios’ de Leeuwenhoek.
Wikimedia Commons, CC BY

En realidad, Leeuwenhoek no inventó el microscopio. Probablemente fue otro holandés, Zacharias Janssen (1588-1638), quien construyó el primero, compuesto de dos lentes. Este consistía en un simple tubo de unos 25 cm de longitud y 9 cm de ancho con una lente convexa en cada extremo.

El inglés Robert Hooke (1635-1703), contemporáneo de Leeuwenhoek, publicó en 1665 el libro Micrographia, donde describía las observaciones que había llevado a cabo con un microscopio similar al de Janssen diseñado por él mismo. Este libro contiene por primera vez la palabra “célula”. Hooke las descubrió observando en su microscopio una lámina de corcho, dándose cuenta de que estaba formada por pequeñas cavidades poliédricas que recordaban a las celdillas de un panal.

Sin embargo, aquellos microscopios compuestos eran solo una lupa capaz de conseguir unos pocos aumentos. Ni Janssen ni Hooke fueron capaces de observar lo que poco después describiría Leeuwenhoek usando una sola lente.

El mundo de los microorganismos estuvo oculto para la ciencia hasta que Leeuwenhoek decidió enfocar con su microscopio más allá de los tejidos y telas de su comercio.

Espermatozoides de perro y conejo dibujados por Anton van Leeuwenhoek en 1678.
Wikimedia Commons

Leeuwenhoek fue el primero en ver los glóbulos rojos y los espermatozoides. Sus dibujos de bacterias publicados en 1684 son de una excelente calidad y nos permiten reconocer varios tipos de bacterias frecuentes y sus agrupaciones: bacilos, cocos, etc.

Fue muy celoso con sus microscopios. No compartió con nadie su forma de pulir o tallar las lentes y no dejó ninguna indicación sobre sus métodos de fabricación. Destruyó la mayoría de sus creaciones, de las que actualmente solo se conserva una docena. Uno de ellos está expuesto hasta el 8 de diciembre en el Museo Nacional de Ciencias Naturales de Madrid, con motivo de la exposición “Explorando más allá de lo visible” que organiza la Sociedad Española de Microbiología con motivo de su 75 aniversario.

Los primeros habitantes del planeta

La ciencia tardó casi doscientos años en volver a desarrollar una técnica equivalente a la de Leeuwenhoek. Sus observaciones demostraron tres características del mundo microbiano: que está integrado por seres muy pequeños, que están en todas partes y que son muy diversos.

Los microorganismos han tenido y tienen un papel esencial en nuestros ecosistemas. Se estima que hace unos 3 800 millones de años surgió la vida en la Tierra. Desde entonces, hasta la aparición de los primeros seres vivos pluricelulares hace unos 900 millones de años, el planeta solo ha estado habitado por seres microscópicos. Bacterias, arqueas, virus y microorganismos más complejos pero unicelulares.

Esto supone que, durante unos 2,9 millones de años, han sido los únicos habitantes del planeta. Nos han precedido y muy probablemente seguirán aquí cuando nuestra especie desaparezca.

Han sido responsables de grandes cambios a nivel planetario: hasta la aparición de las cianobacterias (un tipo de microorganismos que llevan a cabo una fotosíntesis que genera oxígeno) hace unos 2,8 millones de años, la Tierra era un ambiente anaerobio. El oxígeno atmosférico es un invento de los microorganismos. Por tanto, no solo la vida en la Tierra ha sido y será fundamentalmente microbiana, sino que los seres más complejos, plantas y animales hemos evolucionado a partir de ancestros microbianos en una biosfera modificada y condicionada por su actividad.

Halobacterium salinarum.
Wikimedia Commons, CC BY

Cuando hablamos de conservación de la biodiversidad en el planeta, no debemos olvidar que el grueso de la biodiversidad en la Tierra es invisible. Estas formas de vida diminutas han llegado a colonizar prácticamente todos los ecosistemas terrestres y son capaces de sobrevivir a las condiciones más extremas. Incluso donde a primera vista la vida es imposible: Geogemma barossi es capaz de sobrevivir a 121 ⁰C en chimeneas hidrotermales en las profundidades marinas. La bacteria Psychromonas ingrahamii se aísla de ambientes polares y crece a temperaturas de -12 ⁰C. Picrophilus oshimae fue aislada de fumarolas volcánicas a un pH ácido de 0,7. Halobacterium salinarum se aísla por ejemplo del Mar Muerto a concentraciones de sal saturantes, incompatibles con otras formas de vida.

¡Están por todas partes! Se han aislado hongos microscópicos y bacterias en capas altas de la atmósfera, a más de 15 km de altura. Se encuentran en las profundidades marinas a más de 10 000 metros de profundidad e incluso a varios cientos de metros bajo la superficie terrestre.

El 90 % de la biomasa marina es microbiana y son responsables de la mitad del CO₂ fijado y de la mitad del O₂ producido. Por eso, también los microorganismos pueden influir en el cambio climático y viceversa: cambios de temperatura y humedad pueden alterar la biología de estos seres vivos y, a su vez, eso puede cambiar las condiciones del hábitat.

El suelo que pisamos, sin ir más lejos, es uno de los ecosistemas más complejos. Se calcula que un gramo de suelo puede contener más de 10 000 millones de microorganismos, más que seres humanos tiene el planeta. Son responsables de completar todos los ciclos biogeoquímicos de la materia. Por ejemplo, realizan la fijación del nitrógeno atmosférico (en simbiosis con las leguminosas o de vida libre en el suelo) y lo transforman en amonio, nitrito y nitrato. Sin microorganismos no existiría el ciclo del nitrógeno, esencial para la vida tal y como la conocemos.

La extinción de bacterias como Nitrobacter, que intervienen en el ciclo del nitrógeno, supondría el colapso inmediato de la vida.
Wikimedia Commons / William Hickey, CC BY-SA

Aunque suene drástico, es muy probable que la extinción del pingüino emperador (aunque sea una pérdida de valor incalculable) no suponga el colapso del planeta, pero la extinción de bacterias como Nitrosomonas o Nitrobacter, que intervienen en el ciclo del nitrógeno, supondría el colapso inmediato de la vida. En esencia, sin microorganismos la vida macroscópica que apreciamos a simple vista, nuestra propia vida, no sería posible.

Medio humanos, medio microbios

Hoy en día las nuevas técnicas de metagenómica (secuenciación masiva), que superan los métodos tradicionales del cultivo, nos permiten comprobar la enorme biodiversidad microbiana que se oculta en la naturaleza.

Los científicos conocemos con cierto detalle la biología de mucho menos del 1 % de los microorganismos que realmente existen. El hábitat de muchos de ellos es la superficie o el interior de otros seres vivos. Es lo que conocemos como la microbiota de las plantas, de los animales o del ser humano. Nosotros mismos somos mitad humanos, mitad microorganismos: por cada una de nuestras células humanas, tenemos al menos una célula microbiana. Están en nuestra piel y en todas nuestras mucosas: en la boca, en los intestinos, en la vagina, en las vías respiratorias, etc.

Somos un conjunto ambulante de ecosistemas microbianos en los que se producen multitud de interacciones entre nuestras células y los microorganismos. El equilibrio de estos ecosistemas es esencial para nuestra salud. Estos diminutos seres evitan la colonización de nuestra piel y mucosas por otros microorganismos patógenos. Estos forasteros deben recurrir a complejos mecanismos de virulencia para imponerse en un entorno bien defendido por los colonos.

Los microorganismos que forman nuestra microbiota ayudan a mantener la barrera intestinal y contribuyen a la digestión degradando sales biliares, proteínas y polisacáridos. También modulan y entrenan a nuestro sistema inmunitario, regulan los procesos inflamatorios, sintetizan vitaminas y otros compuestos necesarios para nuestra salud, degradan drogas y toxinas o producen neurotransmisores y hormonas.

Cuando ese equilibrio entre nuestros microbios y nuestro organismo se altera (disbiosis) se pueden producir patologías.

La caries dental y la periodontitis son ejemplos directos de “problemas diplomáticos” con nuestra microbiota, pero recientemente se ha descrito la relación de múltiples patologías con una alteración de nuestra microbiota: desde la obesidad, diabetes, alergias, asma, enfermedades inflamatorias, hasta la depresión, el alzhéimer e incluso el autismo.

Así, la medicina del siglo XXI cuenta con un nuevo sistema en el cuerpo humano esencial para la salud: la microbiota. Del mismo modo, cuando estudiamos la función del genoma humano, no debemos pasar por alto que el sistema se completa con el microbioma, el conjunto de genes codificados en los genomas de los cientos de especies microbianas que forman parte de nosotros. La ecología microbiana entra en la ecuación de nuestro bienestar y la biomedicina se enfrenta a nuevos retos.

Levadura, yogur, queso y PCRs

Si a alguien le parecen aún pocos los motivos, añadiremos que gracias a los microorganismos nuestra vida es más fácil e incluso más agradable. Saccharomyces, la levadura que se utiliza ancestralmente en fermentaciones alimentarias, es un hongo unicelular gracias al cual tenemos en la mesa pan, cerveza y vino.

Lácteos como el yogur y el queso son fruto de la fermentación bacteriana. Alimentos y bebidas fermentadas, antibióticos, enzimas, vitaminas, hormonas, aminoácidos (aditivos, edulcorantes, antioxidantes…) son productos del metabolismo de los microorganismos. La biotecnología cuenta también con ellos para la producción de energía verde, el control de plagas, el bienestar animal y la descontaminación.

La técnica de la PCR es posible gracias a una enzima termoestable que se obtiene de Thermus aquaticus.
Wikimedia Commons / Diane Montpetit (Food Research and Development Centre, Agriculture and Agri-Food Canada)

La famosa técnica de la PCR que ha sido un elemento esencial durante la pandemia es posible gracias a una enzima termoestable que se obtiene de Thermus aquaticus,una de esas bacterias capaces de sobrevivir a altísimas temperaturas.

Hoy somos capaces de modificar microorganismos en el laboratorio para que fabriquen todo tipo de medicamentos o productos esenciales en biomedicina y biotecnología. Podemos emplearlos para desarrollar plantas transgénicas capaces de resistir a la sequía, para producir biocombustibles, para degradar compuestos contaminantes, e incluso emplearlos como vacunas para controlar una pandemia.

En aquella famosa carta del 17 de septiembre de 1683 se realizó una descripción exquisita de la primera observación de bacterias vivas presentes en la placa dental, acompañada por dibujos de los microorganismos observados y sus movimientos. Ese día comenzó una nueva era para la ciencia que tardaría dos siglos, ya en tiempos de Louis Pasteur y Robert Koch, en desarrollarse como disciplina científica, y nos permite conocer y estudiar el mundo de los microorganismos, que tanta influencia tiene en nuestro planeta. Vivimos en un mundo microbiano.

Celebre con nosotros el Día Internacional de los Microorganismos.The Conversation

Sobre los autores: Ignacio López-Goñi es Catedrático de Microbiología de la Universidad de Navarra y Víctor Jiménez Cid es Catedrático de Microbiología de la Universidad Complutense de Madrid

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Microorganismos, sin ellos, usted no estaría leyendo este artículo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Natacha Aguilar: “Necesitamos que el mar esté en equilibrio para que el planeta también lo esté”
  2. La extinción de la megafauna chilena dejó a este árbol sin ayuda para dispersar sus semillas
  3. Identificadas 472 posibles dianas inmunes en la interacción planta-microorganismos
Categorías: Zientzia

La ría y el metro

Sáb, 2021/09/18 - 11:59
Fuente: Metro Bilbao

Construir un metro en una ciudad nunca es cosa fácil. Si encima hay que atravesar una ría como la del Nervión por debajo la ingeniería tiene que ser muy creativa. En este vídeo se resume los hitos técnicos de como se construyeron los tramos que atraviesan la ría de Metro Bilbao.

Edición realizada por César Tomé López

El artículo La ría y el metro se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Evolución de la flora y fauna en el Abra de Bilbao
  2. La ría de Bilbao como medio de transporte de mineral
  3. Poesía métrica, ¿de metro?
Categorías: Zientzia

La fluorescencia de la clorofila y el estudio de la Tierra como un sistema

Vie, 2021/09/17 - 11:59

¿Cuánto dióxido de carbono atmosférico asimila realmente un bosque por fotosíntesis? ¿Qué variedades de plantas son menos sensibles al cambio climático global? Responder a esas preguntas ahora podría ser posible mediante la observación de la fluorescencia de la clorofila.

Imagen de un antocerote. A la izquierda, como lo ve al natural el ojo humano, con el predominio del color verde característico de la clorofila, cuando está iluminado por la luz del Sol. A la derecha se muestra al mismo organismo de color rojo debido a la emisión de fluorescencia de sus moléculas de clorofila, en este caso iluminado solo con luz ultravioleta semejante a la del Sol (invisible al ojo humano).

La clorofila, el pigmento verde presente en plantas y algas que permite captar la luz del sol, emite una luz roja tenue durante la fotosíntesis. Esa denominada “fluorescencia de la clorofila”, que no vemos en condiciones normales debido al reflejo de otros colores de la luz incidente, especialmente el verde, transmite información sobre la tasa instantánea de fotosíntesis, lo que proporciona una «ventana óptica» que rastrea el estado funcional y de salud de la planta. Una reciente investigación en el que ha participado José Ignacio García Plazaola, del grupo de investigación Ekofisko del Departamento de Biología Vegetal y Ecología de la UPV/EHU, describe la conexión existente entre esta fluorescencia y el estudio de la Tierra como un sistema.

Aunque se conocen desde hace décadas diferentes métodos de laboratorio y de muestreo en el campo que permiten medir e interpretar la fluorescencia de la clorofila en una hoja o a nivel subcelular, solo recientemente se puede medir la fluorescencia de la clorofila inducida directamente por el sol (SIF), y obtener imágenes en un ecosistema y a escalas regionales.

Las mediciones actuales de SIF se realizan con sensores ópticos montados en torres, drones, aviones e, incluso, satélites. En este sentido la misión FLuorescence EXplorer (FLEX) de la Agencia Espacial Europea lanzará un satélite en 2024 que proporcionará mapas globales de SIF con una resolución de unos pocos cientos de metros.

Esos desarrollos allanan el camino para múltiples aplicaciones científicas y comerciales en ecofisiología vegetal, ecología, biogeoquímica, así como para la agricultura de precisión y silvicultura.

«Estas herramientas abren la puerta a la realización de estudios de fotosíntesis espacial y 3D en el campo, lo que ayudará a resolver cuestiones relacionadas con la dinámica fotosintética de las diferentes partes de una planta o ecosistema en condiciones del mundo real. SIF también se puede aplicar en fenotipado fisiológico y detección pre-visual de estrés, que es una herramienta poderosa para las prácticas de manejo de cultivos y bosques de próxima generación”, explica José Ignacio García Plazaola.

Para cumplir con esos ambiciosos objetivos, se requieren estudios colaborativos multidisciplinarios y a múltiples escalas. La experiencia de la biología vegetal, la teledetección, la agronomía y la silvicultura deben fusionarse para traducir el contenido de información de SIF en aplicaciones innovadoras que aprovechen el conocimiento a través de las escalas molecular, foliar (las hojas) y del dosel (la parte superior de los árboles visible desde arriba).

Referencia:

Albert Porcar-Castell, Zbyněk Malenovský, Troy Magney, Shari Van Wittenberghe, Beatriz Fernández-Marín, Fabienne Maignan, Yongguang Zhang, Kadmiel Maseyk, Jon Atherton, Loren P. Albert, Thomas Matthew Robson, Feng Zhao, Jose-Ignacio Garcia-Plazaola, Ingo Ensminger, Paulina A. Rajewicz, Steffen Grebe, Mikko Tikkanen, James R. Kellner, Janne A. Ihalainen, Uwe Rascher & Barry Logan (2021) Chlorophyll a fluorescence illuminates a path connecting plant molecular biology to Earth-system science Nature Plants doi: 10.1038/s41477-021-00980-4

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La fluorescencia de la clorofila y el estudio de la Tierra como un sistema se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Saturno tiene el sistema de nieblas en capas más extenso observado en el Sistema Solar
  2. Puntos cuánticos encapsulados con fluorescencia de meses
  3. Las lapas como indicador paleoclimático de alta resolución
Categorías: Zientzia

Desmitificando: Corte de digestión

Jue, 2021/09/16 - 11:59

Aún es verano y época de baños. Aparece en los medios año tras año, aunque no exista ninguna evidencia médica o biológica que apoye el corte de digestión. Lo desmiente rotundamente Esther Samper en 2011: “El corte de digestión no existe como tal”. El extendido consejo de esperar dos horas entre la comida y el baño tampoco tiene una evidencia médica conocida.

Sin embargo, hay que tener precaución al iniciar el baño pues se puede provocar la hidrocución. Es el síncope provocado por el cambio brusco de temperatura al entrar con rapidez en el agua. Y, como es natural, es frecuente en verano y en época de baños, con una temperatura ambiente alta y baño en agua más fría.

Foto: Simone Mascellari / Unsplash

Fue G. Lartigue, teniente coronel médico del ejército francés, el que propuso, en 1953, el término hidrocución, como análogo a electrocución, para describir la muerte por agua o por electricidad. Escribió que la hidrocución es “el golpe brutal del agua fría sobre el cuerpo humano”.

La hidrocución aparece por la diferencia de temperatura entre el agua y el organismo. Cuanto más fría esté el agua y más elevada sea la temperatura del cuerpo, mayor será el llamado reflejo de inmersión y la gravedad de la hidrocución. El contacto brusco en la piel y en el sistema respiratorio de agua a menos temperatura consigue que, en un acto reflejo, se inhiban la respiración y la circulación. Se puede provocar una pérdida de conocimiento que puede llegar, incluso, a una parada cardiorrespiratoria por arritmia cardíaca súbita.

Al entrar en agua fría, la primera respuesta es el reflejo de inmersión. La entrada de la cabeza en agua fría provoca la caída de la frecuencia cardíaca y se contraen los vasos sanguíneos superficiales para llevar más sangre al cerebro. Si la respuesta es fuerte, puede causar la muerte súbita. Cuanto más fría esté el agua y la temperatura del cuerpo sea más alta, mayor será la respuesta del reflejo de inmersión. En 2017 y en El País, Juan Revenga recomendaba no zambullirse bruscamente a menos de 18ºC, sobre todo si se ha estado al sol o haciendo ejercicio físico fuerte provocando la subida de la temperatura corporal.

No es fácil diagnosticar con seguridad la muerte por hidrocución en relación con la muerte por ahogamiento. Así concluyen su revisión de autopsias los forenses Michel Piette y Els de Letter, de la Universidad de Gante, en Bélgica. La muerte por hidrocución puede terminar con ahogamiento, con agua en los pulmones, o por parada cardiorrespiratoria súbita, sin entrada de agua. No hay agua en los pulmones y son los ahogados blancos o atípicos.

No hay registros que aclaren cuántos muertos por ahogamiento tienen por causa la hidrocución. Según Gracia Pablos, en El Mundo, los Institutos de Medicina Legal de Andalucía plantean que entre el 10% y el 40% de los ahogados podrían deberse a la hidrocución. Y precisan que el porcentaje más probable se acercaría al 40%.

El proceso de hidrocución, al contrario de lo que dice la creencia popular, no tiene relación con la digestión. Para Esther Samper es “la pérdida súbita de conocimiento o la muerte al sumergirse en el agua”, y no es necesario que el agua entre en los pulmones. En sentido estricto no es una ahogamiento.

Para evitar la hidrocución hay que entrar en el agua poco a poco, mojando cuerpo y cabeza progresivamente, comenzando por las muñecas, la nuca y la cabeza. Así, el organismo se va adaptando al cambio de temperatura.

Sin embargo, gran parte de la población sigue aceptando la existencia del corte de digestión y que es necesario aplicar las dos o tres horas de espera antes del baño. Borja Cendrero y Germán Ruiz, de la Universidad Complutense, encuestaron a 65 alumnos de 4º de la ESO, con 38 chicas, de 15 a 17 años, sobre esta cuestión. Más de la mitad, cerca del 53% creían que “bañarse en la piscina después de comer puede provocar un corte de digestión”.

Y siguen apareciendo citas al corte de digestión en libros de texto de primaria y secundaria. Inés Barrio y sus colegas, del Hospital de Baza, analizan 844 mensajes publicados en los textos. El 24.6% del total no se basa en ninguna evidencia científica y, entre esos mensajes, está el que indica “no nadar después de comer pues el proceso digestivo puede verse afectado”.

En conclusión y como resumen, el término “corte de digestión” no corresponde a ninguna entidad clínica reconocida y se refiere al síndrome de hidrocución. Como escribe Milagros Oyarzabal, de la Unidad Docente Multiprofesional de Atención Familiar y Comunitaria de Alicante, la hidrocución es un shock provocado por diferencia de temperaturas. Se puede presentar con temperaturas del agua inferiores a 27ºC o cuando la diferencia entre la temperatura del agua y del cuerpo es, al menos, de 5ºC.

Por tanto, no es la digestión sino la diferencia de temperatura entre el exterior y el cuerpo la causa de la hidrocución, como resume Alexandre López-Borrull desde la Universitat Oberta de Catalunya. De hecho, aunque en casos extremos hay vómitos durante la hidrocución, la digestión no se corta y continúa pues no es un proceso que se detenga o, si se quiere, que se corte.

Referencias:

Barrio-Cantalejo, I. et al. 2011. Are the health messages in schoolbooks based on scientific evidence? BMC Public Health 11: 54.

Cendrero-Rodríguez, B. & G. Ruiz-Tendero. 2020. Proyecto edusin (educa-salud: investiga y muévete seguro): un programa de intervención sobre los mitos en actividad física y salud. SPORT TK: Revista Euroamericana de Ciencias del Deporte 9: 23-31.

López-Borrull, A. 2021. Bulos científicos. De la tierra plana al coronavirus. Ed. Oberon. Madrid. 189 pp.

Oyarzabal Arocena, M. 2015. Corte de digestión. Actualización en Medicina de Familia 11: 358-360.

Pablos, G. 2018. ¿Por qué todavía hablamos de corte de digestión si en realidad no existe? El Mundo 2 septiembre.

Pietter, M.H.A. & E.A. De Letter. 2006. Drowning: Still a difficult autopsy diagnosis. Forensic Science International 163: 1-9.

Revenga, J. 2017. La verdad sobre el corte de digestión y otros mitos veraniegos. El País 7 agosto.

Samper, E. 2011. El corte de digestión: A fondo. El País 1 agosto.

Wikipedia. 2021. Hidrocución. 5 agosto.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Desmitificando: Corte de digestión se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Desmitificando: La vitamina C y el resfriado
  2. Desmitificando: Las rubias son “tontas”
  3. Desmitificando: Adopción y embarazo
Categorías: Zientzia

¿No es la vida misma una paradoja?

Mié, 2021/09/15 - 11:59

 

Uno se fabrica a sí mismo, uno forja la materia que se le da al azar.

Pensamientos de Martha (en [1]).

Carteles de algunas representaciones de L’homme du Hazard.

 

L’homme du Hazard (El hombre del azar, también traducido como El hombre inesperado en alguna de sus representaciones) es una obra de teatro de Yasmina Reza (1959), estrenada en septiembre de 1995 en París.

El concepto de azar acompaña los monólogos de los dos personajes: un famoso escritor y una de sus lectoras. Pensemos en las siguientes cuestiones: ¿Qué probabilidad tiene un escritor de éxito de coincidir en el compartimento de un tren con una de sus lectoras? ¿Y qué probabilidad tiene una persona de encontrarse sentada frente a un escritor al que sigue de manera incondicional en el trayecto de un viaje en ferrocarril? Parecería que no son muchas. Sin embargo, en L’homme du Hazard, este improbable suceso tiene lugar.

Paul Parsky es un famoso y amargado escritor que viaja de París a Frankfort en tren. Frente a él se sienta Martha, una de sus admiradoras. Lleva precisamente en su bolso el último libro del autor: El hombre del azar.

Cada uno de ellos va sumido en sus pensamientos. Él, en tono quejoso, repasa mentalmente su vida y su obra. Ella acaba de perder a un amigo muy querido y se siente desamparada. Martha reconoce al escritor; desearía hablar con él, pero no se atreve a sacar el libro de su bolso. Teme una mala reacción de Parsky, que acabaría rompiendo la fascinación que le produce.

Pensando para sí misma, sin atreverse a hablar con él, Martha imagina lo que podría decir al escritor:

Señor Parsky, el azar de la vida, el maravilloso azar de la vida –no el azar a secas– el azar de la vida ha hecho que le encuentre en este tren, no puedo evitar decirle…

Él se fija en ella; tampoco sabe cómo entablar conversación.

El público de la obra se convierte en un voyeur privilegiado, que logra conocer a través de ellos sus fantasías, sus mezquindades y sus temores que les impiden acercarse al otro.

Martha decide finalmente sacar el libro de su bolso y comenzar a leer. Parsky imagina que ella debe estar leyendo una parte del libro en la que se revela que el protagonista tiene un trastorno obsesivo compulsivo –lo calcula, lo enumera todo–, porque observa que ella sonríe. En realidad, el hermano de Martha padece esta enfermedad –se refieren a ella como la enfermedad del contaje–, una obsesión que le impide, por ejemplo, pisar los azulejos de color negro del embaldosado de su casa.

Martha confiesa finalmente a Parsky que le ha reconocido y admite la emoción que ha sentido leyendo sus libros. Él ríe complacido: es precisamente la reacción que ella deseaba.

De Yasmina Reza pasamos a otro escritor, Lewis Carroll (1832-1898), para seguir hablando del azar. En [2], el autor propone el siguiente problema:

Un saco contiene dos fichas, de las que se sabe que pueden ser de color blanco o negro. ¿Puedes prever su color sin sacarlas de la bolsa?

El autor afirma que una de las fichas es negra y la otra blanca… y lo argumenta del siguiente modo.

Observación Previa: Si la bolsa contuviera dos fichas negras (n) y una blanca (b), la probabilidad de sacar una ficha negra es de 2/3, y es el único caso en el que la probabilidad da este valor.

En la bolsa del problema planteado tenemos dos fichas, así que:

1) la probabilidad de que contenga dos fichas blancas (suceso B) es de 1/4: un caso favorable (b,b) entre los cuatro posibles (b,b), (b,n), (n,b) y (n,n);

2) la probabilidad de que el saco contenga una ficha blanca y otra negra (suceso BN) es de 1/2: dos casos favorables (b,n) y (n,b) entre los cuatro posibles (b,b), (b,n), (n,b) y (n,n);

3) la probabilidad de que el saco contenga dos fichas negras (suceso N) es de 1/4: un caso favorable (n,n) entre los cuatro posibles  (b,b), (b,n), (n,b) y (n,n).

Es claro que {B,BN,N} es un sistema completo de eventos.

Ahora introducimos una ficha negra en la bolsa y llamamos A al evento “se saca una ficha negra de la bolsa que contiene las tres fichas”.

Y Carroll sigue argumentando, utilizando como herramienta el teorema de la probabilidad total:

P(A) = P(A/B) x P(B) + P(A/BN) x P(BN) + P(A/N) x P(N) =

= 1/3 x 1/4 + 2/3 x 1/2 + 1 x 1/4 = 2/3.

Es decir, es la misma que la probabilidad de extraer una ficha negra cuando el saco contiene dos fichas negras y una blanca. Así, Carroll concluye que, antes de añadir la ficha negra, la bolsa contenía una ficha negra y una blanca. Tras dar esta solución “aparentemente seria” al problema, Lewis Carroll lo remata con esta irónica frase:

To the casual reader it may seem abnormal, and even paradoxical; but I would have such a reader ask himself, candidly, the question “Is not, Life itself a Paradox?”.

[Para el lector casual, puede parecer anormal e incluso paradójico; pero quisiera que un tal lector se hiciera a sí mismo, con franqueza, la pregunta «¿No es la vida misma una paradoja?».]

Sin duda lo es…

Referencias

[1] Yasmina Reza, L´homme du hasard, Actes Sud, 1995.

[2] Lewis Carroll, The Mathematical Recreations of Lewis Carroll: Pillow Problems and a Tangled Tale Reading, Dover, 2003.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo ¿No es la vida misma una paradoja? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La paradoja de Bertrand
  2. ¿Adivinando o empleando la lógica?
  3. Una paradoja del infinito: la oferta del diablo
Categorías: Zientzia

Montañas y mitos

Mar, 2021/09/14 - 11:59

Para los pueblos de la antigüedad las montañas eran lugares terribles, pavorosos y misteriosos, en parte debido a sus distancias imponentes, a las cumbres rodeadas de nubes o humo y a los ruidos atronadores que provenían de ellas, pero también porque las montañas eran las moradas de los dioses.

Foto:  Massimiliano Morosinotto / Unsplash

Es raro encontrar en la literatura antigua relatos de humanos subiendo montañas, y cuando aparecen describen casos de imperiosa necesidad. Sin embargo, las montañas fascinaron tanto a los humanos que no pudieron evitar buscar explicaciones a los fenómenos extraños asociados con ellas. Los primeros intentos de explicación fueron mitológicos y fantásticos, algunos de los cuales veremos a continuación. Pero con el tiempo, los pensadores antiguos comenzaron a hacer preguntas sofisticadas y a encontrar respuestas naturalistas, lo que veremos en la próxima entrega de La maldición de Prometeo.

El templo MahaBodhi «reproduce» el monte Meru.

Los relatos míticos con las montañas como coprotagonistas se encuentran en muchas culturas del mundo. Los antiguos hindúes sentían una especial fascinación por Meru, una montaña legendaria al norte de la cordillera del Himalaya. Los hindúes y budistas de todo el sur de Asia construyeron montañas artificiales a imitación de Meru. Igualmente, los antiguos mesopotámicos, egipcios e indígenas americanos construyeron montañas artificiales (zigurats y pirámides) en un intento simbólico de acercarse a lo divino.

Las sociedades antiguas de Oriente Próximo también colocaron montañas reales como parte central de sus relatos que se reflejan en algunas de las publicaciones más antiguas del mundo. La epopeya de Gilgamesh, compuesta a fines del tercer milenio a.e.c., describe las aventuras del héroe Gilgamesh, quien se introdujo en el ámbito de lo divino, las montañas, y tuvo la valentía de ascenderlas en busca de la gloria.

Las montañas se asociaron con algunos de los dioses más importantes del panteón mesopotámico. Enlil, la deidad principal, controlaba una gran montaña celestial que contenía la tierra y el aire. Un monstruo protegía Mashu, dos picos gemelos donde el sol descendía y ascendía, y dentro de los cuales reinaba una oscuridad infernal. Los bosques de cedros, custodiados por el semidión Humbaba, originalmente en las laderas de las montañas Zagros, eran sagrados para Ishtar, una diosa de la fertilidad cuyo culto implicaba la prostitución sagrada. Gilgamesh y su amigo Enkidu ascendieron estas montañas, donde experimentaron visiones trascendentales que indicaban eventos futuros.

«Moisés en el monte Sinaí» (1895-1900) por Jean-Léon Gérôme

Algunos hebreos también tuvieron experiencias extraordinarias en montañas. La más conocida aparece en Shemot (conocido en la cristiandad como Éxodo),segundo libro de la Torá, compuesto muy probablemente durante el segundo milenio a.e.c., donde se describe al profeta Moisés recibiendo de Dios (Yahvé) el Decálogo, los Diez Mandamientos, en el Monte Sinaí, un pico de 2,285 metros en la Península del Sinaí. El Sinaí era aterrador, rodeado de “[…] truenos y relámpagos y una densa nube sobre el monte y un poderoso resonar de trompeta […]” (Éxodo 19:16). Los truenos que resuenan desde la cima de una montaña cubierta de nubes oscuras atravesadas por frecuentes relámpagos pueden sonar como una trompeta de otro mundo para la mente predispuesta.

El paisaje de Grecia es ondulado, con montañas y valles, pero pocas llanuras. Esta península rocosa que se adentra en el mar Mediterráneo, entre los mares Jónico y Egeo, acogió al cazador y al pastor pero también al poeta. Las montañas de Grecia asombraron y por ello inspiraron a los griegos a la hora de intentar encontrar explicaciones de su sublimidad, lo que derivó en un uso creativo de la lengua. Algunas grandes montañas del entorno griego que alimentaron la imaginación griega durante siglos fueron Parnaso, Nisa, Cilene, Ida, Dindymon y Olimpo [*].

Monte Olimpo.

La montaña más famosa era el Olimpo, que, como la montaña más alta de Grecia con 2,918 metros, se adaptaba perfectamente a ser el hogar de los dioses. Los griegos se negaron a subir a la montaña debido a su altura, su dificultad y sus estatus sagrado. Las nubes a menudo ocultaban la cumbre distante, una cobertura perfecta para las secretas vidas eternas de los dioses. Las tormentas frecuentes no podían ser otra cosa que Zeus asintiendo con su gran cabeza atronadora y deidades como su hija Atenea lanzándose a la tierra, a la velocidad de un rayo, para difundir la voluntad del padre. Desde la perspectiva del Olimpo, los dioses observaban el comportamiento humano, escuchaban (o no) peticiones y súplicas y emitían juicios basados en su conciencia del futuro a la luz del presente y el pasado. La montaña simbólicamente se elevaba por encima de la ignorancia y el tiempo humanos, proporcionando los brillantes rayos de la verdad atemporal.

Los griegos estaban más familiarizados con el mar que con las montañas. Ambos ámbitos eran asombrosos y aterradores, pero las montañas lo eran tanto más porque estaban cerca, siempre a la vista, eran imponentes siempre y, en última instancia, desconocidas. Las montañas sirvieron para explicar fenómenos desconcertantes como los relámpagos y los truenos; las laderas misteriosamente boscosas; el temblor de la tierra; los frecuentes cambios del cielo y los fenómenos meteorológicos; el sentido sublime de lo divino encarnado en las partes inaccesibles de la naturaleza; y, en definitiva, eran el nexo entre tierra y cielo.

Nota:

[*] El mundo griego estaba rodeado por dos titanes que sufrían las consecuencias de la desobediencia a Zeus. Atlas en el oeste sostenía los cielos, sus hombros parecían enormes picos. En el este, en el extremo del mundo eran las montañas del Cáucaso, donde Prometeo estaba encadenado a una roca, soportando diariamente la tortura de un buitre que le mordía el hígado. Más cerca de casa, Parnaso, a más de 2.400 metros de altitud, se alzaba sobre Delfos, el Oráculo sagrado para el dios arquero Apolo; Parnaso fue también el hogar de las doce musas, las hijas de Zeus. El monte Nisa en Tracia estaba consagrado al dios del vino Dioniso. En Nisa, las ninfas de las montañas criaron al joven dios. El monte Cilene en Arcadia, el Peloponeso griego, fue el lugar de nacimiento de Hermes, el hijo alado de Zeus y Maya, la hija de Atlas. En el monte Cilene, Hermes inventó la lira a partir de un caparazón de tortuga. El monte Ida en Creta era sagrado para Zeus, el rey de los dioses y portador del rayo. Otro monte Ida (otra montaña del mismo nombre en el noroeste de Asia Menor) era famoso por albergar los ríos que regaron la Tróade, donde se encontraba la antigua Troya (Ilios). También en el monte Ida, Afrodita concibió al gran guerrero troyano Eneas. El monte Dindymom en Cícico era sagrado para una primigenia diosa de la fertilidad, Rea, madre de Zeus y esposa de Cronos.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Montañas y mitos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los mitos como protociencia
  2. En Marte el viento crea montañas
  3. Antes del hierro
Categorías: Zientzia

El peor enemigo de la prevención del suicidio

Lun, 2021/09/13 - 11:59

Adriana Díez Gómez del Casal, Eduardo Fonseca Pedrero y Susana Al-Halabí

Shutterstock / Orawan Pattarawimoncha

 

Si se pudiera dibujar el peor enemigo de la prevención del suicidio tomaría la forma del silencio. A lo largo de la historia ha existido un velo de oscuridad que no permitía hablar a todas aquellas personas que pensaban en acabar con su vida para terminar con su sufrimiento.

El tabú y los diversos mitos que acompañan a la conducta suicida han supuesto -y continúan haciéndolo- una importante barrera para su prevención. Una de tales creencias erróneas es la idea de que es mejor guardar silencio por su posible efecto contagio. ¿Es cierto? No. Sí. Depende.

La pregunta no es si hablar o no hablar del tema. Ahí la respuesta siempre será sí. Hablar supone consuelo y descanso. Informar adecuadamente ejerce como factor de protección.

Aquí la clave es cómo. Hablar del suicidio no es fácil, no lo ha sido nunca. El suicidio paraliza el latido de las personas que escuchan su nombre y quizás sea esta la razón del mutismo que genera y de los miedos que despierta.

Actualmente, la conducta suicida supone un problema de salud pública a nivel mundial. Las cifras ya superan con creces las muertes por accidentes de tráfico o por violencia de género, pero ¿dónde está el espacio para hablar del suicidio? ¿Dónde se encuentran los recursos para frenar esta tendencia? En definitiva, ¿cómo lo hacemos?

Efecto Werther y efecto Papageno

El efecto llamada o efecto Werther toma su nombre de la novela Las penas del joven Werther, publicada en 1774. En este libro, el protagonista sufre tanto por amor que decide poner fin a su vida. Tras su publicación, numerosos jóvenes de la época decidieron imitar al protagonista ante el dolor del amor no correspondido.

En el lado opuesto, se encuentra el efecto Papageno. Este personaje, procedente de La flauta mágica de W.A. Mozart, abandona la idea del suicidio cuando unos niños le hacen cambiar de opinión recordándole las alternativas posibles a la muerte. Observamos así dos efectos opuestos a la hora de hablar o informar de suicido.

El impacto de la información no debe limitarse a los posibles efectos nocivos que puede generar si se hace de forma inadecuada.

Más aún, los medios de comunicación tienen (¡deben!) un papel relevante ya que pueden actuar como factor educador y de protección. Lo hacen cuando dan a conocer a la población general una comprensión del fenómeno en boca de expertos.

Así facilitan una actitud empática, derribando la falsa idea de que hablar sobre el suicidio incrementa la posibilidad de que ocurra e informando sobre los recursos existentes y las alternativas posibles.

Se puede informar sobre personas que contemplaron el suicidio pero consiguieron sobreponerse con ayuda. O hablar sobre cómo las ideas de suicidio no son interminables, ofreciendo así esperanza y modelos adecuados.

Los medios informativos pueden tener un impacto positivo y preventivo en personas que están en riesgo siempre que se trate de forma adecuada. Por lo tanto, sí es necesario hablar del suicidio, pero siempre, recordemos, de la forma adecuada.

¿Cómo se puede abordar el suicidio en los medios de comunicación?

Son numerosos las publicaciones de este estilo para hablar sobre el suicidio en los medios de comunicación. Todas ellas destacan que debe evitarse el sensacionalismo o la idea romántica de la muerte para abordar la conducta suicida como lo que es: un fenómeno complejo y un problema de salud pública que exige un trabajo colaborativo entre todos los agentes de la sociedad. Algunas directrices son las siguientes:

  • No hablar nunca del método que se utiliza. La literatura científica muestra que puede haber un efecto llamada o una repetición del método, especialmente si la persona fallecida es popular o famosa.
  • No glorificar el suicidio. La persona que se suicida es alguien que no ha encontrado, por el momento, una solución mejor para acabar con su sufrimiento. Pero no es una buena forma de solucionar problemas ni un modo de afrontarlos. Es una solución permanente para una situación y un dolor que, en la inmensa mayoría de los casos, es pasajero.
  • Evitar tratar el suicidio de forma unicausal, es decir, mediante simplificaciones causa-efecto. La conducta suicida es compleja y depende de multitud de factores (psicológicos, sociales, éticos, culturales, biológicos, etc.). La suma de todos ellos es lo que aumenta la probabilidad de llevar a cabo una conducta suicida.

¿Qué se debe hacer para informar del suicidio?

En primer lugar, es aconsejable exponer las señales de alarma. La mayoría de personas que mueren por suicidio o intentan hacerlo suelen dar señales de aviso (expresar desesperanza, hacer testamento, cambiar rutinas y hábitos, consumir alcohol y otras drogas, etc.). Informar a la población general sobre ellas permite actuar de forma temprana.

Por otro lado, es necesario informar del suicidio como un problema de salud. Es importante hablar sobre los recursos disponibles que permiten ofrecer un espacio de ayuda a aquellas personas que se puedan encontrar en una situación parecida (llamar a una línea de atención en crisis o al 112, acudir a los servicios de salud mental, pedir ayuda a una persona cercana, etc.).

También se debe mostrar el valor positivo del apoyo de amigos, familiares y otras personas. Resulta difícil pedir ayuda o saber que está disponible si no hay lugar ni momento para hablar de ese sufrimiento. Frente al acoso de las ideas de suicidio no estamos solos, existen otras alternativas, otros recursos, otras soluciones.

La evidencia científica muestra que los medios de comunicación tienen un gran poder para sensibilizar e informar de los factores de protección existentes.

El suicidio es prevenible y es problema de todos. Romper el silencio resulta algo imprescindible. Para ello es necesaria la información, formación, sensibilización y concienciación de los diferentes miembros de la sociedad.

Hablar del suicidio de forma correcta permite dar voz a quien más lo necesita y, sobre todo, dar a conocer que no están solos, que existen alternativas y recursos, que hay vida más allá que todavía no pueden ver.The Conversation

Sobre los autores: Adriana Díez Gómez del Casal y Eduardo Fonseca Pedrero son profesores de psicología de la Universidad de la Rioja y Susana Al-Halabí lo es en la Universidad de Oviedo.

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo El peor enemigo de la prevención del suicidio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El suicidio de Aaron Swartz y la ciencia como negocio, por Francis Villatoro
  2. Cinco motivos por los que sin jirafas el mundo sería un lugar peor
  3. Si no puedes con tu enemigo, modifícalo para que te ayude en la lucha contra enfermedades infecciosas
Categorías: Zientzia

El séptimo sello

Dom, 2021/09/12 - 11:59
«La apertura del séptimo sello», lámina octava del Apocalipsis (1498) de Albrecht Dürer (Durero). Fuente: Wikimedia Commons

La Covid19 ha puesto en evidencia algo que en teoría ya sabíamos, pero acerca de lo cual preferíamos no pensar demasiado, la posible desaparición de la humanidad. No quiero decir con esto que la Covid19 haya puesto en riesgo nuestra existencia. No lo ha hecho; pero sí nos ha permitido atisbar de qué forma podría producirse uno de los finales posibles. En efecto, el SARS-CoV-2 ha provocado ya la pérdida de millones de vidas humanas. Han sido más de 4,5 M confirmadas pero el censo total podría llegar a los 15 M. Sería “solo” la tercera parte de las muertes que provocó la gripe hace un siglo en una población mundial que, además, era solo la cuarta parte de la actual. Pero por su velocidad de expansión, impacto sanitario, afección económica y social, y estragos emocionales, esta pandemia nos ha permitido vislumbrar lo terrible que podría haber sido una gripe como la 1918 en nuestro mundo u otra pandemia a cargo de un patógeno más virulento aún.

Las pandemias son una de las amenazas incluidas por el filósofo de la Universidad de Oxford Toby Ord en su análisis de riesgos existenciales. Llama catástrofe existencial a la destrucción del potencial a largo plazo de la humanidad, esto es, a la supresión de todos los futuros posibles que permanecen abiertos ante nosotros. Riesgo existencial es el que amenaza la existencia de ese potencial.

A Toby Ord le ha interesado analizar los riesgos existenciales porque sostiene que, de la misma forma que debemos extender el arco moral a todas las personas que viven hoy, con independencia del lugar o área geográfica en que vivan, igualmente deberíamos hacerlo con relación a los que vivan en otro tiempo. En cierto modo esto es algo que ya hacemos cuando pensamos o predicamos que tenemos el deber de dejar a quienes nos sucedan un mundo mejor.

Sobre el pasado ya no podemos actuar, pero quizás sí podamos incidir sobre el futuro tratando de prevenir posibles catástrofes. Para empezar, es preciso conocer los riesgos posibles, su naturaleza, frecuencia y las posibles vías para neutralizarlos. Esto vale para todos los riesgos, si bien resulta evidente que unos son más susceptibles de prevención que otros. No obstante, en último extremo, no hay razones para pensar que, al contrario que las demás especies, la nuestra goce de un estatus especial que la hace invulnerable.

Si echamos un vistazo a nuestro entorno filogenético, nos encontramos con que las especies de mamíferos perduran una media de un millón de años, aunque Homo erectus, nuestro pariente próximo más resistente, sobrevivió casi durante dos millones. Sin embargo, la vida en la tierra tiene por delante alrededor de 1000 millones de años, de manera que tenemos tiempo más que suficiente como para extinguirnos y, si ello fuera posible, muchas veces.

Hay quienes piensan, no obstante, que la eventualidad de una posible extinción o catástrofe existencial es una posibilidad muy remota porque, al fin y al cabo, somos seres inteligentes y -lo que es más importante- culturales. Esto, efectivamente, debería permitirnos elaborar y poner en práctica estrategias protectoras, que es lo que persigue Toby Ord y quienes, como él, desean extender la solidaridad humana hacia el futuro.

Pero, por otro lado, las mismas capacidades que deberían permitirnos mejorar nuestro pronóstico de supervivencia como especie, son las que pueden conducirnos a la extinción, pues esas mismas cultura e inteligencia, pueden actuar, consciente o inconscientemente, al servició de nuestra propia destrucción. En resumidas cuentas, si bien es cierto que, salvo el ser humano, ninguna otra especie animal tiene capacidad para mejorar su supervivencia y alargar su permanencia en la Tierra hasta su final, también lo es que, salvo el ser humano, ninguna otra especie animal tiene capacidad para autodestruirse.

La civilización a la que llamamos “occidental”, la nuestra y que, en lo sustancial, viene a ser un destilado de creencias, nociones e instituciones procedentes de la tradición judeocristiana, de los clásicos griegos y de la Roma imperial, es y ha sido consciente de la fragilidad de nuestra existencia como especie aunque, como hemos dicho antes, prefiramos olvidarnos de ello. El cristianismo, incluso, ha incorporado una versión de las catástrofes existenciales en su propio canon, vinculándolas a su sistema de ideas. He optado, por ello, por recurrir al Apocalipsis -o Libro de las Revelaciones-, de Juan de Patmos, tal y como está recogido en la Biblia de Jerusalén, para que nos sirva de hilo conductor metafórico en la serie que iniciamos con esta anotación.

En las próximas entradas de esta serie repasaremos siete posibles finales de la humanidad -o catástrofes existenciales, para ser más precisos- siguiendo la estela metafórica que proporciona la Biblia. Lógicamente, el redactor del Apocalipsis no pretendía anticipar con precisión la naturaleza de esos riesgos -tampoco habría sido capaz de hacerlo-, porque su intención nada tenía que ver con el propósito de conocer ni, menos aún, prevenir nuestro final. El Apocalipsis es lo que es, un texto escatológico cristiano, lleno de símbolos cuyo significado último ha sido objeto de fuerte controversia dentro de la Iglesia, y su posible interés es completamente ajeno al propósito de esta serie. Además, nada hay más lejos de mi intención que convertirme en exégeta bíblico y, menos aún, de un texto con tal carga simbólica.

Vamos allá.

Cuando el Cordero abrió el séptimo sello, se hizo silencio en el cielo, como una media hora… Vi entonces a los siete Ángeles que están en pie delante de Dios; les fueron entregadas siete trompetas. Otro Ángel vino y se puso junto al altar con un badil de oro. Se le dieron muchos perfumes para que, con las oraciones de todos los santos, los ofreciera sobre el altar de oro colocado delante del trono. Y por mano del Ángel subió delante de Dios la humareda de los perfumes con las oraciones de los santos. Y el Ángel tomó el badil y lo llenó con brasas del altar y las arrojó sobre la tierra. Entonces hubo truenos, fragor, relámpagos y temblor de tierra. Los siete ángeles de las siete trompetas se dispusieron a tocar.

Juan de Patmos (siglo I e.c.) Apocalipsis 8: 1-6.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El séptimo sello se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El futuro es inescrutable, sus amenazas también lo son
  2. Sí con mis impuestos
  3. Mejores tiempos para la ciencia
Categorías: Zientzia

Plancton en la ría de Bilbao

Sáb, 2021/09/11 - 11:59

La comarca del Gran Bilbao ha mostrado históricamente una estrecha relación con el río Nervión-Ibaizabal. Desde el siglo XIX, su cauce ha venido recibiendo grandes volúmenes de aguas residuales de origen doméstico, siderometalúrgico, minero e industrial, ante la creencia de que el medio marino podría asimilar toda esa carga contaminante. Sin embargo, las condiciones ambientales naturales del Abra de Bilbao se vieron alteradas de forma drástica.

El plancton es el conjunto de organismos microscópicos en suspensión y con poca capacidad de movimiento que habita en el agua. El plancton es un componente estructurante y funcional fundamental de los ecosistemas acuáticos, dada su diversidad funcional. El plancton del estuario de Bilbao ha sufrido daños y desequilibrios funcionales a causa de la acción humana. Hoy en día, gracias a la depuración de aguas residuales, la carga de materia orgánica que entra en el sistema se ha reducido considerablemente y la comunidad de zooplancton de aguas salobres desaparecida por la falta de oxígeno ha vuelto al interior del estuario, aunque predominan las especies no autóctonas, lo cual es reflejo de la contaminación biótica.

En este vídeo se expone la relación entre el plancton y los humanos. El vídeo forma parte del proyecto «La Ría del Nervión a la vista de las ciencias y las tecnologías».

Edición realizada por César Tomé López

El artículo Plancton en la ría de Bilbao se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Plancton en la ría de Bilbao
  2. Evolución de la flora y fauna en el Abra de Bilbao
  3. Recuperación de fauna en la ría de Bilbao
Categorías: Zientzia

Una toxina capaz de reducir la biosíntesis de proteínas en células diana

Vie, 2021/09/10 - 11:59

Pseudomonas aeruginosa es una de las principales causas de neumonía en pacientes inmunodeprimidos y personas con enfermedades pulmonares. Debido a su alto nivel de resistencia antibiótica, resulta cada vez más difícil erradicar las infecciones que causa y en consecuencia, la Organización Mundial de la Salud considera una prioridad el desarrollo de nuevos antibióticos frente a este patógeno.

 

Uno de los factores que hacen que P. aeruginosa sea letal es el Sistema de Secreción Tipo VI (T6SS por sus siglas en inglés). Este sistema de secreción se ensambla dentro de P. aeruginosa, y, al entrar en contacto con otras células, utiliza un mecanismo molecular contráctil para inyectarles toxinas. Aunque en la última década se ha logrado un gran avance en nuestro conocimiento sobre el T6SS de P. aeruginosa, y su relevancia en competición bacteriana y patogénesis, aún se desconocen las identidades y funciones de la gran mayoría de toxinas que el T6SS secreta.

Un equipo de investigación internacional formado por científicos del Instituto de Biofisika (CSIC-UPV/EHU), Imperial College London, e Instituto Sanger (Reino Unido), han identificado por primera vez una de estas toxinas secretadas por el T6SS, a la que ha llamado Tse8. Tse8 causa la muerte celular en otras bacterias de su entorno.

El estudio desvela el mecanismo de acción de Tse8. Esta toxina es capaz de reducir la biosíntesis de proteínas en células diana. En concreto, Tse8 ataca el transamidosoma, el cual es esencial para la biosíntesis de los aminoácidos asparagina o glutamina en gran cantidad de microorganismos procariotas.

Este descubrimiento puede tener efectos en el desarrollo futuro de antibióticos. En palabras de David Albesa, Investigador Ikerbasque en el Instituto de Biofisika, “el desarrollo de nuevos antibióticos puede facilitarse significativamente si se comprende mejor la biología de los agentes causantes. Por lo que entender a nivel molecular cómo Tse8 ataca el transamidosoma podría ayudar a desarrollar estrategias innovadoras para combatir bacterias patógenas.”

Referencia:

Nolan, L.M., Cain, A.K., Clamens, T. et al. (2021) Identification of Tse8 as a Type VI secretion system toxin from Pseudomonas aeruginosa that targets the bacterial transamidosome to inhibit protein synthesis in prey cells. Nat Microbiol doi: 10.1038/s41564-021-00950-8

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Una toxina capaz de reducir la biosíntesis de proteínas en células diana se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una nueva diana terapéutica para el neuroblastoma
  2. Cómo reducir el peso de un motor de aviación un 30 %
  3. El colesterol de su membrana es lo que permite al VIH infectar las células
Categorías: Zientzia

Las gotas que dieron forma a las balas

Jue, 2021/09/09 - 11:59
La formación de gotas a partir de un hilo de agua es muy rica en física y verdaderamente hermosa. Fotografía: Almudena M. Castro.

A menudo, nuestros dibujos no se parecen demasiado a la realidad. Muchos de los iconos, ideogramas y memes gráficos varios que utilizamos en nuestro día a día se han ido alejando de su referente, hasta que resulta difícil identificarlos. Entre ellos, uno de los más típicos es el de las gotas de agua.

A pesar de la creencia común, las gotas no tienen esa forma icónica, puntiaguda hacia arriba, con la que habitualmente se las representa. Más bien al contrario, suelen ser aproximadamente esféricas. Esto se debe a la tensión superficial del agua, que tiende a minimizar la superficie del líquido en contacto con el aire. Actúa, por tanto, como si fuese una malla elástica, que aprieta su contenido en todas las direcciones por igual. La esfera es la figura que presenta una superficie mínima para un volumen dado y, por ese motivo, es la forma que adoptan las gotas en ausencia de otras fuerzas, como sucede en la Estación Espacial Internacional.

Desde el siglo XVIII, los fabricantes de balas y perdigones de plomo aprovecharon este fenómeno1 para elaborar sus proyectiles. En 1782, el británico William Watts patentó un ingenioso sistema basado en lo que hoy conocemos como “torres de perdigones” (o shot towers, en inglés). La idea consistía en dejar caer plomo fundido desde lo alto de estas edificaciones. El fluido ardiente atravesaba un tamiz que lo fragmentaba en pequeñas porciones. Al descender, las gotas de plomo se van enfriando y adoptan su forma esférica, gracias a la tensión superficial del fluido. Solo era necesario “capturar” esta figura. Para ello, se colocaban cubos de agua fría en la base de la torre, que enfriaban y consolidaban la nuevas balas y perdigones, perfectamente simétricos.

La idea era muy sencilla pero funcionaba a la perfección y, aunque probablemente William Watts no podría haber ni imaginado que existía un fenómeno llamado “tensión superficial”, su sistema abarató enormemente los costes de fabricación de este tipo de proyectiles, que hasta entonces se habían elaborado con ayuda de moldes.

Sin embargo, cuando caen con la lluvia, las gotas no son tan esféricas como cabría esperar (ni mucho menos, tan grandes como en la Estación Espacial Internacional). A medida que las primeras mini gotas se condensan en las nubes y empiezan a caer, van chocando con otras gotas y aumentan de tamaño. Sin embargo, debido a la resistencia del aire, las más grandes empiezan a deformarse. Poco a poco se achatan por debajo y adoptan una forma parecida a la de una hamburguesa. Llegado cierto punto crítico, la tensión superficial no es capaz de soportar la fuerza del aire. La malla elástica se rompe y la gota se descompone en otras más pequeñas y mucho más esféricas. Estas, a su vez pueden crecer, deformarse, romperse, etcétera, etcétera.

De esta manera, la física de fluidos determina, no sólo la forma, sino también el volumen posible de las gotas de lluvia2, que rara vez supera los 4 mm de diámetro3. Las más pequeñas, a partir de 0,5 mm de diámetro, son siempre más simétricas y estables que las más grandes, porque su “malla” resiste mejor la caída.

¿Por qué pintamos las gotas con sombrero entonces? Es difícil saberlo con certeza. Pero esta forma alargada se parece a la de una gota arrastrándose por una superficie. Como la de una lágrima que recorre una cara. O quizás, la de una gota a punto de desprenderse de un grifo.

Notas:

1Marcus du Sautoy lo cuenta en su libro “Symmetry”.

2Villermaux, E., Bossa, B. Single-drop fragmentation determines size distribution of raindrops. Nature Phys 5, 697–702 (2009). https://doi.org/10.1038/nphys1340

3No obstante, se han registrado hotas de hasta 8,8 mm de diámetro. Esta super gota, en concreto, se encontraba en la base de una nube cúmulo congestus en las cercanías del atolón de Kwajalein en julio de 1999. Ver Hobbs, Peter V.; Rangno, Arthur L. (July 2004). «Super-large raindrops». Geophysical Research Letters. 31 (13): L13102. https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2004GL020167

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo Las gotas que dieron forma a las balas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La forma fractal de mapas y pulmones
  2. ¿Y si el Sol estuviese cambiando de forma fundamental?
  3. Las últimas gotas de agua en el meteorito
Categorías: Zientzia

Legislar sobre una verdad matemática

Mié, 2021/09/08 - 11:59

 

La asociación de ideas es algo curioso. Estos días escuchando las tonterías que están diciendo algunas personas de la vida pública sobre el coronavirus me ha venido a la cabeza la historia del intento de legislar sobre una verdad matemática, sobre el valor del número pi, en la Asamblea General del Estado de Indiana (EE.UU.).

Logo del Día Internacional de las Matemáticas, que es el 14 de marzo, aprovechando que ese era conocido como el “día de pi”. Nota del editor: El día de pi tiene un origen anglosajón, donde el 14 de marzo (mes 3) se escribe 3/14.

 

Esta anécdota, que os voy a contar en las siguientes líneas de la presente entrada del Cuaderno de Cultura Científica, nos habla sobre lo absurdo que es legislar sobre una verdad matemática.

En la entrada ¿Es normal el número pi?  ya hablamos del número pi, de los diferentes intentos históricos de aproximar esta constante matemática mediante números racionales y de la demostración de que es un número irracional. Recordémoslo brevemente.

Desde los antiguos orígenes del número pi, es decir, la relación entre la longitud de una circunferencia y su diámetro, se ha intentado aproximar su valor mediante diferentes expresiones numéricas. En uno de los más antiguos textos matemáticos, el Papiro de Rhind (1.700 años antes de nuestra era), el escriba Ahmés incluye la evaluación de una circunferencia inscrita en un cuadrado, que luego transforma en un octógono. A partir de ahí, el valor que propone para pi, hecha la conversión, es (16/9)2=3,16049…

El matemático griego Arquímedes, en el siglo III a. C., utilizando polígonos de 96 lados inscritos y circunscritos en una circunferencia, establecía que la constante pi está entre las cantidades 3 + 10/71 y 3 + 1/7 = 22/7 (=3,1428…), fracción esta última bien conocida en la escuela antes de las calculadoras.

En la India, el matemático Aryabhatta, hacia el 500, propuso la fracción 62.832/20.000, que es la aproximación cuyos cuatro primeros decimales son la aproximación más conocida, entre el público general, del número pi, 3,1416….

Todas estas, y otras, aproximaciones al número pi eran mediante números racionales. Recordemos que un número racional es aquel que puede expresarse como cociente de dos números enteros (por ejemplo, 0,5 es un número racional ya que puede expresarse como el cociente 1/2; también 0,333… ya que puede expresarse como 1/3). Si consideramos la expresión decimal de los números (por ejemplo, 5,235), entonces un número es racional si podemos encontrar un “patrón entre sus decimales”, es decir, si los decimales del número son una cantidad finita (por ejemplo, 1/4 = 0,25) o si los decimales satisfacen que a partir de uno de los decimales se repite una pauta, un número finito de decimales que se repite de forma infinita, conocida como el período del número racional (por ejemplo, 1/3 = 0,333…, en el que se repite de forma infinita el 3; o 51/7=7,285714285714285714…, cuyo período es 285714).

Pero el número pi no es un número racional. No se puede expresar como cociente de dos números enteros, o lo que es equivalente, su expresión decimal es infinita y no hay un grupo finito de decimales que se repita de forma periódica generando todos los decimales. La primera demostración de que Pi es irracional es de 1761, un siglo antes de la historia que os vamos a contar a continuación, y se debe al matemático alemán Johann H. Lambert (1728-1777).

Por cierto, que el pasado mes de agosto se ha vuelto a batir el récord de cálculo de decimales de pi, que ahora está en 62,8 millones de dígitos. Los últimos dígitos conocidos hasta ahora del número Pi, que empieza con los decimales 3,1415926535, son 7817924264 (como podemos leer en el artículo 62,8 billones es el nuevo récord de decimales del número pi).

100.000 dígitos de pi, de la astrónoma y diseñadora de visualización de datos Nadieh Bremer. Como explica su autora sobre esta visualización de los dígitos del número pi “cada dígito se ha convertido en una cierta dirección de pi para avanzar, con los 360 grados de un círculo divididos en 10 direcciones de avance”. Esta obra, y otras relacionadas, las podéis encontrar, e incluso comprar, en la página web Visual Cinnamon.

 

A pesar de la demostración de Lambert de que la constante matemática pi es irracional, luego no se puede expresar mediante una cantidad finita de decimales, ni mediante un grupo finito de decimales que se repite de forma periódica generando todos los decimales, nos encontramos que algunas personas aficionadas a las matemáticas han seguido empeñadas en demostrar que no es así. Incluso hoy en día en las universidades y sociedades matemáticas seguimos recibiendo mensajes de personas que dicen haber demostrado que pi es racional, con sus erróneas demostraciones. Estos mensajes van directamente a la papelera. Sin embargo, en alguna, por suerte rara, ocasión llegan a convencer a los medios de comunicación de su supuesto logro –en contra de lo establecido por la “ciencia oficial”– y consiguen su minuto de gloria.

Una de estas demostraciones, que daban al número pi el sencillo y racional valor de 3,2, llegó incluso a la Asamblea General del Estado de Indiana, donde se intentó legislar sobre el valor de esta constante.

La propuesta de Ley Estatal de Indiana no. 246, de 1897, tenía un largo y curioso título que decía algo así:

Un proyecto de ley que introduce una nueva verdad matemática y que se ofrece como una contribución a la educación que solo podrá ser utilizada por el Estado de Indiana de forma gratuita sin necesidad de pagar ningún tipo de royalties, siempre y cuando sea aceptado y adoptado de forma oficial por la legislatura de 1897.

El texto completo de esta proposición de ley de 1897, constaba de tres secciones que podéis leer en el artículo Legislating pi del Archivo Legal de Indiana.

La nueva verdad matemática que se mencionaba en el título de la Ley Estatal de Indiana no. 246 no era otra que la sorprendente afirmación de que el número pi tenía el valor de 3,2. Esta nueva verdad matemática, y su demostración, se debían al médico y aficionado a las matemáticas Edward Johnston Goodwin (aprox. 1825-1902), sobre cuyos descubrimientos se hablaba precisamente en la sección tercera de la Ley Estatal de Indiana no. 246:

Una prueba más del valor de la contribución propuesta por el autor [refiriéndose a Edward J. Goodwin] a la educación y ofrecida como regalo al estado de Indiana es el hecho de que sus soluciones de la trisección del ángulo, la duplicación del cubo y la cuadratura del círculo, han sido aceptadas como contribuciones a la ciencia por la revista American Mathematical Monthly, el principal exponente del pensamiento matemático en este país. Y recuérdese que estos problemas señalados habían sido abandonados hace mucho tiempo por los organismos científicos como misterios insolubles y por encima de la capacidad del hombre para comprender.

Efectivamente, Edward J. Goodwin publicó en 1894 una nota titulada La cuadratura del círculo en la revista American Mathematical Monthly (también hay dos notas del año 1895 sobre la trisección del ángulo y la duplicación del cubo, que junto a la cuadratura del círculo son los tres problemas geométricos clásicos de la matemática griega que, a pesar de lo afirmado por Goodwin, son irresolubles tal cual los plantearon los griegos, es decir, mediante regla y compás –véase, por ejemplo, el artículo Los tres problemas clásicos, de Santiago Fernández), en el cual afirma que

la relación numérica entre el diámetro y la circunferencia es de 5/4 : 4.

Por lo tanto, el número pi, es decir, la relación entre la longitud de una circunferencia y su diámetro, es igual a 4 / (5/4) = 16 / 5 = 3,2, según lo afirmado por Goodwin.

Las dos páginas de la American Mathematical Monthly en las que aparece la nota La cuadratura del círculo de Edward J. Goodwin

 

La nota La cuadratura del círculo fue publicada en la sección Consultas e información de la American Mathematical Monthly, con la aclaración debajo del título y el nombre del autor “publicado por petición del autor”, es decir, que no había pasado ninguna revisión científica y era simplemente un anuncio de su autor. Es decir, la American Mathematical Monthly no avalaba lo incluido en la misma.

Por otra parte, como se explica en el libro Eurekas y euforias, Goodwin había registrado el valor de 3,2 para el número pi en los registros de la propiedad intelectual de Estados Unidos, Gran Bretaña, Alemania, Francia, España, Bélgica y Austria. Este hecho también es llamativo, que se pudiese registrar el valor de una constante matemática, y más aún, un valor erróneo.

La historia de cómo llegó ese valor erróneo para el número pi a casi convertirse en una ley es la siguiente. En 1896, el aficionado a las matemáticas Edward J. Goodwin se dirigió a su representante en la Asamblea General de Indiana, Taylor I. Record, para pedirle que presentara un proyecto de ley con esta nueva verdad matemática que se ofrecía como una contribución a la educación y que solo podría ser utilizada por el Estado de Indiana de forma gratuita sin necesidad de pagar ningún tipo de royalties.

El 18 de enero de 1897 el político Taylor I. Record presentó la Ley Estatal de Indiana no. 246. Seguramente el político no entendió nada de lo que le contó el médico y matemático aficionado. De hecho, el texto de las dos primeras secciones de la conocida como “Ley pi de Indiana” estaban llenas de expresiones matemáticas relacionadas con la cuadratura del círculo.

La propuesta de Ley Estatal de Indiana no. 246 pasó por dos comités, uno de ellos el Comité de Educación, que informaron favorablemente sobre el contenido de la misma y el 10 de febrero de 1897 se remitió al Senado del Estado de Indiana con la recomendación de que fuese aprobada la ley. El día 12 tras haber sido presentada favorablemente la propuesta de ley ante el Senado del Estado de Indiana, fue aplazada indefinidamente. ¿Por qué ese cambio de opinión sobre la Ley pi de Indiana, que los senadores no entendían, pero que estaba avalada por dos comités?

El catedrático de matemáticas Clarence A. Waldo (1852-1926), director del departamento de matemáticas de la Universidad de Purdue

 

Existieron dos factores que pusieron fuera de juego a la Ley pi de Indiana, la presión de la prensa y la casual visita del matemático C. A. Waldo a la Asamblea General del Estado de Indiana.

Desde la primera aparición de la propuesta de Ley Estatal de Indiana no. 246, el 18 de enero de 1897, el periódico en alemán Der Tägliche Telegraph de Indiana, escribió sobre la misma alertando sobre la estupidez de aprobar una ley como esa. El primer artículo relacionado con esa propuesta ya fue publicado el 19 de enero y el editorial del día siguiente también se dedicó a esta polémica ley sobre la cuadratura del círculo y el valor racional del número pi, en la que se escribía por ejemplo “Solo el gran grupo de personas seudo-educadas todavía se preocupa por la cuadratura el círculo”. Aunque otros periódicos, en inglés, pasaron inicialmente del tema, la polémica ley acabaría llenando algunas páginas de muchos periódicos. Incluyo aquí un trozo del editorial del Chicago Tribune del 7 de febrero de 1897 titulado El dedo de Indiana sobre Pi.

Por tanto, la Cámara del Senado ha decidido que en lo sucesivo en el Estado de Indiana pi será 3.2. […] Las circunferencias de los círculos no serán ya el mismo número de veces los diámetros que solían ser, sino un poco más, en Indiana.

El efecto inmediato de este cambio será dar a todos los círculos, cuando ingresan a Indiana, o mayores circunferencias o menores diámetros. Un círculo de Illinois o un círculo que se origina en Ohio encuentra sus proporciones modificadas tan pronto como aterriza en suelo de Indiana. Se encontrará bajo el dominio de un pi modificado.

Caricatura sobre la Ley pi de Indiana aparecida el 6 de marzo 1897 en el periódico Rock Island Argus de Illinois. Imagen de Wikimedia Commons

 

Por otra parte, el día 5 de febrero de 1897, cuando se estaba debatiendo la propuesta de Ley pi de Indiana, el catedrático de matemáticas Clarence A. Waldo (1852-1926), director del Departamento de Matemáticas de la Universidad de Purdue, visitaba el edificio del Senado por un motivo completamente diferente, la asignación de fondos para su universidad. Cuál no sería su sorpresa cuando descubrió que la Asamblea General del Estado de Indiana estaba debatiendo una propuesta de ley relacionada con las matemáticas. Como el propio matemático recordaba en un artículo, 19 años más tarde, escuchó allí a alguien decir:

El caso es muy simple. Si aprobamos este proyecto de ley que establece un nuevo y correcto valor de pi, el autor ofrece a nuestro Estado sin coste alguno el uso de su descubrimiento y su libre publicación en nuestros libros de texto escolares, mientras que todos los demás deben pagarle derechos…

Entonces, un senador le mostró el proyecto de ley al profesor Waldo y le preguntó si desearía que le presentasen “al sabio doctor, su autor”. La respuesta del matemático fue contundente, le dijo que ya conocía a todos los locos que quería conocer.

Tanto la presión de los medios de comunicación, como la opinión mostrada por el profesor Waldo, motivaron que los senadores se dieran cuenta de que no podían legislar sobre el valor de una constante matemática. Por este motivo, el 12 de febrero el senador Orrin Hubbell propuso que la propuesta de ley fuese aplazada indefinidamente, como así fue. Este senador, preguntado al respecto por el Indianapolis Journal, contestaría que:

El Senado podría intentar legislar también que el agua subiera colina arriba, que es lo mismo que establecer verdades matemáticas por ley.

Me gustaría terminar esta entrada del Cuaderno de Cultura Científica con una cita, que viene muy a cuento, de la novela 1984 (1949) del escritor británico George Orwell (seudónimo de Eric Arthur Blair, 1903-1950):

¿Cuántos dedos estoy mostrando, Winston?

Cuatro.

¿Y si el partido dice que no son cuatro, sino cinco, entonces cuántos hay?

Cuatro.

La palabra terminó con un jadeo de dolor. (…)

Aprendes muy despacio, Winston —dijo O’Brien con suavidad.

¿Cómo puedo evitarlo? —sollozó. —¿Cómo puedo evitar ver lo que está frente a mis ojos? Dos y dos son cuatro.

A veces, Winston. A veces son cinco. A veces son tres. A veces son todo eso a la vez. Debes esforzarte más. No es fácil alcanzar la cordura.

Algunas portadas del libro 1984, de Georges Orwell, sacadas de la página web Estandarte

 

Bibliografía

1.- Walter Gratzer, Eurekas y euforias, cómo entender la ciencia a través de sus anécdotas, Crítica, 2004.

2.- Simon Singh, Los Simpson y las matemáticas, Ariel, 2013.

3.- Howard W. Eves, Mathematical Circles Revisited and Mathematical Circles Squares, MAA, 2003.

4.- Ryan Schwier, Legislating pi [http://www.indianalegalarchive.com/journal/2015/3/14/legislating-pi], Indiana Legal Archive, 2015.

5.- Santiago Fernández, Los tres problemas clásicos, Un Paseo por la Geometría 1998/1999, Universidad del País Vasco, 1999.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Legislar sobre una verdad matemática se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Buscando una matemática en el castillo
  2. La invención matemática
  3. Guía matemática para el cómic ‘Promethea’
Categorías: Zientzia

Asclepio

Mar, 2021/09/07 - 11:59

Asclepio era el dios de la curación adorado tanto por los griegos como por los romanos. La Ilíada de Homero primero identifica a Asclepio, no como un dios, sino como un ser humano, un contemporáneo de Heracles, Teseo y Jason.

Asclepio. Foto: Michael F. Mehnert / Wikimedia Commons

Quirón el Centauro, el maestro de Aquiles el guerrero y Jasón el marinero y aventurero, impartió sus conocimientos de medicina y cirugía a Asclepio. Asclepio a su vez enseñó a sus hijos Macaón y Podalirios el arte de curar y ellos, a su vez, a sus hijos, de modo que con el paso del tiempo los griegos creían que la progenie de Asclepio habitaba entre ellos, enseñando medicina y curando a los enfermos.

La narrativa mitológica terminó haciendo que Asclepio recibiese el patrimonio del dios original de la curación, Apolo. El relato es que la amante mortal de Apolo, Coronis, embarazada de su hijo, fue asesinada por el dios enojado por amar a otro (un mortal). Tras su muerte, Asclepio es sacado de su útero y entregado a Quirón para que lo criara. Como hijo de Apolo, los griegos lo deificaron para convertirlo en el dios de la medicina. Los Himnos homéricos, compuestos en algún momento alrededor del año 1000 a.e.c., incluyen un himno al dios Asclepio. La historia del mortal Asclepio que se convirtió en el patrón divinizado de la medicina fue quizás un préstamo que los griegos tomaron de la historia egipcia de Imhotep, que fue divinizado para convertirse en el dios egipcio de la curación y la magia.

Reconstrucción del asclepeion de Cos. Imagen: Franck Devedjian / Wikimedia Commons

Se fundaron templos para el culto a Asclepio (los llamados asclepeion) en todo el mundo griego. Epidauro en la costa este de la península del Peloponeso y Cos en el mar Egeo fueron importantes centros de adoración de Asclepio. El culto de Cos incluía tanto a sacerdotes como a médicos que se consideraban descendientes de Asclepio, los asclepíadas. El asclepíada más famoso de Cos fue Hipócrates, el médico y escritor del siglo V a.e.c. El juramento hipocrático comienza invocando a Apolo, Asclepio y sus hijas Higía (salud) y Panacea (curalotodo) como testigos.

Izquierda: Vara de Asclepio, símbolo de la medicina. Derecha: Serpiente asclepiana y la copa de Higía, símbolo de la farmacia.

Las estatuas de Asclepio típicamente muestran al dios sosteniendo un bastón alrededor del cual se enrolla la “serpiente asclepiana”. Los sacerdotes, para honrar al dios, permitieron que esta serpiente, de las más grandes de Europa pero no venenosa, habitara en los templos de Asclepio. Las serpientes simbolizan la regeneración, la esperanza de muchos adoradores de Asclepio.

Zamenis longissimus, la serpiente asclepiana. Fuente: Wikimedia Commons

El culto de Asclepio creció durante la época helenística y después, cuando los romanos adoptaron la adoración del dios curativo (conocido ahora como Esculapio). Ya en el siglo III a.e.c., existía un templo de Asclepio en una isla en el río Tíber en Roma, la isla Tiberina, donde los enfermos acudían en busca de ayuda médica y espiritual. Tras la batalla de Accio, librada entre la flota de Octavio Augusto y la de Marco Antonio y Cleopatra en el 31 a.e.c, el historiador Lucio Casio Dion (en su Historia) afirma que Octavio, en Cos, habría ejecutado a uno de los asesinos de Julio César, Turulio, quien habría osado talar la arboleda sagrada del santuario de Asclepio en Cos para a construir la flota de Marco Antonio.

En Roma, el culto de Asclepio prosperó desde el Principado hasta el Bajo Imperio Romano. El escritor pagano Celso escribió sobre las numerosas personas que confiaban en su relación personal con Asclepio como si fuese lo más normal. Marco Aurelio, quizás animado por su médico Galeno, se benefició del consejo directo de Asclepio. Durante el siglo III e.c., sin embargo, el culto de Asclepio declinó. Los devotos de Asclepio, como el neoplatónico Porfirio, en Contra los cristianos, veían como la oposición cristiana al culto a los dioses incluía que el dios de la sanación era el mismo Cristo, lo que, según los seguidores de Asclepio, condujo a una disminución en la adoración de Asclepio y, por consiguiente, a un aumento de las enfermedades en el imperio.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Asclepio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los mitos como protociencia
  2. La maldición de Prometeo
  3. Después del bronce
Categorías: Zientzia

Drones militares y las nuevas reglas de la guerra

Lun, 2021/09/06 - 11:59

Julián Estévez Sanz

Shutterstock / Paul Fleet

 

Las amenazas más efectivas son las que pasan inadvertidas. A las que nadie mira, o de las que nadie es consciente.

Los conflictos militares como los de Gaza, Libia o Siria son titulares habituales. Otros no son lo son tanto. Pero poco se habla de que, en casi todos estos enfrentamientos, se están empleando drones (también llamados UAV, acrónimo inglés que hace referencia a “vehículo aéreo no tripulado”). Tal es su influencia, que están cambiando las reglas de la guerra.

La idea de los ataques aéreos es un sueño militar de siglos, y se remonta a las cometas de fuego hábilmente empleadas por la dinastía Han en el s.II a.C. Después, permaneció latente casi 2 000 años, hasta que Benjamin Franklin recuperó el concepto a finales del s.XVIII, y lo compartió por carta con una pareja de hermanos con los que se escribía: los Montgolfier.

Desde entonces, el uso aéreo de los globos aerostáticos y de la posterior aviación, se vio como una gran ventaja a tener en cualquier ejército. Pero a la idea de los drones, tal y como los conocemos hoy en día, aún le quedaban unas alegrías y decepciones más.

Red aérea de la IGM en Londres para prevenir de ataques con globos.

Concretamente, tenemos que trasladarnos en el tiempo hasta la guerra de Vietnam para conocer uno de los principales impulsos. El conflicto dio a luz el programa más sofisticado de vigilancia con aviones no tripulados en la historia de la aviación. Durante la década de 1960, el Departamento de Defensa de los EEUU comenzó a automatizar el campo de batalla con sensores remotos y superordenadores para escuchar los movimientos del enemigo o manejar aviones no tripulados Firebee en los cielos vietnamitas. Tras muchos debates internos en el seno de la cúpula militar de EEUU, ya nunca se abandonó el empleo de este tipo de armas.

Posteriormente, los drones militares tuvieron un papel protagonista en la lucha antiterrorista tras el 11S. En ella, quedó patente su utilidad para una permanente vigilancia de vastos territorios, el seguimiento silencioso de objetivos, y su asesinato. Han demostrado tal eficacia, que en los últimos años se ha intensificado su uso no solo en combate de células terroristas, sino contra ejércitos regulares. Y, como muestra, dos ejemplos:

El primero de ellos es un viejo conocido en las noticias internacionales. Se trata de la guerra de Siria. En ella, a comienzos de 2020, cuando Turquía desplegó sus UAV para bombardear las defensas de Al Assad, ocurrió un punto de inflexión en el conflicto en contra de este último. Las naves otomanas aplastaron a las defensas sirias.

A finales de ese mismo año, en Nagorno Karabaj, una región estratégica del Cáucaso, tuvo lugar la guerra entre Armenia y Azerbaiyan. La república azerí no es reconocida como gran potencia militar. Sin embargo, en los últimos años se ha aprovisionado de varios drones militares de manufactura israelí y, sobre todo, turca. Su impacto sobre las anquilosadas y obsoletas defensas armenias ha sido devastador.

Con una novedosa técnica llamada loitering, Armenia no tuvo ninguna opción. Esta técnica consiste en el empleo de pequeños UAV en enjambre, que se lanzan como kamikazes contra los objetivos enemigos. Tal y como se aprecia, Turquía está emergiendo como una de las potencias principales en el uso de estas máquinas de guerra.

Vestel Karayel, UAV desarrollado para las fuerzas armadas de Turquía. Wikimedia Commons / Bks5669, CC BY-SA

Nuevos dilemas éticos

El empleo de los drones plantea numerosas cuestiones éticas y cambia totalmente las reglas de la guerra. Una nación puede atacar a otra desde miles de kilómetros de distancia. Los operadores de estas armas son soldados situados en una base militar en su propio territorio, en el que, en un entorno que imita al de un vídeojuego, decide sobre qué enemigos y objetivos hay que abatir.

Esto viola una de las normas más básicas de la ética de la guerra: si un soldado mata, se da por hecho que él se arriesga a recibir la misma suerte. Pero con estas naves, el conflicto se vuelve asimétrico, y en un bando se juegan cientos de víctimas, y en el otro ningún soldado corre riesgo. Quizás ahora se entienda por qué los líderes políticos son tan amigos de los drones. La justificación de movilización de tropas y de pérdida de vidas humanas de sus ciudadanos carece de valor. No hay víctimas, ni escándalos mediáticos.

Otra regla vulnerada es la capacidad de invadir silenciosamente territorios enemigos. Bajo el halo de misiones de espionaje, los gobiernos no tienen que justificar nada, y el país atacado se entera cuando ya es demasiado tarde.

Pero el desarrollo tecnológico de estas naves no se queda aquí, sino que el objetivo es dotarlas de una autonomía que permita combatir en el aire, o de bombardear automáticamente a los enemigos. Para ello, grandes empresas están diseñando algoritmos de navegación autónoma, de interpretación de imágenes, e incluso simulaciones del efecto de bombardeo en un punto.

¿Qué ocurriría si alguna de esos sicarios automáticos se equivocase de objetivo o confundiese a niños con terroristas?

Mural de protesta en Yemen.

Quizás alguien piense que eso podría ocurrir una o dos veces. Pero no. Ya hay más de 2 000 víctimas civiles de drones de EEUU.

Cuando nació la aviación, se decía que ya no existirían guerras, ya que el poderío que demostraban presagiaba que cualquier nación que tuviera aviones en sus filas aplastaría a cualquier enemigo. Hoy en día, vemos normal prohibir las armas nucleares o las minas antipersona. Ahora, campañas como Ban Killer Drones tratan de prohibir los drones militares.Sobre el autorThe Conversation

Sobre el autor: Julián Estévez Sanz es profesor e investigador en Robótica e Inteligencia Artificial en la Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Drones militares y las nuevas reglas de la guerra se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Son evitables los ataques con drones?
  2. Lienzos y partituras para crear nuevas vacunas
  3. Las reglas de desplazamiento radiactivo
Categorías: Zientzia

¿Es el método de cálculo el responsable del aumento del precio de la electricidad?

Dom, 2021/09/05 - 11:59

J. Guillermo Sánchez León

Foto: Shutterstock / ART STOCK CREATIVE

 

Estos últimos meses los medios de comunicación españoles no han parado de anunciar sucesivos récords en el precio de la electricidad. Un ejemplo: el del pasado 30 de julio (Figura 1).

Figura 1. Precio de la electricidad en el mercado mayorista el día 30-07-2021.
OMIE

Se culpa de estas sucesivas subidas al método marginalista que se usa en su cálculo y, para explicarlo, frecuentemente se establecen falsas analogías.

Las premisas básicas

Entre las muchas frases que se atribuyen a Albert Einstein, y que probablemente nunca dijo, está la de: “Todo debe hacerse tan simple como sea posible, pero no más”. No importa quien sea su autor sino que refleja con claridad el modo de afrontar un asunto complicado. Y cómo establecer el coste de la energía lo es.

Una forma de abordar los temas complejos es dividirlo en partes. Aunque en este artículo expondremos el modelo español, este es similar, con pocas diferencias, al de la mayoría de los países desarrollados.

Aquí pondremos el foco en describir cómo se fija el precio de la energía eléctrica en el mercado mayorista. En el caso de un pequeño consumidor que se acoja al mercado regulado (PVPC), ese precio es menos de un tercio de la factura, como ya explicamos en otro artículo.

Para entender el mercado eléctrico hay que tener antes varias ideas claras:

  1. Para el precio de la electricidad en el mercado mayorista la unidad utilizada es euros por megavatio hora (€/MWh). En el caso del pequeño consumidor se utiliza una unidad mil veces menor, el kWh.
  2. La electricidad es producida por centrales de distinto tipo (Figura 2), que pertenecen a empresas productoras de energía eléctrica. Estas la venden a las comercializadoras, que son la que facturan al consumidor. Normalmente, una misma compañía productora de electricidad tiene una empresa comercializadora, aunque formalmente sean dos entidades distintas.
  3. Otra parte del negocio eléctrico es la distribución. La energía eléctrica se transmite a través de una red física formada por cables. Una vez que un productor inyecta energía eléctrica (electrones) a la red es indistinguible de la energía vertida por otros productores. Por tanto, es pura propaganda si una comercializadora garantiza al cliente que solo recibirá “energía verde”.
Figura 2. Origen de la electricidad durante el mes de julio. Para compensar la falta de energía eólica se ha recurrido a centrales que usan como combustible el gas, la energía más cara.
OMIE

La península ibérica en el mercado eléctrico europeo

España forma parte del mercado europeo de compraventa de electricidad. Así, el precio de su energía eléctrica (€/MWh), sin costes añadidos, se rige por el marco regulatorio europeo que estará vigente hasta 2030.

Pese a la interconexión con Francia, la capacidad de intercambio con la red europea es muy pequeña. El motivo histórico es que los municipios pirenaicos se opusieron a la instalación de tendidos eléctricos de alta tensión en sus territorios.

En la península ibérica (España y Portugal peninsulares), la gestión del sistema eléctrico diario e intradiario está delegada a OMIE (Operador del Mercado Ibérico de Energía). A través de este, se fija el precio horario de la electricidad para el mercado mayorista de la zona.

Estos precios experimentan grandes fluctuaciones (Figura 3) y han crecido enormemente en los últimos meses. Sin embargo, para hacer una valoración objetiva de la situación es necesario analizar periodos largos de actividad.

Figura 3. Evolución del precio de la electricidad en el mercado mayorista en los últimos 12 meses.
OMIE

Un juego de oferta y demanda

OMIE es un mercado marginalista en el que el precio del MWh se establece por horas para el día siguiente.

Cada día Red Eléctrica Española (REE) informa a los productores de la estimación de la demanda de electricidad (por horas) para el día siguiente.

Imaginemos que las necesidades de consumo entre las 15:00 y las 16:00 de un día X se establecen en 40 000 MWh. Para simplificar, supondremos que solo hay dos empresas eléctricas y que solo ofertan dos precios.

Conocida la demanda, las empresas productoras hacen sus ofertas:

  • La empresa A oferta 20 000 MWh a 0 euros/hora y 5 000 MWh a 100 €/hora.
  • La empresa B oferta 17 000 MWh a 0 euros/hora y 10 000 MWh a 95 €/hora.

Las empresas A y B desconocen los precios ofertados por la otra.

Dadas las ofertas presentadas, la empresa A aportará al mercado los 20 000 MWh que ofreció a precio cero y la empresa B los otros 20 000 MWh necesarios para satisfacer la demanda (17 000 MWh que ofertó a precio cero y 3 000 MWh a 95 €/hora). Pero finalmente todos recibirán 95 €/MWh.

Puede que llame la atención que en este ejemplo gran parte de la oferta haya sido a precio cero. Eso no es una errata. En la práctica es así porque parte de lo que se oferta corresponde a centrales nucleares y, como estas no pueden encenderse y apagarse a voluntad, las empresas buscan asegurarse de que en cualquier caso esa energía es adquirida.

Ocurre algo parecido con parte de las energías renovables (de nada vale tener un generador parado cuando sopla el viento). Frecuentemente, las últimas centrales en entrar en la subasta son las de gas y, a veces, también las hidroeléctricas.

El ejemplo presentado puede parecer trivial pero el método de casación de precios no lo es. En él se aplica el algoritmo EUPHEMIA.

Precios y costes

El hecho de que el precio de la última oferta (la más alta) sea la que fije el de todas las ofertas previas es lo que confunde a tertulianos y periodistas y les lleva a emplear falsas analogías para explicar erróneamente qué es un sistema marginal de precios.

Se ha llegado a decir que este mercado funciona como si, al ir a la carnicería, se comprasen pollo, salchichas y solomillos para pagarlo todo al precio de estos últimos. Esta analogía parte de un error de concepto: suponer que los precios a los que ofertan los productores es, como mínimo, el coste de generación de cada tipo de energía.

Como ya hemos visto, eso no es así. Por ejemplo, a veces la última energía en entrar al mercado es la hidroeléctrica pues, aunque su coste sea barato, presenta una enorme flexibilidad: puede ponerse en marcha en pocos minutos y es una forma de tener energía almacenada.

Lo cierto es que el precio al que ofertan las eléctricas no corresponde a los costes de producción. De hecho, cuando se analiza el precio de la electricidad durante todas las horas del año, es fácil darse cuente de que hay horas (Figura 4) en las que la electricidad está claramente por debajo de los costes de producción. Una central nuclear que suministre por debajo de 50 €/MWh probablemente está perdiendo dinero pues solo en tasas especiales paga 21 €/MWh.

Figura 4. Ejemplo de cómo oscila el precio de la electricidad en un día (31-07-2021). Obsérvese que hay horas en las que el precio es tan bajo que se sitúa por debajo de los costes de generación.
OMIE

No parece lógico (pero es eficiente)

Una analogía que refleja más claramente lo que es el mercado marginalista de la electricidad es la siguiente: suponga que está obligado a comprar una cantidad de carne y va a una carnicería. Allí le ofrecen pollo y salchichas a un precio muy bajo, por debajo de su coste, porque el carnicero quiere deshacerse en cualquier caso de esos productos. Pero el comerciante, que también le ofrece ternera, desconoce lo que usted va a comprar.

Además, la norma de ese negocio es que el precio de cada uno de los productos que compre será el del producto más caro que se lleve. Si usted solo compra pollo y salchichas el carnicero va a perder dinero. Pero ha hecho sus cálculos y sabe que, después de varias compras, acabará obteniendo ganancias. De lo contrario, se arruinaría.

Probablemente este método marginalista no sea el óptimo para el consumidor pero varios estudios demuestran que es más eficaz que si se pagase a las eléctricas el precio de cada energía. Naturalmente, con nuevas reglas de juego los precios de salida serían otros.

Hay países europeos en los que la electricidad es más barata, como Francia, que produce el 80% de su energía en centrales nucleares, o Suecia, que dispone de gran capacidad hidráulica y nuclear.

En cambio, en Alemania la energía es más cara porque, tras el cierre de gran parte de sus centrales nucleares, ha tenido que recurrir al carbón y los derechos de emisión de CO₂ se han encarecido enormemente.

Los otros costes de la energía barata

Cualquier forma de producción de energía tiene un alto coste ambiental. Los destrozos que se originan en las instalaciones eólicas no son despreciables, incluso el proceso de fabricación de las células solares o de las baterías para coches eléctricos no es inocuo. También hay que tomar en cuenta la contaminación generada por el derroche eléctrico. Por ejemplo, la contaminación lumínica se está incrementando sustancialmente por la proliferación de luces led, que consumen muy poco, para iluminar las ciudades.

Por otra parte, no es conveniente que los gobiernos dirijan de forma inflexible las formas futuras de producción de la energía. Parte de la factura eléctrica española actual se destina a pagar las primas a las renovables de 2007.

Uno de los objetivos de estas ayudas era desarrollar la industria solar española pero el resultado final es que importamos las células solares y el Gobierno está en pleitos con fondos de inversión que reclaman indemnizaciones por los recortes que se produjeron en las primas comprometidas (se había acordado pagar a ¡360 €/MWh! durante 25 años).

Ahora se afirma que en un futuro próximo toda la energía será 100% renovable y se almacenará como hidrógeno verde. Una idea que ya estuvo de moda hace mas de 40 año. El futuro no está escrito y probablemente las formas más eficientes y sostenibles de producir electricidad para dentro de 30 años todavía no estén inventadas.The Conversation

Sobre el autor: J. Guillermo Sánchez León es ingeniero técnico de mínas, físico, doctor en matemáticas y profesor del máster de modelización matemática de la Universidad de Salamanca

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Es el método de cálculo el responsable del aumento del precio de la electricidad? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El precio de la electricidad es más volátil en épocas de incertidumbre en la regulación de renovables
  2. Cuando el más pequeño movimiento genera electricidad que puedes usar
  3. Cálculo y geometría analítica, de George F. Simmons
Categorías: Zientzia

Evolución de la flora y fauna en el Abra de Bilbao

Sáb, 2021/09/04 - 11:59
Vista aérea de la Ría y su desembocadura. Al fondo el puerto de Bilbao ubicado en el Abra Exterior, en tierras de Santurtzi, Zierbena y Getxo. Fotografía: Mikel Arrazola / Wikimedia Commons

La comarca del Gran Bilbao ha mostrado históricamente una estrecha relación con el río Nervión-Ibaizabal. Desde el siglo XIX, su cauce ha venido recibiendo grandes volúmenes de aguas residuales de origen doméstico, siderometalúrgico, minero e industrial, ante la creencia de que el medio marino podría asimilar toda esa carga contaminante. Sin embargo, las condiciones ambientales naturales del Abra de Bilbao se vieron alteradas de forma drástica.

Afortunadamente, la mayor sensibilidad y conciencia ambiental de la sociedad se tradujo en la puesta en marcha en 1984 del ‘Plan de Saneamiento Integral de la comarca del Gran Bilbao’ promovido por el Consorcio de Aguas Bilbao-Bizkaia que, junto con la paulatina transformación medioambiental de las industrias, fue produciendo una mejora paulatina de la calidad de las aguas y de la vida animal y vegetal de los fondos rocosos del Abra. Este vídeo presenta como afectó el plan de saneamiento a las poblaciones de flora y fauna en el Abra de Bilbao. El vídeo forma parte del proyecto «La Ría del Nervión a la vista de las ciencias y las tecnologías».

 

Edición realizada por César Tomé López

El artículo Evolución de la flora y fauna en el Abra de Bilbao se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Recuperación de fauna en la ría de Bilbao
  2. La recuperación de la vida marina en el Abra de Bilbao
  3. La ría de Bilbao como medio de transporte de mineral
Categorías: Zientzia

El genoma completo de una de las primeras mujeres europeas anatómicamente moderna

Vie, 2021/09/03 - 11:59

El genoma de una de las primeras mujeres de nuestra especie, que vivió en Rumania hace 35 mil años, pone de relieve que la disminución de diversidad genética de las poblaciones europeas (en comparación con las africanas) fue causada por la última glaciación paleolítica (hace unos 20-24 mil años, en el máximo glacial) y no por un “cuello de botella” tras la salida de nuestros ancestros de África. Sin embargo, la prevalencia de enfermedades genéticas no se vio alterada en las poblaciones que sobrevivieron al máximo glacial, a pesar de la pérdida de diversidad.

El cráneo de Pestera Muierii 1. Foto: Mattias Jakobsson.

El proyecto en el que han participado miembros del grupo de Biología Evolutiva Humana de la Universidad del País Vasco/Euskal Herriko Unibertsitatea (M. Hervella, N. Izagirre, S. Alonso y C. de la Rúa), en colaboración con el grupo liderado por Mattias Jakobsson de la Universidad de Uppsala (Suecia) y el dirigido por Mihai Netea de la Radboud University (Holanda), se inició con la recuperación del genoma mitocondrial de una de las primeras mujeres europeas de nuestra especie, cuyos restos se hallaron en la cueva de Peştera Muierii en Baia de Fier, en el sur de Rumania (Hervella et al., 2016). Recientemente se ha conseguido secuenciar el genoma completo de esa mujer del Paleolítico Superior  (Svensson E. et al., 2021).

El desarrollo experimentado por las técnicas de análisis genómico de restos humanos antiguos está permitiendo obtener información para comprender cómo ha sido la evolución y adaptación de nuestra especie en Europa tras la llegada de los primeros Homo sapiens desde África. La expansión de los humanos modernos fuera de África es un periodo importante en nuestra historia y suele describirse como un “cuello de botella” poblacional, que produjo una pérdida de diversidad genética. Sin embargo, el hecho de que el genoma de la Peştera Muierii (PM1) muestre una elevada diversidad implica que la mayor pérdida de diversidad genética ocurrió posteriormente a la migración fuera de África, durante un periodo climático muy frío (LGM, Last Glacial Maximum) en la última Edad de Hielo.

Aunque esa mujer presenta características craneales propias tanto de las poblaciones humanas modernas como de las neandertales, el estudio del genoma mitocondrial indicó que pertenecía a la especie Homo sapiens, encontrando en el presente estudio sobre el genoma nuclear niveles de mezcla neandertal (∼3,1 %) similares a los que presentan la mayoría de los humanos europeos.

El análisis de genomas antiguos también proporciona información sobre la respuesta inmunitaria en el pasado. Las citoquinas son mediadores inmunes cruciales en la defensa del huésped frente a patógenos. En el genoma de PM1 se evaluó la presencia de cuatro polimorfismos genéticos que están fuertemente asociados con una mayor capacidad de producción de citoquinas  (TLR4, TLR6, TLR10, IL-10), indicando que esa mujer tendría una gran capacidad de producción de citoquinas, lo que le conferiría protección contra los patógenos y una buena adaptación biológica.

Finalmente, en ese estudio se utilizaron metodologías novedosas de genómica médica con el fin de buscar en los genomas de humanos del Paleolítico Superior posibles variantes genéticas causantes de enfermedad. Se detectó una variante, la AIPL1 (p. (His82Tyr)), descrita en algún caso de amaurosis congénita de Leber 4, enfermedad que provoca ceguera. El padecimiento de esa enfermedad habría sido un gran desafío en el Paleolítico, aunque se conocen otros casos de sujetos con trastornos o lesiones congénitas en el registro arqueológico desde el Pleistoceno Medio (en Atapuerca, por ejemplo). En caso de verificarse que esa variante genética causaba ceguera, sería otro ejemplo de la existencia del cuidado de individuos con una discapacidad.

 

Referencias:

Svensson E. et al. (2021) Genome of Peştera Muierii skull shows high diversity and low mutational load in pre-glacial Europe Current Biology, May 18 DOI: 10.1016/j.cub.2021.04.045

Hervella M. et al. (2016) The mitogenome of a 35,000-year-old Homo sapiens from Europe supports a Palaeolithic back-migration to Africa Sci Rep 6, 25501 DOI: 10.1038/srep25501

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El genoma completo de una de las primeras mujeres europeas anatómicamente moderna se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Lado oscuro del genoma y leucemia: aspectos éticos y legales de una investigación
  2. El estribo más completo del registro neandertal
  3. Riesgo de sufrir los efectos de un vertido de petróleo en el mar de las costas europeas
Categorías: Zientzia

Páginas