Naukas Bilbao 2021: Daniel Torregrosa – La química al servicio del mal
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Daniel Torregrosa, famoso popularmente entre otras cosas por su libro del Mito al laboratorio (Ed. Cálamo), se hizo muy conocido en la blogosfera por sus textos sobre venenos. Estaba tardando que diese una charla sobre su historia.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2021: Daniel Torregrosa – La química al servicio del mal se ha escrito en Cuaderno de Cultura Científica.
Observación experimental del fraccionamiento del espín en un material orgánico
Nos resulta de sentido común el que unidades sencillas se unan para formar estructuras más complicadas. Así, los átomos se unen para formar moléculas, que a su vez se combinan formando células y estas forman tejidos, dando lugar por último a seres vivos. En el mundo cuántico, este proceso puede ocurrir en dirección contraria, de forma que la interacción entre cosas “complejas” da lugar a cosas más “sencillas”. Así, en ciertas circunstancias, como el efecto Hall cuántico fraccionario, la interacción entre electrones, partículas indivisibles con carga eléctrica e, puede dar lugar a la emergencia de partículas con carga e/3. Este fenómeno se conoce como fraccionamiento.
Todas las partículas elementales poseen propiedades intrínsecas como masa o carga, que nos resultan intuitivas, y otras que nos lo son menos, como el espín, pero que podemos visualizar como una brújula. A diferencia de las brújulas normales, que pueden apuntar en cualquier dirección, el espín de los sistemas cuánticos está cuantizado, valga la redundancia, y únicamente puede tomar un conjunto discreto de valores. Por ejemplo, decimos que el espín del electrón es 1/2 y puede tomar únicamente dos valores, +1/2 y -1/2. Partículas con espín 1 pueden tomar tres valores, +1, 0 y -1.
En los años 80 el físico inglés Duncan Haldane construyó un modelo matemático para partículas de espín 1 en el que se producía el fraccionamiento de los espines. Así, una cadena unidimensional de partículas indivisibles de espín 1, interactuando con sus vecinas, daba lugar a la aparición de partículas de espín 1/2 en los bordes de la cadena. Igual que el truco de magia en el que el mago que corta en dos mitades a una persona y las separa, el modelo de Haldane permite fraccionar espines 1 y separarlos. Se trata de uno de los modelos centrales del magnetismo cuántico, un trabajo que le valió el premio Nobel en 2016.
La verificación experimental de esta predicción era complicada por varios motivos, empezando por el hecho de que no existen materiales unidimensionales. Había evidencia indirecta del fenómeno de fraccionamiento del espín en materiales orgánicos que contienen cadenas de átomos magnéticos, pero faltaba una observación directa. Ahora esa observación se ha llevado a cabo por un equipo internacional de investigadores, entre los que se encuentra el investigador Ikerbasque David Jacob, del Departamento de Polímeros y Materiales Avanzados: Física, Química y Tecnología de la Facultad de Química de la UPV/EHU, que ha colaborado en este trabajo con el INL, la Universidad de Alicante, el EMPA en Zurich y la Universidad de Dresde.
Para conseguirlo los investigadores han combinado técnicas de química orgánica con ciencia de superficies en ultraalto vacío para sintetizar moléculas de grafeno con espín 1 que forman cadenas unidimensionales. Usando un microscopio de efecto túnel los investigadores han podido estudiar los estados cuánticos de la cadena depositada en una superficie de oro, con resolución atómica, compararlos con los predichos por la teoría, y establecer que en efecto el sistema se comporta como el modelo de Haldane. En particular, en cadenas con un número suficientemente alto de moléculas magnéticas, los investigadores encontraron en los extremos de la cadena resonancias Kondo, un fenómeno que ocurre cuando partículas de espín ½ interactúan con los electrones de un conductor como el oro.
Los investigadores afirman que este trabajo “muestra el potencial para usar nanografenos para formar redes bidimensionales de nanoimanes que permitan comprobar predicciones análogas a las de Haldane, como por ejemplo la existencia de estados cuánticos que permitirían realizar la computación cuántica”.
Referencia:
Shantanu Mishra, Gonçalo Catarina, Fupeng Wu, Ricardo Ortiz, David Jacob, Kristjan Eimre, Ji Ma, Carlo A. Pignedoli, Xinliang Feng, Pascal Ruffieux, Joaquín Fernández-Rossier, Roman Fasel (2021) Observation of fractional edge excitations in nanographene spin chains Nature doi: 10.1038/s41586-021-03842-3
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Observación experimental del fraccionamiento del espín en un material orgánico se ha escrito en Cuaderno de Cultura Científica.
Nuestro cerebro no piensa (y el de usted, tampoco)
José Manuel Muñoz y Javier Bernácer
Shutterstock / Mopic
“Los seres humanos solo utilizamos el 10 % de nuestro cerebro”. “El cerebro de los adultos no cambia”. “El cerebro reptiliano es el que gobierna la conducta de los niños”. “Una persona es más inteligente cuantas más neuronas tenga”. ¿Quién de nosotros no ha escuchado estas afirmaciones alguna vez? Y, sin embargo, son falsas.
Se trata de malas interpretaciones acerca del cerebro (“neuromitos”) que calan a menudo en la población a través de ciertas formas de divulgación científica. También llegan incluso al ámbito de la educación. Así lo demuestra un estudio publicado en 2014, en el que se comprobó que los profesores de diversos países, tanto occidentales como orientales, tendían a creer en esta clase de afirmaciones.
La difusión de estas ideas erróneas no es banal, sino que puede llevar a estrategias educativas sin sustento científico y dañinas. Por ejemplo, el enriquecimiento excesivo del entorno de los niños y la obsesión por enseñarles cuantas más cosas mejor antes de los seis años.
Confundir la parte con el todo
Otro error que se presenta con frecuencia en la comunicación de la neurociencia consiste en perpetuar la llamada “falacia mereológica”: adjudicar a la parte (el cerebro) atributos psicológicos que, en realidad, pertenecen al todo (el ser humano en su conjunto).
Mediante una rápida búsqueda en internet podemos toparnos con expresiones como “el cerebro piensa”, “el cerebro recuerda”, “tu cerebro ve”, o hasta “tu cerebro odia”.
Este tipo de expresiones no solo se emplean por parte de los divulgadores científicos, sino también en ámbitos como la enseñanza e, incluso, la ciencia profesional. Sirva como muestra de esto último uno de los objetivos perseguidos por la iniciativa australiana para la investigación del cerebro (Australian Brain Initiative), que sus promotores plantean como “entender y optimizar cómo el cerebro aprende en la infancia”.
Esta falacia mereológica constituye la base conceptual de lo que el filósofo Carlos Moya califica como un nuevo (y paradójico) “dualismo materialista”. Una vez superada la concepción dualista alma-cuerpo (al modo cartesiano), se tiende ahora a pensar en un cerebro independiente o aislado del cuerpo. Este último parece, en cierto modo, prescindible. Esto no se ajusta a la realidad: el cerebro es solo una parte del sistema nervioso, que a su vez es solo una parte del cuerpo. Dicho cuerpo, además, se enmarca en un contexto social (no es un “cerebro en una cubeta”) que afecta decisivamente al desarrollo y la historia vital del individuo.
Ni los pies caminan, ni el cerebro piensa
El lector estará de acuerdo en que sus pies no caminan, sino que es usted quien camina empleando sus pies. De igual forma, no es su cerebro el que piensa, recuerda, odia o ama, sino que es usted quien hace todo esto utilizando su cerebro.
Podría pensarse que la comparación entre cerebro y pies no resulta adecuada, pues el cerebro, a diferencia de aquellos, goza de una gran capacidad de control sobre las demás partes del organismo. Sin embargo, no debe olvidarse que el cerebro depende, a su vez, de otros órganos para su subsistencia y funcionamiento, en especial (aunque no solo) del corazón.
De ningún modo el cerebro es independiente y gobernador del resto del cuerpo, como demuestra la dinámica de su desarrollo: no es hasta la vigesimotercera semana de vida prenatal cuando aparecen las primeras sinapsis en el embrión humano, y no es hasta pasados los veinte años cuando el cerebro termina de desarrollarse por completo. De hecho, el cerebro sigue cambiando hasta el día de nuestra muerte. Sencillamente, sin cuerpo no puede haber cerebro, tanto funcional como cronológicamente.
Hasta cierto punto, resulta comprensible que científicos o divulgadores formados en neurociencia tiendan a transmitir, consciente o inconscientemente, la falacia mereológica. Después de todo, su conocimiento especializado puede conducir a sobredimensionar la importancia de una parte de la realidad.
Por eso, y al igual que se ha normalizado el hecho de que una “ciencia de la parte”, como es la neurociencia, impregne decisivamente la comprensión de las ciencias sociales y las humanidades que estudian al ser humano en su conjunto, debería normalizarse también el camino complementario: que estas “ciencias del todo” contribuyan a un entendimiento más completo (y realista) del sistema nervioso.
Para lograrlo, la neurociencia debería ser más receptiva al estudio y el diálogo genuino con otras disciplinas (psicología, educación, comunicación, derecho, filosofía). La colaboración interdisciplinar podría, así, contribuir a frenar la proliferación de neuromitos y visiones reduccionistas de lo humano que entorpecen incluso el avance de la propia neurociencia. El rigor metodológico no debería asociarse a una falta de rigor argumentativo. Comunicar el cerebro, después de todo, no implica limitarse al cerebro.
Sobre los autores: José Manuel Muñoz es investigador en el Centro Internacional de Neurociencia y Ética (CINET) de la Fundación Tatiana Pérez de Guzmán el Bueno, y en el Grupo Mente-Cerebro, Instituto Cultura y Sociedad (ICS) de la Universidad de Navarra y Javier Bernácer es investigador en el Grupo Mente-Cerebro del ICS.
Este artículo fue publicado originalmente en The Conversation. Artículol original.
El artículo Nuestro cerebro no piensa (y el de usted, tampoco) se ha escrito en Cuaderno de Cultura Científica.
La disección de Dudeney, de rompecabezas matemático a creación artística
La historia que está detrás de esta entrada del Cuaderno de Cultura Científica empieza cuando hace unos meses descubro la existencia de varias obras de la artista constructivista británica Natalie Dower (1931, Londres) relacionadas con la conocida disección de Dudeney, una disección geométrica de un triángulo equilátero cuyas piezas se pueden reordenar formando un cuadrado, o viceversa.
Red flyer (1989), de la artista británica Natalie Dower, quien toma la disección de Dudeney como herramienta de creación artística. El cuadro pertenece a la colección artística de la Universidad de Warwick
De hecho, esta entrada podría tener de subtítulo “Sobre la importancia de la divulgación de las matemáticas”, ya que en una entrevista realizada por el artista Patrick Morrisey a la artista Natalie Dower, para Saturation point, esta ponía de relieve cómo había llegado a la disección de Dudeney a través de un texto del gran divulgador de las matemáticas Martin Gardner (1914-2010):
La exploración es el uso que yo hago de cualquier sistema con el que estoy trabajando. El más importante ha sido la disección de Dudeney, que encontré en “Mathematical Puzzles and Diversions” de Martin Gardner. Se trata de la disección de un cuadrado en cuatro piezas diferentes que, incluso articuladas, pueden ensamblarse formando un triángulo equilátero. Recuerdo dónde estaba y la emoción del momento exacto en que me di cuenta del enorme abanico de posibilidades que ofrecía. Durante la década siguiente, todos los dibujos, relieves, esculturas y pinturas, variando en escala de centímetros a metros, se generaron a partir de esta […].
Tetraedro (1985), de la artista británica Natalie Dower, escultura realizada en aluminio y esmalte cocido, cuyo tamaño es 43 x 40,5 x 28 cm. Imagen de la Eagle Gallery EMH Arts
Pero vayamos con la disección de Dudeney. En general, una disección geométrica consiste en cortar una figura geométrica dada, como un triángulo, un cuadrado u otra figura más compleja, en una serie de piezas que reordenadas dan lugar a otra figura geométrica.
Como ejemplo de disección geométrica podemos mostrar la solución a uno de los problemas que el matemático recreativo británico Henry E. Dudeney (1857-1930) comenta en su libro Amusements in mathematics (1917). El problema consiste en saber cómo dividir un cuadrado en cuatro partes para generar una cruz griega, es decir, una cruz con los cuatro brazos iguales. Las soluciones mostradas en el libro, que podían realizarse con dos cortes, eran:
Estas disecciones geométricas, como muchas otras, son utilizadas a menudo como rompecabezas geométricos. El rompecabezas consistiría en las cuatro piezas –las cuatro iguales en el primer caso o todas distintas en el segundo– para construir con ellas tanto el cuadrado como la cruz griega. De hecho, este es uno de los cuatro rompecabezas que utilizamos en la Real Sociedad Matemática Española para darle publicidad a la página DivulgaMAT y que se muestran a continuación.
Pero hay muchos rompecabezas geométricos relacionados, de diferentes formas, con las disecciones, como los clásicos Tangram (véanse las entradas Tangram, El arte contemporáneo que mira al Tangram y Un teorema sobre el Tangram) y Stomachion (véanse las entradas El puzle Stomachion y el palimpsesto de Arquímedes (1) y El puzle Stomachion y el palimpsesto de Arquímedes (2)).
Las siete piezas del Tangram formando la figura básica del cuadrado
Las disecciones geométricas tienen una historia muy larga y rica, ya que nos las podemos encontrar hace dos milenios en la matemática griega o hace mil años en la matemática árabe. Dentro de la matemática recreativa tiene una historia más reciente. En la revisión del libro Récréations mathématiques et physiques (1694) del matemático francés Jacques Ozanam que realiza Jean Montucla (1778), ya aparecen problemas con disecciones geométricas. También se incluyen disecciones geométricas en el libro Rational Amusement for Winter Evenings (1821), del matemático John Jackson.
Disección de un octógono en un cuadrado que aparece en el manuscrito persa Compendio de figuras entrelazadas similares y complementarias (escrito entre los siglos XIII-XV), redescubierto, según Henry Dudeney, por el matemático británico Geoffrey Th. Bennett (1868-1943)
El problema de las disecciones geométricas cautivó a la comunidad matemática en el siglo XIX. Entre otras cuestiones estudiadas, varios matemáticos demostraron, de forma independiente, que para cualesquiera dos polígonos simples (es decir, cuyos lados no contiguos no se intersecan) con la misma área, se puede cortar cualquiera de ellos en una cantidad finita de piezas que reordenadas nos permiten obtener el otro. Fueron el matemático británico John Lowry (1769-1850) en 1814, el matemático británico William Wallace (1768-1843) en 1831 (según Greg Frederickson, aunque según Ian Stewart fue en 1807), el matemático húngaro Farkas Bolyai (1775-1856), padre de uno de los protagonistas del nacimiento de las geometrías no euclídeas, Janos Bolyai (1802-1860), en 1832, y el matemático alemán Paul Gerwien (1799-1858) en 1833. La idea de la prueba es cortar cada polígono simple en triángulos y luego estos en piezas de forma que con las mismas se pueda generar un cuadrado, después superponiendo las dos disecciones sobre el cuadrado se obtienen las nuevas piezas que nos dan la disección geométrica entre los dos polígonos simples.
El resultado anterior nos asegura la existencia de una disección entre dos polígonos simples con la misma área, sin embargo, el método genera una disección compleja (podríamos decir fea) con muchísimas piezas. Por otra parte, desde la matemática recreativa se preocuparon de disecciones más atractivas y con pocas piezas. Entre los autores que estudiaron las disecciones geométricas encontramos al matemático francés Edouard Lucas (1842-1891), autor del texto Recreaciones matemáticas (1894), al corredor de bolsa y matemático amateur británico Henry Perigal (1801-1898), conocido por su demostración del teorema de Pitágoras mediante disecciones que aparece en su texto Geometric Dissections and Transpositions (1891), el matemático y abogado británico Henry M. Taylor (1842-1927) o el matemático e ingeniero británico William H. Macaulay (1853-1936).
Página 1 del texto Geometric Dissections and Transpositions (1891), de Henry Perigal, con la demostración del teorema de Pitágoras por medio de una disección geométrica
Aunque debemos destacar a dos de los más grandes creadores de juegos lógicos y rompecabezas matemáticos, el matemático británico Henry E. Dudeney y el matemático recreativo y ajedrecista estadounidense Sam Loyd (1841-1911). Estos dos matemáticos, que colaboraron por correspondencia durante algún tiempo hasta que el inglés acusó al norteamericano de robarle sus rompecabezas y publicarlos con su nombre, se preocuparon de encontrar disecciones geométricas con el menor número de piezas posibles. Pueden encontrarse sus rompecabezas y problemas matemáticos relacionados con las disecciones en sus libros, entre ellos, Cyclopedia of 5000 Puzzles, Tricks and Conundrums with Answers (1914), de Sam Loyd, The Canterbury Puzzles (1907) y Amusements in Mathematics (1917), de Henry E. Dudeney.
La conocida como disección de Dudeney, de un triángulo equilátero en un cuadrado, aparece como “el acertijo del mercero” en el libro de Henry E. Dudeney The Canterbury Puzzles.
El acertijo del mercero: […] Enseñó [el mercero] un trozo de tela con forma de triángulo equilátero perfecto, como se ve en la ilustración y dijo: “¿Es alguno de vosotros diestro en el corte de género? Estimo que no. Cada hombre a su oficio, y el estudioso puede aprender del lacayo, y el sabio del necio. Mostradme, pues, si podéis, de qué manera puede cortarse este trozo de género en cuatro piezas, para que puedan reunirse y formar un cuadrado perfecto”.
La solución al acertijo del mercero que incluye Dudeney en su libro The Canterbury Puzzles es la que aparece en la siguiente imagen.
Dado el triángulo ABC la construcción que propone Dudeney, mostrada en la anterior imagen, es la siguiente:
a. marcar los puntos medios D y E de los lados AB y BC, respectivamente;
b. extender el segmento AE hasta un punto F tal que EF = EB;
c. marcar el punto medio G del segmento AF y trazar el arco de circunferencia de centro G y radio GF = AG;
d. extender el segmento CB hasta que corte el arco de circunferencia en el punto H;
e. trazar un arco de circunferencia con centro E y radio EH hasta que corte el lado AC en el punto J;
f. determinar el punto K tal que JK = AD (= DB = BE = EC);
g. trazar el segmento JE;
h. trazar desde D y K los segmentos perpendiculares al segmento JE, dando lugar a los puntos L y M (los segmentos serían DL y KM).
El problema del mercero fue propuesto por primera vez por Dudeney en 1902 en el periódico británico Weekly Dispatch. Dos semanas después de publicarse el acertijo el matemático realizó una pequeña discusión sobre el problema y finalmente, otras dos semanas después, Dudeney publicó la solución y la explicación.
Pero la disección de Dudeney del triángulo equilátero en el cuadrado tiene una propiedad muy especial –es lo que se conoce como una disección con bisagras, pero incluso estas direcciones han tomado el nombre de disecciones de Dudeney–, ya que todas las piezas pueden conectarse a través de una serie de puntos “bisagra” que permiten transformar una figura en la otra (en este caso el triángulo en el cuadrado, o viceversa) girando las piezas alrededor de las bisagras. En el caso de la disección de Dudeney se pueden colocar tres bisagras en los puntos D, E y K de la imagen anterior, aunque esos puntos no son únicos, también podrían ponerse las bisagras en los puntos J, K y E.
Piezas con bisagras que permiten transformar el triángulo equilátero en el cuadrado, o viceversa, de forma cinética
Utilizando la anterior propiedad se puede construir un juguete cinético como el siguiente.
Juguete de geometría de cuadrado a triángulo – Disección de Dudney, construido por Steven Mattern Design y vendido en etsy.com
Más aún, se podría diseñar una mesa que en algunas ocasiones se puede utilizar con forma cuadrada y en otras con forma triangular, como aparece en el siguiente diseño de Mackenzie Kovaka (véase su página web Mackenzie Kovaka).
La disección de Dudeney del triángulo equilátero en el cuadrado, al igual que otras disecciones con bisagras, puede obtenerse con el “método de la tira en T” introducido por el ingeniero y matemático aficionado británico-australiano Harry Lindgren (1912-1992) en su libro Geometric Dissections (1964). Expliquemos en qué consiste este método geométrico (véase Recreational Problems in Geometric Dissections and How to Solve Them de Lindgren o Dissections: Plane & Fancy de Frederikson).
El método para obtener la disección del triángulo equilátero y el cuadrado empieza construyendo dos tiras, una de cuadrados y otra de triángulos (ambas figuras con la misma área) y luego marcando los puntos de ancla de las dos tiras, es decir, aquellos puntos tales que si se hace una rotación de 180 grados alrededor de ellos se obtiene de nuevo la tira inicial (es decir, los puntos ancla son los centros de las simetrías rotacionales, de 180 grados, de las tiras).
El siguiente paso es cruzar las dos tiras de manera que los puntos ancla de una tira estén sobre los bordes o los puntos ancla de la otra tira, como se puede observar en la siguiente imagen para el caso que estamos analizando.
Y se obtiene así la disección con bisagras (que están en los puntos ancla) del triángulo equilátero en el cuadrado, o viceversa.
El método de la tira en T nos permite obtener más ejemplos, como se muestra, por ejemplo, en los libros Recreational Problems in Geometric Dissections and How to Solve Them de H. Lindgren o Dissections: Plane & Fancy de Frederikson. En la siguiente imagen, del segundo de los libros, tenemos una disección geométrica de un triángulo en una cruz griega, que no es de Dudeney, es decir, no pueden unirse las piezas con bisagras.
En relación a las disecciones geométricas con bisagras también se planteó el problema de la existencia, es decir, el problema de si dadas dos figuras geométricas cualesquiera con la misma área y cuyos bordes son polígonos simples, siempre era posible encontrar una disección con bisagras entre ellas. La respuesta llegó en 2008 de la mano de los matemáticos Timothy G. Abbott, Zachary Abel, David Charlton, Erik D. Demaine, Martin L. Demaine y Scott D. Kominers, que publicaron (en 2012) su resultado en el artículo Hinged Dissections Exist.
Pero finalicemos esta entrada del Cuaderno de Cultura Científica volviendo a la artista constructivista británica Natalie Dower y a algunos ejemplos más que ponen de manifiesto su profundo interés en este resultado matemático y en su uso como herramienta de creación artística.
Empecemos con una versión en madera de la anterior escultura Tetraedro (1985), en cuya base se puede apreciar la disección de Dudeney que da lugar a las dos esculturas.
Tetraedro de Dudeney – Área 3 (1985), de Natalie Dower. Madera pintada al óleo, de tamaño 33,5 x 36,8 x 24 cm. Imagen de la página de Natalie Dower
A continuación, mostramos dos pasteles al óleo de Dower cuyo motivo central es el cuadrado, respectivamente el triángulo, con la disección de Dudeney, mientras que alrededor hay una composición con las piezas de la misma, que son sus herramientas en toda esta serie de obras constructivistas.
Dudeney Stencil n. 1 / Plantilla de Dudeney no. 1 (1987), de Natalie Dower. Pastel al óleo de tamaño 58 x 48 cm. Imagen de la página de Natalie DowerDudeney Stencil n. 2 / Plantilla de Dudeney no. 2 (1987), de Natalie Dower. Pastel al óleo de tamaño 58 x 48 cm. Imagen de la página de Natalie Dower
La siguiente obra, Círculo de Dudeney (1989), está creada a partir de las piezas de la disección de Dudeney. En la parte central de la misma pueden verse dos copias, complementarias, del triángulo diseccionado.
Dudeney’s circle / círculo de Dudeney (1989), de Natalie Dower. Imagen de la Eagle Gallery EMH ArtsDetalle de la obra Dudeney’s circle (1989), de Natalie Dower
Terminamos con otra obra donde se intuye, por su título Dudeney codificado (1987), que su diseño está inspirado también en la disección de Dudeney.
Dudeney encoded / Dudeney codificado (1987). De Natalie Dower. Imagen de Saturation point
Bibliografía
1. Greg N. Frederickson, Dissections: Plane & Fancy, Cambridge University Press, 1997.
2. Ian Stewart, From Here To Infinity, Oxford University Press, 1996.
3. Greg N. Frederickson, Ernest Irving Freese’s Geometric transformations: the man, the manuscript, the magnificent dissections!, World Scientific, 2018.
4. Harry Lindgren, Recreational Problems in Geometric Dissections and How to Solve Them, Dover, 1972 (versión revisada por Greg Frederickson del libro Geometric Dissections de 1964).
5. Timothy G. Abbott, Zachary Abel, David Charlton, Erik D. Demaine, Martin L. Demaine, and Scott D. Kominers, Hinged Dissections Exist, Discrete & Computational Geometry volume 47, pp. 150–186, 2012.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo La disección de Dudeney, de rompecabezas matemático a creación artística se ha escrito en Cuaderno de Cultura Científica.
Tres modelos atómicos de los que no has oído hablar
En 2013 se cumplió el centenario del modelo atómico de Bohr. Es el que todavía hoy, a pesar de ser incompatible con principios básicos de la física cuántica, como el de incertidumbre, se sigue explicando para introducir a los estudiantes en el mundo cuántico. Curiosamente, en los libros de texto tan sólo se mencionan dos modelos atómicos anteriores al de Bohr: el de Thomson y el de Rutherford. Parece como si los átmos modernos apareciesen con Dalton en 1804 y lo siguiente fuese el modelo de Thomson.
Leyendo la descripción habitual, a saber,
modelo de Dalton => descubrimiento del electrón => modelo de Thomson => experimentos de Geiger y Marsden => modelo de Rutherford => física cuántica v 1.0 => modelo de Bohr
a uno le queda la sensación de que el desarrollo del modelo de Bohr es algo lineal y que todo se deduce de lo anterior de manera lógica, sólo con esperar el experimento crucial o la idea genial adecuada. Y esto no es así. Para ilustrarlo vamos a conocer solo tres de los modelos atómicos clásicos sugeridos antes del modelo de Bohr.
Cada uno tiene su lógica y su fundamento; todos o bien pasaron desapercibidos o tuvieron vidas breves, habida cuenta de la rapidez con la que descubrían nuevas leyes y se realizaban más experimentos.
Imagen: NASA / JPL-Caltech / Space Science InstituteLas mónadas físicas de Lomonósov
Empecemos por el principio. Se suele recoger en los libros de texto que la teoría atómica moderna empieza con John Dalton. Y a efectos prácticos, efectivamente es así, porque fueron sus ideas las que se propagaron por la comunidad científica y fructificaron casi 80 años después de haber sido formuladas, eso sí. Pero la primera teoría atómica moderna no se formuló ni en Inglaterra ni en Francia, sino en Rusia 60 años antes de que lo hiciese Dalton.
Su autor fue Fue Mijail Vasílievich Lomonósov quien escribió una serie de artículos entre 1743 y 1744, el primero de los cuales deja claro su visión atomista de la materia ya en el título: “Sobre las partículas físicas intangibles que constituyen las sustancias naturales”. A este artículo le seguiría otro sobre lo que hoy entendemos como enlace químico “Sobre la adhesión de los corpúsculos”. En el tercero de la serie, ante la necesidad de referirse a las partículas o corpúsculos de materia de una manera diferenciada, aparece el nombre elegido: “Sobre la adhesión y la posición de las mónadas físicas”. Lomonósov obviamente había leído a Leibniz, y le tomó prestada la palabra mónada con el apellido física para diferenciarla.
Las mónadas de Lomonósov tenían forma, peso y volumen y las empleó para explicar la naturaleza del calor y la elasticidad de los gases en función del movimiento de partículas, anticipando la teoría cinética de los gases de Krönig de 1856 en ciento once años, y descartando la existencia del flogisto 30 años antes que Lavoisier. Nadie le hizo caso en Occidente (salvo Euler).
El oscilador electrónico de Lorentz
En muchos textos se suele citar a J.J. Thomson como descubridor del electrón. Y es cierto, sus experimentos de 1897 con Townsend y Wilson no dejan lugar a dudas, el fue el descubridor experimental. Sin embargo, la teoría electrónica venía dando sus frutos ya desde 1892. En esa fecha Hendrik Lorentz comenzaba una serie de artículos en los que utilizando un átomo ideal pudo explicar una propiedad de la materia tras otra: la conducción de la electricidad o del calor, el comportamiento dieléctrico, la reflexión y la refracción de la luz, etc. Para ello en su modelo atómico sólo necesitó cuatro ecuaciones que gobernaban cómo responden los campos eléctricos y magnéticos a la carga eléctrica y su movimiento, y una adicional que especificaba la fuerza que esos campos ejercen sobre la carga. Este conjunto de ecuaciones se conocen por el nombre de su autor, Maxwell.
Y, ¿en qué consistía el modelo atómico de Lorentz? Pues en algo muy simple: el átomo sería una masa dada, llamémosla núcleo, aunque no tenemos que postular que tenga carga alguna, unida a otra menor (el electrón) por un muelle (suena raro, pero es solo para que te hagas una imagen). El muelle se pondría en movimiento cuando un campo eléctrico interactuase con la carga del electrón. El campo atrae o repele al electrón lo que resulta en que el muelle se estira o comprime.
Lorentz, como es lógico, no suponía que hubiese ningún muelle físico conectando electrón y núcleo; sin embargo sí postuló que la fuerza que unía a los dos podría ser descrita por la ley de Hooke, que es la misma que describe a los muelles (y a los dinamómetros). Una aproximación que es válida hasta en algunas consideraciones de la mecánica cuántica.
Por cierto, la conferencia que Lorentz dio cuando recibió el Nobel de física en 1902 iba sobre, efectivamente, la teoría del electrón, aunque el premio se lo hubiesen dado con Zeeman por la explicación de los efectos del magnetismo sobre la radiación.
El modelo planetario de Nagaoka
Tras el descubrimiento experimental del electrón era lógico pensar que la existencia de átomos neutros implicaba la existencia de una parte positiva en ellos. En 1904 Thomson propuso el modelo del pudin de pasas, esto es, que el átomo era una esfera de electricidad positiva uniforme con los electrones incrustados como las pasas en el pudin.
Hantaro Nagaoka consideró el modelo de Thomson inviable en cuanto terminó de leer el artículo en el que se lo describía: las cargas opuestas eran impenetrables desde su punto de vista. Él propuso un modelo alternativo ese mismo año en el que el centro cargado positivamente es muy masivo y está rodeado por electrones que lo orbitan a una distancia y unidos a él por fuerzas electrostáticas. En su mente estaban Saturno y sus anillos.
Los experimentos de Geiger y Marsden de 1909 con el pan de oro dieron una primera confirmación experimental al modelo de Nagaoka. En el artículo de 1911 en el que Rutherford presentaría su famoso modelo en el que se propone la existencia del núcleo atómico cita a Nagaoka. Pero en 1908 el propio Nagaoka había renunciado a su modelo al darse cuenta de que los anillos se repelerían entre sí, haciendo el modelo inestable.
Basten estos tres ejemplos para ilustrar lo que decíamos al principio, que el desarrollo de la ciencia no es tan lineal como los libros de texto nos hacen creer. Hay algunos modelos interesantes más, algunos de ellos cuánticos, que preceden al de Bohr. Sobre algunos de ellos hablé aquí: Bohr no fue el primero.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Esta una versión revisada de este texto publicado en Naukas.
El artículo Tres modelos atómicos de los que no has oído hablar se ha escrito en Cuaderno de Cultura Científica.
La aparente paradoja del polimorfismo de color
Juan Gefaell
Uno de los fenómenos biológicos más extendidos en la naturaleza es el del polimorfismo de color, esto es, la coexistencia de individuos de más de un color en las poblaciones naturales de las distintas especies. Consideremos los siguientes lagartos, todos ellos de la especie Podarcis erhardii:
Figura 1. Polimorfismo de color en Podarcis erhardii. Tomada de Brock et al. (2020) PeerJ, 8:e10284. doi: 10.7717/peerj.10284
Tal y como se observa en la Figura 1, los distintos individuos de esta especie pueden mostrar tres colores bien diferenciados en la zona de la garganta.
A pesar de su extensión a lo largo y ancho del reino animal (y vegetal), las causas evolutivas del polimorfismo de color todavía no se conocen con exactitud.
Es más, desde cierto punto de vista, su existencia misma es paradójica, puesto que los principales mecanismos que los biólogos emplean para dar cuenta de la evolución de las especies predicen que las poblaciones, más que polimórficas, deberían tender en realidad hacia el monomorfismo, esto es, a la prevalencia de individuos de un único color. Así, los modelos clásicos de selección natural y deriva genética establecen que la variabilidad genética (en última instancia responsable de la variación fenotípica) mengua a medida que estos dos mecanismos operan sobre las poblaciones de organismos.
Por este motivo, el polimorfismo de color es un tema de investigación que atrae especialmente a los biólogos evolutivos.
La selección negativa dependiente de las frecuencias (NFDS)
Uno de los mecanismos evolutivos que se han formulado para explicar el paradójico origen del polimorfismo de color es la selección negativa dependiente de las frecuencias (NFDS por sus siglas en inglés). A pesar de su enrevesado nombre, la idea clave de la NFDS es sencilla: cuanto más frecuente es un fenotipo en una población, menor es su eficacia biológica o capacidad para reproducirse. O lo que es lo mismo: cuanto más raro es un fenotipo, mayor es su eficacia. Esto queda claro con el siguiente gráfico:
Representación gráfica de la NFDS.
La hipótesis de la NFDS ya ha mostrado su capacidad para explicar el polimorfismo de color en algunas especies. Quizás el ejemplo más clásico en este sentido sea el de los caracoles del género Cepaea, estudiados por Bryan Clarke en los años 60 del siglo pasado. En sus investigaciones, Clarke mostró que la NFDS era en gran parte responsable del polimorfismo de color presente en dichas especies.
Cepaea nemoralis. Tomada de Silvertown et al. (2011) PLoS ONE, 6(4):e18927. doi: 10.1371/journal.pone.0018927
Resulta que los depredadores de Cepaea, principalmente aves, tienden a formarse imágenes de los colores más habituales en estas especies, de manera tal que, a la hora de depredar, buscan preferentemente a aquellos individuos que coinciden con dichos colores. De este modo, aquellos ejemplares que se alejan significativamente de los colores más frecuentes tienden a dejar más descendencia, pues son ignorados por los depredadores, convirtiéndose así con el paso de las generaciones en el fenotipo más frecuente de la población.
Una vez esto sucede, se invierte la ecuación: las aves depredadoras pasan a formarse imágenes de este nuevo color más frecuente, por lo que lo cazan en mayor medida que a aquellos colores se presentan en menor frecuencia (que en el pasado eran los predominantes). Esto, a la larga, favorece que las poblaciones mantengan el polimorfismo de color.
El género Littorina
Otro grupo de caracoles (en este caso marinos) en el cual el polimorfismo de color está también extendido es el género Littorina. Así, las diversas especies de este género a menudo muestran poblaciones diversas en lo que a su color de concha se refiere, tal y como se puede apreciar, por ejemplo, en la siguiente imagen de L. saxatilis.
Algunos colores y patrones de concha que puede mostrar L. saxatilis. Fotos: Juan Gefaell.Las especies del género Littorina han sido ampliamente estudiadas por los biólogos evolutivos, y especialmente por nuestro grupo de investigación, debido a diversos rasgos que las convierten en organismos modelo ideales (Rolán-Alvarez et al. 2015a). Para nuestros propósitos, cabe destacar uno de estos rasgos: la abundancia de cópulas en la naturaleza, lo cual permite estudiar fácilmente los procesos evolutivos relacionados con el sexo y la reproducción.
La NFDS y los patrones reproductivos
En ciertos estudios, se ha relacionado el patrón de reproducción de una especie con el mantenimiento del polimorfismo de color a través de NFDS. Para entender por qué, es necesario en primer lugar explicar brevemente dos conceptos: el apareamiento asociativo negativo y la elección de pareja.
Empecemos por este último: la elección de pareja a menudo se define como la propensión conductual a aparearse con aquellos individuos que tienen unos rasgos determinados. Es decir, se trata de un mecanismo de comportamiento por el cual los individuos de algún modo prefieren aparearse con ejemplares que poseen unas determinadas características físicas. Por ejemplo, en el caso de los pavos reales, se dice que las hembras tienen una propensión conductual a aparearse con aquellos machos que presentan una cola vistosa y de gran tamaño.
Por otro lado, los biólogos definen el apareamiento asociativo negativo como la correlación negativa que se da entre los fenotipos homólogos de los individuos involucrados en un apareamiento. O, en otras palabras, el fenómeno por el cual los individuos que se aparean son distintos entre sí en algún rasgo fenotípico determinado. Por ejemplo, puede ser que los individuos involucrados en una cópula tengan un color de piel distinto, o un tamaño diferente de pico, etc.
El apareamiento negativo asociativo y la elección de pareja están íntimamente relacionados. Así, por ejemplo, en muchas ocasiones el primero (apareamiento asociativo negativo) está causado por el segundo (elección de pareja).
Además de eso, el apareamiento asociativo negativo ha sido relacionado con la NFDS tanto a nivel teórico como empírico. La idea clave es que, al aparearse con aquellos individuos que son distintos a uno mismo, los caracoles pueden premiar a aquellos ejemplares que están en menor frecuencia en la población, haciendo que esta frecuencia suba a lo largo de las generaciones y que los distintos colores no desaparezcan de la población.
En la práctica, los anteriores vínculos indican que, si se encuentra apareamiento asociativo negativo en las cópulas de una especie polimórfica, entonces se podría pensar que el polimorfismo de dicha especie está causado por NFDS. Así, el apareamiento asociativo negativo puede ser empleado como indicador tanto de la elección de pareja como de la NFDS.
Esquema de las relaciones entre el apareamiento asociativo, la elección de pareja y la NFDSEn efecto, esto es lo que nuestro grupo ha encontrado en estudios previos con la especie L. fabalis. En L. fabalis, el polimorfismo de color parece estar mantenido por NFDS a través de un mecanismo conductual de elección de pareja. Nuestro grupo determinó esta relación, entre otras cosas, detectando la existencia de apareamiento asociativo negativo.
En cualquier caso, el alcance filogenético de esta asociación no se conoce; es decir, no se sabe si otras especies del género Littorina, que habitan en un entorno similar, también pueden estar manteniendo sus respectivos polimorfismos de color a través de NFDS.
Por este motivo, nuestro grupo ha realizado un nuevo estudio, de reciente publicación en la revista Marine Biology (Gefaell et al. 2021), en el cual tratamos de responder exactamente a ese interrogante estudiando si en las cópulas de varias especies del género Littorina puede existir algún tipo de NFDS mediado por apareamiento asociativo negativo.
Averiguar si el polimorfismo de color de otras especies del género Littorina se mantiene a través de NFDS puede contribuir a averiguar el alcance explicativo de este mecanismo evolutivo tanto en el género Littorina como en otros gasterópodos marinos, avanzando así nuestro conocimiento de la evolución y la conservación de estas especies en sus entornos naturales.
Metodología seguida en nuestro estudio
Para llevar a cabo nuestro estudio, tomamos datos de cópulas en el campo de las especies L. obtusata y L. saxatilis, además de nuevas poblaciones de L. fabalis. Dichos datos provenían de poblaciones del interior de las distintas Rías Baixas, así como de dos localidades bien estudiadas del Mar Blanco (Rusia). El motivo de la elección de las anteriores especies es que todas ellas comparten un patrón similar de polimorfismo, en el cual los colores más frecuentes son el marrón oscuro, el naranja y el amarillo, distinguiéndose únicamente en el color oliva (L. fabalis y L. obtusata) y el blanco (presente solo en L. saxatilis).
a) Colores de las distintas especies de Littorina. b) Localidades analizadas para cada especie junto con las correspondientes frecuencias de colores. La localidad de Castelete incluye también, además de L. obtusata, L. fabalis
El protocolo de recogida de cópulas en el campo para estudiar el apareamiento asociativo no causó problemas, pues está bien establecido. De hecho, nuestro grupo ha diseñado un método que permite evitar sesgos en la recogida y análisis de datos relativos a las cópulas, lo cual nos permite concluir que la información obtenida es fiable.
Lo mismo sucede con la estimación del apareamiento asociativo negativo: nuestro equipo ha diseñado un programa de ordenador que permite estimar este parámetro de una manera rápida y robusta. Dicho programa mide el apareamiento asociativo a través del índice conocido como IPSI. En pocas palabras, el IPSI cuantifica entre -1 y 1 en qué medida los apareamientos observados se desvían de un patrón de apareamiento aleatorio. Así, un apareamiento asociativo negativo perfecto obtendría un valor de -1 y un apareamiento asociativo positivo perfecto equivaldría a 1. Por último, un apareamiento completamente aleatorio rondaría el 0.
Resultados principales
Pues bien, una vez analizado el IPSI, ¿qué resultados obtuvimos?
Si agrupamos los distintos colores de las tres especies en dos grandes categorías, correspondientes a los colores “claros” y los “oscuros” (algo que está justificado en base a análisis previos de espectrometría de reflectancia), lo que observamos es un patrón claro: todas estas especies muestran una clara tendencia hacia el apareamiento asociativo negativo. Así, los valores de IPSI están comprendidos entre -0.59 y -0.33, tal y como se puede ver en la siguiente tabla.
Resultados de IPSI obtenidos tras los análisis.En este sentido, pensamos que está suficientemente justificado asumir la existencia de apareamiento asociativo negativo en las tres especies estudiadas. Ahora bien, cuando se analizan más en detalle los resultados, desglosándolos por colores y localidades, se advierte una excepción a esta pauta que puede darnos pistas acerca de las presiones selectivas a las que puede estar sometido el color.
En una población de L. fabalis de Cangas, el apareamiento asociativo es de naturaleza positiva (si bien no significativa), al contrario de lo que sucede con el resto de especies y poblaciones.
Valores de IPSI para L. fabalis en las distintas localidades. En ella se ve el valor discordante de una de la población de CangasTal y como discutimos en nuestro artículo, este resultado discordante sugiere que el verdadero objeto de la selección en esta especie (aquello que favorece la reproducción) no es el color de la concha en sí, sino algún otro rasgo correlacionado con este a nivel genético.
Conclusiones
En definitiva, a partir de nuestro artículo se pueden extraer dos conclusiones: (1) el apareamiento asociativo negativo es un hecho en las tres especies de Littorina analizadas. Esto sugiere que la NFDS y la elección de pareja pueden jugar un papel clave en el mantenimiento del polimorfismo de color de la concha y que la elección de pareja puede ser un rasgo conductual ancestral en el género Littorina.
Y (2), que el color de la concha puede estar relacionado genéticamente con algún otro carácter fenotípico que sea el verdadero objeto de la selección y la elección de pareja.
Como sucede habitualmente en la ciencia, estas dos conclusiones abren futuras vías de investigación, que nuestro grupo tratará de abordar en los próximos meses. Una de estas vías tiene que ver con el diseño y ejecución de un experimento que permita corroborar la existencia de elección de pareja en estas especies. De ese modo, se podrá evaluar más directamente la importancia de la NFDS en el mantenimiento del polimorfismo de color de Littorina. Por otro lado, una segunda vía está relacionada con el estudio de las bases moleculares del color de la concha, para tratar de determinar si en efecto este rasgo está asociado a otros caracteres potencialmente adaptativos.
¡Os mantendremos informados de futuros progresos en ambas líneas de investigación!
Agradecimientos
El presente estudio ha sido financiado gracias al proyecto de investigación CGL2016-75482-P del Ministerio de Economía, Industria y Competitividad (IP, Emilio Rolán-Alvarez), así como gracias a dos ayudas predoctorales de la Universidad de Vigo (PREUVIGO/00VI 131H 641.02) y de la Xunta de Galicia (ED481A-2021/274).
Referencias
Gefaell J, Galindo J, Malvido C, Nuñez V, Estévez D, Blanco S, González-Conde M, Martínez-Domínguez S, Pérez-Fernández G, Rus B, Mosconi I, Rolán-Alvarez E (2021) Negative assortative mating and maintenance of shell colour polymorphism in Littorina (Neritrema) species. Marine Biology, 168:151. doi: 10.21203/rs.3.rs-242300/v1
Rolán-Alvarez E, Austin CJ, Boulding EG (2015a) The contribution of the genus Littorina to the field of evolutionary ecology. En: Hughes RN, Hughes DJ, Smith IP, Dale AC (eds). Oceanogr Mar Biol, vol. 53. CRC Press, Boca Ratón, 157-214
Sobre el autor: Juan Gefaell se graduó en psicología en la Universidad Pontificia de Salamanca y en biología en la Universidad de Vigo; tras cursar un máster en lógica, historia y filosofía de la ciencia en la UNED, en la actualidad realiza su doctorado en biología evolutiva en el departamento de Bioquímica, Genética e Inmunología de la Facultad de Biología de la Universidad de Vigo.
El artículo La aparente paradoja del polimorfismo de color se ha escrito en Cuaderno de Cultura Científica.
El tercer ángel
“Tocó el tercer ángel… Entonces cayó del cielo una estrella grande, ardiendo como una antorcha. Cayó sobre la tercera parte de los ríos y sobre las manantiales de agua. La estrella se llama Ajenjo. La tercera parte de las aguas se convirtió en ajenjo, y mucha gente murió por las aguas, que se habían vuelto amargas.”
Juan de Patmos (siglo I e.c.) Apocalipsis 8: 10-11.
Meteoro del 1 de agosto de 2017 desde Pensacola Beach (Florida, Estados Unidos). Foto: Austin Houser / Wikimedia CommonsHace 66 millones de años un asteroide de más de 10 km de diámetro (unos tres billones de toneladas) alcanzó la superficie de nuestro planeta a una velocidad de unos 20 km/s (72000 km/h). Impactó en la península de Yucatán, México, cerca de la actual población de Chicxulub, con una energía de 400 zettajulios (4 x 1023 julios), equivalente a 100 teratones (1014 toneladas) de TNT. Para hacernos una idea cabal, si es que tal cosa es posible, de su magnitud, la explosión fue dos millones de veces más potente que la que provoca la llamada Bomba del Zar -la mayor jamás detonada-, de 50 megatones. La mayor erupción volcánica de la que se tiene constancia, la de la Caldera de la Garita, en Colorado, EEUU, liberó del orden de 10 zettajulios, cuarenta veces menos que la del asteroide que impactó en Chicxulub.
Produjo un cráter en la corteza terrestre de 20-30 km de profundidad y 150-180 km de diámetro. En 1000 km a la redonda, todos los seres vivos murieron por efecto del calor de la bola de fuego que se formó. Un tsunami gigantesco -de unos 100 m de altura- devastó miles de kilómetros de áreas costeras. Otros tsunamis siguieron al primero, aunque de menor altura, provocados por las alteraciones geológicas en la zona del cráter.
El impacto provocó un movimiento sísmico equivalente a un terremoto de magnitud 12 en la zona en que se produjo, y sucesivas ondas de choque provocaron terremotos de magnitud 8 y la erupción de volcanes a miles de kilómetros del cráter. Billones de toneladas de rocas y polvo fueron lanzadas a la atmósfera. Parte de esos materiales, ardiendo, llovió sobre millones de kilómetros cuadrados, abrasando plantas y animales, y prendiendo fuegos que extendieron la devastación más lejos aún. En la zona próxima al impacto, los vientos llegaron a superar los 1000 km/h.
El polvo y las cenizas ascendieron hasta niveles muy altos de la atmósfera, de donde, al estar por encima de las nubes, no pueden ser arrastradas por la lluvia. Tras ascender, se extendieron por todo el planeta. La luz solar fue reflejada al espacio por la neblina de aerosoles de sulfatos, o absorbida por las partículas de ceniza. Las sombras provocaron un enfriamiento global que duró varios años. El frío y la oscuridad acabó con muchísimas especies de plantas y animales, que murieron ateridas o de inanición. Entre esas especies se encontrarían los dinosaurios no aviares.
Lógicamente no todos los impactos que pueden ocurrir son de esa magnitud. De hecho, de forma permanente entran objetos sólidos a la atmósfera. Muchos se volatilizan por efecto de la alta temperatura que toman al entrar en contacto con los gases atmosféricos. Otros caen sobre la superficie. Pero la gran mayoría no causa daño alguno.
La probabilidad de que en los próximos 100 años se produzca un impacto de un cometa o asteroide peligroso de menos de 10 km de diámetro es de una en 120000. Y con los mayores de 10 km, el riesgo es aún menor, inferior a una en 150 millones. Este es uno de los riesgos existenciales mejor evaluado, porque el espacio próximo está sometido a escrutinio de forma permanente. Tampoco los asteroides me quitan el sueño.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El tercer ángel se ha escrito en Cuaderno de Cultura Científica.
Naukas Bilbao 2021: Javier Fernández Panadero – Busco un centro de gravedad permanente
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Cantaba Franco Battiato:
Busco un centro de gravedad permanente
Que no varíe lo que ahora pienso de las cosas de la gente
De las cosas de la gente, no, pero de las cosas a secas lo encuentra Javier Fernández Panadero.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
N. del E.: Una crónica de esta charla puede leerse aquí
El artículo Naukas Bilbao 2021: Javier Fernández Panadero – Busco un centro de gravedad permanente se ha escrito en Cuaderno de Cultura Científica.
Las consecuencias de la crisis de biodiversidad para los ecosistemas y los humanos
Luz Boyero
Foto: Nina Lishchuk / Shutterstock
El término biodiversidad, hasta hace poco utilizado casi exclusivamente en un ámbito científico, hoy en día está de moda. Todos sabemos que la biodiversidad es, a grandes rasgos, la variedad de especies que habitan nuestro planeta (aunque técnicamente el término engloba también la variedad de genes y de ecosistemas).
El hecho de que la biodiversidad esté de moda es, sin embargo, una mala noticia, ya que el origen de esta fama es precisamente la gran velocidad a la cual las especies están desapareciendo. Lamentablemente, la actual tasa de extinción de especies no tiene precedente histórico, e incluso podría estar superando a la de la última extinción masiva que ocurrió durante la transición Cretácico-Terciario, cuando los dinosaurios desaparecieron.
De la evolución a la mano del hombre
La biodiversidad es el resultado de varios miles de millones de años de evolución, desde el aún incierto origen de la vida hasta nuestros días. Así, el registro fósil y el material genético de las especies actuales nos dan pistas sobre el número y las características de las especies que han habitado la Tierra en los distintos periodos.
Las extinciones, junto con la especiación, forman parte del proceso de evolución y han ocurrido siempre por causas naturales. En el caso de las extinciones masivas han sido presumiblemente fenómenos catastróficos tales como el vulcanismo o los impactos de asteroides.
Sin embargo, sabemos que el ser humano es responsable de gran parte de las extinciones actuales. Ha contribuido bien de manera directa (por ejemplo, a través de la caza) o indirecta (a causa de la destrucción de hábitat, los cambios climáticos o la introducción de especies exóticas que desplazan a las autóctonas).
El papel que desempeña el ser humano en los cambios ambientales actuales es clave. Esto ha llevado a denominar Antropoceno al periodo que transcurre desde la revolución industrial. Pero los humanos, además de ser los principales responsables de los cambios que sufre nuestro planeta, nos vemos seriamente afectados por dichos cambios ambientales y por la pérdida de biodiversidad.
La biodiversidad no solo tiene un valor intrínseco que debe ser valorado y respetado en sí mismo. Además, las especies son valiosas para nosotros porque nos proporcionan servicios que son básicos para nuestra surpervivencia, y que están relacionados con los ecosistemas de los que forman parte: son los llamados servicios ecosistémicos.
Zona deforestada de la selva amazónica brasileña. Foto: Tarcisio Schnaider / ShutterstockConsecuencias para los ecosistemas
Los seres vivos interaccionan unos con otros mediante distintos tipos de relaciones (tróficas, competitivas, sociales, etc.), así como con su ambiente (del cual obtienen recursos para mantenerse vivos), formando ecosistemas que están en continuo funcionamiento. Dicho funcionamiento se define por una serie de procesos, como son la producción de biomasa, la descomposición o los ciclos de nutrientes.
Hoy en día sabemos que la biodiversidad afecta directamente al funcionamiento de los ecosistemas, es decir: el número de especies presentes en un ecosistema, así como la identidad de dichas especies y sus características, pueden acelerar o decelerar las tasas de los distintos procesos. Este hecho, que ha sido demostrado en los últimos 30 años gracias a una rama específica de la ciencia denominada BEF, del inglés biodiversity-ecosystem funcioning, ha despertado conciencia sobre el papel fundamental que desempeñan las especies para mantener el equilibrio dinámico en el que se encuentra nuestro planeta. Así, todas las especies son piezas de una maquinaria cuyo funcionamiento depende del conjunto, y las consecuencias de su pérdida son difíciles de predecir debido a la complejidad de los ecosistemas.
Por ejemplo, los ríos de cabecera son ecosistemas heterotróficos cuya principal fuente de energía y materia radica en la hojarasca que proviene de la cuenca. Esta hojarasca es procesada por organismos y microorganismos acuáticos, que son capaces de incorporar el carbono y los nutrientes de origen terrestre en la red trófica acuática y así abastecer al ecosistema fluvial.
La disminución de especies vegetales en las cuencas puede ocurrir como consecuencia de la sustitución de especies autóctonas por otras de interés comercial o por la aparición de enfermedades infecciosas. Nuestras investigaciones indican que esta pérdida de especies altera los procesos fundamentales que conforman el funcionamiento del ecosistema fluvial: por lo general, se favorecen las vías microbianas en detrimento de los procesos mediados por organismos acuáticos y disminuye la eficiencia del ecosistema para utilizar los recursos de origen terrestre.
Aunque todavía no se ha cuantificado la repercusión que esto tiene a nivel de servicios ecosistémicos, los efectos negativos sobre la calidad del agua, la producción de recursos alimentarios o el valor paisajístico y recreativo son más que probables.
Es también importante recalcar que distintas zonas del planeta pueden verse afectadas de forma diferente por la pérdida de biodiversidad. En primer lugar, las tasas de extinción no son homogéneas. En la actualidad afectan principalmente a los países en vías de desarrollo, con algunos puntos calientes (del inglés hotspots) en Sudamérica y el sureste asiático.
En segundo lugar, un mismo tipo de ecosistema en ocasiones puede funcionar de manera diferente en distintas zonas climáticas. Así, en los ríos de cabecera, las comunidades de invertebrados que procesan la hojarasca en zonas templadas y tropicales utilizan diferentes estrategias en el uso de este recurso.
En las zonas tropicales, la pérdida de biodiversidad vegetal acarrea mayores consecuencias funcionales que en las templadas. Por eso en estos países la protección de la biodiversidad debería ser aún más prioritaria, y esto es justamente lo contrario a lo que ocurre en realidad.
Sobre la autora: Luz Boyero es Profesora de Investigación Ikerbasque en Ecología, UPV/EHU
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Las consecuencias de la crisis de biodiversidad para los ecosistemas y los humanos se ha escrito en Cuaderno de Cultura Científica.
Geólogos en la Luna
El 21 de julio de 1969, el astronauta estadounidense Neil Armstrong se convirtió en el primer hombre en pisar la Luna. Pero este hito histórico de la humanidad no habría sido posible sin la geología.
Mareta N. West. FuenteVamos a viajar al principio de esta historia. Corría el año 1915 cuando, en el estado de Oklahoma (Estados Unidos), nació una niña a la que pusieron por nombre Mareta Nelle West. Mareta estudió en la Universidad de Oklahoma, en la que se graduó en geología con 22 años. Tras varias décadas trabajando en la industria del petróleo, se convirtió en la primera geóloga contratada por el Servicio Geológico de Estados Unidos en el año 1964. Nos encontrábamos en plena carrera espacial, lo que provocó que Mareta entrara a formar parte del Equipo Experimental de Geología de la NASA encargado del entrenamiento de los astronautas de las misiones Apolo, siendo así considerada como la primera astrogeóloga.
Su trabajo fue determinante para el desarrollo favorable de la misión Apolo 11 que llevó a los primeros seres humanos hasta la Luna, ya que fue Mareta la encargada de realizar la cartografía de nuestro satélite y decidir el punto exacto en el que se produciría el primer alunizaje de la historia. Es decir, fue una geóloga la que eligió el lugar en el que quedaría marcada la primera huella humana de la Luna. Y no fue el único, ya que tras revisar los mapas lunares realizados por la tripulación de la Apolo 11, Mareta seleccionó los puntos de alunizaje de otras misiones tripuladas de la NASA. Tras su muerte en 1988, sus cenizas fueron enviadas a ese espacio que tanto estudió.
Eugene M. Shoemaker. Fuente: Wikimedia CommonsHay otro nombre propio que debemos mencionar en esta carrera espacial geológica, el de Eugene Merle Shoemaker. Eugene nació en 1928 en el estado de California (Estados Unidos) y se le puede considerar como un auténtico geólogo vocacional, ya que de niño se dedicaba a buscar y coleccionar rocas y minerales que despertaron su interés por esta ciencia. Su carrera profesional siempre estuvo ligada al Servicio Geológico de Estados Unidos, donde se especializó en el estudio de cráteres de impacto de cuerpos extraterrestres en nuestro planeta relacionándolos con ciertos eventos críticos de nuestra historia geológica. Y trasladó este conocimiento al estudio de los cráteres de impacto de la Luna, colaborando estrechamente con la NASA. Así, en 1961 pondría en marcha el plan de astrogeología del Servicio Geológico de Estados Unidos, que culminaría en 1965 con la creación del Centro de Astrogeología asociado a esta institución.
Por todo este trabajo, Eugene es considerado como uno de los padres de la Geología Planetaria. En la NASA, al igual que Mareta, se dedicó a entrenar a los astronautas del programa Apolo e, incluso, intentó convertirse él mismo en uno de los elegidos para viajar a la Luna. Pero unos problemas de salud le impidieron conseguirlo. Sin embargo, tras su muerte en 1987 pudo cumplir su sueño, ya que sus cenizas fueron transportadas por una sonda lunar hasta nuestro satélite, convirtiéndose en la primera y única persona cuyos restos descansan en la Luna, al menos hasta la fecha.
Harrison H. Schmitt. Fuente: Wikimedia CommonsVamos a terminar este pequeño paseo espacial recordando a un tercer geólogo. En 1935, en el estado de Nuevo México (Estados Unidos), nació Harrison Hagan Schmitt. Después de formarse como geólogo tanto en Estados Unidos como en Noruega, Harrison trabajó en el Centro de Astrogeología del Servicio Geológico de Estados Unidos creado por Eugene justo antes de unirse a la NASA en 1965, donde, además de estudiar las muestras de polvo y rocas traídas de la Luna, también colaboró en los entrenamientos para astronautas.
Él mismo se preparó para ser uno de los elegidos para viajar a nuestro satélite, cosa que consiguió gracias a la recomendación de Eugene. De esta manera, Harrison formó parte de la tripulación de la misión Apolo 17, que alunizó en nuestro satélite a finales de 1972. Así, se convirtió en el primer y único científico que ha pisado la Luna. Y, para dejar constancia de que un geólogo ha estado dando un paseo por su superficie, antes de abandonar nuestro satélite lanzó su martillo geológico lejos del módulo lunar, no sin dejar de hacer bromas sobre la posibilidad de que se lo descontasen del sueldo (se puede ver el lanzamiento en el vídeo de abajo).
Sin duda, estos tres pioneros de la Geología Planetaria dejaron su propia huella en la Luna, aunque cada uno a su manera.
Más información sobre Mareta West:
Más información sobre Eugene Shoemaker:
Más información sobre Harrison Schmitt:
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Geólogos en la Luna se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Poniéndose bien dos pares de calcetines
El otoño avanza y empieza a hacer frío. A Pedro se le quedan los pies helados en la cama, así que decide ponerse los dos únicos pares de calcetines que tiene (uno rojo y otro negro). Tiene metidos esos calcetines en un cajón, tirados de cualquier manera. Para que su gata no crea que ya es de día y empiece a pedir de comer, Pedro decide no encender la luz. Así que abre el cajón y se coloca los calcetines sin poder ver su color. Al volver a la cama, ya desvelado, empieza a pensar en la siguiente cuestión: ¿Cuál es la probabilidad de que me haya puesto los calcetines de manera que los visibles (los de fuera) sean del mismo color?
Intentemos ayudar a Pedro, razonando de varias maneras.
Razonamiento 1
Pedro coge un calcetín al azar y se lo pone en el pie derecho. Toma un segundo calcetín y lo coloca sobre el primero. Para conseguir su objetivo (que los calcetines visibles tengan el mismo color) necesita que el segundo calcetín tomado (entre los tres que quedaban en el cajón) no sea la pareja del primero. Esto sucederá en dos de cada tres ocasiones.
Se pone después el tercer calcetín (en el pie izquierdo) elegido al azar entre los dos que quedan. Para cumplir su propósito, el tercero debe ser la pareja del primer calcetín. Esto sucederá una de cada dos veces.
Así, la probabilidad de éxito es de: P1 = 2/3 x 1/2 = 1/3.
Razonamiento 2
Pedro coge dos calcetines a ciegas y los coloca en su pie derecho. Necesita que sean diferentes. Como las posibles parejas son (R es rojo y N negro) (R-R), (N-N), (R-N) y (N-R), Pedro tiene una oportunidad sobre dos de atrapar bien esos dos calcetines. Después (si su pie derecho tiene calcetines de diferentes tonos) debe ponerse los dos calcetines que quedan (que son, por lo tanto, de colores diferentes) en el orden adecuado: conseguirá hacerlo una de cada dos veces.
Así, la probabilidad de éxito es de P2 = 1/2 x 1/2 = 1/4.
Razonamiento 3
Pedro coge dos calcetines del cajón y se coloca uno en el pie izquierdo y otro en el derecho. Para intentar conseguir su objetivo (que los calcetines visibles sean del mismo tono) necesita que los dos calcetines colocados sean del mismo color. Como las posibles parejas son (R-R), (N-N), (R-N) y (N-R), se conseguirá éxito en la disposición una vez de cada dos. En este caso, los dos calcetines que quedan son del mismo color.
Por lo tanto, la probabilidad de éxito es de P3 = 1/2.
¡Esto es bastante raro! Tres razonamientos totalmente convincentes han proporcionado probabilidades diferentes de conseguir el objetivo de Pedro. ¿Puede ser que la probabilidad de tener éxito dependa del procedimiento seguido? ¿O, por el contrario, de los tres anteriores razonamientos (al menos) dos son falsos? Debajo aparece la solución, pero (si os apetece) pensad en la respuesta, quizás razonando de diferente manera para intentar entender que sucede…
Solución
No hay ninguna razón para que diferentes procedimientos de colocación de los calcetines proporcionen distintas soluciones, ya que se trata únicamente de elegir cuatro calcetines y ponérselos, sin utilizar ninguna información adicional. Así que (al menos) dos de los razonamientos anteriores son falsos.
Denotemos R1, R2, N1 y N2 los cuatro calcetines. Cuando se cogen dos calcetines entre los cuatro, estamos eligiendo dos elementos en un conjunto de cuatro, y esto puede hacerse de seis maneras:
{R1,R2}, {R1,N1}, {R1,N2}, {R2,N1}, {R2,N2} y {N1,N2}.
Los anteriores son conjuntos de calcetines, el orden no se tiene en cuenta. Es decir, son las combinaciones de cuatro elementos tomados de dos en dos, C(4,2)=4!/2!.2!=6.
Así, la probabilidad de tomar dos calcetines del mismo color cuando se cogen dos entre los cuatro que hay en el cajón es de 2/3, y no de 1/2 como se afirma en los razonamientos 2 y 3.
Por lo tanto, en el razonamiento 2 debe reemplazarse el primer 1/2 por 2/3 y la probabilidad es entonces de P2 = 2/3 x 1/2 = 1/3.
El razonamiento 3 falla por el mismo motivo; por ello debe sustituirse 1/2 por 1/3, con lo que P3 = 1/3.
Esto es tranquilizador, los tres razonamientos dan lugar al mismo resultado. ¿Y si las tres se han argumentado mal? Podría suceder… Veamos un método exhaustivo para comprobar que la probabilidad buscada es, efectivamente, de 1/3.
Hay 24 modos posibles de colocar los calcetines; son las maneras de ordenar un conjunto de cuatro elementos (variaciones sin repetición de cuatro elementos tomados de cuatro en cuatro), como se muestra en la siguiente tabla:
Si convenimos que el orden de colocación de los calcetines es: pie derecho, pie derecho, pie izquierdo y pie izquierdo, entonces las configuraciones que consiguen el objetivo de Pedro son (N-R-N-R) o (R-N-R-N), que marcamos en la tabla:
Como se observa, son cuatro de cada tipo, es decir 8 entre las 24 configuraciones posibles; luego la probabilidad buscada es, efectivamente, de 1/3.
De cualquier modo, si Pedro fuera más ordenado y emparejara sus calcetines en vez de meterlos de cualquier manera en el cajón, lo tendría más fácil. Solo se desvelaría intentando adivinar el color visible de sus calcetines una vez colocados…
Nota
Este problema fue propuesto por el profesor Jean-Paul Delahaye en la sección de paradojas del número 16.1 de la revista Accromath (invierno-primavera 2021). La solución apareció en la sección de paradojas del número 16.2 (verano-otoño 2021).
Este texto es una traducción (adaptada) del problema y de la solución planteada por Delahaye.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo Poniéndose bien dos pares de calcetines se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Alcohol y sandía
Daniel Arias Ramirez
Los mitos urbanos son expresiones típicas de la sociedad con una gran influencia sobre la población y por lo tanto definitivos en la toma de decisiones. Esto lo pudimos apreciar con gran preocupación durante la pandemia, en especial con las vacunas. Estas fueron objeto de discusión dando lugar a diferentes mitos: “chips implantados por el gobierno”, “reacciones adversas y fatales”, “modificación del ADN”, etc.
Ahora bien, desde mi perspectiva puedo afirmar con seguridad que esto es doblemente cierto para los latinos, somos muy susceptibles a este tipo de creencias, después de todo, nuestra región es el lugar donde lo mágico y lo real se combinan. Por ejemplo, de acuerdo a nuestras mamas y abuelas el piso es una fuente inagotable de temibles enfermedades y por eso podría asegurar que un latino jamás se atrevería a salir descalzo. Por otro lado, otro rasgo de identidad cultural que es común en muchas partes del mundo es el consumo de alcohol. Un evento social sin una bebida alcohólica es inconcebible para muchas personas (lo cual he experimentado de primera mano en el gremio de los que nos dedicamos a la química). De hecho, el consumo promedio de alcohol en Latinoamérica y el Caribe supera por 2,2 litros el consumo promedio mundial (Moreno, 2015) y en el caso de Europa, los países con mayor consumo de alcohol en promedio (en orden creciente) son: Francia, España, Alemania y Republica Checa con un promedio de 13.10 litros per cápita (Hannah Ritchie, 2018).
Así pues, el punto en el cual los mitos urbanos y el consumo de alcohol coinciden se da en un fruto: la sandía (patilla o melón de agua como se le conoce en Colombia, Venezuela y algunos países antillanos). Existen muchos mitos asociados al consumo de alcohol, estos van desde soluciones extrañas para la resaca hasta supuestos efectos específicos para determinadas bebidas alcohólicas (en Colombia, por ejemplo, se dice que el consumo de ron aumenta la libido en las mujeres) y el caso de la sandía es un mito ampliamente conocido.
Este mito reza que el consumo alcohol y sandía al mismo tiempo puede tener consecuencias fatales (Soho, 2021) algunas de estas versiones mencionan que lo realmente fatal es comer sandia poco tiempo después de haber bebido (Riera, 2014). Con esto en mente, el primer paso para desmentir o confirmar este mito sería establecer las sustancias presentes en este fruto y su posible toxicidad.
Para empezar, la sustancia que se encuentra en mayor cantidad en la sandía (en lo que a la pulpa respecta) es el agua (94.47 %), seguido por los carbohidratos (4.23 %) y por ultimo las proteínas, fibras y minerales (1.1 %) (Olayinka & Etejere, 2018). Lo cual en principio no da ninguna pista sobre las posibles sustancias toxicas en la sandía, así pues, habría que analizar las sustancias que se encuentran en menor cantidad.
Por ejemplo, las sustancias responsables del color de la pulpa en la sandía: los carotenoides, en especial el licopeno, el cual es el carotenoide más abundante en promedio para la sandía (Nkoana et al., 2021). Del mismo modo, debemos recordar que los carotenoides son sustancias en cuya estructura encontramos dobles enlaces conjugados y largas cadenas de carbono obtenidas por la unión de muchas unidades de isopreno (Murillo et al., 2013).
Esta sustancia no solamente es la responsable del color de la sandía, también le da el rojo al tomate, el color naranja a la papaya y el rosado a la toronja y la guayaba. El licopeno no ha demostrado ser toxico, de hecho, tiene una alta capacidad antioxidante, lo cual es un indicador (que en primera instancia) es bueno para la salud (Bojórquez et al., 2013). Por otro lado, hay que tener en cuenta que las bebidas alcohólicas son mezclas de etanol y agua principalmente, es decir, es una mezcla de sustancias con alta polaridad, así pues, para que este mito sea cierto es necesario que la sustancia mortal sea soluble en esta mezcla, es decir, que tenga una polaridad relativamente elevada. Así pues, en el caso del licopeno tenemos una sustancia que no podría ser soluble (la cadena larga de carbonos hace que sea una molécula lipofílica) y por lo tanto, se puede descartar el licopeno de las posibles sustancias toxicas.
Por otro lado, se tienen los ácidos: grasos y orgánicos. Debemos recordar que la principal diferencia entre los ácidos grasos y los orgánicos se dan en la estructura. Los primeros tienen una cadena larga de carbonos y los segundos son estructuras pequeñas.
Dentro del primer grupo los más representativos en la sandía son el ácido linolenico (63.37%), oleico (16.42 %) y palmítico (10.60%) (Nkoana et al., 2021) teniendo en cuenta que ninguno de ellos es polar, no podrían ser solubles en un delicioso, vodka, tequila o ron, por lo tanto, pueden ser descartados. En cuanto a los ácidos orgánicos, los que se encuentran en mayor cantidad son el ácido cítrico y el ácido málico (no se preocupe, el nombre del ácido málico deriva del latín “malum” que significa manzana, no está relacionado con la maldad) y estas dos sustancias son polares, es decir, podrían ser disueltas en una bebida alcohólica con facilidad, pero ninguna es toxica, de hecho estos ácidos están presentes en albaricoques, moras, arándanos, cerezas, uvas, melocotones, peras y ciruelas. Por lo tanto, dentro este tipo de ácidos tampoco se encuentra la sustancia toxica.
Otro grupo de sustancias interesantes en la pulpa de la sandía se conocen como “curcubacitinas”, este nombre digno de un trabalenguas se debe a la familia de frutos Cucurbitaceae, a la cual pertenecen la calabaza, el pepino, el zucchini y la fruta en cuestión, la sandía.
Al igual que las vitaminas, existen varias versiones de esta molécula dependiendo de las diferencias estructurales. Así pues, podemos encontrar Curcurbacitina A, Curcurbacitina B, E, I, etc. Inicialmente, estas moléculas tienen un rol defensivo, por lo tanto, estas sustancias tienen una acción toxica contra los insectos. La pregunta entonces será: ¿Las curcubacitinas son toxicas para los seres humanos? El en 2017 se reportaron en Francia dos casos por intoxicación (los primeros y únicos hasta al momento). Estos casos estuvieron muy lejos de ser fatales, los síntomas reportados fueron náuseas y problemas estomacales (Assouly, 2018). Por otro lado, la fruta en cuestión para este reporte fue la calabaza no la sandía y no se debió al consumo directo, la calabaza fue procesada y luego consumida. Por otro lado, una gran cantidad de estudios han demostrado que muchos tipos de curcubacitinas en la sandía tienen la capacidad de inhibir líneas de células cancerosas, es decir, en principio son beneficias para la salud (Duangmano et al., 2012; El-Senduny et al., 2016;Touihri-Barakati et al., 2017; Alsayari et al., 2018) (esto no quiere decir que curen el cáncer, solamente indica el potencial de estas sustancias para iniciar estudios que permitan establecer a futuro una probable actividad anticancerígena). Así pues, es muy poco probable que dentro de las curcubacitinas se encuentre la posible molécula toxica. La sustancia en cuestión debe generar sin lugar a dudas un efecto nocivo en el cuerpo y en el caso de estas moléculas la probabilidad es increíblemente baja.
Ahora bien, otra parte interesante y por la que es muy conocida la Sandia son las semillas, en esta parte del fruto podemos encontrar una gran cantidad de sustancias llamadas “anti-nutrientes” (de nuevo, no se preocupe, el nombre hace referencia a un concepto totalmente distinto, el consumo de sandía no va a generar “anti-nutrición” en el sentido literal de la palabra). La función de esta familia de compuestos está asociada a la absorción de nutrientes (Akande et al., 2010). Por ejemplo, el Ácido Fítico mejora la bioabsorción de minerales dado que puede interactuar con estos mediante los grupos fosfato presentes en esta molécula (Zitterman, 2003).
Dada la capacidad de esta molécula para “quelar” (unirse a) los metales, se le considera como un antioxidante, dado que los metales son conocidos por ser iniciadores de reacciones de oxidación, así pues, si se remueven los metales (en especial el hierro) del medio la probabilidad de una oxidación disminuye, en otra palabras el Ácido Fítico es una sustancia que puede ayudar a la salud (Watson et al., 2014). Hay que mencionar niveles muy altos de este Acido en el organismo pueden generar deficiencias de minerales a largo plazo (Petry et al., 2010), pero es definitivamente claro que no puede tener consecuencias fatales. Por lo tanto, esta sustancia tampoco podría generar un efecto toxico si es combinada con una bebida alcohólica.
Por otro lado, dentro de este gran grupo de anti-nutrientes también se tienen los “oxalatos” y las “saponinas”. Los primeros están relacionados con la bioabsorción del calcio y el magnesio ya que los oxalatos pueden unirse a los metales en su forma iónica mediante los grupos carboxilatos y de esta manera ser transportado con mayor facilidad (Akande et al., 2010). Los segundos son los responsables de los sabores astringentes de muchas frutas y semillas y se ha demostrado que estas sustancias tiene una actividad “hipocolesterolémica”, es decir, ayudan a controlar los niveles de colesterol (Mohan et al., 2015), por lo tanto, las saponinas están muy lejos de ser toxicas. Por otro lado, la saponegina (la estructura base de todas las saponinas) podría ser soluble en una bebida alcohólica, dada su unión varias unidades de azucares (que son muy solubles en agua) hacen que esta molécula sea hidrofilica (es decir, soluble en agua o en este caso soluble en un delicioso vodka), pero a pesar es que soluble, no hay reportes de efectos adversos a la salud. Así pues, se pueden descartar tanto a las saponinas como a los oxalatos como potenciales moléculas nocivas.
En lo discutido hasta el momento, no hay en principio ninguna sustancia en la sandía que al mezclarse con alcohol puede generar algún efecto nocivo. Pero, es en este punto que hay que mencionar unas sustancias que si han demostrado ser peligrosas por su capacidad de producir una sustancia muy toxica: el ácido cianhídrico.
Los glucósidos cianogénicos son sustancias que se dan por la unión entre un grupo nitrilo y un carbohidrato (generalmente un monosacárido) (Akande et al., 2010). Estas sustancias no son en sí mismas toxicas, la toxicidad se puede generar al romperse la pared celular (este rompimiento puede favorecerse cuando se tritura o se fermenta la semilla) de tal manera que los glucósidos cianogénicos se pongan en contacto con enzimas que puedan generar una hidrolización (rompimiento) produciendo ácido cianhídrico (Bolarinwa et al., 2016).
Entonces en principio este es un buen candidato para el mito. Habría entonces que revisar si estas sustancias se pueden disolver en una bebida alcohólica. Debemos recordar que estamos en búsqueda de una sustancia toxica con una polaridad elevada y los grupos “OH” en los carbohidratos de estas sustancias son puntos polares que favorecen la interacción con el agua, de tal manera que los glucósidos cianogénicos son solubles en una bebida alcohólica.
Entonces, ¿Este mito es verdadero?, un pequeño cálculo podría confirmar esta hipótesis. Así pues habría que partir de varias consideraciones: un ser humano de un peso promedio (80 Kg), la dosis letal de cianuro para un humano promedio (0.5 mg/Kg) (Burns et al., 2012) y la concentración de glucósidos cianogénicos en las semillas de sandía (0.79 mg/100 g de semilla) (Egbuonu, 2015).
El primer paso sería calcular la cantidad de cianuro que necesitamos para matar una persona de 80 Kg. Con esto en mente, habría que calcular la cantidad de semillas (si se tiene en cuenta que una semilla tiene un peso promedio de 0.2 g) que necesitan para obtener esta cantidad de cianuro. El último paso entonces será calcular la cantidad de sandias que se necesitan para matar una persona teniendo que la cantidad máxima de semillas en una sandía promedio es 150. Así, se tiene que, para que este mito fuese cierto, usted debería tomar las semillas de 169 sandias, molerlas y/o fermentarlas y luego comerse toda esta masa con un buen trago de tequila, ron, vodka, etc.
De manera, se puede concluir que este mito es sin lugar a dudas falso. La sandía es de hecho un perfecto acompañante del alcohol y se puede usar para preparar gran variedad de cocteles (Graham, 2021). Así pues y dado el componente experimental de la química y la sana curiosidad científica cabe plantearse probar cada uno de estos cocteles sin preocuparse por ningún efecto nocivo (exceptuando tal vez una fuerte resaca) a corto o medio plazo*.
Sobre el autor: Daniel Arias Ramírez es investigador en química en el Instituto de Investigaciones Científicas INICIEN de la Fundación Universitaria Juan de Castellanos (Tunja, Boyacá, Colombia)
Referencias
Akande, K. E., Doma, U. D., Agu, H. O., & Adamu, H. M. (2010). Major antinutrients found in plant protein sources: Their effect on nutrition. Pakistan Journal of Nutrition. https://doi.org/10.3923/pjn.2010.827.832
Alsayari, A., Kopel, L., Ahmed, M. S., Soliman, H. S. M., Annadurai, S., & Halaweish, F. T. (2018). Isolation of anticancer constituents from Cucumis prophetarum var. prophetarum through bioassay-guided fractionation. BMC Complementary and Alternative Medicine. https://doi.org/10.1186/s12906-018-2295-5
Assouly, P. (2018). Hair loss associated with cucurbit poisoning. In JAMA Dermatology. https://doi.org/10.1001/jamadermatol.2017.6128
Bojórquez, R. M. C., Gallego, J. G., & Collado, P. S. (2013). Functional properties and health benefits of Lycopene. Nutrición Hospitalaria. https://doi.org/10.3305/nh.2013.28.1.6302
Bolarinwa, I. F., Oke, M. O., Olaniyan, S. A., & Ajala, A. S. (2016). A Review of Cyanogenic Glycosides in Edible Plants. In Toxicology – New Aspects to This Scientific Conundrum. https://doi.org/10.5772/64886
Burns, A. E., Bradbury, J. H., Cavagnaro, T. R., & Gleadow, R. M. (2012). Total cyanide content of cassava food products in Australia. Journal of Food Composition and Analysis. https://doi.org/10.1016/j.jfca.2011.06.005
Duangmano, S., Sae-lim, P., Suksamrarn, A., Domann, F. E., & Patmasiriwat, P. (2012). Cucurbitacin B inhibits human breast cancer cell proliferation through disruption of microtubule polymerization and nucleophosmin/B23 translocation. BMC Complementary and Alternative Medicine. https://doi.org/10.1186/1472-6882-12-185
Egbuonu, A. C. C. (2015). Assessment of some Antinutrient Properties of the Watermelon (Citrullus lanatus) Rind and Seed. Research Journal of Environmental Sciences. https://doi.org/10.3923/rjes.2015.225.232
El-Senduny, F. F., Badria, F. A., EL-Waseef, A. M., Chauhan, S. C., & Halaweish, F. (2016). Approach for chemosensitization of cisplatin-resistant ovarian cancer by cucurbitacin B. Tumor Biology. https://doi.org/10.1007/s13277-015-3773-8
Graham, C. (2021). 15 Watermelon Cocktails and Mocktails for Summer. https://www.thespruceeats.com/tasty-watermelon-cocktail-recipes-4156892
Hannah Ritchie, M. R. (2018). Alcohol Consumption. https://ourworldindata.org/alcohol-consumption
Mohan, V. R., Tresina, P. S., & Daffodil, E. D. (2015). Antinutritional Factors in Legume Seeds: Characteristics and Determination. In Encyclopedia of Food and Health. https://doi.org/10.1016/B978-0-12-384947-2.00036-2
Moreno, J. (2015). Los países que más beben en América Latina: la dramática radiografía del consumo de alcohol en la región. 23 Julio. https://www.bbc.com/mundo/noticias/2015/07/150723_consumo_alcohol_latinoamerica_muertes_paises_jm
Murillo, E., Giuffrida, D., Menchaca, D., Dugo, P., Torre, G., Meléndez-Martinez, A. J., & Mondello, L. (2013). Native carotenoids composition of some tropical fruits. Food Chemistry. https://doi.org/10.1016/j.foodchem.2012.11.014
Nkoana, D. K., Mashilo, J., Shimelis, H., & Ngwepe, R. M. (2021). Nutritional, phytochemical compositions and natural therapeutic values of citron watermelon (Citrullus lanatus var. citroides): A Review. In South African Journal of Botany. https://doi.org/10.1016/j.sajb.2020.12.008
Olayinka, B. U., & Etejere, E. O. (2018). Proximate and chemical compositions of watermelon (Citrullus lanatus (Thunb.) Matsum and Nakai cv red and cucumber (Cucumis sativus L. cv Pipino). International Food Research Journal.
Petry, N., Egli, I., Zeder, C., Walczyk, T., & Hurrell, R. (2010). Polyphenols and phytic acid contribute to the low iron bioavailability from common beans in young women. Journal of Nutrition. https://doi.org/10.3945/jn.110.125369
Riera, A. (2014). ¿Mezclar vino con sandía te mata? https://chequeado.com/mitos-y-enganos/imezclar-vino-con-sandia-te-mata/
Soho. (2021). ¿Se intoxica uno si toma trago después de comer patilla?? Soho. https://www.soho.co/entretenimiento-/articulo/se-intoxica-uno-si-toma-trago-despues-de-comer-patilla/9920#
Touihri-Barakati, I., Kallech-Ziri, O., Ayadi, W., Kovacic, H., Hanchi, B., Hosni, K., & Luis, J. (2017). Cucurbitacin B purified from Ecballium elaterium (L.) A. Rich from Tunisia inhibits α5β1 integrin-mediated adhesion, migration, proliferation of human glioblastoma cell line and angiogenesis. European Journal of Pharmacology. https://doi.org/10.1016/j.ejphar.2017.01.006
Watson, R. R., Preedy, V., & Zibadi, S. (2014). Wheat and Rice in Disease Prevention and Health. In Wheat and Rice in Disease Prevention and Health. https://doi.org/10.1016/C2012-0-00472-3
Zitterman, A. (2003). DIETARY FIBER | Bran. In B. Caballero (Ed.), Encyclopedia of Food Sciences and Nutrition (Second Edition) (Second Edi, pp. 1844–1850). Academic Press. https://doi.org/https://doi.org/10.1016/B0-12-227055-X/00346-1
* N. del E.: Todos los tipos de bebidas alcohólicas, como los vinos tintos y blancos, la cerveza, los cócteles y licores, están asociados al cáncer. Cuanto más beba, mayor será su riesgo de cáncer. Véase El alcohol y el cáncer
El artículo Alcohol y sandía se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Granda, Villareal y Losada: Una estampa de los inicios de la matemática en Perú
Alberto Mercado Saucedo
En buena parte de los países de Latinoamérica, la investigación en matemática comenzó a desarrollarse durante el siglo XX, con el nacimiento y desarrollo de universidades y centros de educación, donde la investigación fue convirtiéndose gradualmente en una actividad permanente. Una historia especial es la de la Universidad Nacional Mayor de San Marcos -UNMSM- la más antigua de todo el continente americano, fundada en 1551 por el imperio español y la iglesia católica. Inició funciones en 1553 y durante algunos periodos fue conocida como la Universidad de Lima. Notablemente, es la única del continente que nació en el siglo XVI y que ha funcionado interrumpidamente hasta nuestros días.
Durante la época colonial, la función mas importante de la Universidad de San Marcos era la enseñanza de filosofía, artes y latín. La docencia estaba organizada en distintas cátedras, relacionadas en su mayoría con la existencia de órdenes religiosas. En 1657 se inaugura la Cátedra de Matemáticas, donde principalmente enseñaron astrónomos, y en 1850, ya en la época del Perú independiente, nace la Facultad de Ciencias Naturales y Matemáticas, con lo que se puede considerar que dio inicio la actividad académica en la disciplina de Pitágoras. En esta facultad se otorgaban los grados de Bachiller, Licenciado y Doctor. Para obtener este último grado se debía realizar un trabajo individual, la tesis, usualmente de un año de duración y realizada después de obtener el grado de licenciado.
Ilustración de Constanza Rojas-Molina. Todos los derechos reservados; cesión en exclusiva para su publicación en el Cuaderno de Cultura Científica.En 1866 se otorga por primera vez el grado de doctor en matemáticas en la UNMSM: se gradúa José Granda, quien anteriormente había sido enviado a estudiar a Paris para obtener el título de ingeniero de minas, pero sobre todo aprovechó su estadía para estudiar matemáticas, en las que se interesó cada vez más. José Granda tendría un importante papel en el desarrollo de la disciplina en Perú, y por cierto que también tendría una nieta que se dedicaría a la música y que se convertiría en una compositora mundialmente conocida: Chabuca Granda.
Juan José de la Granda y Esquivel más conocido como José GrandaDespués de obtener el grado de doctor, José Granda trabaja como profesor en la Facultad de Ciencias, llamada así desde 1876. El país atraviesa entonces por un complicado conflicto: en 1879 da inicio la Guerra del Pacífico, lo que en particular ocasiona a la vida universitaria innumerables dificultades. En 1881 Lima es ocupada por las tropas chilenas, lo que provoca destrozos y pillaje en la universidad. Tristemente, la Facultad de Ciencias se queda sin lugar físico dónde funcionar, ante lo cual José Granda tiene la generosidad de poner a disposición de la facultad la casa familiar durante el tiempo que sea necesario.
Podemos imaginar que las tesis doctorales realizadas en ese contexto consistían en desarrollos matemáticos paralelos a la investigación que se llevaba a cabo en Europa, dadas las dificultades en la comunicación durante esos tiempos. Quizá en ocasiones se redescubrían teoremas que ya se conocían en otras latitudes, pero también sucedía que se llegaba a resultados científicos realmente originales que no eran adecuadamente apreciados por la comunidad y que no se difundían mayormente.
Federico VillarrealTal fue el caso de Federico Villarreal, singular e importante personaje de la matemática peruana de fin de siglo XIX. Nació en 1850 e ingresó a la Facultad de Ciencia de la UNMSM en 1877, cuando era profesor de escuela primaria. Obtuvo los grados que otorgaba la institución: bachiller, licenciado y doctor, este último tras realizar su tesis en 1881: Clasificación de las curvas de tercer grado, realizada durante la ocupación de Lima por el ejército invasor chileno. Podemos imaginar a Villarreal trabajando en la casa de Granda, en donde funcionaba la facultad durante ese triste periodo de guerra. De hecho, Villarreal tuvo otras preocupaciones inmediatas además de las curvas cúbicas: se enlistó en el ejército y llegó a combatir en alguna batalla contra el ejército invasor, periodo durante el cual probablemente debió interrumpir su trabajo matemático.
Los trabajos de Villarreal han sido puestos en valor por varias personas dedicadas a las matemáticas y a la historia de Perú. Uno de sus resultados es particularmente destacado: a los 23 años, cuando trabajaba como profesor y aún no ingresaba a la Facultad de Ciencias, encontró una fórmula para elevar un polinomio a cualquier potencia entera, una suerte de generalización del Binomio de Newton (un binomio es un polinomio de dos términos, y la fórmula de Villarreal funciona para cualquier número de términos). Sus resultados originales, pero quizá principalmente esta fórmula, llevaron a la expresión Newton del Perú, que no es raro encontrar en la literatura sobre Villareal. A lo largo de su carrera, tuvo una gran influencia en la vida académica de su país: Después de obtener el grado de doctor, también se convirtió en ingeniero, fue profesor y luego llegó a ser decano de la facultad, rector de la universidad e incluso senador del país. Una universidad nacional lleva su nombre, lo mismo que revistas académicas y varias cátedras. Podemos mencionar algunos nombres de la descendencia académica de Villarreal: Godofredo García fue uno de sus alumnos, se graduó como doctor en 1912 y realizó investigación junto con Alfred Rosenblatt, matemático polaco que llegó a Perú en 1936, y que a su vez tuvo como alumno a José Tola, que también realizó importantes aportes a la matemática del país.
Cristóbal de Losada y PugaPero aquí quiero detenerme en otro matemático peruano que destacó especialmente la obra de Villareal y que quizá es menos conocido: Cristóbal de Losada y Puga. Acuñó el nombre de polinomio de Villarreal para la fórmula que generaliza el binomio de Newton: es tan perfecto, que aun para el caso de un binomio resulta más fácil y seguro y rápido que el método del binomio de Newton, escribió Losada. Él mismo llegó, por su parte, a realizar investigación en matemáticas de gran nivel y quizá fue el matemático peruano más reconocido por sus pares en el mundo durante aquel tiempo.
Losada nació el 14 de abril de 1894 en New York, de madre y padre peruanos. Tras la muerte de su padre, a sus dos años de vida, se trasladó con su madre a Cajamarca, región andina de Perú de donde ella era originaria. Cristóbal pasó allí toda su infancia y adolescencia. Después de sus estudios medios se tituló como Ingeniero de Minas en la Escuela de Ingenieros de Lima, algo frecuente entre quienes se sentían atraídos por la ciencia. Posteriormente obtuvo el grado de bachiller en ciencias y el de doctor en matemáticas en 1923 en la Universidad Nacional Mayor de San Marcos, con la tesis Sobre las curvas de rodadura. El catálogo de la Biblioteca Nacional de Perú registra la existencia de una copia de su tesis.
Losada trabajó en distintas universidades del Perú, realizó docencia de matemáticas avanzadas, elaboró libros de texto e hizo investigación en matemáticas. Me parece destacable su participación en el Congreso Internacional de Matemáticos de 1924 en Toronto Canadá, donde expuso la charla A short contribution to the kinetic theory of gases en la sección de Mecánica, Física, Astronomía y Geofísica, lo que nos da una idea que la investigación que realizaba estaba conectada con la comunidad internacional. Losada trabajaba en problemas relacionados con Análisis, ecuaciones diferenciales, física-matemática y otros temas.
CicloideEl término que aparece en el título de su tesis, curvas de rodadura, se refiere a curvas trazadas por un punto en movimiento. Por ejemplo, un punto fijo en una circunferencia que avanza rodando, sin deslizarse, sobre una línea recta o sobre otra figura. Si nos imaginamos la trayectoria que recorre el punto cuando la circunferencia avanza rodando, se formará una curva conocida como la cicloide, quizá la más famosa curva de rodadura. Se pueden obtener otras curvas si el punto no está en el borde de la rueda sino al interior, o incluso fuera de ella: se obtiene una hipocicloide o una epicicloide, respectivamente. Podrá pensarse en un espirógrafo, ese entretenido juguete que consta de distintas figuras que se mueven de manera conjunta y con las que es fácil hacer bonitos dibujos geométricos.
Estas curvas, además de ser llamativas figuras, están relacionadas con propiedades de la física-matemática, razón por la cual aparecen en la tesis de Losada. En efecto, un concepto común a varios fenómenos físicos es el principio de mínima acción: la naturaleza invierte la menor energía posible en realizar una tarea dada. Por ejemplo, una burbuja toma la forma de una esfera, pues así encierra el mayor volumen de aire con una película de área mínima. Un haz de luz se propaga en línea recta, pues es la forma más rápida de ir de un punto al otro; bueno, esto es lo que percibimos a escalas humanas, pues sabemos que la gravedad afecta la luz, cuyo haz se curva de acuerdo con la teoría de la relatividad, lo que de hecho propone otra geometría para el universo donde, de nuevo, el trayecto de luz sigue el camino más rápido.
BraquistócronaUn problema clásico es el de la curva braquistócrona. Lo podemos plantear así: imaginemos que tenemos dos puntos A y B en el espacio, B más abajo que A, y nos preguntamos cuál es la superficie por la que un objeto que se desliza sobre ella bajo solamente el efecto de la gravedad llega desde A hasta B en el menor tiempo posible. Esta pregunta fue planteada desde hace siglos, y fue resuelta a finales del siglo XVII usando las herramientas que proporcionó el cálculo diferencial. En efecto, sucede que el camino más rápido no es una recta, sino una curva: podemos pensar que una forma de aprovechar la gravedad es curvarse al inicio más que al final, para ganar aceleración rápidamente. Esta curva es justamente un arco de cicloide, la curva de rodamiento que mencionamos arriba. Algunas pistas con rampas para patineta (o skate) tienen justamente esa forma, para que el skater pueda tomar la mayor velocidad posible al deslizarse.
Pero regresemos a la historia de Losada: después de exponer en el Congreso Internacional de Matemáticos continuó su trabajo en investigación y escribió textos de análisis matemático que fueron publicados por la Universidad Católica del Perú y que se convirtieron en importantes referencias de Cálculo y Análisis Matemático para las siguientes generaciones de estudiantes del país. En nuestros días, la Pontificia Universidad Católica de Perú otorga la medalla CRISTÓBAL DE LOSADA Y PUGA como parte del Premio Southern-Perú (por la compañía minera que lo patrocina), en su categoría ciencias, que se entrega cada dos años, en memoria de la obra que realizó Losada en las matemáticas. Por cierto, al igual que Federico Villarreal, Losada tuvo a su cargo diversas responsabilidades en la vida pública de su país. Dirigió la revista Fénix e inauguró la Sala de Física Nuclear y Energía Atómica en 1955, luego fue director de la Biblioteca Nacional y ministro de Educación. Una frase que mencionaba frecuentemente: «Los maestros tienen en sus manos el porvenir de los pueblos«. Falleció en la ciudad de Lima el 30 de agosto de 1961.
Hoy, una búsqueda en las bases de datos de revistas internacionales de investigación en matemáticas nos permite encontrar, además de las mencionadas Universidad Nacional Mayor de San Marcos y Universidad Católica de Perú, a la Universidad Nacional de Trujillo, a la Universidad Nacional de Ingeniería y a la Universidad del Pacífico, entre otras instituciones. Granda fue el primer matemático, Villarreal una excepción notable y Losada fue parte de la incursión del Perú en la investigación matemática de nivel mundial. La historia en cuyos inicios participaron ellos tres hoy es protagonizada por todas las personas que se dedican a la disciplina en los centros de investigación y universidades del país, que trabajan en contacto con redes científicas del mundo y hacen crecer cada día a la matemática en el Perú.
Referencias
- Historia de la matemática en el Perú. Moisés Toledo Julián.
- Historia de la matemática peruana. César Carranza.
- Premio Southern-Perú (1996 – 2015) 20 años, 20 peruanos notables. Editor: Salomón Lerner Febres. Equis Equis S.A. 2016.
- Entre la docencia y la academia. La modernización de la Universidad de San Marcos 1860-1928. Alex Loayza. Investigaciones Sociales XII N 20, 2008.
Sobre el autor: Alberto Mercado Saucedo es profesor de matemáticas en la Universidad Técnica Federico Santa María (Valparaíso, Chile)
Sobre la ilustradora: Constanza Rojas Molina es profesora del departamento de matemáticas de la CY Cergy Paris Université (Cergy-Pontoise, Francia)
El artículo Granda, Villareal y Losada: Una estampa de los inicios de la matemática en Perú se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El papel de los drones en el cielo del futuro
María Larumbe / GUK
Foto: Goh Rhy Yan / UnsplashLos drones son vehículos voladores no tripulados -UAVs por sus siglas en inglés- que llevan tiempo surcando los cielos en convivencia con aviones y pájaros. Sus usos abarcan objetivos de lo más dispares: desde tareas de rescate, inspección de infraestructuras o actividades lúdicas, hasta el transporte de mercancías como paquetes de mensajería o material médico.
En la actualidad, la industria está centrando sus esfuerzos en el desarrollo a gran escala de este tipo de robots aéreos, como el conocido dron de reparto de Amazon, para la entrega de paquetes. Pero no es tarea fácil conseguir popularizar el transporte mediante este sistema. Su coste es elevado si se compara con otras opciones de entrega de mercancías. Además, su autonomía también es limitada y, por cuestiones de seguridad, existen numerosas restricciones para poder volar sobre áreas urbanas.
Sin embargo, de cara a un futuro en el que los drones pudieran volar libremente de un lado para otro, con cientos y miles de robots voladores sobrevolando el cielo, ¿sería posible controlar que el dron llegara de manera autónoma -sin la intervención de un piloto- a su destino y sin chocar con ningún otro obstáculo?
Con esta idea en mente, investigadores del grupo de Inteligencia Computacional de la Universidad del País Vasco UPV/EHU han conseguido implementar un sistema de navegación autónoma realizando varios experimentos con drones. En concreto, para este estudio han utilizado cuadricópteros -drones con cuatro rotores- low-cost, de unos 10 minutos de autonomía, en diversos experimentos de interior.
“A través de este sencillo sistema hemos logrado que dos drones interactúen en el aire y sean capaces de ‘decidir’ de manera autónoma cómo evitar colisionar entre ellos cuando se cruzan. El hecho de que sean drones muy sencillos es una exigencia adicional para lograr una solución robusta y transferible a multirrotores con un hardware más complejo”, explica Julián Estévez, ingeniero industrial y responsable de este experimento dentro de este grupo de investigación de la UPV/EHU.
Vídeo 1. Experimento con dos drones esquivándose en el aire de manera autónoma.
Los drones del experimento usan la cámara que lleva cada uno de ellos en el centro y reaccionan ante los colores: huyendo de la cartulina roja y acercándose a la azul, tal y como se puede apreciar en los vídeos. Esto es posible ya que “hemos dividido la visión del dron en dos hemisferios y el dron sabe que si hay presencia de color rojo en el lado izquierdo, debe moverse a la derecha y viceversa. Este es el fundamento que hemos empleado para el experimento”, apunta Estévez. En su grupo llevan 10 años trabajando con drones, y 30 en inteligencia artificial y analítica de datos.
En cuanto al funcionamiento, no hay un único ordenador que controle todo el sistema al mismo tiempo, sino que trabaja de manera descentralizada. “Cada miembro del sistema decide por su cuenta, y no hace falta que intercambien información entre ellos”. Es decir que cada dron está controlado por un ordenador y, en cuanto ambos robots se cruzan en el aire, cada ordenador gestiona a su dron para que haga algo.
Vídeo 2. Visión ‘en primera persona’: esto es lo que ve el dron.
El objetivo último del grupo, además de trasladar estos experimentos del laboratorio al exterior, es lograr que los drones reconozcan de manera autónoma los objetos con los que pueden chocarse, como árboles o paredes, y el camino por el que pueden volar libremente, de la misma manera que en este experimento se han implementado mediante los colores azul (vuelo libre) y rojo (obstáculo). Sin embargo, se trata de una tarea muy complicada que, por otra parte, explica el hecho de que en la actualidad haya pocas tareas para drones plenamente autónomos, sin el control de un piloto.
Vídeo 3. El dron vuela y se mantiene estable delante de la cartulina azul y cuando ve la roja, se mueve a izquierda o derecha de manera autónoma.
Estévez lo describe de forma muy clara. “Para que un dron sea capaz de esquivar un árbol, por ejemplo, necesitamos algoritmos de visión artificial muy especializados en el reconocimiento de árboles, y equipárselo a la cámara del dron. Para ello, es necesario entrenar a ese algoritmo, enseñarle toda la morfología, colores, tipos de ramas de los distintos tipos de árboles que se puede encontrar. Los algoritmos de visión artificial que mejor funcionan son aquellos que están especializados en la identificación de algo muy concreto”. Por ejemplo, en la actualidad, los drones que supervisan tareas de forma autónoma tienen aplicaciones muy específicas como la inspección de tendidos eléctricos, oleoductos, o aerogeneradores.
Esta no es la única investigación que han realizado dentro del grupo de la UPV/EHU en torno a los drones. También han trabajado en la investigación de un sistema de transporte colaborativo entre drones con objetos lineales deformables, como cables, cuerdas o mangueras; y recientemente han publicado un artículo científico sobre cómo transportar un péndulo doble por una trayectoria intentando que el péndulo oscile lo mínimo posible, un experimento similar a “la tarea de un camarero cuando transporta una bandeja con los vasos llenos”.
En conclusión, aunque se están probando para distintas aplicaciones civiles, comerciales y militares, los drones son, sobre todo, tal y como recalca Estévez, “una buena solución para situaciones en las que la inmediatez prima por encima del coste, como en situaciones de emergencia”. En este contexto, naveguen de forma autónoma o estén tripulados por un piloto en remoto, “son herramientas que pueden contribuir a mejorar los servicios de la sociedad, ya que pueden ayudar en la búsqueda de desaparecidos, en la prevención de incendios, en el transporte de medicamentos y vacunas a lugares muy aislados, o en la entrega de paquetes en zonas de difícil acceso”.
Julián Estévez Sanz es ingeniero industrial, doctor en Ingeniería Informática y miembro del grupo de Inteligencia Computacional de la UPV/EHU.
El artículo El papel de los drones en el cielo del futuro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Naukas Bilbao 2021: Iván Rivera – ¿Dónde está mi coche volador?
El gran evento de divulgación Naukas regresó a Bilbao para celebrar su décima edición en el magnífico Palacio Euskalduna durante los pasados 23, 24, 25 y 26 de septiembre.
Lo de los coches que vuelan es un tema recurrente en muchas creaciones de la ciencia ficción, pero ni es tan fácil diseñar uno funcional, como tampoco es funcional coordinarlos en el aire. Iván Rivera, autoproclamado como “el Grinch de la tecnología”, nos cuenta en esta charla cuáles son las posibilidades reales, tomando como base la tecnología que disponemos en la actualidad de ver algo parecido a lo que imaginamos.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
N. del E.: Una crónica de esta charla puede leerse aquí
El artículo Naukas Bilbao 2021: Iván Rivera – ¿Dónde está mi coche volador? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Teoría de juegos y metástasis
La teoría de juegos aplicada a los encuentros celulares dentro de un tumor proporciona una perspectiva sociológica de los posibles comportamientos de las células en una colectividad, y ofrece una comprensión más completa de las complejas reglas que rigen una neoplasia. En el primer paso de un estudio que sigue desarrollándose, se ha llegado a la conjetura de que la metástasis se produce como respuesta a la heterogeneidad de los tumores.
Imagen: jezper / 123RFLa teoría de juegos es una teoría general que estudia situaciones estratégicas, en las que los actores o jugadores eligen diferentes acciones para maximizar sus beneficios. Por ello es aplicable a la evolución de las especies y permite explicar algunos patrones difíciles de comprender. Desde el enfoque de esta teoría, un juego es una situación conflictiva en la que priman intereses contrapuestos de individuos, y en ese contexto una parte, al tomar una decisión, influye sobre la decisión que tomará la otra; así, el resultado del conflicto se determina a partir de todas las decisiones tomadas por todos los actuantes.
La profesora Ikerbasque Annick Laruelle, experta en teoría de juegos del Departamento de Análisis Económico de la UPV/EHU, explica que esta teoría desarrollada en sus comienzos como una herramienta para entender el comportamiento de la economía “se usa actualmente en campos muy diversos, y también se ha empezado a aplicar en el estudio del cáncer, ya que permite entender mejor la dinámica de los procesos”. Un grupo compuesto por investigadoras de la UPV/EHU y patólogos de Biocruces y del Hospital San Giovanni Bosco de Turín (Italia) ha puesto en marcha un estudio para desvelar las intrincadas interacciones entre las propias células tumorales, por un lado, y entre las células tumorales y las del huésped, por otro, que no se comprenden del todo y siguen siendo una de las principales fronteras en oncología.
Las modernas tecnologías moleculares están desvelando progresivamente la complejidad genética y epigenética del cáncer, pero todavía se desconocen muchas cuestiones clave. Considerar el cáncer como una disfunción social en una comunidad de individuos ha aportado nuevas perspectivas de análisis con resultados prometedores. “Lo que busca la teoría de juegos son resultados estables a corto o largo plazo. En este primer paso, hemos intentado entender el efecto de la heterogeneidad de las células en un tumor. Por medio de modelizaciones podemos estudiar cómo se distribuyen los recursos entre las células; es decir, podemos proponer modelos para intentar ver cómo es la competición entre células en los tumores”, explica Laruelle.
En ese sentido, han analizado las interacciones entre células utilizando un enfoque de teoría de juegos y han planteado la hipótesis de que la metástasis puede ser simplemente una respuesta específica de un subconjunto de células tumorales, que consistiría en buscar la estabilidad colectiva lejos del tumor primario para mejorar su bienestar colectivo y evitar la extinción. La especialización espacial de los tumores con subclones metastásicos localizados en el interior del tumor, la capacidad demostrada de las metástasis para metastatizar y las interacciones sociológicas de las células tumorales desveladas por la teoría de juegos refuerzan el argumento de esta perspectiva en el sentido de que la búsqueda de un entorno mejor por parte de las células tumorales es un hecho constante en los tumores malignos.
“La conjetura que nos ha desvelado la teoría de juegos es que una mayor heterogeneidad celular en los tumores podría ser perjudicial para las células cancerígenas, y mejor para el paciente. Parece ser que un cáncer que tiene una gran diversidad celular es más favorable para el paciente que un cáncer donde el tumor es muy poco diverso”, afirma la profesora. Todo ello pone de manifiesto “que quizá a largo plazo no es necesariamente bueno eliminar todo tipo de células de un tumor, porque hay células que se hacen resistentes”, añade.
No obstante, Laruelle afirma que este es solo el punto de partida de una investigación que sigue adelante, ya que la teoría de juegos ha corroborado situaciones que se ven en la realidad. Además, la investigadora remarca la importancia de la colaboración entre personas de muy diversos campos: “Es muy complicado, porque hablamos distintos idiomas; pero a su vez es muy interesante, muy enriquecedor”.
Referencia:
Laruelle, Annick, Claudia Manini, Elena Iñarra, and José I. López (2021) Metastasis, an Example of Evolvability Cancers 13, no. 15: 3653. doi: 10.3390/cancers13153653
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Teoría de juegos y metástasis se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las caracolas de tus orejas
“Desde tus balbuceos con lengua de trapo hasta que aprendiste a leer, las palabras solo existían en la voz. […] Los primeros relatos de tu vida entraron por las caracolas de tus orejas; tus ojos aún no sabían escuchar.
Irene Vallejo. El infinito en un junco.
Foto: Dylann Hendricks | 딜란 / UnsplashEl camino de los sonidos desde el aire hasta tu imaginación es doblemente acaracolado. Para empezar, las ondas sonoras deben recorrer el pabellón de tus orejas, una escultura retorcida digna del mismísimo Dalí. Sus recovecos filtran el sonido y te informan sobre la localización de su fuente en el espacio. A continuación, y una vez dentro de tu cabeza, las ondas vuelven a dar vueltas dentro del pasadizo espiral de la cóclea, un órgano capaz de descomponer el sonido en sus frecuencias fundamentales. Su nombre significa “caracol” en latín, precisamente debido a su forma.
Durante mucho tiempo, los científicos se preguntaron a qué podía obedecer esta geometría tan peculiar de la cóclea, pero hasta hace relativamente poco, la respuesta no estaba clara. Solo en el año 2006, un equipo multidisciplinar de investigadores pareció dar con la respuesta1: las caracolas de nuestros oídos podrían hacernos más sensibles a los sonidos graves.
Cuando las ondas sonoras llegan a nuestro tímpano, los diminutos huesos del oído transmiten sus vibraciones a la cóclea, que está rellena de fluido y recorrida por una membrana de rigidez decreciente (la membrana basilar). Como explica Don Monroe, “las propiedades de este tubo cambian gradualmente a lo largo de su longitud, por lo que las ondas crecen y luego se desvanecen, al igual que una ola del océano, que viaja hacia la orilla y se hace más alta y más estrecha antes de romper en la playa. Las diferentes frecuencias alcanzan su pico en diferentes posiciones a lo largo del tubo, lo que permite que la cóclea las distinga”. Los sonidos más agudos, resuenan a la entrada de este órgano en forma de caracol, mientras que los más graves llegan hasta el final de la cavidad. De este modo, la cóclea es capaz de descomponer las ondas en distintas frecuencias, como si calculase una transformada de Fourier por medios mecánicos.
Sin embargo, más allá de ahorrar espacio dentro de nuestra cabeza (que bastantes cosas tenemos ya), hasta hace poco no estaba muy claro que el enrollamiento de la cóclea afectase de alguna manera a su función. En el año 2006, la matemática Daphne Manoussaki y sus colegas, Richard S. Chadwick y Emilios K. Dimitriadisun, propusieron un modelo geométrico que parece dar respuesta a esta cuestión. Según su estudio, las caracolas de nuestro oído aumentan nuestra sensibilidad a las vibraciones de frecuencia más baja. Su curvatura creciente provoca que la energía se desvíe hacia la pared exterior de la cóclea, como un coche que girase el volante gradualmente para recorrer una curva cada vez más cerrada. Puesto que los tonos de menor frecuencia se sitúan en el último trecho de la espiral (la punta de la caracola), este efecto asimétrico resulta más relevante para los sonidos más graves. La pared externa de la espiral tiende a moverse más que la cara interna y provoca un movimiento de torsión en la membrana basilar, que la excita con mayor intensidad en esta región.
Los investigadores comparan la propagación del sonido dentro de la cóclea con las conocidas como «galerías susurrantes«, o “gabinetes de secretos” en el ámbito de la arquitectura. Al encontrarse con una superficie cóncava, los sonidos pueden rebotar sin perder energía, de modo que hasta los más silenciosos se oyen a cierta distancia con una intensidad inesperada. Este efecto fue descrito por primera vez por Lord Rayleigh, quien se dedicó a analizar los susurros de la Catedral de San Pablo en Londres. Las curvas de sus paredes actuaban como verdaderas antenas, capaces de concentrar el sonido en ciertos puntos del espacio. En el caso de la cóclea, además, los giros cada vez más cerrados de la espiral provocan que las ondas sonoras se concentren en la pared exterior2. Para que podamos escuchar los susurros de otros, aunque sean los de Barry White.
Referencias:
1Manoussaki, Daphne, et al. “Cochlea’s Graded Curvature Effect on Low Frequency Waves.” Physical Review Letters, vol. 96, no. 8, 2006, https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.96.088701.
2En un estudio posterior, los investigadores comprobaron que este modelo encuentra un reflejo en el reino animal. Aquellos mamíferos cuya cóclea es más cerrada, también son más sensibles a los tonos graves. Ver: Manoussaki, Daphne et al. “The influence of cochlear shape on low-frequency hearing.” Proceedings of the National Academy of Sciences, vol. 105, no. 16, 2008, https://www.pnas.org/content/105/16/6162.short.
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo Las caracolas de tus orejas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El teorema musical
Después de nuestra anterior entrada del Cuaderno de Cultura Científica, ¡Música, matemática!, que tenía como objetivo mostrar algunas canciones, de grupos con diferentes estilos musicales, dedicadas a objetos matemáticos, como los números primos, la sucesión de Fibonacci, el número Pi o el conjunto de Mandelbrot, en esta nueva entrada nuestra intención es centrarnos en algunos resultados matemáticos, como los teoremas de Pitágoras, Tales o Fermat, la conjetura de Goldbach, la hipótesis de Riemann y el teorema de Arquímedes.
Como no podía ser de otra forma, empezaremos esta entrada con el popular teorema de Pitágoras. El enunciado de este teorema geométrico, aunque de sobra conocido, dice que “dado un triángulo rectángulo, entonces el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos”, la famosa expresión a2 = b2 + c2, si c y b son los catetos y a la hipotenusa.
Para aquellas personas que estén interesadas en conocer más sobre el teorema de Pitágoras, hemos dedicado varias entradas al mismo, como Pitágoras sin palabras, Cultura pitagórica: arte, Sin noticias de Pitágoras (Pitágoras en la literatura) o El teorema de Pitágoras en el arte.
La primera canción de esta entrada, relacionada con el teorema de Pitágoras, es un tema clásico del rock español, Pitágoras, que versionaron grupos como Los Milos (1961), Lolita Garrido (1961), Los Hooligans (1964) o, más recientemente, el grupo valenciano Seguridad Social (2000), conocido por temas como Chiquilla o Quiero tener tu presencia. Aunque no mucha gente sabe que este tema es una canción del cantante italiano Adriano Celentano (1960).
Aquí podemos escuchar la potente versión de Seguridad Social: Pitágoras.
La letra de la canción dice lo siguiente.
La suma de los cuadrados encima de los catetos, // Es igual al cuadrado de la hipotenusa… // Pitágoras, Pitágoras, // Hoy quiero pedirte un favor: // Enséñame el sistema y el nuevo teorema // De cualquier problema de amor. // Si laten dos corazones unidos por simpatía, // Su ritmo se multiplica al cuadrado… // Pitágoras, Pitágoras, // Suspende tu meditación, // Y con tu teorema, resuélveme el problema, // Que tengo yo en mi corazón. // El ritmo de una pareja que baila con fantasía, // Anima el ambiente a la hipotenusa… // Pitágoras, Pitágoras, // Era un sabio de eterno valor, // Enséñame el sistema y el nuevo teorema // Que hay para bailar bien el rock // […]
Portada del EP Pitágoras (1961), del grupo de rock valenciano Los Milos
Pero también podéis disfrutar de las versiones de Los Milos, Lolita Garrido, Los Hooligans o incluso la versión de Adriano Celentano.
Otro tema de la geometría clásica que ha sido trasladado a la música es uno de los teoremas del matemático griego Tales de Mileto (aprox. 624-546 a.n.e.). El grupo argentino Les Luthiers, conocido por sus humorísticas canciones, no solo dedica una canción, El teorema de Tales (divertimento matemático) (1971), a este resultado geométrico, sino que se atreven con mucho más, ya que en la letra incluyen el enunciado del propio teorema.
Para empezar, podemos escuchar el tema El teorema de Tales (divertimento matemático).
Como muchos temas de Les Luthiers empieza con una desternillante introducción, que dice así.
Johann Sebastian Mastropiero dedicó su divertimento matemático op. 48, el «Teorema de Thales», a la condesa Shortshot, con quien viviera un apasionado romance varias veces, en una carta en la que le dice: Condesa, nuestro amor se rige por el Teorema de Thales, cuando estamos horizontales y paralelos, las transversales de la pasión nos atraviesan y nuestros segmentos correspondientes resultan maravillosamente proporcionales.
El cuarteto vocal «Les frères luthiers» interpreta Teorema de Thales» op. 48, de Johann Sebastian Mastropiero. Son sus movimientos: Introducción, Enunciazione in tempo di menuetto, Hipotesis agitatta, Tesis, Desmostrazione, ma non troppo, Finale presto con tutti.
Los miembros del grupo musical humorístico argentino Les Luthiers en 1985
A continuación, viene lo que es la canción propiamente dicha, que incluye el enunciado del teorema de Tales.
Si tres o más paralelas // Si tres o más parale-le-le-las // Si tres o más paralelas // Si tres o más parale-le-le-las // Son cortadas, son cortadas // Por dos transversales, dos transversales // Son cortadas, son cortadas // Por dos transversales, dos transversales // Si tres o más parale-le-le-las // Si tres o más parale-le-le-las // Son cortadas, son cortadas (Son transversales, son transversales) // Son cortadas, son cortadas (Son transversales, son transversales) // Dos segmentos de una de éstas, dos segmentos cualesquiera // Dos segmentos de una de éstas son proporcionales // A los dos segmentos correspondientes de la otra // Hipótesis // A paralela a B // B paralela a C // A paralela a B, paralela a C, paralela a D // O-P es a P-Q // M-N es a N-T // OP es a PQ como MN es a NT // A paralela a B // B paralela a C // OP es a PQ como MN es a NT // La bisectriz yo trazaré // Y a cuatro planos intersectaré // Una igualdad yo encontraré // OP+PQ es igual a ST // Usaré la hipotenusa // Ay, no te compliques, nadie la usa // Trazaré, pues, un cateto // Yo no me meto, yo no me meto // Triángulo, tetrágono, pentágono, hexágono // Heptágono, octógono, son todos polígonos // Seno, coseno, tangente y secante // Y la cosecante y la cotangente // Thales, Thales de Mileto // Thales, Thales de Mileto // Thales, Thales de Mileto // Thales, Thales de Mileto // Que es lo que queríamos demostrar // Que es que lo que lo que queria queríamos demo demostrar.
Recordemos, sin entrar en mucho detalle, que el teorema de Tales nos dice que, si dos rectas secantes r y s, que se intersecan en un cierto punto, cortan a tres rectas paralelas A, B y C, en los puntos O, P, Q y M, N, T, entonces existen relaciones de proporcionalidad entre algunos de los segmentos que se originan. Entre otras las que aparecen en la siguiente imagen, la segunda de ellas es la cantada por Les Luthiers.
También hemos dedicado alguna entrada del Cuaderno de Cultura Científica al Teorema de Tales, una versión sencilla, y aplicaciones del mismo, en concreto la entrada Tales de Mileto y el caso del gato que venía del cielo.
Después de mencionar estos dos teoremas de la geometría clásica, pasemos a un famoso teorema de la teoría de números, el último teorema de Fermat. El teorema nos dice lo siguiente.
Último teorema de Fermat: no es posible encontrar tres números enteros positivos x, y, z tales que verifiquen la ecuación, xn + yn = zn, para n mayor, o igual, que 3.
Recordemos un poco la historia de este teorema, como ya hicimos en la entrada Euler y el último teorema de Fermat. La historia del último teorema de Fermat se inicia con la edición en latín, realizada por Bachet de Méziriac, amigo del jurista francés y aficionado a las matemáticas Pierre de Fermat (1601-1665), del libro Aritmética de Diofanto. Fermat escribió en el margen de este libro, al lado del problema de expresar el cuadrado de un número como la suma de los cuadrados de dos números, es decir, buscar soluciones de números enteros positivos a la ecuación pitagórica x2 + y2 = z2 (existen infinitas soluciones, ternas pitagóricas, como (3,4,5) o (5,12,13)), lo siguiente.
“Cubum autem in duos cubos, aut quadratoquadratos, et generilater nullam in infinitum ultra quadratum potestatem in duos eiusdem nominis fas est dividiré cuius rei demonstrationem mirabilem sane detexi. Hanc marginis exigüitas non caperet”,
es decir,
“Es imposible encontrar la forma de convertir un cubo en la suma de dos cubos, una potencia cuarta en la suma de dos potencias cuartas, o en general cualquier potencia más alta que el cuadrado en la suma de dos potencias de la misma clase; para este hecho he encontrado una demostración maravillosa. El margen es demasiado pequeño para que quepa en él”.
En consecuencia, el conocido como último teorema de Fermat. Sin embargo, Pierre de Fermat nunca publicó ninguno de sus resultados matemáticos. Estos se encontraban como anotaciones en los márgenes de sus libros, en particular, de los seis libros que conformaban la Aritmética de Diofanto, en sus notas manuscritas y en las cartas a otros colegas matemáticos. A su muerte, su hijo Clement-Samuel decidió recopilar y publicar todos los resultados matemáticos de su padre, para evitar que se perdieran. Por ejemplo, en 1670 publicó la obra Diophanti arithmeticorum libri cum observationibus P. de Fermat (es decir, Aritmética de Diofanto con observaciones de P. de Fermat), que contenía la versión original griega, la latina de Bachet y cuarenta y ocho observaciones del conocido como príncipe de los aficionados, una de las cuales era la anotación sobre la solución de la ecuación diofántica xn + yn = zn. Sin embargo, no se encontró ni entre sus papeles, ni en las cartas a otros matemáticos, la mencionada “maravillosa demostración”.
La historia que se inicia en el margen de la Aritmética de Diofanto termina cuando el matemático inglés Andrew Wiles demuestra finalmente, más de 350 años después, este famoso resultado matemático.
Después de darle vueltas a algunas posibilidades, entre ellas un grupo cuyo nombre es Fermat Last Theorem, me decidí por el tema Theorem, del álbum Transform (2005), del grupo de metal rock experimental de Los Ángeles (EEUU), Kineto. Un grupo algo diferente a otros grupos de metal rock, en el que el bajo se convierte en el instrumento principal, que es acompañado por unas guitarras un poco ruidosas y la batería. A este, su primer álbum, pertenece esta canción sobre el último teorema de Fermat, que podemos escuchar aquí: Theorem.
Vayamos con la letra de la canción, que nos habla del matemático inglés Andrew Wiles, de cómo estaba interesado en el teorema desde pequeño, de cómo trabajó sin descanso para demostrar el resultado de Fermat, de cómo finalmente consiguió la demostración de tan ansiada conjetura, de cómo se descubrió que había un pequeño error en la misma, de cómo Wiles se encerró para conseguir corregir el error y de cómo contó con la colaboración de su colega Richard Taylor, hasta que consiguieron corregir el error y obtener la ansiada demostración.
Mítica fotografía de Andrew Wiles, que recorrió el mundo entero, obtenida al final de la tercera conferencia del ciclo “Formas modulares, ecuaciones elípticas y representaciones de Galois” que impartió en Cambridge en junio de 1993, tras sus palabras “… y esto demuestra el último teorema de Fermat. Creo que lo dejaré aquí”; después llegaría el descubrimiento del error en la prueba y más de un año de trabajo extra para completar la demostración del último teorema de Fermat.
La letra, junto con una sencilla traducción realizada para esta entrada, dice así:
A lifetime obsession // a childhood dream // Fermat’s last theorem // led him far from the mainstream.
“Una obsesión de toda la vida, un sueño de la infancia, el último teorema de Fermat le llevó lejos de lo convencional”.
Sleepless nights // slowburn days // problems, proofs // endless delays.
“Noches en blanco, días que transcurren lentamente, problemas, demostraciones, retrasos interminables”.
Will it ever end?// Can I even stop it? // Is there a solution? // Is it really worth it?
“¿Terminará alguna vez? ¿Puedo siquiera detenerlo? ¿Existe solución? ¿Merece la pena?”
A breakthrough had come // after years of struggle // he finally put together // the pieces of the puzzle.
“Tras años de lucha había llegado un gran avance, finalmente había juntado las piezas del rompecabezas”.
His students and mentors // each gazed in awe // But little did they know // of the fatal flaw.
“Sus estudiantes y mentores miraban con asombro, pero poco sabían del fatal error”.
An error so subtle // A mistake so abstract // A decade of figures // has began to crack.
“Un error tan sutil, un error tan abstracto, una década de números ha empezado a resquebrajarse”.
A miscalculation // underneath the lens // His whole life’s work // a means to an end.
“Un error de cálculo bajo la lupa, el trabajo de toda su vida, un medio para un fin”.
His Cambridge colleague // lent a guiding mind // and repaired the flaw of // the proof that was soon to shine.
“Su colega de Cambridge le prestó una mente orientadora y repararon el defecto de la prueba que pronto iba a brillar”.
The journey is over // the achievement done // An hour of freedom before // he starts another one.
“El viaje ha terminado, el logro realizado, una hora de libertad antes de que empiece otro”.
La demostración del teorema de Fermat por parte de Andrew Wiles fue de esas raras noticias matemáticas que llegaron a los medios de comunicación de todo el mundo, incluso un libro de divulgación de las matemáticas como El enigma de Fermat (1997), de Simon Singh, se convirtió en un bestseller. Por este motivo, no es de extrañar que fuera un tema que llegó a las artes y la cultura. En el Cuaderno de Cultura Científica hemos mostrado algunos ejemplos, como en el cómic, en la entrada Las matemáticas en el cómic Ken Games, en el teatro, en Andrew Wiles: de conjetura a teorema (de Marta Macho), o en la literatura, en La chica que soñaba con una cerilla y un bidón de gasolina, por mencionar algunos ejemplos. Aunque en relación a la literatura, escribí un pequeño ensayo sobre el tema en la revista Épistémocritique, titulado Avatares literarios del Teorema de Fermat.
Existen varios temas musicales sobre el teorema de Fermat. Además de la anterior canción os animo a escuchar el siguiente tema de música electrónica. Es la canción Fermat’s theorem, perteneciente al disco Visions (1997), del DJ y productor de música electrónica británico John B (John Bryn Williams).
Portada del disco Visions (1997), del DJ y productor de música electrónica británico John B
Si seguimos con la teoría de números, podemos hablar de otra conjetura que, contrariamente a lo que ha ocurrido con el último teorema de Fermat, no ha sido demostrada aún. Se trata de la conjetura de Goldbach.
Conjetura de Goldbach: “todo número par mayor que dos puede escribirse como suma de dos números primos”
También tenemos una entrada del Cuaderno de Cultura Científica para saber más sobre esta sencilla, pero escurridiza, conjetura. Es la entrada La conjetura de Goldbach.
En relación a la misma, vamos a escuchar el tema Goldbach conjecture de la mano de Tripswitch, un proyecto de música electrónica, del músico y productor londinense Nick Brennan (con una larga carrera en la que ha tocado muchos estilos de música diferentes: clásica, rock, blues, jazz, acid house, reagee, etc.). Tripswitch es un proyecto de música electrónica “down-tempo” con influencias sicodélicas y étnicas. El tema Goldbach conjecture pertenece al segundo álbum de Tripswitch, Geometry (2010), que incluye temas como Stereogram, Strange Parallels, Concentric Circles, etc. Aquí tenéis la canción: Goldbach conjecture.
Portada del disco Geometry (2010), de Tripswitch
Os dejo con otra canción sobre la conjetura de Goldbach de grupo de Bristol The Last Days, que forma parte de su disco Typography (2018): Goldbach conjecture.
A continuación, vamos con la hipótesis de Riemann, que es uno de los siete problemas del Milenio, por cuya demostración el Instituto Clay de Matemáticas ha ofrecido un millón de dólares. La hipótesis de Riemann, que debe su nombre y su formulación al matemático alemán Bernhard Riemann (1826-1866), es una conjetura sobre la distribución de los ceros de una compleja función matemática, la función zeta de Riemann. Además, la hipótesis de Riemann está relacionada con la distribución de los números primos en el conjunto de los naturales (véase Buscando lagunas de números primos).
Sobre esta cuestión he elegido un joven grupo catalán de indie-folk Plombiers, que grabó su primer EP, La darrera gènesi, en 2017, el cual incluía el tema La Hipòtesi de Riemann. Que podéis escuchar aquí.
Fotografía de los miembros del grupo Plombiers. Fotografía de la página de Facebook del grupo
La letra es la siguiente, con una sencilla traducción:
Mentre la pols es muda de casa // la roba s’eixuga al terrat // descripcions del dia a dia // com la hipòtesi de Riemann.
Que podría traducirse, más o menos, como “Mientras el polvo se muda de casa la ropa se seca en la azotea, descripciones del día a día como la hipótesis de Riemann”.
Les matemàtiques cassolanes // s’enamoren dels nombres prims // i mentre aquests es distribueixen // un servidor somia amb l’infinit.
Donde se menciona la distribución de los números primos: “Las matemáticas caseras se enamoran de los números primos y mientras estos se distribuyen, un servidor sueña con el infinito”.
Un punt de llibre en forma de frontera // entre allò vist i allò per descubrir // escriure versos mai va ser tan fácil // si es fa ràpid i tranquil.
Que se podría traducir (utilizando un traductor) algo así como “Un punto de libro en forma de frontera entre lo visto y lo por descubrir. Escribir versos nunca fue tan fácil si se hace rápido y tranquilo”.
Una cançó sense lletra // i una lletra sense estil // una buidor, una guerra, // una idea i un escrit.
Y de nuevo “Una canción sin letra y una letra sin estilo, un vacío, una guerra, una idea y un escrito”.
No vamos a alargar más esta entrada y vamos a despedirnos con una canción más, El teorema de Arquímedes, perteneciente al LP Matatiempo (2010), del grupo punk madrileño Desechos. La podéis escuchar aquí. La letra dice lo siguiente:
Si ves que mis pies caminan rectos, y mi cabeza está bien amueblada, y mi visión clara es, algo en tu mirada falla me has visto al revés, no te hagas líos, nadie es lo que tú crees, no cada cual, cada quien, es en parte lo que deja ver, pero flotamos en el agua como un iceberg, según supo decirnos el bueno de Arquímedes, oye su teorema y dime como lo ves. Un cuerpo sumergido en un líquido pierde parte de su peso, sufre un empuje de abajo a arriba igual al volumen del líquido que desaloja por eso flota. Quien no tropieza o mira atrás, y cuando menos se lo espera zas! cae de bruces y vigila no haber sido visto, disimula, finge de nuevo estar listo, recompone su ropa como puede y como si nada, nada a favor de la corriente y trata de alcanzar la orilla para descansar, quien no se ahoga, quien no ha sentido alguna vez que ya no puede mas, quien no ha visto en un vaso de agua el mar, quien no quiere escapar.
Portada del disco Matatiempo (2010) del grupo DesechosSobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El teorema musical se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La base genética de la autoinmunidad: enfermedad celíaca y diabetes mellitus tipo I.
María Isabel Hernández
Las denominadas enfermedades autoinmunes, como lo son la enfermedad celíaca (EC) y la diabetes mellitus tipo 1 (DM1), se pueden clasificar en base a la extensión de los tejidos involucrados. Así se describen enfermedades específicas de órganos o tejidos, como lo sería la esclerosis múltiple, y enfermedades sistémicas, como la artritis reumatoide; pero en todos los casos, se requiere por parte de los linfocitos T y/o los linfocitos B del sistema inmunitario una pérdida de la tolerancia, es decir, la capacidad de diferenciar lo extraño de lo propio (Figura 1).
Figura 1. Factores desencadenantes de la autoinmunidad como consecuencia de la pérdida de tolerancia de las células del sistema inmunitario. GI: gastrointestinal (Imagen modificada de Wang, Wang & Gershwin, 2015).Las enfermedades autoinmunes sistémicas son el resultado del daño tisular inducido por la deposición de complejos inmunes con anticuerpos que se dirigen a moléculas que se expresan ubicuamente, en distintos tejidos, y tienen la capacidad de actuar como autoantígenos. Sin embargo, el hecho de que se produzcan enfermedades autoinmunes en distintos órganos y tejidos a la vez, afectando a las glándulas endocrinas u a otros tipos de tejidos, también puede deberse a que su origen se relaciona con mutaciones en los genes que intervienen en la respuesta inmunitaria innata y/o adaptativa, por lo que se producen fallos en el desarrollo de la respuesta inmunitaria allí donde sea necesaria (Ballarini & Lee-Kirsch, 2007; Wang, Wang & Gershwin, 2015; Theofilopoulos, Kono & Baccala, 2017; Caio et al., 2019).
En el caso de la EC y la DM1, además de compartir el hecho de que sean enfermedades autoinmunes que afectan al aparato digestivo, por lo cual la dieta puede ser un factor ambiental desencadenante, comparten varios locus que confieren predisposición genética (Figura 2). La prevalencia de la EC es entre 5-20 veces mayor en pacientes de DM1 que en la población normal.
Figura 2. Enfermedades relacionadas con la enfermedad celíaca. CNS: Sistema nervioso central; IBD: inflamación intestinal crónica; SLE: lupus eritematoso sistémico (Lundin & Wijmenga, 2015).Entre los genes analizados mediante estudios de asociación del genoma completo (GWAS) se han relacionado con las enfermedades autoinmunes los genes PTPN22, CTLA-4, IRF5 o BACH2, todos involucrados en la respuesta inmunitaria, junto con determinadas modificaciones epigenéticas. En cuanto a la EC y la DM1, se han relacionado con alteraciones en BACH2 que codifica un factor de transcripción que participa en la activación de los macrófagos tisulares, el desarrollo de células B y células T efectoras y reguladoras y la recombinación de cambio de tipo de inmunoglobulina, entre otras funciones. Por su parte, el haplotipo HLA-DQ2 se encuentra en aproximadamente el 90% de los pacientes de EC y el 55% de los pacientes de DM1, mientras que el haplotipo HLA-DQ8 se encuentra en aproximadamente el 10% de los pacientes de EC y el 70% de los pacientes de DM1. A través del complejo principal de histocompatibilidad (MHC) o también conocido como HLA (antígeno leucocitario humano), son presentadas las moléculas reconocidas como antígenos por las células presentadoras de antígeno (APC), macrófagos y células dendríticas, a las células T helper CD4+ (Todd, 2010; Lundin & Wijmenga, 2015; Kahaly & Hansen, 2016; Hagopian et al., 2017; Nunes-Silva et al., 2017; Caio et al., 2019).
La prevalencia tanto de la EC como de la DM1 han aumentado significativamente en los países occidentales durante los últimos años, al igual que el resto de las enfermedades autoinmunes no sólo digestivas afectando preferentemente a las mujeres y con una alta variabilidad fenotípica, morbilidad y mortalidad (Theofilopoulos, Kono & Baccala, 2017).A pesar de que haya factores genéticos comunes que predispongan la aparición de la EC y la DM1, el incremento en la prevalencia de ambas enfermedades en todo el mundo indica la importancia de los factores ambientales en su desarrollo, ya que los cambios genéticos que se pudieran producir para aumentarla necesitarían una altísima tasa de mutación. La homeostasis del intestino delgado se ha visto alterada en ambas, por lo que los factores ambientales que comprometan dicha homeostasis podrían ser factores desencadenantes. Una correcta función de barrera del intestino delgado, con uniones estrechas entre las células, se ve determinada por el tipo de bacterias que lo colonizan. Una alteración en el equilibrio de microrganismos que forman parte del microbioma intestinal, en cambios cualitativos y de funcionalidad, denominada disbiosis, se ha relacionado con enfermedades en sitios distantes del intestino, incluido un espectro de trastornos neurológicos, como ansiedad, estrés, migrañas y depresión, así como enfermedades neurodegenerativas y neuroinflamatorias (Wang, Wang & Gershwin, 2015; Theofilopoulos, Kono & Baccala, 2017). Por lo tanto, el hecho de que tanto la EC como la DM1 puedan aparecer en cualquier edad hace que sea importante estudiar qué factores ambientales pueden desencadenar su aparición, para prevenirla en pacientes donde se detecta la predisposición genética.
Referencias
Ballarini, A. et al. (2007) Genetic dissection of autoimmune polyendocrine syndrome type 2: Common origin of a spectrum of phenotypes. Annals of the New York Academy of Sciences 1110, 159–165.
Caio, G. et al (2019) Celiac disease: A comprehensive current review. BMC Medicine 17, 1–20.
Hagopian, W. et al (2017) Co-occurrence of type 1 diabetes and celiac disease autoimmunity. Pediatrics 140.
Kahaly, G.J. et al (2016) Type 1 diabetes associated autoimmunity. Autoimmunity Reviews 15, 644–648.
Lundin, K.E.A. et al (2015) Coeliac disease and autoimmune disease – Genetic overlap and screening. Nature Reviews Gastroenterology and Hepatology 12, 507–515.
Nunes-Silva, J.G. et al (2017) Impact of type 1 diabetes mellitus and celiac disease on nutrition and quality of life. Nutrition and Diabetes 7, 4–9.
Theophilopoulos, A.N. et al (2017) The multiple pathways to autoimmunity. Nature Immunology 18, 716–724.
Todd, J.A. (2010) Etiology of Type 1 Diabetes. Immunity 32, 457–467.
Wang, L. (2015) Human autoimmune diseases: A comprehensive update. Journal of Internal Medicine 278, 369–395.
Sobre la autora: María Isabel Hernández es graduada en biología y doctoranda en biología molecular y biomedicina en la UPV/EHU
El artículo La base genética de la autoinmunidad: enfermedad celíaca y diabetes mellitus tipo I. se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Naukas Bilbao 2021: Coches voladores, ¿transporte del futuro o cosas de la ciencia ficción?
María Larumbe / GUK
¿Quién no ha soñado alguna vez en un futuro en el que los coches sobrevuelen la ciudad? En la cultura popular, películas como El Quinto Elemento (Luc Besson, 1997), Blade Runner (Ridley Scott, 1982) oseries más recientes como Futurama (Matt Groening y David X.Cohen, 1999-2013) han inoculado en el inconsciente colectivo la probabilidad de que los coches voladores se transformen en realidad en un futuro más o menos cercano. Pero ¿cuánto hay de verdad en todo esto?
En su charla de Naukas Bilbao 2021, Iván Rivera, ingeniero de telecomunicaciones, escéptico y autoproclamado como “el Grinch de la tecnología”, departió sobre las cuales son las posibilidades reales, tomando como base la tecnología que disponemos en la actualidad, de volver del trabajo a casa volando cual pájaro en un aparato de estas características. Y lo cierto es que la realidad, sintiéndolo mucho para los soñadores que se ven pilotando un coche de estas características, dista de los relatos de ciencia ficción.
En palabras de Rivera, se abusa mucho del término coche volador. Por este motivo comenzó recordando al público del Euskalduna cuáles son las tres formas principales de volar para aparatos que pesan más que el aire que disponemos en la actualidad. “Tenemos, en primer lugar, los aparatos de ala fija, como los aviones comerciales; los de ala giratoria con hélice como los helicópteros y aquellos que vuelan expulsando gas como un globo o un dirigible. El caso es que, si estamos pensando en volar como el ex-Blade Runner Rick Deckard -al que da vida Harrison Ford en la película- esta tecnología hoy por hoy no existe”, explicó.
Pero que no exista aún esa tecnología no implica que la industria no esté esforzándose al máximo para convertir ese sueño en realidad. “Ejemplo de esto es el Aircar de la compañía Klein Vision, el intento más perfeccionado en la actualidad por cruzar un coche con un avión, con más de 100 años de trabajo de ingeniería en su desarrollo”. No obstante, este ‘coche volador’ presenta sus limitaciones ya que “como coche mide 6,2 metros de largo, pero no tiene maletero; y como avión puede transportar 200 kilos, incluyendo a piloto y pasajero”. A estos inconvenientes, hay que sumarle el hecho de que necesita aeropuertos de origen y destino para despegar y aterrizar, por lo que “el Aircar se aleja de la imagen que tenemos preconcebida como coche volador”.
Otro aparato avanzado en el que se está trabajando, es el taxi aéreo. El Joby S4, como se puede apreciar en el vídeo, tampoco se parece al que conducía Bruce Willis en El Quinto Elemento por los cielos de una Nueva York futurista. “Se trata de un multicóptero de hélices basculantes, una especie de dron gigante con 6-8 hélices entubadas. Este tipo de sistemas se han podido ver con cierto éxito en algunos transportes militares, pero ninguno de ellos está capacitado para volar de forma que no sea experimental”.
Más allá de estos artefactos, en la actualidad hay más de 500 proyectos en marcha para impulsar la movilidad aérea urbana y los grandes analistas afirman que para el año 2040 este mercado global llegará a valer alrededor de 1,26 billones de dólares, pero, en verdad, según Rivera, no hay que engañarse “la mayor parte de ellos no pasan de ser documentos de Power Point. El capital riesgo no está distinguiendo bien entre la buena publicidad y los sistemas de ingeniería de verdad”, recalcó.
Además, la certificación para un vuelo comercial requiere de un tipo de aparato que sea capaz de demostrar que surcar por los cielos millones de horas de vuelo, sin un accidente catastrófico, lo que requiere de unos procesos de certificación documentación y mantenimiento muy exhaustivos y caros. “Esto no puede ser de otra manera porque el cielo no perdona. El transporte terrestre puede darse el lujo de pararse, pero un transporte aéreo no. Y menos aún pararse en medio de una ciudad. No es comparable las molestias que puede provocar un atasco con que nos caiga encima un trozo de tres toneladas del cielo”.
A las certificaciones, hay que sumarle la comparativa de las baterías actuales. “Hoy en día una batería pesa lo mismo que un depósito de combustible y aporta la cincuentava parte de la energía. Esto es algo que puede mejorar en 20 años, pero nadie en su sano juicio pondría fecha y cifra a la mejora, salvo, casualmente quien haya invertido en movilidad eléctrica”.
En cualquier caso, pese a estos intentos de crear coches voladores, y teniendo en cuenta los posibles avances de la industria, “hay tres factores que diferencian y que, con toda la probabilidad, seguirán diferenciando la movilidad aérea de la terrestre: el consumo de energía, el coste económico y el ciclo de mantenimiento”.
Esto hace pensar en que la movilidad aérea masiva es más propia de la ciencia ficción que de las ciudades del futuro. Entonces, se preguntó Rivera, ¿a qué se debe esa insistencia en desarrollar un sistema de movilidad más caro, que consuma más energía y más complicado de mantener? “Quizás para que puedan saltarse los atascos los mismos que van a poder hacer turismo en el espacio exterior. Personalmente, preferiría pensar en cómo eliminar los atascos urbanos”. Y Rivera tiene clara cuál es la receta más realista, barata y menos contaminante para conseguirlo: utilizar el transporte público y dejar, cuando se pueda, el coche aparcado en casa.
El ponente quiso cerrar su intervención con un apunte optimista. “En los últimos años estamos empezando a desarrollar una nueva forma de volar -la cuarta- que nos va a permitir propulsarnos a los cielos sin requerir siquiera de partes móviles. A este invento se le conoce como el propulsor eléctrico-hidrodinámico. Eso sí, para ello va a ser necesario que desarrollemos acumuladores de energía eléctrica mucho más capaces de los que existen en la actualidad, pero eso es algo en lo que estamos trabajando y que no está prohibido por ninguna ley física. ¿Será así como volemos en el futuro?”. Sea lo que sea lo que nos depare el futuro, al menos, siempre nos quedará volar con la imaginación o seguir disfrutando con los relatos de ciencia ficción, a poder ser desde el asiento del Metro o desde un autobús poniendo de vez en cuando la vista en el cielo.
El artículo Naukas Bilbao 2021: Coches voladores, ¿transporte del futuro o cosas de la ciencia ficción? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: