Estamos en Naukas Bilbao. Síguelo en directo
El evento de divulgación científica de referencia vuelve a Bilbao los días 20 y 21 de septiembre. Un año más la ciencia vuelve a subirse al escenario del Euskalduna Bilbao en una nueva edición de NAUKAS Bilbao en el que las breves charlas científicas llenas de humor volverán a ser las protagonistas.
A lo largo de la mañana y la tarde del viernes y el sábado, decenas de conferenciantes hablarán sobre los temas científicos más variados respetando siempre el formato NAUKAS: charlas breves (10 minutos por persona) y amenas. Este es el programa definitivo.
La entrada es libre hasta completar aforo y, además, puedes seguir el evento en streaming en el canal Kosmos de EITB.
El artículo Estamos en Naukas Bilbao. Síguelo en directo se ha escrito en Cuaderno de Cultura Científica.
El proyecto Orión y un señor de Murcia
A caballo entre la invención de la bomba atómica y el comienzo de la carrera espacial, el año 1946 contaba con los dos principales ingredientes que llevaron al matemático de origen polaco Stanislaw Ulam a imaginar uno de los métodos de propulsión de naves más… ¿originales? ―no sé ni cómo describirlo―de la historia: la propulsión nuclear de pulso. Y es que… ¿Qué podría salir mal si intentamos viajar por el espacio utilizando explosiones atómicas para desplazar nuestro vehículo? Es posible que todo, y, sin embargo, ese no fue el motivo por el que la idea que, de hecho, demostró no ser mala del todo, se descartó. Aún más: aunque en su momento se presentó como algo completamente innovador, ni siquiera lo era tanto. Esta es la historia del Proyecto Orión y del señor de Alhama de Murcia que ya pensó algo similar unos cincuenta años antes.
La idea de utilizar explosiones nucleares como modo de propulsión de naves estelares se le ocurrió al matemático polaco Stanislaw Ulam en 1946. Un año después de los ataques de Hiroshima y Nagasaki.Créditos: Los Alamos National Laboratory
Los cálculos preliminares de la idea de la propulsión nuclear a pulso a la que Ulam le había estado dando vueltas a lo largo de 1946 quedaron plasmados en un breve memorándum que escribió junto con Fred Reines al año siguiente, pero no quedó ahí la cosa. Años después, en 1955 ―antes del lanzamiento del Sputnik―, amplió esos cálculos y publicó con Cornelius Everett un documento mucho más detallado, On a method of propulsion of projectiles by means of external nuclear explosion, en el que se evidenciaba que aquella locura, podría no serlo tanto, y daban una descripción más pormenorizada de la idea:
El esquema propuesto en el presente informe implica el uso de una serie de reactores desechables (bombas de fisión) que se van expulsando y detonando a una distancia considerable del vehículo y que liberan la energía necesaria en un «motor» externo que consiste esencialmente en espacio vacío. La cuestión crítica sobre este método gira en torno a su capacidad para aprovechar las reservas reales de energía nuclear liberada a las temperaturas de la bomba sin destruir o derretir el vehículo.
Que la nave pudiera acabar destruida o las posibles consecuencias que la radiación resultante de las explosiones pudiera tener sobre los ocupantes del vehículo se planteaba más como una cuestión de ingeniería que de física. La ciencia, en principio, no ponía ninguna objeción a priori. En aquellos años en los que el espacio dejó de pertenecer al mundo de la fantasía y las historias de ciencia ficción para convertirse en una posibilidad,Stanislaw Ulam promovió incansablemente su idea, hasta que, tal vez apremiados por el éxito del Sputnik y la ventaja que el primer satélite artificial le dio a la URSS en la carrera espacial, ARPA ―la Agencia de Proyectos de Investigación Avanzados, hoy DARPA― decidió financiarlo con 999 750 $.
En junio de 1958, el Proyecto Orión empezó a pasar del papel a la práctica de la mano de los físicos Ted Taylor, de General Atomic, y Freeman Dyson, que se tomó un año sabático a instancias del primero en el Instituto de Estudios Avanzados de Princeton. Un año después, en 1959, se llevaban a cabo las primeras pruebas del diseño en la base militar de Point Loma (San Diego, California); eso sí, con explosivos convencionales. Y llegó a funcionar relativamente bien.
Tal fue así que uno de los prototipos se encuentra en el Museo Nacional del Aire y el Espacio, en Washington.
Prototipo de la nave del Proyecto Orión que se conserva en el Museo Nacional del Aire y el Espacio.Créditos: Gulf General Atomics Division, General Dynamics Corporation. Fuente.
El sistema, a muy grandes rasgos, funcionaba así: las explosiones nucleares liberarían una gran cantidad de energía en forma de radiación y partículas que moverían un amortiguador de inercia que, a su vez, transmitiría el impulso a la nave ―recomiendo muchísimo este artículo de Daniel Marín donde explica de manera mucho más exhaustiva todos los detalles―.
Diseño de la NASA de un posible vehículo con propulsión nuclear de pulso. Créditos: Dominio Público/NASA¿Por qué terminó entonces el proyecto? Por varios motivos, pero, principalmente, debido al Tratado de Prohibición Parcial de Ensayos Nucleares en la Atmósfera, en el Espacio Exterior y Bajo el Agua que 113 países firmaron en 1963. ¿Cómo hubiera sido una nave que hubiera utilizado este sistema si se hubiera construido? Algunos la han imaginado. Aquí podemos ver la simulación de funcionamiento de una nave así:
No solo eso, las relaciones entre el Proyecto Orión y la literatura de ciencia ficción pueden encontrarse casi por todas partes. Muchos de los ideólogos y participantes, entre ellos el propio Stanislaw Ulam o Freeman Dyson, mencionaron en su momento las obras de Julio Verne o las aventuras de Buck Rogers como fuente de inspiración. Y, por supuesto, este método de propulsión apareció en las historias de Robert A. Heinlein, Arthur C. Clarke, Larry Niven y Jerry Pournelle, y, más recientemente, de Charles Stross o en la famosa trilogía de los Tres Cuerpos de Liu Cixin.
Bueno, todo esto está muy bien y ya se ha escrito mucho sobre ellos, pero… ¿Qué tiene que ver el Proyecto Orión con un señor de Murcia? Que, si bien cuando vivió dicho señor todavía quedaba mucho para el desarrollo de la energía atómica ―J. J. Thomson acababa de descubrir el electrón apenas en aquel momento―, tuvo la idea de utilizar explosivos para alimentar un motor ya a finales del siglo XIX.
A juzgar por esta caricatura que Joaquín Xaudaró le dedica en la revista Blanco y Negro en junio de 1898, Manuel Daza no fue un desconocido en su época. Créditos: Dominio Público/Joaquín XaudaróManuel Daza y Gómez fue un ingeniero e inventor español nacido en Alhama de Murcia en 1853 al que se le ocurrieron cosas tan locas como «el Toxpiro […], el fuego venenoso, la venganza española, una supuesta máquina infernal capaz de disparar proyectiles explosivos a gran distancia», según explica Alejandro Polanco en su blog. Entre esas locuras, existe una patente suya fechada en 1898 de un motor que utiliza principios muy similares, aunque utilizando pólvora como detonante de las bombas, a los del Proyecto Orión:
Componen este motor dos organismos esenciales, un generador, en el que se desarrolla la energía, y un receptor, donde con ella se obtiene un movimiento circular con las condiciones convenientes para su aplicación a obtener un trabajo cualquiera.
El generador figuras 1.ª y 2.ª es un cilindro de hierro o acero cerrado por una de sus bases y lleno de pólvora que detrás de él se comprime en la medida necesaria el tiempo que debe durar la combustión.
Y acompaña la descripción con los planos del dispositivo.
Existen más de una veintena de patentes a nombre de este ingeniero ya, en gran medida, olvidado, que nada tienen que envidiar a las de sus pares estadounidenses de la época. Entre ellas, se pueden encontrar, entre otros ingenios, generadores, pilas, limitadores de corriente, «un bastón encendedor eléctrico» ―no estoy segura de si esto es exactamente lo que parece, una especie de bastón-mechero―, motores de viento, bicicletas de madera, trituradores y hasta procesos de aprovechamiento de materiales que hoy podrían ayudar al tan necesario reciclaje. Y no fue el único que tuvo visiones innovadoras y disruptivas en aquella época en nuestro país.
Aunque estoy convencida de que muchos habían oído ya hablar del Proyecto Orión, seguramente muy pocos habían oído hablar de Manuel Daza. Sin embargo, lo cierto es que en España hubo, como él, muchos más ingenieros e inventores que, sin llamarse Thomas (Edison), Alexander (Graham Bell) o Charles (Babbage), y con nombres como Leonardo (Torres Quevedo), Elia (Garci-Lara Catalá) o Emilio (Herrera Linares), no tenían nada que envidiarles.
Agradecimiento:
Quiero dar las gracias a Alejandro Polanco Masa por su gran labor de investigación en todo lo referente a infinitud de inventos españoles olvidados, y por poner a mi disposición los documentos de la patente de Manuel Daza para poder escribir este artículo.
Bibliografía
Daza y Gómez, M. (1898). Motor Daza. N.º de patente ES22411. Ministerio de Fomento.
Dyson, G. (2003). Project Orion: the true story of the atomic spaceship. Holt paperbacks.
Everett, C. J. Y Ulam S. M (1955). On a method of propulsion of projectiles by means of external nuclear explosions. Part I. Los Alamos Scientific Laboratory of the University of California.
Marín, D. (14 de octubre de 2010). Orión: la nave imposible. Eureka.
Palao Poveda, G. y Sáiz González, J. P. (2004). Las patentes de invención de Manuel Daza. Revista de Estudios Yeclanos. Yakka, 14, 177-180.
Polanco Masa, A. (2024). 365 inventos made in Spain. Glyphos.
Polanco Masa, A. (7 de agosto de 2008). Manuel Daza y su arma secreta. Tecnología Obsoleta.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo El proyecto Orión y un señor de Murcia se ha escrito en Cuaderno de Cultura Científica.
La circunferencia de los nueve puntos
La entrada del Cuaderno de Cultura Científica titulada La recta de Euler estaba dedicada al resultado geométrico conocido como el teorema de la línea de Euler, que dice que tres de los puntos notables asociados a un triángulo cualquiera, el ortocentro, el circuncentro y el baricentro, se encuentran en una misma línea, que se conoce con el nombre de línea de Euler. Además, al final de la entrada se comentaba que, junto al ortocentro, el circuncentro y el baricentro de un triángulo, existen otros puntos definidos con relación al triángulo que también están en la recta de Euler, uno de ellos era el centro de la circunferencia de los nueve puntos. La entrada de hoy la vamos a dedicar precisamente a esta figura geométrica, la circunferencia de los nueve puntos.
Squared Rectangle and Euler Line / Rectángulo cuadrado y línea de Euler (1972), del dibujante e ilustrador infantil estadounidense Crockett Johnson (1906-1975). Imagen de la página web de The National Museum of American HistoryLa línea de EulerAntes de nada, vamos a recordar brevemente el teorema de la línea de Euler que, aunque no se necesita para explicar qué es la circunferencia de los nueve puntos, sí está relacionado con ella, como se ha comentado.
Dado un triángulo cualquiera, los tres puntos notables asociados al triángulo que se mencionan en el teorema de la línea de Euler son el ortocentro, el circuncentro y el baricentro. El ortocentro es el punto de intersección de las tres alturas del triángulo (o las rectas que las extienden), el circuncentro es el punto de intersección de las tres mediatrices (la mediatriz de un segmento es la recta perpendicular al mismo que pasa por su punto medio) de los lados del triángulo y el baricentro es el punto de intersección de las tres medianas (una mediana de un triángulo es el segmento de recta que pasa por un vértice y el punto medio del lado opuesto) del triángulo. Esos tres puntos del plano podrían no estar alineados, como ocurre en general para tres puntos cualesquiera, sin embargo, estos tres puntos sí van a estar sobre una misma línea recta, como afirma este teorema.
Teorema de la línea de Euler: Dado un triángulo cualquiera ABC, el ortocentro O, el circuncentro CC y el baricentro BC son colineales (a la recta que incluye a los tres puntos se la denomina línea de Euler). Además, la distancia del ortocentro O al baricentro BC es igual a dos veces la distancia del baricentro BC al circuncentro CC.
El ortocentro O, el circuncentro CC y el baricentro BC de un triángulo ABC están alineados y la recta que los contiene es la línea de EulerEl matemático suizo Leonhard Euler (1707-1783), el matemático más prolífico de todos los tiempos, incluía este resultado en su artículo titulado Solutio facilis problematum quorundam geometricorum difficillimorum / Soluciones fáciles para algunos problemas geométricos difíciles y, que fue publicado en la revista Novi Commentarii academiae scientiarum Petropolitanae en 1767, aunque se presentó a la Academia de Ciencias de San Petersburgo en diciembre de 1763.
La circunferencia de los nueve puntosDado un triángulo cualquiera, vamos a considerar tres grupos de tres puntos, luego nueve puntos en total, definidos geométricamente en relación con el triángulo.
El primer grupo de tres puntos consiste en los pies de las tres alturas del triángulo. Por ejemplo, en la siguiente imagen tenemos un triángulo ABC cualquiera. Desde el vértice A se traza la recta que pasa por A y corta perpendicularmente al lado opuesto del triángulo (o a la recta que lo contiene), el lado BC, que es la altura del triángulo ABC desde el vértice A y se denota A’ al punto de corte, que es el pie de esa altura. Desde el punto B se traza la correspondiente altura, es decir, la recta que corta perpendicularmente al lado opuesto AC y se considera el punto de corte, B’, el pie de esta altura. Y desde C se traza también la altura y se denota por C’ el pie de la misma.
Un triángulo ABC cualquiera, sus alturas y los pies de las mismas A’, B’ y C’
Ya tenemos el primer grupo de tres puntos, los pies de las tres alturas. Para considerar el siguiente grupo de tres puntos, vamos a tomar la intersección de las tres alturas (o de las rectas que las contienen), el ortocentro. Entonces, los puntos que nos interesan son los puntos medios de los segmentos que unen cada vértice con el ortocentro, que se denominan puntos de Euler. Si consideramos el triángulo ABC anterior, O es el ortocentro, los puntos de Euler son A’’, B’’ y C’’, que son los puntos medios de los segmentos OA’, OB’ y OC’.
Un triángulo ABC cualquiera, los pies de las alturas A’, B’ y C’, el ortocentro O y los puntos de Euler A’’, B’’ y C’’, que son los puntos medios de los segmentos OA’, OB’ y OC’
El siguiente grupo de tres puntos son los puntos medios de los lados del triángulo. Si volvemos al triángulo ABC, el punto medio del segmento AB es C’’’, el punto medio del segmento BC es A’’’ y el punto medio del segmento CA es B’’’.
Nueve puntos destacados de un triángulo ABC: los pies de las alturas A’, B’ y C’, los puntos de Euler A’’, B’’ y C’’, y los puntos medios de los lados del triángulo A’’’, B’’’ y C’’’
Ya están establecidos los tres grupos de tres puntos asociados a un triángulo y que aparecen en el teorema de la circunferencia de los nueve puntos, que enunciamos a continuación.
Teorema de la circunferencia de los nueve puntos: Dado un triángulo cualquiera ABC, los pies de las alturas del triángulo, los puntos de Euler y los puntos medios de los lados del triángulo están en una misma circunferencia, conocida como circunferencia de los nueve puntos.
Los nueve puntos destacados del triángulo ABC, los pies de las alturas A’, B’ y C’, los puntos de Euler A’’, B’’ y C’’, y los puntos medios de los lados del triángulo A’’’, B’’’ y C’’’, están en una misma circunferencia (roja en la imagen)La circunferencia de Feuerbach
Uno de los muchos nombres que recibe la circunferencia de los nueve puntos es circunferencia de Euler, puesto que según algunos autores ya era conocida por el matemático suizo, entre otros Heinrich Dorrie, autor del interesante libro 100 Great Problems of Elementary Mathematics: Their History and Solutions. Sin embargo, como explica el matemático John Sturgeon Mackay (1843-1904) en su artículo History of the nine-point circle / Historia de la circunferencia de los nueve puntos, no hay ninguna referencia a esta circunferencia en las obras de Euler:
El primer autor al que se ha atribuido el descubrimiento del círculo de nueve puntos es Euler, pero nadie ha dado nunca una referencia a ningún pasaje de los trabajos de Euler en el que se afirme, o se implique, la propiedad característica de esta circunferencia. La atribución a Euler es simplemente un error, y el origen del error puede, creo, explicarse.
Según Mackay, el error viene de un texto del matemático Eugène Charles Catalan (1814-1894), el libro Théorèmes et Problèmes Géométrie élémentaire, que en sus quinta y sexta ediciones atribuye el resultado a Euler, al malinterpretar dos artículos del matemático francés Olry Terquem (1782-1862) que tienen prácticamente el mismo título, lo que provoca la confusión. El primero titulado Considerations sur le triangle rectiligne, d’apres Euler / Consideraciones sobre el triángulo rectilíneo, según Euler (1842) y el segundo con el mismo título, salvo la expresión “según Euler”, y publicados además en el mismo número de la misma revista. Mientras que en el primero se recogían resultados de Euler, el segundo se dedicaba a resultados desarrollados por el propio Terquem y empezaba con el teorema de la circunferencia de los nueve puntos.
La primera vez que se menciona explícitamente la circunferencia de los nueve puntos es en un artículo publicado por el matemático, químico y militar francés Charles Julien Brianchon (1783-1864) y el matemático e ingeniero francés Jean-Victor Poncelet (1788-1867), en la revista Annales de Mathematiques, en 1821.
Dibujo del matemático alemán Karl Wilhelm Feuerbach
Un año después, el matemático alemán Karl Wilhelm Feuerbach (1800-1834) demostró la existencia de esta circunferencia, pero mencionando que pasa por seis puntos, los puntos medios de los lados del triángulo y los pies de las alturas (por este motivo en ocasiones se llama circunferencia de los seis puntos), en su pequeño libro Eigenschaften einiger merkwürdigen Punkte des geradlinigen Dreiecks und mehrerer durch sie bestimmten Linien und Figuren / Propiedades de algunos puntos peculiares del triángulo rectilíneo y de varias rectas y figuras determinadas por ellos (1822). Así mismo, demostró un resultado relacionado con esta circunferencia, que se conoce como teorema de Feuerbach y que presentamos más adelante. De manera que a la circunferencia de los nueve puntos se la suele conocer como circunferencia de Feuerbach, que es un nombre que se utiliza frecuentemente, y a su centro como centro de Feuerbach.
Además, el centro de Feuerbach, o centro de la circunferencia de los nueve puntos, se encuentra sobre la recta de Euler, que se presentó en la anterior entrada La recta de Euler.
El teorema de FeuerbachPor lo tanto, dado un triángulo cualquiera la circunferencia que pasa por los pies de las alturas, por los puntos de Euler y por los puntos medios de los lados recibe muchos nombres, desde circunferencia de Euler, que resulta ser confuso e incorrecto, hasta el más habitual, circunferencia de los nueve puntos, pasando por circunferencia de los seis puntos y circunferencia de Feuerbach, entre otros que ya comentaremos.
La existencia de la circunferencia de los seis puntos no fue lo único que demostró el matemático alemán, también probó, entre otros resultados relacionados con esta circunferencia, el conocido teorema de Feuerbach, que enunciamos a continuación.
Teorema de Feuerbach: Dado un triángulo cualquiera ABC, la circunferencia de los seis puntos es tangente a las circunferencias inscrita y exinscritas del triángulo.
Dado un triángulo cualquiera ABC, la circunferencia de los seis puntos (en rojo en la imagen) es tangente a las circunferencias inscrita (azul claro) y exinscritas (azul oscuro) al triángulo
Como escribe el matemático estadounidense Howard H. Eves (1911-2004) en su clásico Mathematical circles / Círculos matemáticos (2003), “Los geómetras consideran universalmente que el llamado teorema de Feuerbach es sin duda uno de los teoremas más bellos de la geometría moderna del triángulo”. De hecho, después de Feuerbach muchos otros matemáticos demostraron este resultado o generalizaciones del mismo. Por ejemplo, el matemático británico Thomas S. Davies (1795-1851) en su artículo Symmetrical properties of plane triangles (1827), que ya añadía los puntos de Euler a los seis considerados por Feuerbach, el matemático suizo Jakob Steiner (1796-1863), que publicó algunos resultados generalizando el teorema de la circunferencia de los nueve puntos en el artículo Developpement dune serie de theoremes relatifs aux sections coniques (1828) y en el libro Die geometrischen Constructionen, ausgefuhrt mittelst der geraden Linie und eines festen Kreises (1833), en el cual demostraba que la circunferencia de los nueve puntos pasaba por tres puntos notables más, doce en total (motivo por el cual esta circunferencia se conoce también con el nombre de circunferencia de los doce puntos) o el matemático francés Olry Terquem, que es quien le pone nombre a la circunferencia, llamándola “circunferencia de los nueve puntos”, en su artículo de 1842, en el que da una nueva demostración analítica del teorema de Feuerbach.
Grabado de Jakob Steiner realizado por el grabador August Weger en 1881¿Qué fue de Feuerbach?
Vamos a terminar esta entrada del Cuaderno de Cultura Científica con la triste historia de Karl Feuerbach, el matemático que demostró de uno de los teoremas más hermosos de la geometría moderna, por el cual ha pasado a formar parte de la historia de las matemáticas, pero que no ha destacado por ninguna otra gran contribución. Por este motivo, el matemático Howard Eves, en Mathematical circles, se pregunta cuál es el motivo por el cual no ha producido más resultados matemáticos relevantes, qué fue de su vida y por qué murió tan joven, a la edad de 33 años (casi 34).
Ilustraciones al final del pequeño libro Propiedades de algunos puntos peculiares del triángulo rectilíneo y de varias rectas y figuras determinadas por ellos (1822), de Karl W. Feuerbach, en las que podemos apreciar una ilustración del conocido teorema de FeuerbachKarl W. Feuerbach nació en la ciudad alemana de Jena el 30 de mayo de 1800. Su padre fue un famoso jurista y Karl fue el tercero de un total de once hermanos, entre ellos el filósofo Ludwig Feuerbach. Estudio en las universidades de Erlangen y Freiburg, doctorándose en esta última a la edad de 22 años. Entonces se convirtió en profesor en el Gymnasium (instituto de educación secundaria) de Erlangen. Fue entonces, en 1822, cuando publicó el pequeño libro que contenía el hermoso teorema al que hemos dedicado esta entrada.
En mayo de 1824, mientras se dirigía al Gymnasium, fue detenido. Karl, junto a otros diecinueve jóvenes, fue encarcelado en Munich, donde permanecieron incomunicados durante varios meses. Fueron detenidos por el carácter político de algunas de las actividades organizadas por una asociación a la que pertenecieron cuando eran estudiantes.
Parece ser que durante el encarcelamiento se obsesionó con la idea de que solo con su muerte podía conseguir que liberasen a sus compañeros, por lo que intentó suicidarse en dos ocasiones. La primera se cortó las venas de los pies, pero antes de morir desangrado fue descubierto y trasladado en estado inconsciente a un hospital. Mientras que en la segunda ocasión saltó por una ventana después de escaparse por un pasillo, pero la nieve que había en el exterior amortiguo la caída y no consiguió quitarse la vida, aunque quedó lisiado. Tras este incidente, Karl fue puesto en libertad condicional, bajo la custodia de un antiguo profesor amigo de la familia.
Uno de sus compañeros sí murió durante su encarcelamiento, pero nadie fue liberado. Permanecieron bajo arresto hasta que se celebró el juicio catorce meses después, cuando fueron declarados inocentes y puestos en libertad.
La hipérbola de Feuerbach, que es una hipérbola que pasa por el ortocentro y cuyo centro es el punto de tangencia entre la circunferencia de los nueve puntos y la circunferencia inscrita del triángulo
Tras salir de prisión volvería a trabajar de profesor, esta vez en el Gymnasium de Hof, pero al poco tiempo sufrió una crisis nerviosa y tuvo que dejar el centro. En 1828, recuperado ya de la crisis nerviosa volvió a la docencia en el Gymnasium de Erlangen, en el que ya había trabajado. Sin embargo, un día se presentó en clase con una espada y amenazó con decapitar a aquellos estudiantes que no resolvieran unas ecuaciones que había escrito en la pizarra. Después de este episodio fue obligado a jubilarse de forma permanente.
Como comenta Eves, poco a poco se fue alejando de la realidad, se dejó crecer el pelo, la barba y las uñas, y se redujo a un estado de mirada perdida y murmullos ininteligibles. Vivió seis años retirado en Erlangen, tras los cuales murió el 12 de marzo de 1834, a la edad de 33 años.
Nine Point Circle and Euler Line for an Acute Triangle / Circunferencia de los nueve puntos y línea de Euler para un triángulo agudo (2017), del profesor de matemáticas de secundaria jubilado Stephen Kenney. Lápiz de color sobre papel. Presentado en la exposición de arte del 2019 Joint Mathematics MeetingsBibliografía
1.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.
2.- Heinrich Dorrie, 100 Great Problems of Elementary Mathematics: Their History and Solutions, Dover, 1965.
3.- Howard Eves, A Survey of Geometry, Allyn and bacon, 1972.
4.- John Sturgeon Mackay, History of the nine-point circle,Proceedings of the Edinburgh Mathematical Society 11, pp. 19-61, 1892.
5.- Howard H. Eves, Mathematical Circles, The Mathematical Association of America (MAA), 2003.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo La circunferencia de los nueve puntos se ha escrito en Cuaderno de Cultura Científica.
Buscando materia oscura con un observatorio de ondas gravitacionales
En la actualidad, el consenso científico es que la mayor parte de la materia del universo es materia oscura compuesta de partículas exóticas invisibles desde la Tierra. Muchas predicciones del modelo convencional de la materia oscura fría coinciden con las observaciones, pero una de las discrepancias de la teoría es su incapacidad para describir con precisión la estructura de las galaxias enanas. En 2000 se propuso que si las partículas de materia oscura tuvieran una masa extremadamente pequeña, su naturaleza cuántica, ondulatoria por tanto, distribuiría automáticamente la masa en los centros de las galaxias enanas y el modelo se acercaría más a las observaciones. Según esta idea, denominada “materia oscura del campo escalar” (o, a veces, “materia oscura fría difusa”), dichas partículas formarían un gigantesco condensado de Bose-Einstein –un estado normalmente asociado con átomos ultrafríos en los laboratorios de física– dentro y alrededor de cada galaxia.
¿Cómo comprobar un modelo así? Usando observatorios como LIGO. LIGO y otros observatorios de ondas gravitacionales detectan las ondas gravitacionales a través de cambios minúsculos (tan pequeños como la millonésima parte del ancho de un núcleo atómico) en la longitud de los brazos del interferómetro, de un kilómetro de longitud.
Esquema del interferómetro de LIGO. El divisor de haz (beam splitter) está marcado como BS en el centro de la figura. Fuente: Göttel et al (2024).El modelo predice que la materia oscura del campo escalar debería causar oscilaciones en las constantes fundamentales, a saber, la masa del electrón y la constante de estructura fina. Dichas oscilaciones podrían hacer que la materia se encoja y se expanda a una velocidad que depende de la masa de la partícula del campo escalar. Los detectores de ondas gravitacionales podrían por ello ser sensibles a la materia oscura del campo escalar, ya que debería causar cambios de tamaño en el equipo del interferómetro. Un nuevo análisis de los datos de LIGO no encuentra señales de cambio de tamaño, lo que implica nuevas limitaciones para este modelo de materia oscura.
El equipo de investigadores ha buscado efectos de oscilación en los datos del tercer ciclo de observación de LIGO (2019-2020). No son los primeros en realizar una búsqueda de este tipo, pero su análisis da cuenta de una gama más amplia de efectos. Si bien toda la materia se vería influenciada por el campo escalar, la mayoría de los efectos se cancelarían en LIGO, excepto la señal del divisor de haz (beam splitter, BS en el centro de la figura). El divisor de haz se encuentra en el centro del detector y cualquier cambio en su tamaño cambiaría el patrón de interferencia del láser. Los investigadores no encuentran ninguna señal a una frecuencia de 10 Hz, lo que establece los límites más fuertes hasta ahora para la materia oscura del campo escalar con una masa de 10–13 eV/c2. Planean seguir buscando en futuros conjuntos de datos de LIGO y detectores de próxima generación.
Referencias:
Wayne Hu, Rennan Barkana, and Andrei Gruzinov (2000) Fuzzy Cold Dark Matter: The Wave Properties of Ultralight Particles Phys. Rev. Lett. doi: 10.1103/PhysRevLett.85.1158
Alexandre S. Göttel, Aldo Ejlli, Kanioar Karan, Sander M. Vermeulen, Lorenzo Aiello, Vivien Raymond, and Hartmut Grote (2024) Searching for Scalar Field Dark Matter with LIGO Phys. Rev. Lett. doi: 10.1103/PhysRevLett.133.101001
Michael Schirber (2024) Dark Matter Search in Gravitational-Wave Data Physics 17, s101
Para saber más:
Ondas gravitacionales en la materia oscura
Los púlsares imponen un nuevo límite a la materia oscura ultraligera
La materia oscura auto-interactuante y las curvas de rotación de las galaxias
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Buscando materia oscura con un observatorio de ondas gravitacionales se ha escrito en Cuaderno de Cultura Científica.
¿De dónde proceden los meteoritos de Marte?
De los más de 80.000 meteoritos que tenemos registrados hoy día en las bases de datos científicas, apenas tenemos contabilizados algo menos de 390 meteoritos cuya procedencia se pueda adscribir con cierto grado de certidumbre al planeta Marte. O lo que es lo mismo, los meteoritos marcianos apenas representan un 0.5% del total de meteoritos que hemos encontrado hasta la fecha.
Esto no quiere decir que estén incluidos todos los que se han podido localizar o hayan caído sobre nuestro planeta, sino que, y remarco esto, son los que de manera fehaciente hemos podido asignar al planeta rojo como su lugar procedencia. E incluso es probable que alguno que haya caído en el pasado todavía no se haya podido encontrar -especialmente si cayó en alguna zona remota o de difícil acceso- y aguarde a ser descubierto algún día.
A la vista de lo dicho en los párrafos anteriores, la pregunta que da título a este artículo puede parecer absurda, pero no lo es. Marte es un planeta “muy” grande -al menos si lo comparamos con la mayoría de asteroides de los que suelen proceder los meteoritos- y hay diferencias geológicas y geoquímicas sustanciales entre unas zonas y otras del planeta, por lo que estos se sitúan como una pieza fundamental para comprender la historia del planeta, como si estuviésemos completando una especie de complicado puzle en el que no solo tenemos que situar todas las piezas como si fuesen un mapa en dos dimensiones, sino que probablemente también representen momentos diferentes de la historia del planeta, añadiendo una tercera dimensión que puede complicar más la interpretación de estos meteoritos y el contexto geológico del que provienen.
Imagen del archiconocido meteorito marciano ALH84001, encontrado en la Antártida en el año 1984. Cortesía de NASA/JSC/Universidad de Stanford.¿Qué tipo de meteoritos hemos encontrado? Pues en su inmensa mayoría están compuestos por rocas ígneas, formadas por la solidificación de un magma en el interior del planeta o en su superficie y cuyos grupos principales son las Shergotitas -siendo estas a su vez la que da nombre al grupo más numeroso de meteoritos marcianos, formando un ~75% de los meteoritos que tenemos identificados-, las Nakhlitas, las Chasignitas (estos tres tipos forman el supergrupo SNC de meteoritos marcianos) y las ortopiroxenitas. Por cierto, dentro de este último grupo se encuentra el archiconocido meteorito ALH 84001, que saltó a la prensa a mediados de la década de los 90 por encontrarse unas formas en él que “recordaban” a posibles fósiles de bacterias y que generaron una gran controversia en el mundo científico.
Pero volvamos al asunto que hoy nos trae hasta aquí. Marte es un planeta complejo, cuya superficie ha estado marcada por erupciones volcánicas, la presencia de hielo y agua, la formación de cráteres de impacto y, por supuesto, la erosión, que continúa hoy en día. Estos procesos han marcado una evolución que puede provocar que, incluso meteoritos que provengan de una misma zona, puedan tener características diferentes, complicando mucho su interpretación y averiguar su verdadera procedencia.
Una nueva investigación publicada en Science Advances por Herd et al. (2024) podría suponer un importante cambio en nuestro conocimiento sobre la procedencia de los meteoritos marcianos que ya tenemos y los que vayamos a encontrar: Combinando los datos de modelos físicos de impacto, datos de teledetección -los que toman las sondas desde la órbita marciana- y las cronologías de los cráteres -las que nos permiten calcular la edad de la superficie de Marte- han podido identificar los posibles lugares de donde algunos de los meteoritos que tenemos en la Tierra fueron eyectados.
Otro punto interesante del estudio es como han interpretado los distintos aspectos observados en los minerales de los meteoritos y que aparecen como consecuencia de la inmensa energía del impacto. Gracias a este detalle los investigadores han podido estimar el tamaño de los cráteres de los que podrían provenir los meteoritos e incluso la profundidad de los materiales -dentro de la corteza del planeta- antes de ser expulsados, lo que ha ayudado a restringir los posibles cráteres de los que podrían proceder.
Aquí podemos ver uno de los posibles cráteres marcianos, en este caso el Corinto, que serían responsables de “enviarnos” meteoritos a nuestro planeta. Obsérvese la particular forma en “huevo frito” o cráter de tipo Rampart. Cortesía de NASA/JPL/ASU.Con estos datos han identificado unos cráteres concretos como fuente de algunos de los meteoritos marcianos. Entre los más destacables tenemos Chakpar, Domoni, Kotka, Tooting y Corinto. Este último, por cierto, es un cráter de “récord” ya que se estima que su formación dio lugar a unos 2000 millones de cráteres secundarios en Marte, es decir, cráteres formados por el impacto del material expulsado durante un evento de impacto.
Pero más allá de la procedencia, los autores hacen una serie de anotaciones muy interesantes sobre la geología de Marte: haciendo esta unión entre los meteoritos y sus cráteres “progenitores”, se puede intentar reconstruir la historia volcánica del planeta Marte, lo que nos permite conocer mejor manera los procesos que han transformado el planeta.
La mayor parte de cráteres de esta imagen -que prácticamente está salpicada por estos- son cráteres secundarios, formados por los materiales eyectados durante un impacto contra la superficie de Marte y que al caer a gran velocidad forman nuevos cráteres. Imagen cortesía de NASA/JPL/MSSS/UA.De hecho, las diferencias composicionales en los meteoritos las interpretan de tal manera que el manto del planeta no tendría una composición o unas características homogéneas, sino que ha estado dividido en distintas “reservas” magmáticas que han contribuido de manera diferente a la historia volcánica del planeta y, por lo tanto, dando lugar a rocas ígneas diferentes.
Y pongo un ejemplo: Los meteoritos que procederían del cráter Corinto sugieren que el manto que hay debajo de Elysium Planitia estaba más enriquecido en elementos incompatibles -elementos que no entran fácilmente en la estructura de los minerales más comunes durante la cristalización de los magmas y que, por lo tanto, se tienden a concentrar en la fase fundida, formando minerales en rocas mucho más tardías– que el manto que existía bajo la región de Tharsis, mostrando la existencia de un manto en Marte con diferentes composiciones según la zona y por lo tanto dando lugar a fenómenos volcánicos diferenciados, al menos a nivel geoquímico.
Otro aspecto reseñable es el gran sesgo que existe en cuanto a los tipos de meteoritos marcianos que han llegado a nuestro planeta: la mayoría son relativamente jóvenes, con edades de unos pocos cientos de millones de años a unos pocos miles de millones de años, algo que provoca un fuerte contraste con la distribución de edades que conocemos de la superficie de Marte, y que en su mayoría es muy antigua. Este sesgo deja claro que solo con los meteoritos no podemos tener una imagen clara y representativa de la historia de Marte, sino quizás solo de determinados episodios.
Eso si, el estudio nos abre la puerta a que, de cara a futuras misiones, podamos escoger zonas de Marte de donde procedan estos meteoritos para poder confirmar que efectivamente vienen de ahí o incluso acercarnos a otras cuyos cráteres, por tamaño o características, podrían haber enviado meteoritos a nuestro planeta, pero que todavía no hayan sido identificados de una manera correcta o definitiva.
Y, por supuesto, de cara a futuras misiones de retorno de muestras, el hecho de que ya dispongamos de meteoritos de algunas de las zonas podría ayudarnos a escoger otras de las que no tengamos ninguna para poder completar, pieza a pieza, la historia del planeta rojo.
Referencias:
Christopher, et al. (2024) The Source Craters of the Martian Meteorites: Implications for the Igneous Evolution of Mars Science Advances doi: 10.1126/sciadv.adn2378
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo ¿De dónde proceden los meteoritos de Marte? se ha escrito en Cuaderno de Cultura Científica.
Así puede la divulgación mejorar la educación en disciplinas STEM
La enseñanza en disciplinas de Ciencia, Tecnología, Ingeniería y Matemáticas (STEM, por sus siglas en inglés), presenta ciertos retos comunes debido a la alta complejidad de su cuerpo de conocimientos y a una elevada presencia de conceptos abstractos que dificultan el aprendizaje. Además, se ha documentado que existe una dificultad específica para establecer conexiones entre los conceptos aprendidos y los conocimientos previos en estas disciplinas; una realidad que se ve agravada por una tendencia a impartir las asignaturas como silos independientes, sin fortalecer sus interrelaciones y sin contextualizarlas en la imagen global de las disciplinas.
Esta situación predispone al alumnado a considerar que el estudio de disciplinas STEM implica una dificultad muy elevada; y esta percepción tiene una fuerte vinculación con las elevadas tasas de abandono y la escasez de vocaciones científicas.
Sin embargo, hay recursos que el profesorado puede tener en consideración para mitigar muchos de estos retos. Uno de ellos es la divulgación científica, particularmente en formato audiovisual.
Fuente: Freepik
Beneficios de los vídeos de divulgación
Los docentes pueden hacer uso del formato audiovisual en múltiples dinámicas de aula y con diversos propósitos.
Los vídeos pueden emplearse como recurso introductorio para fomentar el interés sobre un tema, que luego el docente amplíe con sus explicaciones. El uso de un formato atractivo, un ritmo ameno y un estilo comunicativo que capte la atención, puede ser particularmente beneficioso para que el alumnado se interese por el tema, y muestre una mayor predisposición a atender al docente y aprender al respecto.
Los vídeos también pueden utilizarse para profundizar en cuestiones complejas y abstractas, en las que la visualización pueda tener relevancia. Por ejemplo, conceptos matemáticos abstractos o fenómenos físicos como el electromagnetismo pueden beneficiarse de una visualización dinámica y tridimensional a través de animaciones insertadas en vídeos. De esta manera, el alumnado no tiene que imaginar un concepto que no conoce a partir de unos bocetos dibujados de manera estática en la pizarra, sino que puede directamente visualizar los conceptos de una manera más intuitiva.
Además, los vídeos pueden pausarse y reproducirse tantas veces como sea necesario, con lo que se pueden emplear también como material de repaso que fomente el aprendizaje autónomo. Además, son un potente aliado en la aplicación de metodologías activas de aprendizaje, como el aula invertida, en las que el alumnado puede familiarizarse con los contenidos en vídeo antes de las clases y después trabajar sobre ellos en el aula.
Sin embargo, no siempre es sencillo para el profesorado encontrar el tiempo, los recursos y las habilidades para crear sus propios vídeos. Es entonces cuando los vídeos de divulgación científica ampliamente disponibles en internet pueden convertirse en el mejor aliado. No solamente existe una gran variedad de vídeos sobre diversas temáticas STEM, sino que además su formato ha demostrado ser adecuado para este fin educativo. Normalmente los vídeos de divulgación disponen de animaciones y recursos visuales en los que se apoya la explicación, gozan de un ritmo adecuado y, además, la voz y estilo comunicativo suele ser cercano, dinámico, y optimizado para captar la atención.
El adecuado uso de este tipo de recursos tiene el potencial de aumentar la motivación e interés del alumnado por las disciplinas STEM, aumentar su rendimiento académico, y mejorar la retención conceptual a largo plazo y el aprendizaje profundo.
Doble canal: el poder de ver y escucharLa razón de ser de estos beneficios se explica muy bien mediante la Teoría Cognitiva del Aprendizaje Multimedia. Esta teoría se basa en tres principios fundamentales: la información podemos recibirla y procesarla en modo verbal o en modo visual (doble canal); tenemos una capacidad limitada para procesar una cantidad de información en un momento dado, condicionada por nuestra memoria de trabajo; y el aprendizaje efectivo debe ser activo, entendiendo por ello que debemos hacer un esfuerzo particular para integrar la nueva información en nuestro cuerpo de conocimientos previo.
Fuente: Ruben Lijo (2024). Implications of using dissemination videos as a didactic resource in STEM education. PhD Thesis, Universidad de La Laguna. Repositorio Institucional de la Universidad de La Laguna. Available at: https://riull.ull.es/xmlui/handle/915/38547
Considerando lo anterior, podemos optimizar la capacidad de nuestra memoria de trabajo si recibimos información complementaria en nuestro modo verbal y visual, y precisamente es así como operan los vídeos. Mediante un adecuado balance de explicaciones en palabras y explicaciones visuales podemos mejorar mucho la capacidad de aprendizaje en un momento dado.
Así, mediante el aprovechamiento de este doble canal de recepción y procesado de la información, los vídeos de divulgación pueden ayudarnos en el proceso de aprendizaje. Esta optimización de la memoria de trabajo contribuye a una reducción en la carga cognitiva asociada a la dificultad para comprender los conceptos de la materia aprendida (llamada carga cognitiva intrínseca).
Estrategias para la integración de vídeosAdemás de lo anterior, los vídeos divulgativos pueden ofrecer más beneficios en el proceso de aprendizaje. Estos beneficios vendrán dados por las estrategias que empleemos en la integración de vídeos, y se relacionan con la reducción de otras cargas cognitivas: la carga cognitiva externa y la carga cognitiva relevante. Vamos a entenderlas por separado.
Por un lado, la carga cognitiva externa se relaciona con el contexto en el cual aprendemos. Un contexto de ruido o distracciones aumentará este tipo de carga cognitiva, por ejemplo. En el escenario reciente de aprendizaje remoto de emergencia por la pandemia del COVID-19, muchos estudiantes sufrieron un aumento de esta carga cognitiva debido a tener que adaptarse al estudio en casa y a la docencia online. Los vídeos pueden ser una buena herramienta para mitigar estos impactos, ya que pueden reproducirse tantas veces como sea necesario, adaptándose a los ritmos de aprendizaje individuales de cada estudiante. Los vídeos divulgativos también suelen emplear un ritmo y un lenguaje optimizados para la comprensión de la información y la captación de la atención, contribuyendo a minimizar las distracciones.
Por otro lado, la carga cognitiva relevante es aquella relacionada con nuestra capacidad para integrar la nueva información en la memoria a largo plazo, relacionándola con nuestro cuerpo de conocimientos previos. Una adecuada estrategia de integración de vídeos que se complementen unos a otros, y vayan escalando en nivel, podría ser adecuada para reforzar las interrelaciones entre los conceptos de la materia y la integración de la nueva información. Además, los vídeos que incluyen ejemplos prácticos y contextualizan sus contenidos en la imagen global de la disciplina son muy útiles para reducir este tipo de carga cognitiva.
Sígueme la Corriente: 8 años de divulgación y educación STEMEstos principios se han puesto en práctica en el canal de YouTube Sígueme la Corriente desde el año 2017, con resultados prometedores. Además, la posterior irrupción de la pandemia por el COVID-19 ocasionó una mayor demanda de vídeos compatibles con la enseñanza, y esto motivó una serie de estudios con los que optimizar el canal para un uso dual hacia la divulgación y la educación en ciencia y tecnología.
Fuente: Canal Sígueme la Corriente
Esta optimización implica la alineación curricular de las temáticas planteadas en los vídeos, así como un incremento en el número de animaciones para favorecer el aprendizaje conceptual y una especial atención a la duración de los vídeos, mejorando la eficiencia de las explicaciones. Así, tendríamos vídeos puramente divulgativos como “¿Cómo se produce la energía en Matrix?” o “¿Qué le pasa a tu cuerpo cuando te electrocutas?”, y vídeos con propósito educativo como “¿Qué son los circuitos trifásicos?” o “¿Cómo crear electricidad con magnetismo?”.
Este estudio se dividió en tres fases: una primera fase preexperimental, una segunda fase con la integración del canal en entornos reales de aula, y la evaluación comparativa del uso de vídeos divulgativos y educativos a lo largo de seis años de operación del canal.
En la primera fase se evaluó la percepción de la audiencia sobre el valor educativo del canal cuando aún no se habían creado contenidos optimizados para su integración educativa. Se definieron una serie de parámetros para medir la adecuación de vídeos para propósitos docentes, relativos a los contenidos de los vídeos, la calidad de las explicaciones, la visualización de las explicaciones conceptuales y el formato de los vídeos. Mediante la participación de 912 personas, se pudo evidenciar una percepción positiva sobre dichas métricas, así como la existencia de un uso educativo del canal de un orden de magnitud similar al uso por entretenimiento (72.7% de los participantes, frente a 87.2%). Todo un éxito, considerando que el canal no tenía en ese entonces una finalidad educativa.
Con estos datos prometedores, se abordó la segunda fase de desarrollo del canal: la puesta en marcha de una nueva sección de contenidos con propósito dual divulgativo-educativo. En este contexto, mediante un acuerdo de colaboración con la Universitat Politècnica de Catalunya, se creó una serie de vídeos para el refuerzo conceptual de los principios del electromagnetismo y la trifásica. Estos vídeos formaron parte de un estudio en el que se evaluó su integración en el Grado en Ingeniería Eléctrica a lo largo de tres años: 2019, 2020 y 2021. Además, el contexto temporal permitió evaluar su impacto como herramienta mitigadora de los efectos negativos de la pandemia en el ámbito educativo.
Se evidenció cómo esta estrategia de aprendizaje basado en vídeos contribuyó a mitigar el impacto del aprendizaje remoto de emergencia. Su apoyo al aprendizaje conceptual ocasionó también una mejora en el rendimiento académico en exámenes de teoría, y también contribuyó significativamente al aumento de la motivación e interés por la asignatura.
Tras esta experiencia exitosa, el canal continuó generando vídeos con propósito dual hacia la divulgación y la educación en paralelo a su actividad divulgativa. En un último estudio se evaluó el rendimiento comparativo de ambos tipos de vídeos, demostrándose que los vídeos enfocados a uso dual superaron a los vídeos enfocados al entretenimiento en todas las métricas evaluadas: visualizaciones, retención de la audiencia, comentarios, likes, etc. Además, se observó una asociación significativa entre la duración de los vídeos y el tiempo de retención de la audiencia, siendo los vídeos con propósito educativo más sensibles a la duración.
Fuente: Ruben Lijo (2024). Implications of using dissemination videos as a didactic resource in STEM education. PhD Thesis, Universidad de La Laguna. Repositorio Institucional de la Universidad de La Laguna. Available at: https://riull.ull.es/xmlui/handle/915/38547
Estos estudios demuestran el potencial de los vídeos divulgativos en el campo de la educación. Se trata de un camino bidireccional, mediante el cual educadores y creadores de contenidos pueden beneficiarse. Por una parte, los educadores pueden acceder a una mayor cantidad de recursos didácticos adecuados y con beneficios para su actividad docente. Por otra, los divulgadores pueden aludir con su actividad a un público objetivo mayor y a una finalidad social complementaria.
Referencias:
Ruben Lijo (2024). Implications of using dissemination videos as a didactic resource in STEM education. PhD Thesis, Universidad de La Laguna. Repositorio Institucional de la Universidad de La Laguna. Available at: https://riull.ull.es/xmlui/handle/915/38547
Ruben Lijo, Eduardo Quevedo, José Juan Castro and Ricard Horta (2022). Assessing Users’ Perception on the Current and Potential Educational Value of an Electrical Engineering YouTube Channel. In IEEE Access, vol. 10, pp. 8948-8959, doi: https://doi.org/10.1109/ACCESS.2021.3139305
Ruben Lijo, Eduardo Quevedo and José Juan Castro (2023). Qualitative Assessment of the Educational Use of an Electrical Engineering YouTube Channel. 2023 IEEE World Engineering Education Conference (EDUNINE), Bogota, Colombia, pp. 1-6, doi: https://doi.org/10.1109/EDUNINE57531.2023.10102890
Ruben Lijo, Eduardo Quevedo, José Juan Castro and Ricard Horta (2023). Impact of Electrical Engineering Didactic Videos During Emergency Remote Learning. In IEEE Access, vol. 11, pp. 19622-19634, doi: https://doi.org/10.1109/ACCESS.2023.3248299
Ruben Lijo, José Juan Castro, Eduardo Quevedo (2024). Comparing educational and dissemination videos in a STEM YouTube channel: A six-year data analysis. Heliyon, vol. 10 (3), doi: https://doi.org/10.1016/j.heliyon.2024.e24856
Sobre los autores: Rubén Lijó, Coordinador Global de Formación en Hitachi Energy, e Investigador Posdoctoral en el Instituto para el Desarrollo Tecnológico y la Innovación en Comunicaciones (IDeTIC) de la Universidad de Las Palmas de Gran Canaria; Eduardo Quevedo, Instituto Universitario de Microelectrónica Aplicada (IUMA) de la Universidad de Las Palmas de Gran Canaria; y José Juan Castro, Departamento de Psicología, Sociología y Trabajo Social en la Universidad de Las Palmas de Gran Canaria.
El artículo Así puede la divulgación mejorar la educación en disciplinas STEM se ha escrito en Cuaderno de Cultura Científica.
Día de pi 2024: Matemáticas, la flecha del tiempo y mentes artificiales y biológicas
El número Pi, representado por la letra griega π, es una de las constantes matemáticas más famosas e importantes que existen en el mundo. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.
La fascinación que ha suscitado durante siglos es tal, que se viene estudiando desde hace más de 4.000 años e, incluso, cuenta con su propio día en el calendario: el 14 de marzo. Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien en 1988 lanzó la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.
Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU nos sumamos a la celebración, organizando la quinta edición del evento BCAM NAUKAS, que se desarrolló a lo largo del 14 de marzo en el Bizkaia Aretoa de UPV/EHU.
Miguel Aguilera nos habla de los fenómenos emergentes en redes neuronales y qué papel desempeña la direccionalidad del tiempo en Matemáticas, la flecha del tiempo y mentes artificiales y biológicas.
Miguel Aguilera Lizarraga es investigador postdoctoral en el BCAM en el área de Biología Matemática y Computacional. Nacido en La Rioja, es becario Junior Leader de la Fundación la Caixa y trabaja donde confluyen los sistemas complejos, la neurociencia computacional, la vida artificial y la ciencia cognitiva. Su trabajo combina modelos y métodos de la física estadística fuera del equilibrio, la teoría de la información y la teoría de sistemas dinámicos, con el objetivo de estudiar la emergencia de comportamientos adaptativos y autónomos en diferentes niveles de sistemas biológicos.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Día de pi 2024: Matemáticas, la flecha del tiempo y mentes artificiales y biológicas se ha escrito en Cuaderno de Cultura Científica.
Escasez e incertidumbre: el desafío de freír un huevo en un mundo en conflicto
2022: la humanidad aún lidiaba con las secuelas de la pandemia y buscaba recuperar su ritmo habitual, pero un giro sacudió el escenario político internacional. Mientras que la preocupación por el virus de la covid-19 disminuía, un conflicto bélico emergía. Observábamos una conflagración en el este de Europa que nos hacía reflexionar sobre el rumbo geopolítico.
Este conflicto distante subrayó la interdependencia global al involucrar a la alimentación. Al ir a la tienda, nos encontrábamos con anuncios que nos pedían que limitáramos nuestras compras de aceite. Al unísono, los medios daban noticias sobre el desabastecimiento de aceites a nivel mundial. La razón: la guerra de Ucrania.
Mientras tanto, mi duda casi existencial era que cómo iba a poder freír huevos ahora. Había amenazas tangibles para mis desayunos. Mi fútil predicamento me llevó a pensamientos multivariables, haciéndome recordar inclusive los preceptos básicos de la fritura de un huevo.
Cuando freímos un huevo, el calor del aceite provoca una metamorfosis que lo convierte en una mezcla sólida y elástica. La transformación molecular durante la fritura de un huevo crea su textura y sabor característicos, haciéndolo un placer culinario. El aceite juega un papel vital aquí. El de girasol, por ejemplo, mantiene cierta estabilidad a altas temperaturas, lo cual es útil al momento de freír. Es esencial elegir aceites que conserven su estabilidad al menos hasta los 180 °C para evitar la producción de sustancias nocivas durante la fritura.
Los diferentes aceites tienen perfiles únicos de ácidos grasos que afectan su sabor, aroma, estabilidad y aplicaciones culinarias. Por ejemplo, el aceite de cacahuete es rico en ácido oleico y linoleico, mientras que el de girasol destaca por su contenido en ácido linoleico. Estas diferencias influyen en si son adecuados para freír, cocinar o aderezar.
Además, los ácidos grasos presentes tienen implicaciones para la salud cardiovascular y la gastronomía, con el ácido oleico asociado a beneficios cardiovasculares. La elección del aceite adecuado depende de las necesidades y preferencias culinarias.
La importancia global del aceiteLa escasez de aceite de cocina nos recuerda su importancia en la alimentación a nivel global. La falta de este elemento esencial para freír un huevo podría, aparentemente, tener repercusiones geopolíticas.
La dependencia de Ucrania en las exportaciones mundiales de aceites vegetales se hizo evidente. La escasez afectó a lugares que iban desde Vitoria-Gasteiz (España) a Machala (Ecuador) y mostró que el problema era serio. Ambos países se vieron afectados a pesar de las diferencias en la producción agrícola entre ambos. Por ejemplo, en España, el aceite de semilla de girasol es uno de los más consumidos, incluso en detrimento de su cultivo oleaginoso emblemático: la aceituna u oliva.
En Ecuador, uno de los principales productores de palma africana y donde el aceite de soja es uno de los más consumidos, observar desabastecimiento y encarecimiento de los aceites comestibles resultaba inverosímil. El precio del aceite de girasol se ha incrementado en este país, incluso sin haber un riesgo real de escasez, ya que Bolivia y Argentina son los principales proveedores de semillas de girasol en este caso.
La guerra en Ucrania reveló la vulnerabilidad de depender de un solo producto. Los conflictos en la región afectaron a la producción y el transporte de este aceite. Ucrania y Rusia tenían una ventaja competitiva significativa, pero el conflicto complicó la situación. La dependencia de Ucrania como proveedor clave destacó la vulnerabilidad de la cadena de suministro mundial. Ante esto, es vital considerar el uso de materias primas locales alternativas para garantizar un suministro alimentario resiliente.
La fritura no es solamente un acto culinario, sino que además es un indicador de los desafíos y las complejidades del mundo en el que vivimos. La guerra en Ucrania demostró la fragilidad de la cadena de suministro de aceites y la vulnerabilidad de muchos países ante la dependencia de un solo producto.
La importancia de buscar alternativasEn lugares donde el aceite de girasol no era un actor principal en el sector de los aceites, las señales de escasez y especulación generaron dudas. Aunque algunos países podrían ser autosuficientes en cuanto a cultivos oleaginosos, deben superar ciertas ventajas competitivas para garantizar un suministro estable. La guerra en Ucrania expuso las debilidades de depender de un solo proveedor y resaltó la necesidad de diversificar las fuentes de suministro y promover la producción local de materias primas.
Ante la adversidad se presentan oportunidades para promover el cultivo y uso ulterior de otras materias primas viables y sostenibles, por ejemplo, el cacahuete, el frijol lupino y la quinoa.
Mientras reflexionamos sobre estas complejidades geopolíticas y económicas, les invito a intentar pasar por alto la incertidumbre con un aliciente momentáneo. Qué mejor que un huevo frito, ahora un símbolo cotidiano y silencioso de la importancia de la resiliencia y la adaptabilidad en tiempos de cambio, para degustar de las bondades que, a veces, la cotidianidad hace que demos por sentadas.
Sobre el autor: Fabián Patricio Cuenca Mayorga es personal investigador del Departamento de Farmacia y Ciencias de los alimentos de la Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Escasez e incertidumbre: el desafío de freír un huevo en un mundo en conflicto se ha escrito en Cuaderno de Cultura Científica.
Las rocas también tienen pasaporte
Recientemente se ha publicado un artículo en la revista Nature en el que se propone un nuevo lugar de origen para una roca que forma parte del yacimiento megalítico Stonehenge llamada “el Altar”, situándolo a más de 750 kilómetros del mismo. Este descubrimiento ha abierto una acalorada discusión arqueológica sobre el posible proceso del transporte de este bloque rocoso de más de seis toneladas de peso hace miles de años. Pero lo que ha pasado más desapercibida es la importancia de la Geología en este estudio, ya que sin ella habría sido imposible llevarlo a cabo.
Yacimiento megalítico de Stonehenge, situado en el Condado de Wiltshire, Inglaterra. Foto: Diego Delso / Wikimedia CommonsEl yacimiento megalítico de Stonehenge se localiza en el sur de Inglaterra y tanto su origen, construcción y función en el mundo prehistórico han sido objeto de debate desde hace siglos, llegando incluso a formar parte de la leyenda artúrica británica, atribuyéndole cualidades mágicas asociadas al famoso druida Merlín. Pero, dejando de lado la mitología, gran parte de los estudios arqueológicos realizados hasta la actualidad se han basado en determinar el origen de las rocas que conforman las estructuras aquí preservadas. Para ello, los equipos de investigación se han centrado en analizar las características litológicas de las mismas, es decir, en su origen (metamórfico, ígneo o sedimentario) y su composición mineral, buscando los materiales más similares presentes en áreas cercanas y que pudieron constituir las antiguas canteras de extracción del material pétreo. De esta manera, y hasta la publicación de este nuevo artículo, las rocas de Stonehenge se dividían en dos tipos: 1- las autóctonas, consistentes en unas rocas sedimentarias llamadas areniscas procedentes de Marlborough, una zona situada a unos 25 kilómetros al norte del yacimiento; y 2- las alóctonas, o “de fuera”, conformadas por una mezcla de rocas ígneas (doleritas y riolitas) y areniscas provenientes, a priori, de Mynydd Preseli, un sistema montañoso que aflora al sur de Gales, aproximadamente a 250 kilómetros de Stonehenge.
Vista en planta del yacimiento de Stonehenge con identificación de los tipos de rocas empleado en su construcción, señalando la roca denominada “el Altar”. Imagen modificada de Clarke et al. (2024).El método clásico de atribuir el origen de una roca ornamental a partir únicamente de la observación de su composición, aspecto general y contenido fósil, entre otras características litológicas, tiene un problema importante: rocas que se han formado en el mismo ambiente, durante la misma edad y bajo las mismas condiciones geológicas en áreas muy distantes son, prácticamente, idénticas en su aspecto general. Es necesario un análisis geológico muy detallado, basado en estudios microscópicos y geoquímicos, para encontrar las características que hacen única a cada roca y, así, poder determinar, con total precisión, su origen geográfico.
Este ha sido el error cometido, durante décadas, en Stonehenge. Al intentar explicar las técnicas extractivas y, sobre todo, las de transporte de estos bloques rocosos decenas o cientos de kilómetros por el sur de Inglaterra en una época en la que todavía se discute si se había descubierto o no la rueda en Mesopotamia, la lógica nos impulsa a pesar que, por fuerza, usaron las rocas que tenían más cerca. Pero, si algo nos han enseñado las pirámides de Egipto, es que no debemos minusvalorar los conocimientos en ingeniería civil de las civilizaciones pretéritas. Y Stonehenge no es una excepción.
Centrándonos en este artículo, un equipo conformado por investigadores británicos y australianos se fijó en que una roca arenisca conocida como “el Altar”, situada en la parte central del complejo megalítico y cuya procedencia se presuponía en el sur de Gales, presentaba algunas características litológicas externas un poco diferentes del resto que la rodeaban, así que quisieron confirmar su área fuente. Para ello, decidieron datar con precisión la roca, es decir, calcular su edad.
Aspecto al Microscopio Electrónico de Barrido de varios cristales de zircón. La barra de escala representa 0,1 mm. Imagen modificada de Dröllner, M., Barham, M., Kirkland, C.L. y Ware, B. (2021) Every zircon deserves a date: selection bias in detrital geochronology Geological Magazine 158(6), 1135-1142.Es aquí donde entran en juego los protagonistas de esta historia, tres minerales llamados zircón, apatito y rutilo. Estos minerales son prácticamente indestructibles, ya que, una vez que se forman, dan igual los procesos geológicos que les afecten que ellos van a permanecer inalterables, quedando como pequeñas cápsulas del tiempo dentro de las rocas. Además, en su estructura química incluyen isótopos radiactivos que, con el paso del tiempo, se van a transformar en otros isótopos diferentes. En concreto, Uranio (U), que se transforma en Plomo (Pb), y Lutecio (Lu), que se convierte en Hafnio (Hf). Como podemos medir el contenido en U-Pb y Lu-Hf presente en estos minerales y sabemos cuánto tiempo es necesario que transcurra para que se produzca esta transformación isotópica, es posible darle una edad absoluta a cada uno de estos minerales.
Lugares de origen de las rocas empleadas en el yacimiento megalítico de Stonehenge. En naranja se delimitan las áreas en las que afloran antiguas rocas areniscas en Gran Bretaña. La línea roja marca la separación entre las rocas con zircones formados hace más de 1000 millones de años (parte norte), de aquellas con minerales más modernos (parte sur). Imagen modificada de Nature, basada en el trabajo de Clarke et al. (2024).Cuando el equipo de investigación dató los cristales de zircón, apatito y rutilo presentes en el bloque de arenisca conocido como “el Altar”, descubrió que la mayoría tenían una edad comprendida entre los 1000 y los 2000 millones de años. Al comparar estos resultados con otros trabajos previos realizados en las areniscas de zonas cercanas al yacimiento de Stonehenge, encontraron que sus minerales se formaron hace entre 500 y 700 millones de años. Es decir, que cuentan una historia geológica diferente, por lo que la roca con la que se construyó “el Altar” no puede proceder de las canteras galesas. Pero sí existen unas areniscas que incluyen en su composición cristales de zircón, rutilo y apatito con una edad superior a 1000 millones de años en Gran Bretaña. Estas rocas se sitúan al norte de Escocia, a casi 800 kilómetros de distancia de Stonehenge. Habían encontrado la zona originaria de la que se extrajo la extraña roca que adorna la parte central del yacimiento megalítico, la otra punta de la gran isla.
La principal enseñanza que nos deja este artículo es que las rocas tienen un pasaporte isotópico que marca su lugar de origen y que saber interpretarlo puede ayudarnos a cambiar nuestra percepción de las habilidades de las civilizaciones que nos precedieron, cambiando la historia tal y como la conocemos. Y aunque eso sea papel de la Arqueología, la Geología también tiene mucho que decir.
Referencia:
Clarke, A.J.I., Kirkland, C.L., Bevins, R.E. Pearce, N.J.G., Glorie, S. y Ixer, R.A. (2024) A Scottish provenance for the Altar Stone of Stonehenge Nature doi: 10.1038/s41586-024-07652-1
Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo Las rocas también tienen pasaporte se ha escrito en Cuaderno de Cultura Científica.
El círculo de los irascibles
En 1963, René Sousselier planteó un reto, que intituló “Le Cercle Des Irascibles” (“El círculo de los irascibles”), en la Revue Française de Recherche Opérationelle.
Fuenten: Freepik.
El problema se planteaba en los siguientes términos:
El presidente de un club pensó que sería conveniente organizar una cena de confraternidad entre todos sus miembros. Para no destacar a ningún miembro frente a otro, pensó que deberían sentarse en una mesa redonda. Inmediatamente se tropezó con algunos problemas: en realidad, el club no era una sociedad demasiado amigable. De hecho, cada uno de los socios tenía únicamente unos pocos amigos en el club y aborrecía a todos los demás. Ante este inconveniente, el presidente pensó que debía asegurarse de que cada miembro tuviera a un amigo sentado a cada lado durante la cena. Lamentablemente, no consiguió encontrar por sí mismo una manera de distribuir a los socios del club.
Desesperado, decidió pedir ayuda a un amigo matemático que, poco tiempo después de conocer el problema, respondió de la siguiente manera al presidente del club: «Es absolutamente imposible conseguirlo. Sin embargo, si puedes persuadir a un miembro del club para que no acuda a la cena, entonces todos podrían sentarse junto a un amigo«. El presidente, esperanzado, preguntó al matemático: «¿A qué miembro debo pedirle que se quede fuera?«. El matemático respondió: «Es indiferente. Cualquier socio vale. Por cierto, si tuvieras menos miembros en el club, no te enfrentarías a esta extraña combinación de propiedades«.
Haciendo caso a su amigo, el presidente puso un pretexto cualquiera, se excusó con el resto de los socios del club, y pudo colocar satisfactoriamente a cada miembro con sendos amigos a su izquierda y derecha en la mesa de la cena.
Tras este extenso enunciado preliminar, Sousselier preguntaba:
¿Cuántos miembros tiene del club? ¿A quién le gusta quién y a quién no le gusta quién?
Un año más tarde, T. Gaudin, J. Herz y P. Rossi propusieron una solución en la misma revista utilizando teoría de grafos.
Algunas definiciones previasRecordemos que, en matemáticas, un grafo G es un conjunto de objetos, los vértices, algunos de los cuales están unidos por aristas, que representan relaciones binarias entre los vértices.
Un camino (sucesión de aristas adyacentes) en un grafo G se llama hamiltoniano si pasa por todos los vértices exactamente una vez. Si el camino es cerrado (el primer y el último vértice alcanzado es el mismo), se habla de un ciclo hamiltoniano; G se llama hamiltoniano si contiene un ciclo hamiltoniano.
Un grafo hamiltoniano y otro no hamiltoniano. Fuente: Wikimedia Commons.
Un grafo G se llama hipohamiltoniano si no es hamiltoniano, pero cualquier grafo construido al eliminar un único vértice (arbitrario) de G es hamiltoniano. Por supuesto, al eliminar este vértice, se suprimen también las aristas que lo alcanzan.
Manera de abordar el problema de SousselierSe construye un grafo G con las siguientes reglas: se identifica cada miembro del club con un vértice del grafo en el que dos vértices están unidos si y sólo si los socios que representan son amigos.
El grafo G no puede ser hamiltoniano; si lo fuera, sería posible sentar a todos los miembros del club sin conflictos en una mesa redonda. Pero, según el enunciado, G es hipohamiltoniano.
Así, para resolver el problema, es preciso encontrar el menor (con menos vértices) grafo hipohamiltoniano.
Se puede demostrar que ese grafo es el llamado grafo de Petersen, un grafo con 10 vértices y 15 aristas.
El grafo de Petersen. Fuente: Wikimedia Commons.
Este grafo no es hamiltoniano, aunque tiene un camino hamiltoniano (que no es un ciclo hamiltoniano).
Grafos hipohamiltonianosRené Sousselier fue el primero en estudiar los grafos hipohamiltonianos. Este problema que propuso en 1963 no es sencillo de resolver; requiere de una maquinaria matemática elaborada. Como otros problemas de enunciado fácilmente comprensible (como el teorema de los cuatro colores), su solución ha necesitado del avance de la teoría matemática de grafos.
El informático teórico Václav Chvátal demostró en 1973 que para todo n suficientemente grande existe un grafo hipohamiltoniano con n vértices. Posteriormente se demostró que tales grafos existen para todo n mayor o igual a 18.
En este momento, se conoce la lista completa de grafos hipohamiltonianos con 17 o menos vértices: el grafo de Petersen (10 vértices), un grafo de 13 vértices y un grafo de 15 vértices (encontrados mediante búsquedas con ordenador de Herz, 1968), y cuatro grafos de 16 vértices (uno de ellos denominado grafo de Sousselier).
El grafo de Sousselier. Tiene 16 vértices y 27 aristas. Fuente: Wikimedia CommonsSe sabe que existen 14 grafos hipohamiltonianos de 18 vértices y 34 de 19 vértices. Además, el número de grafos hipohamiltonianos crece como una función exponencial del número de vértices; pero queda mucho por encontrar…
Referencias
- T. Gaudin, J. Herz et P. Rossi, Solution du probleme no.29, Rev. Franc. Rech. Operat., vol. 8, 1964, 214–218
- R. Sousselier, Probleme no. 29: Le cercle des irascibles, Rev. Franc. Rech. Operat., vol. 7, 1963, 405–406
- D. A. Holton and J. Sheehan, The Petersen Graph, Cambridge University Press, 1993, Págs. 214-248
- Sousselier’s Problem, Futility Closet, 28 agosto 2024
- Hypohamiltonian graph, Wolfram MathWorld
- Number of hypohamiltonian graphs on n vértices (A141150), OEIS
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y editora de Mujeres con Ciencia
El artículo El círculo de los irascibles se ha escrito en Cuaderno de Cultura Científica.
Cómo el campo de Higgs da masa (de verdad) a las partículas elementales
En este artículo adaptado de su nuevo libro, «Ondas en un mar imposible» *, el físico Matt Strassler explica que el origen de la masa en el universo tiene mucho que ver con la música.
Un ensayo de Matt Strassler. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.
Ilustración: Michele Sclafani para Quanta MagazineEl descubrimiento del bosón de Higgs en el Gran Colisionador de Hadrones en 2012 confirmó lo que los físicos de partículas sospechábamos desde hacía tiempo: que existe un campo que permea el cosmos y que genera las masas de las partículas elementales. Por desgracia, a los físicos les ha resultado difícil explicar a los demás cómo este llamado campo de Higgs cumple su enorme tarea.
Un enfoque común ha sido contar una historia fantástica. He aquí una versión:
Existe una sustancia, como una sopa, que llena el universo; ese es el campo de Higgs. A medida que las partículas se mueven a través de él, la sopa las frena, y así es como las partículas adquieren masa.
Otras versiones describen el campo de Higgs como algo parecido a una melaza, un matorral, una multitud de personas o una extensión de nieve.
Sin embargo, todas esas historias entran en conflicto con lo que nosotros los físicos enseñamos en las primeras semanas de los cursos universitarios de primer año. Al sugerir que el campo de Higgs crea masa al ejercer resistencia, se violan tanto la primera como la segunda ley del movimiento de Newton. Entre otros desastres, esta resistencia habría hecho hace mucho tiempo que la Tierra cayese en espiral hacia el Sol. Además, si el campo de Higgs fuera realmente una sustancia, proporcionaría un punto de comparación con el que podríamos medir nuestro movimiento absoluto, violando los principios de relatividad de Galileo y de Einstein.
En realidad, el campo de Higgs no tiene nada que ver con el movimiento ni con la desaceleración, sino que toda su historia gira en torno a la vibración.
La teoría cuántica de campos, el poderoso marco de la física de partículas moderna, dice que el universo está lleno de campos. Algunos ejemplos son el campo electromagnético, el campo gravitacional y el propio campo de Higgs. Para cada campo, hay un tipo de partícula correspondiente, que se entiende mejor como una pequeña ondulación en ese campo. Las ondulaciones del campo electromagnético son ondas de luz, y sus ondulaciones más suaves son las partículas de luz, que llamamos fotones. De manera similar, los electrones son ondulaciones en el campo de electrones, y el bosón de Higgs es una ondulación mínima en el campo de Higgs.
«Ondas en un mar imposible. Cómo la vida común emerge del océano cósmico» *. Cortesía de Matt StrasslerUn electrón estacionario, al igual que la vibración de una cuerda de guitarra, es una onda estacionaria que vibra con una frecuencia preferida, conocida como frecuencia de resonancia. Esta vibración resonante es común y familiar. Como una cuerda de guitarra pulsada suena constantemente a su frecuencia de resonancia, siempre produce el mismo tono. Del mismo modo, la frecuencia fija de un péndulo oscilante es lo que lo convierte en un reloj eficaz. Según el mismo principio, cada electrón estacionario vibra con la frecuencia de resonancia del campo electrónico.
La mayoría de los campos del universo tienen frecuencias resonantes. En cierto sentido, el cosmos se parece vagamente a un instrumento musical; ambos tienen frecuencias características en las que vibran con mayor facilidad.
Para mí, personalmente, el hecho de que la resonancia sea la base de la realidad es motivo de deleite y asombro. Como músico y compositor aficionado de toda la vida, conozco desde hace tiempo el funcionamiento interno de pianos, clarinetes y guitarras. Pero me quedé completamente atónito al descubrir, cuando era estudiante de posgrado, que las estructuras del universo, incluso dentro de mi propio cuerpo, funcionan según principios similares.
Sin embargo, esta musicalidad secreta de nuestro cosmos sería imposible si no fuera por el campo de Higgs.
En la teoría cuántica de campos, una combinación de la física cuántica y la relatividad de Einstein conduce a una relación crucial entre una frecuencia de resonancia y la masa de una partícula elemental: cuanto más rápidamente vibra una partícula estacionaria, mayor es su masa. Los campos que carecen de una frecuencia de resonancia corresponden a partículas que no tienen masa; dichas partículas, incluidos los fotones del campo electromagnético, nunca pueden ser estacionarias.
Aunque los cuentos fantásticos sobre el campo de Higgs sugieren que la masa surge de la desaceleración de las partículas elementales por una sustancia parecida a la melaza, la verdad es que un campo de Higgs más fuerte hace que las partículas elementales vibren a frecuencias más altas, lo que aumenta su masa. Por lo tanto, se podría considerar al campo de Higgs como una especie de agente cósmico de refuerzo, cuya función es aumentar las frecuencias de resonancia de otros campos.
¿Cómo es posible que un campo cambie la frecuencia de otro? El humilde péndulo nos ofrece un ejemplo sencillo.
Imaginemos que colocamos una pelota en el extremo de una cuerda en el espacio profundo, donde el campo gravitatorio es prácticamente nulo. La pelota flotará sin rumbo fijo. Si la empujamos un poco, su posición puede variar lentamente, pero no vibrará.
Sin embargo, si se coloca el péndulo improvisado en un campo gravitatorio distinto de cero, todo cambia. La bola cuelga recta hacia abajo y, si se la mueve, oscila.
Ilustración: Mark Belan para Quanta MagazineCuando la pelota está en reposo, se dice que está en equilibrio: estable, equilibrada y sin motivo para moverse. Si la pelota se desplaza hacia la derecha, la gravedad hará que se balancee hacia la izquierda y viceversa. La tendencia de la posición de la pelota a volver al punto de equilibrio, conocida como efecto restaurador, es lo que hace que se balancee.
En este caso, el campo gravitatorio actúa como un agente de refuerzo: hace más rígido al péndulo, lo que le confiere una frecuencia de resonancia distinta de cero. Cuanto más fuerte sea el campo gravitatorio, más potente será el efecto de recuperación y más alta será la frecuencia de resonancia del péndulo.
De manera análoga, el campo de Higgs crea un efecto restaurador sobre otros campos elementales que cambia la forma en la que vibran. Aunque cualquier campo puede tener ondas que se desplazan como las que cruzan un estanque, un efecto restaurador permite que un campo tenga ondas estacionarias, esas ondas estacionarias que se parecen a las de una cuerda de guitarra. Como mencioné antes, estas ondas estacionarias no son nada más ni nada menos que partículas elementales inmóviles, ondulando en sus respectivos campos.
Esta idea está en el centro de lo que el difunto físico británico Peter Higgs, homónimo del campo de Higgs, y sus competidores señalaron en la década de 1960: que un campo puede reforzar otros campos, permitiendo así que sus ondulaciones vibren en su lugar con una frecuencia resonante y, por lo tanto, dando masa a sus partículas. Los estudios experimentales del bosón de Higgs en el Gran Colisionador de Hadrones confirman que esto es en efecto lo que hace el campo de Higgs. Al utilizar las matemáticas del Modelo Estándar de la física de partículas (la teoría cuántica de campos que describe todas las partículas elementales conocidas y las interacciones entre los campos del universo), los científicos hacen predicciones sobre el comportamiento del bosón de Higgs que coinciden exactamente con los experimentos. No hay duda: el campo de Higgs crea un efecto restaurador en muchos otros campos.
Así que, con esta comprensión más profunda del campo de Higgs, permítanme sugerir una historia diferente:
Érase una vez un universo que llegó a existir. Abrasadoramente caliente, estaba repleto de partículas elementales. Entre sus campos había un campo de Higgs, inicialmente apagado. Pero a medida que el universo se expandía y se enfriaba, el campo de Higgs se activó de repente, desarrollando una fuerza distinta de cero. Cuando esto sucedió, muchos campos se volvieron rígidos y, como resultado, sus partículas adquirieron frecuencias resonantes y masa. Así es como el universo se transformó, a través de la influencia del campo de Higgs, en el instrumento musical cuántico que es hoy.
* Nota del traductor: La traducción del título podría ser diferente cuando se publique en castellano.
El artículo original, How the Higgs Field (Actually) Gives Mass to Elementary Particles, se publicó el 3 de septiembre de 2024 en Quanta Magazine.
Traducido por César Tomé López
El artículo Cómo el campo de Higgs da masa (de verdad) a las partículas elementales se ha escrito en Cuaderno de Cultura Científica.
La araña que atrae presas manipulando señales luminosas
Dentro del gran grupo de los arácnidos, los araneidos son los principales constructores de telarañas. Este sistema de caza plantea dos necesidades, por un lado atraer a la presa hacia la telaraña, por otro no llamar la atención de potenciales depredadores. Vamos a ver qué puede hacer una araña para “convencer” a su presa de que se deje atrapar en sus redes. Anticipo que terminaremos describiendo una estrategia realmente asombrosa que acaba de ser descubierta.
Las estrategias de atracción de presas por parte de las arañas han sido revisadas recientemente en un espléndido artículo. Por ejemplo, la telaraña puede ser decorada con hilos adicionales denominados “estabilimentos”, que reflejan la luz ultravioleta, visible para muchos insectos. Es el caso de la araña Argiope (Figura 1). Se ha demostrado experimentalmente que la presencia de estos motivos decorativos aumenta la captura de presas y evita que las aves y otros animales voladores tropiecen con la tela y la rompan. Otras arañas han desarrollado patrones llamativos de color en sus cuerpos, con bandas brillantes que también reflejan la luz UV. Es el caso de Gasteracantha (Figura 1).
Figura 1. Izquierda: estabilimento en la telaraña de Argiope trifasciata. De Sarefo, CC BY-SA 3.0. Derecha: coloración de la araña Gasteracantha cancriformis. De Mkullen, dominio públicoExisten estímulos no visuales aún más sofisticados. La araña Argiope keiserlingi impregna su telaraña con putrescina, una sustancia pestilente, atrayendo a moscas que depositan sus huevos en la carroña. Mallos gregalis abandona carcasas de mosca en las que crecen hongos que producen olores atractivos para otros insectos. La araña boleadora americana (Mastophora) segrega sustancias similares a las feromonas de polillas. No contenta con ello, ha desarrollado un mecanismo para atrapar a sus presas similar a las boleadoras de los gauchos. Pueden verlo en este extraordinario vídeo:
Debemos citar un caso en el que la telaraña se convierte en trampa mortal para su constructora. La araña saltadora Portia sacude la telaraña de su víctima imitando los movimientos de una presa. Cuando la incauta propietaria se acerca imaginando que se va a dar un banquete, la Portia salta sobre ella y la devora. De nuevo, este espectacular vídeo muestra la hábil estrategia.
Pero todos estos comportamientos palidecen al lado del que acaban de describir un grupo de investigadores chinos en la revista Current Biology. La araña Araneus ventricosus atrae sus presas utilizando señales luminosas producidas por la luciérnaga Abscondita terminalis y que son hábilmente manipuladas por la araña (Figura 2).
Figura 2. Izquierda: Araneus ventricosus, la araña estudiada por los científicos chinos, devorando una presa. De KKPCW, CC BY-SA 4.0. Derecha: la luciérnaga Abscondita terminalis. De Sumanth699, CC BY-SA 4.0Abscondita terminalis es un pequeño coleóptero volador del trópico asiático que emite luz en el abdomen. Los machos producen ráfagas rápidas e intensas de destellos en dos áreas del abdomen, mientras que las hembras emiten pulsos más espaciados y de menor intensidad en una única zona. Si una luciérnaga macho es atrapada por la red, la araña no la mata para que siga emitiendo sus señales. Estas señales producidas por un macho no servirían para atraer a las hembras, que son más sedentarias, por lo que parece que la araña no ha conseguido gran cosa. Ocurre además que la emisión de luz de la presa se hace más débil, menos frecuente y se restringe a un área única del abdomen. De esta forma las señales se asemejan algo a las que produciría una luciérnaga hembra (Figura 3).
Figura 3. Experimentos realizados por los autores del artículo de Current Biology. Cuando un macho de la luciérnaga cae en la telaraña de A. ventricosus cambia su patrón de emisión de luz, pero esto por sí solo no atrae más machos (A). Otros machos son atraídos a la telaraña si hay interacción entre la araña y la presa, haciendo las señales más “femeninas” (B). Si se tapan las señales con tinta, la presencia de la araña tampoco provoca que otros machos sean atraídos (C). Se han utilizado imágenes Freepik de brgfx y Tom, dominio públicoLos investigadores chinos comprobaron experimentalmente que se producían estos cambios en las señales luminosas de la luciérnaga atrapada, pero solo si la araña estaba presente se lograba una mayor eficiencia en la captura de presas. La interacción de la araña con la presa producía señales más “femeninas” en cuanto a duración y periodo del pulso luminoso, señales que resultaban más atractivas para otros machos. De hecho, si se oscurecía con tinta el abdomen de la luciérnaga, no se producía la atracción de nuevos machos hacia la telaraña aunque la araña estuviera presente (Figura 3).
¿Cómo manipula la araña a su presa para hacerle cambiar su código de señales? Esto no ha podido ser elucidado, pero los investigadores piensan que puede ser a consecuencia directa de la mordedura de la araña, o por la inyección de alguna toxina que interfiere con el control de la señal luminosa. Conocer este mecanismo debería ser una prioridad en el futuro cercano.
Se trata de un caso excepcional por varias razones, en primer lugar por la utilización de señales luminosas como señuelos, y sobre todo por la astuta manipulación de dichas señales para que mimeticen a las emitidas por las hembras. También es sorprendente que el comportamiento de la araña se asemeje a lo que en psicología humana se conoce como gratificación aplazada o recompensa diferida. Esto consiste en la renuncia voluntaria a un beneficio inmediato (devorar la primera presa capturada) con la expectativa de una mayor recompensa en el futuro (un mayor número de presas). La gratificación aplazada se ha estudiado mucho en humanos, y existen algunas evidencias de este comportamiento en animales vertebrados, desde peces hasta primates. Nos podemos preguntar cómo ha podido evolucionar una estrategia como la que hemos descrito en un animal con un sistema nervioso mucho más sencillo.
Referencias:
Fu, X., Yu, L., Zhou, W., et al. (2024). Spiders manipulate and exploit bioluminescent signals of fireflies. Curr. Biol. doi: 10.1016/j.cub.2024.07.011.
Ratz, T., Bourdiol, J., Moreau, S., et al. (2023). The evolution of prey-attraction strategies in spiders: the interplay between foraging and predator avoidance. Oecologia. doi: 10.1007/s00442-023-05427-5. E
Sobre el autor: Ramón Muñoz-Chápuli Oriol es Catedrático de Biología Animal (jubilado) de la Universidad de Málaga
El artículo La araña que atrae presas manipulando señales luminosas se ha escrito en Cuaderno de Cultura Científica.
Cómo hacer un queso duro prensado en casa
Un buen queso puede producirse tanto en una instalación profesional como en un pequeño laboratorio de bioquímica que podamos montar en casa. No es necesario disponer de grandes medios técnicos, sino de seguir disciplina básica de laboratorio, incluyendo materiales y métodos ordenados, procesos planificados, medidas anotadas y mucha limpieza.
Vista general del laboratorio limpio, listo para comenzar la fabricación de un queso duro prensado. Foto: Victor EtxebarriaPara comenzar la sesión de laboratorio deben desinfectarse todas las superficies y utensilios. Para ello, podemos utilizar una sencilla solución limpiadora ácida. Por ejemplo, sirve ácido acético común (vinagre) o -mejor aún- ácido fosfórico con surfactante aniónico en un pulverizador, como se muestra en la parte derecha de la Figura 1.
Otros utensilios culinarios muy comunes, como una espumadera, una espátula y un colador -todos de buen acero inoxidable (Figura 1)- son también importantes. Los únicos instrumentos algo más especiales necesarios para fabricar queso son un termómetro preciso (décimas de grado) y un pH-metro de calidad, capaz de medir pH de sólidos blandos con electrodo en forma de lanza. Apera Instruments o Hanna Instruments son conocidos suministradores de medidores de pH precisos y asequibles. Estos dispositivos deben calibrarse siempre al inicio para empezar la sesión de laboratorio.
Baño maría regulable para transformar la leche en queso. A la derecha se muestra la entrada para el llenado del baño con agua sanitaria ordinaria, así como una bomba manual para su vaciado. A la izquierda se observa un simple termo-circulador para el agua. Foto: Victor Etxebarria
Comenzamos el experimento templando la leche al baño maría. En la Figura 2 mostramos el dispositivo para procesar 20 litros de leche en una cubeta de acero inoxidable estándar GN 1/1. Una caja de plástico alberga la cubeta llenando el baño con un grifo de agua sanitaria. Si es necesario, una bomba manual sencilla puede vaciar el agua o regular groseramente la temperatura de la camisa de agua. Finalmente, un calentador circulador regula con mayor precisión el calentamiento del baño.
En la Figura 2 se observa el templado de la leche a 27.2ºC, que se encuentra subiendo la temperatura de forma regulada a poco más de 30ºC. En este momento, y para propiciar de forma controlable la acidificación de la leche, añadimos Lactococcus lactis, cremoris y diacetylactis. Existen en el mercado múltiples fermentos lácticos fáciles de adquirir. Con la espumadera mezclamos 2 gramos de fermentos si partimos de 20 litros de leche y mantenemos la temperatura ligeramente por encima de 30ºC.
De forma optativa, y para ayudar a regular después la lipólisis de las largas cadenas de ácidos grasos de la leche, podemos también añadir lipasa, enzima pre-gástrica también fácil de adquirir en la industria láctea, y muy útil para generar sabores y aromas de los ácidos grasos de cadena corta que caracteriza al queso.
Baño maría con una cacerola doble. La temperatura del baño se regula con el fogón de la cocina, y la cacerola de arriba -insertada en la de abajo- contiene la leche. Foto: Victor Etxebarria
Otra alternativa más sencilla como recipiente para fabricar queso es usar una cacerola doble como se muestra en la Figura 3: la inferior contiene la camisa exterior de agua y la superior contiene la leche. En cualquiera de los casos, el proceso es mantener la leche al baño maría sin superar los 30-31ºC para que las bacterias mesófilas comiencen a acidificarla a máximo rendimiento. En menos de 60 minutos, se debe detectar con el pH-metro un comienzo de descenso en el pH de la leche. Típicamente partiendo de una leche cruda fresca a pH 6.6, podemos medir un pH 6.4 después de una hora de fermentación.
Este inicio de descenso nos indica que podemos comenzar a controlar el cuajado de la leche. Para ello podemos añadir enzimas proteolíticas (quimosina y pepsina) comunes en el cuajo natural de los estómagos de los rumiantes. Estas enzimas se pueden producir en la industria biotecnológica con todas las garantías mediante fermentación (proceso FPC, según sus siglas en inglés), sin necesidad de elementos animales. En versión líquida ordinaria la dosis es de unos 5 ml para cuajar 20 litros de leche.
Una vez añadida la quimosina (o el cuajo) y mezclada un minuto con la leche, mantenemos tapada y sin perturbar la coagulación de la leche durante al menos 30 minutos. Una vez transcurrido este tiempo, mediante la espátula, probamos si la cuajada presenta textura firme. En caso contrario, es necesario prolongar unos pocos minutos más el cuajado. Una vez obtenida cuajada sólida, la cortamos con la espátula en pequeños cubos de 1 cm de lado, o bien usamos como herramienta para este corte un agitador de varillas, siempre que lo utilicemos troceando la cuajada con mucha delicadeza, hundiendo verticalmente el agitador por toda la superficie de la cuajada, y rotándolo 360 grados lentamente en cada punto.
Los cuajos a temperatura creciente para ir ganando consistencia, elasticidad y separación del suero para producir queso duro. Foto: Victor Etxebarria
A partir de este punto, aumentamos muy despacio la temperatura del baño maría y con suavidad removemos los cuajos, que se van encogiendo y separando del suero. La temperatura máxima a la que subimos son 37ºC. A lo largo de una hora aproximadamente continuamos la separación del suero, y los cuajos van descendiendo en tamaño y ganando en consistencia y elasticidad. En la Figura 4 se muestra este proceso removiendo lentamente los cuajos con un agitador de varillas.
El pH sigue descendiendo tanto en el suero como en los cuajos, y llegando hacia pH 6.2, procedemos a escurrir el suero de los cuajos, recogiéndolos en una tela de quesería esterilizada y un colador de acero inoxidable como el mostrado a la izquierda en la Figura 1. De esta manera, los cuajos escurridos van uniéndose en masa sólida de queso a temperatura templada y poco a poco descendiente (35-33-31ºC). Entre tanto, las bacterias siguen consumiendo lactosa y produciendo ácido láctico.
Las masas para quesos duros así producidas pueden introducirse ya ahora en un molde para generar su forma, pero aquí mostraremos un proceso intermedio adicional, específico para los apreciados quesos duros cheddar.
Filetes del proceso de “cheddaring” y medida de pH para después proceder al troceado (“milling”), salado en seco y prensado, a poder ser templado a unos 30ºC. Foto: Victor Etxebarria
El “cheddaring” consiste en cortar la masa en filetes gruesos e ir montando uno sobre otro a temperatura templada, volteando su montaje cada 10-15 minutos. Ello consigue que la masa vaya perdiendo más suero a cada movimiento, y que los filetes vayan descendiendo su pH hacia 5.4. En la Figura 5 se ilustra el proceso de cheddaring casi terminado.
En este momento, se trocean los filetes en piezas o cubos de 2-3 cm de lado (“milling”), y se añade sal común no yodada (2% en masa). Típicamente con 20 litros de leche de vaca -cruda y de calidad- el rendimiento mediante este proceso es 11% (2,2 kg de masa de queso) y la sal añadida serían 45 g. Mediante este salado los trozos de masa absorben rápidamente la sal y los Lactococcus dejan de acidificar.
Prensa artesanal sencilla. La masa de queso queda envuelta en tela dentro del molde. Se colocan en este caso 4 discos de mancuernas de 5 kg cada uno para ejercer presión homogénea sobre toda la superficie del queso. Foto: Victor Etxebarria
El siguiente paso para terminar un queso duro es el prensado. En un cheddar, se recogen los trozos de masa salados en la tela de quesería y se introducen en el molde. La presión ejercida mediante la simple colocación de pesos sobre una pieza que transmite fuerza sobre toda la superficie del queso es el procedimiento más sencillo y eficaz, como lo mostrado en la Figura 6. Se trata de una prensa fabricada a medida para un molde cilíndrico de 16 cm de diámetro. Un sencillo cálculo para este ejemplo ilustrado de colocar 20 kg sobre la prensa da lugar a ejercer una presión de 10 kilopascales. Esto es más que suficiente para prensar correctamente un queso duro.
Si no se trata de un queso tipo cheddar, sino uno tipo montañés, idiazabal o manchego, el proceso es ligeramente diferente. La masa de queso se introduce en el molde por medio de la misma tela y se pasa a la prensa a baja presión. Por medio de varios volteos a presión creciente y la monitorización de su pH, el queso va tomando solidez, elasticidad y acidez apropiadas. A pH 5.4 sacamos el queso de la prensa y lo sumergimos en una salmuera (solución saturada de cloruro sódico en agua). Este salado húmedo es absorbido por el queso y de nuevo los Lactococcus dejan de acidificar. Aquí termina la fabricación del queso duro.
Cualquiera de los dos principales quesos duros descritos -los que reciben salado en seco y prensado después, o los que primero se prensan y entran en salmuera después- requieren unas horas de oreado, como se ilustra en la Figura 7. Foto: Victor Etxebarria
A partir de aquí, la maduración de estos quesos implica un proceso de afinado (affinage) o maduración. Si se ha utilizado leche cruda, como mínimo deben permanecer 2 meses en una cava a 15ºC. Si se ha partido de leche pasteurizada, y se prefiere queso tierno, puede degustarse inmediatamente. Los quesos con muchos meses de curación presentan sabores y aromas más fuertes y complejos. La afinación de quesos es otro arte que regula sus características organolépticas y hay exquisitos quesos añejos que se maduran durante años.
Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)
El artículo Cómo hacer un queso duro prensado en casa se ha escrito en Cuaderno de Cultura Científica.
Día de pi 2024: Viaje hacia la modelación de un NanoUniverso
El número Pi, representado por la letra griega π, es una de las constantes matemáticas más famosas e importantes que existen en el mundo. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.
La fascinación que ha suscitado durante siglos es tal, que se viene estudiando desde hace más de 4.000 años e, incluso, cuenta con su propio día en el calendario: el 14 de marzo. Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien en 1988 lanzó la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática: 3-14 martxoaren 14 en euskara / 3-14 March, 14th en inglés. En los últimos años, la conmemoración del Día de Pi se ha ido extendiendo, hasta tal punto que el 26 de noviembre de 2019 la UNESCO proclamó el 14 de marzo Día Internacional de las Matemáticas.
Un año más, el Basque Center for applied Mathematics-BCAM y la Cátedra de Cultura Científica de la UPV/EHU nos sumamos a la celebración, organizando la quinta edición del evento BCAM NAUKAS, que se desarrolló a lo largo del 14 de marzo en el Bizkaia Aretoa de UPV/EHU.
Los virus existen y proliferan a escala nanométrica. Se pueden desarrollar modelos matemáticos que describen su comportamiento a esta escala. Y a ello se dedica Daniela Moreno, que en esta charla Viaje hacia la modelación de un NanoUniverso nos da una introducción qué es la nanoescala, a qué es un modelo, y como hacer uno para aquella.
Daniela Moreno es ingeniera mecánica y está realizando su doctorado en el BCAM sobre el transporte pasivo de virus, desarrollando modelos que lo describan.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Día de pi 2024: Viaje hacia la modelación de un NanoUniverso se ha escrito en Cuaderno de Cultura Científica.
Lo que nos dice el cortisol en tu pelo cuando tienes 11 años
El cortisol es la hormona que segrega el cuerpo para responder a situaciones estresantes y es muy útil medir su concentración en el cabello para analizar el estrés crónico. “Entre otros lugares, el cortisol suele estar en la sangre, en la saliva y en la orina, lo que indica el nivel de cortisol existente en un momento dado: sin embargo, en el pelo se acumula y sirve de indicador del grado de estrés a más largo plazo, es decir, del estrés crónico”, explica Ane Arregi Otxotorena, investigadora de la Facultad de Psicología de la Universidad del País Vasco. Para distinguir entre el estrés puntual y el estrés crónico, Arregi utiliza un claro ejemplo: “No es el mismo estrés el que se produce cuando uno va a comprar pan un día y se da cuenta de que le falta dinero y el que provoca el hecho de saber que no se tiene dinero para comprar pan en el día a día”.
Fuente: PixabayLa investigadora del grupo Basque Environmental Health Research Group (B-EHRG) ha utilizado muestras de cabello de niños y niñas de 11 años para evaluar el estrés crónico. Los datos para la investigación los ha tomado del proyecto INMA: En el proyecto Infancia y Medio Ambiente (INMA) se recogen datos variados de niños y familias para realizar investigaciones a largo plazo desde el embarazo de la madre.
Así, la investigación concluye que los mayores problemas de comportamiento están relacionados con niveles más altos de cortisol en el cabello. Además, “hemos visto que el estrés de la madre está relacionado con los problemas de comportamiento de los niños y niñas. Esto significa que el estrés materno también puede influir en los niveles de cortisol de los niños a través de los problemas de comportamiento de estos. De alguna manera a lo largo de este camino de dos sentidos”, ha explicado Arregi.
El ruido ambiental también influye en el nivel de cortisolPor otra parte, también han encontrado algo que no esperaban: “Un mayor grado de exposición al ruido ambiental está relacionado con niveles más bajos de cortisol. Hemos visto que cuanto más alto es el nivel de ruido, más bajos son los niveles de cortisol. En la separación del análisis por sexo, esta relación solo era significativa en el caso de los chicos”. Según los investigadores, “el estrés agudo inicial provocado por el ruido puede provocar un aumento de los niveles de cortisol puntuales, pero el estrés crónico provocado por una exposición a largo plazo al ruido alto puede reducir el nivel de cortisol”. Con el objetivo de reafirmar esos resultados que no se esperaban relacionados con el ruido, van a llevar a cabo la misma investigación en un proyecto europeo más grande, el Athlete (Horizon 2020).
Factores ambientales, sociales e individualesEn general, “en nuestra investigación hemos detectado estos dos factores, pero eso no quiere decir que no haya otros factores relacionados, sino que nosotros no hemos encontrado ninguna otra relación —aclara Arregi—. Es importante dar una visión más amplia a estas investigaciones y a la vez tener en cuenta más de un factor que provoca el estrés”. Así, han creado un modelo para investigar la relación entre factores ambientales, sociales e individuales y la concentración de cortisol en el cabello infantil. Como factores que pueden influir en el estrés han tenido en cuenta todos los factores que aparecen en la literatura, como los espacios verdes y azules, la contaminación del aire, el ruido ambiental, las relaciones familiares y escolares, el nivel de estrés de los padres, los problemas para dormir, la actividad física, la edad, el sexo, etc.
La investigadora de la Universidad del País Vasco ha señalado que “todavía queda mucho por investigar sobre los factores que influyen en los niveles de cortisol del cabello de niños y jóvenes, y los estudios realizados hasta ahora no tenían en cuenta la influencia simultánea de factores”. El modelo ha sido creado con el objetivo de analizar precisamente eso. Arregi ha explicado que es importante tener en cuenta en el modelo muchos factores: “A partir de ahora, el modelo nos permitirá saber qué variables se deberían tener en cuenta cuando se mide el nivel de cortisol en el cabello y cuáles no”.
Las investigaciones futuras deberían utilizar este enfoque más complejo para comprender mejor los factores determinantes de la concentración de cortisol en el cabello infantil, ya que la exposición simultánea a factores ambientales, sociales y individuales puede influir en dicha concentración. La situación de estrés crónico en niños y niñas está relacionada con muchos problemas de salud; “la infancia y la adolescencia son etapas muy vulnerables, porque son etapas de desarrollo rápido. Es muy importante saber cómo influyen en esta etapa los distintos factores en la salud de los niños, niñas y adolescentes para que lleguen a ser personas adultas sanas”, señala la investigadora.
“Creemos que el cortisol del cabello puede ser una herramienta de gran ayuda para evaluar el impacto de las exposiciones ambientales en el estrés crónico. En definitiva, esto puede ayudar a aplicar políticas públicas eficaces, porque sabiendo qué puede provocar el estrés crónico de la población de un lugar, puede ser más fácil aplicar políticas para evitarlo”, ha concluido.
Referencia:
Ane Arregi, Oscar Vegas, Aitana Lertxundi, Gonzalo García-Baquero, Jesus Ibarluzea, Ainara Andiarena, Izaro Babarro, Mikel Subiza-Pérez, Nerea Lertxundi (2024) Hair cortisol determinants in 11-year-old children: Environmental, social and individual factors Hormones and Behavior doi: 10.1016/j.yhbeh.2024.105575
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Lo que nos dice el cortisol en tu pelo cuando tienes 11 años se ha escrito en Cuaderno de Cultura Científica.
La utopía tecnológica de John Jacob Astor IV
Seguramente, la mayoría de los lectores de este artículo reconocerá en el nombre de John Jacob Astor IV a uno de los principales inversores, y amigo, de Nikola Tesla ―Astor era el que le sacaba las castañas del fuego al inventor por no pagar las facturas en el hotel Waldorf Astoria, que era de su propiedad―. A otros tal vez le suene más el nombre porque fue una de las alrededor de 1500 víctimas del hundimiento del Titanic. Y, los que menos, puede que conozcan su faceta más visionaria o incluso hayan leído su novela A journey in other worlds: A romance of the future.
John Jacob Astor IV fue uno de los principales benefactores de Nikola Tesla en su momento. Pereció a los 47 años en el hundimiento del Titanic. En aquel momento, era uno de los hombres más ricos del mundo.Créditos: Dominio público.
Sin ser una obra maestra de la literatura, ni siquiera de la de ciencia ficción, en esta utopía tecnocapitalista de 1894 aparecen varios adelantos que, si bien entonces pudieron considerarse casi inverosímiles, a día de hoy forman parte de nuestra vida cotidiana. Por supuesto, también aparecen algunos que, aunque no del todo desconectados de la realidad, todavía podrían llegar a hacerse realidad y, por extensión, otros que no tienen ni pies ni cabeza ―como buena obra del siglo XIX―, pero eso no la resta interés a esta obra. Dejando a un lado escenas que podrían considerarse más fantásticas que especulativas, lo cierto es que John Jacob Astor IV supo leer muy bien el contexto tecnológico de su época, así como muchos aspectos sociales y culturales, pero esa parte la dejaremos para otra ocasión.
A journey in other worlds se publicó tan solo un año después de la Exposición Universal de Chicago en la que la Westinghouse Electric & Manufacturing Company asombró al mundo con su sistema de iluminación eléctrica alimentado por generadores de corriente alterna, y en la que Nikola Tesla contaba con su propio expositor en el Pabellón de la Electricidad. Se podría decir que la electricidad y el magnetismo fueron para el siglo XIX lo que la inteligencia artificial es hoy para nosotros: una panacea tecnológica que sirve para todo, se puede aplicar a todo y transformará nuestras vidas de formas que ni siquiera somos capaces de imaginar. Es lo que suele suceder casi siempre cada vez que aparece en escena un descubrimiento potencialmente disruptivo. Eso fue precisamente lo que Astor reflejó en su libro y, en muchos aspectos, acertó.
Expositor de la Westinghouse Electric & Manufacturing Company en la que se mostraba el funcionamiento de varios de los inventos de Nikola Tesla. Créditos: Dominio público.Así, en la obra, aparecen ya vehículos eléctricos, tanto coches como bicicletas, con sus necesarias redes de carga distribuidas por toda la geografía. Y, en realidad, no podía ser de otra manera, el coche eléctrico siempre fue la evolución lógica inicial ―incluso Thomas Edison fabricó baterías para este tipo de vehículos―, pero cuestiones de autonomía, potencia, coste e infraestructura acabaron inclinando la balanza hacia el motor de combustión.
Los faetones eléctricos, como se denomina a los [vehículos] de alta velocidad, tienen tres y cuatro ruedas y pesan, incluyendo la batería y el motor, de quinientas a cuatro mil libras. Con armazones huecos de aluminio tratado galvánicamente pero inmensamente fuertes y llantas neumáticas o de bandaje, circulan a treinta y cinco y cuarenta millas por hora en caminos rurales y alcanzan una velocidad de más de cuarenta en calles de la ciudad, y pueden mantener esta velocidad sin recarga durante varios días. […]
Para recargar las baterías, lo que se puede hacer en casi todas las ciudades y pueblos, se introducen dos clavijas de cobre en agujeros lisos unidas a cables de cobre aislados. […] Una manija en el asiento del salpicadero activa cualquier parte de la corriente alcanzable, ya sea para avanzar o retroceder, hay seis u ocho grados de velocidad en ambos sentidos, mientras que la dirección se maneja con un pequeño volante.
Thomas Edison mostrando las baterías de un vehículo de la compañía Detroit Electric en 1913. Créditos: Dominio público/NPGalleryAstor habla en otro pasaje también de sistemas de frenado regenerativos, algo que ya incorporan algunos automóviles:
Al llegar a la cima de una colina larga y empinada, si no queremos avanzar por inercia, convertimos los motores en dinamos, mientras funcionamos a plena velocidad, y así transformamos la energía cinética del descenso en energía potencial en nuestras baterías.
Lamentablemente, y para desesperación de los conductores, su visión del futuro automotriz incluía, asimismo, algo muy parecido a los radares móviles de tráfico.
¿Y de dónde obtener la electricidad que alimente las baterías de esos vehículos? Según John Jacob Astor, del sol, «en lugar de carbón voluminoso y sucio». De una suerte de dispositivos fotovoltaicos ―algo rudimentarios, eso sí, fabricados con grandes espejos cóncavos y calderas de vapor― situados en grandes extensiones de desierto como el Sahara. También del viento, con aerogeneradores y baterías en el ámbito doméstico y a través de mástiles huecos con turbinas en lugar de velas, en el marítimo. Habló incluso de hidroalas ―una especie de barcos con esquís que sobresalen del agua cuando alcanzan altas velocidades― más de una década antes de que Alexander Graham Bell y Casey Baldwin las inventaran. Y, para concluir con sus visiones sobre el transporte, esta vez de forma no del todo acertada, pensó en un sistema de ferrocarril magnético… pero no de levitación. ¡Tal vez ya hubiera sido demasiado!
La E-Ship 1, del fabricante de aerogeneradores alemán Enercon, utiliza un sistema de rotores en los mástiles que podría asemejarse mucho a la idea de John Jacob Astor IV: : «Los mástiles huecos de nuestros barcos […] llevan turbinas en lugar de velas, a través de las cuales el viento realiza el trabajo de almacenar gran parte de la energía necesaria para moverlos en el mar».Créditos: CC BY-SA 3.0 DE/Carschten
En A journey in other worlds el viaje al espacio, a Júpiter y Saturno, en este caso, también tiene un papel protagonista. De hecho, es la primera obra de ficción en la que aparece el término «nave espacial». Por supuesto, con esclusas de entrada y salida, para evitar disgustos al salir y al entrar, y un sistema de comunicaciones, de nuevo no muy práctico, de señales luminosas con la Tierra.
El sistema de comunicación luminoso Tierra-nave aparece en una de las ilustraciones de A journey in other worlds. Créditos: Dominio público/Dan. Beard.
Lo que está claro, tanto en esta como en otras obras de la época, es que las ideas flotaban en el aire, y eran infinitas. Por eso es difícil afirmar si los visionarios de entonces «acertaron» o simplemente tenían tantísimas ocurrencias que, por una cuestión estadística, daban en el clavo de casualidad en algunas. En ese sentido, el libro de John Jacob Astor también se acerca peligrosamente la línea que separa la ciencia de la ficción cuando habla de control climático o generadores de lluvia, y la cruza directamente cuando describe unos ojos magnéticos ―una especie de ojos de rayos X, pero que funcionan analizando las propiedades magnéticas de los materiales alrededor― o menciona el apergy, una sustancia antigravitatoria que aparece en otra novela similar: Across the zodiac: The story of a wrecked record de Percy Greg.
Fuera lo que fuera, parece que soñar funcionaba, por muy locos que fueran esos sueños, por muy alejados de la realidad que estuvieran muchos de ellos. John Jacob Astor o Nikola Tesla eran muy dados a este tipo fantasías… y, oye, ni tan mal.
Bibliografía
Astor IV, J. J. (1894). A Journey in Other Worlds: A Romance of the Future.
Greg, P. (1880). Across the Zodiac: The Story of a Wrecked Record.
Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.
El artículo La utopía tecnológica de John Jacob Astor IV se ha escrito en Cuaderno de Cultura Científica.
La recta de Euler
Uno de mis pequeños, e inconfesables, divertimentos consiste en coger un libro de geometría, como el libro El diccionario Penguin de geometría curiosa e interesante (The Penguin Dictionary of Curious and Interesting Geometry) del matemático y divulgador británico David G. Wells (1940), y dedicarme a leer y disfrutar de los resultados clásicos de la geometría mostrados en el mismo. Al leer el enunciado de alguno de estos teoremas me emociona ver cómo a partir de una cierta situación geométrica se obtiene un resultado sorprendente, casi mágico, que nos ofrece un cierto orden, por ejemplo, en el teorema de Morley (véase la entrada El teorema de Morley) se consideran un triángulo cualquiera, las trisectrices de sus tres ángulos (recordemos que las trisectrices de un ángulo son las dos rectas que dividen al ángulo en tres ángulos iguales) y los tres puntos de intersección de las trisectrices adyacentes, entonces resulta que esos tres puntos son los vértices de un triángulo equilátero, es decir, las distancias entre cualesquiera dos de esos tres puntos son iguales.
Teorema de Morley: Los puntos de intersección de las trisectrices adyacentes de los ángulos de un triángulo cualquiera, son los vértices de un triángulo equilátero
En una de mis últimas incursiones en este diccionario de geometría curiosa e interesante de David Wells llamó mi atención la entrada denominada “Línea de Euler” en la cual se enuncia un teorema del matemático suizo Leonhard Euler (1707-1783) sobre tres puntos notables asociados a un triángulo cualquiera, el ortocentro, el circuncentro y el baricentro, que se encuentran en una misma línea, que se conoce con el nombre de recta de Euler. Hemos de tener en cuenta que dados tres puntos cualesquiera del plano lo más probable es que no sean colineales, es decir, que no estén en una misma recta.
Punto a punto a la recta de EulerAntes de entrar en el teorema de la recta de Euler, describamos los elementos que aparecen en el mismo, en concreto, esos tres puntos notables asociados a un triángulo cualquiera, el ortocentro, el circuncentro y el baricentro.
El ortocentro de un triánguloDado un triángulo cualquiera se define el ortocentro como el punto de intersección de las tres alturas del triángulo (o las rectas que las extienden), donde recordemos que una altura de un triángulo es el segmento de recta que pasa por un vértice y es perpendicular al lado opuesto (o a la recta que lo contiene) del mismo. Por ejemplo, en la siguiente imagen tenemos un triángulo ABC cualquiera. Desde el vértice A se traza la recta que pasa por A y corta perpendicularmente (es decir, formando un ángulo de 90 grados) al lado opuesto del triángulo, el lado BC, que es la altura del triángulo ABC desde el vértice A (se denota A’ al punto de corte, que se denomina pie de la altura), desde el punto B se traza la recta que corta perpendicularmente al lado opuesto AC, la altura desde B (se denota B’ al pie de la altura), y desde C se traza también la altura, es decir, la recta que pasa por C y corta perpendicularmente al lado opuesto AB (siendo C’ el pie de la altura). Un resultado básico de geometría es que las tres alturas AA’, BB’ y CC’ (o las rectas que las extienden) se cortan en un punto (que se denota O en la imagen), que se ha sido bautizado con el nombre de ortocentro del triángulo.
El ortocentro O del triángulo ABC es la intersección de sus tres alturas AA’, BB’ y CC’
El resultado clásico de la concurrencia de las tres alturas de un triángulo, es decir, que las tres alturas se intersecan en un solo punto, el ortocentro, no aparece en el gran compendio de geometría y matemática griegas, Los Elementos del matemático griego Euclides (ca. 325-265 a.n.e.), a diferencia de algunos otros puntos notables asociados a un triángulo, como el incentro y el circuncentro. La primera mención explícita al ortocentro que se conoce aparece en el Libro de los lemas, texto atribuido por el matemático árabe Thābit ibn Qurra (826 – 901), al matemático griego Arquímedes (aprox. 287 – 212 a.n.e.). La primera demostración conocida de la existencia del ortocentro es precisamente un comentario del Libro de los lemas realizado por el matemático persa Ali ibn Ahmad al-Nasawi (aprox. 1011-1075), que atribuye dicha demostración al también matemático persa Abu Sahl al-Quhi (940-1000), como se menciona en el artículo Concurrencia de las alturas de un triángulo (Concurrency of the Altitudes of a Triangle), que se menciona en la bibliografía. El famoso matemático británico Isaac Newton (1643-1727) lo demostró en su tratado inacabado La geometría de las rectas (aprox. 1680), que podéis encontrar en el volumen IV de las publicaciones matemáticas de Isaac Newton (The mathematical papers of Isaac Newton).
Páginas de las publicaciones matemáticas de Isaac Newton (The mathematical papers of Isaac Newton), en las que aparece el resultado sobre la intersección de las tres alturas de un triángulo, luego la existencia del ortocentroEl resultado sobre la concurrencia de las alturas de un triángulo en las publicaciones matemáticas de Isaac Newton viene acompañado de una nota histórica sobre este resultado, en la que se menciona que el matemático e ingeniero militar holandés Samuel Marolois (1572-1627) lo demuestra en su obra Geometrie / Geometría (1619). Aunque se suele atribuir al topógrafo y matemático británico William Chapple (1718-1781) la primera publicación, en 1749, del teorema de existencia del ortocentro de un triángulo, como menciona el matemático estadounidense, nacido en Israel, Alexander Bogomolny (1948-2018), en el artículo A Possibly First Proof of the Concurrence of Altitudes, de su magnífica página Cut-the-knot.
En función de la forma del triángulo, el ortocentro estará dentro o fuera del mismo. Si el triángulo es “agudo”, es decir, sus tres ángulos son menores que un ángulo recto (90 grados), como en el ejemplo anterior, entonces el ortocentro se encuentra en el interior del triángulo. Si el triángulo es rectángulo, el ortocentro es exactamente el vértice del triángulo en el que está el ángulo recto. Y si el triángulo es “obtuso”, es decir, uno de sus ángulos es mayor de 90 grados, entonces el ortocentro está fuera del triángulo, como en la siguiente imagen.
El ortocentro O de un triángulo obtuso ABC la intersección de sus tres alturas AA’, BB’ y CC’, se encuentra fuera del triánguloEl circuncentro de un triángulo
El siguiente de los puntos destacados que se pueden definir para un triángulo cualquiera y que aparece en el teorema de la recta de Euler es el circuncentro.
Dado un triángulo cualquiera se define el circuncentro como el punto de intersección de las tres mediatrices (la mediatriz de un segmento es la recta perpendicular al mismo que pasa por su punto medio) de los lados del triángulo. Por ejemplo, en la siguiente imagen tenemos un triángulo ABC cualquiera. Se consideran los puntos medios de los lados del triángulo ABC, que se denotan MA (punto medio del segmento BC opuesto al vértice A), MB (punto medio del segmento CA opuesto al vértice B) y MC (punto medio del segmento AB opuesto al vértice C) y las rectas que pasan por esos puntos y son perpendiculares a los segmentos a los que pertenecen, las mediatrices, que se denotan rA (la recta que pasa por MA y es perpendicular al segmento BC), rB (la recta que pasa por MB y es perpendicular al segmento CA) y rC (la recta que pasa por MC y es perpendicular al segmento AB). El circuncentro, CC en la imagen, es la intersección de las tres mediatrices rA, rB, y rC.
El circuncentro CC de un triángulo ABC es la intersección de sus tres mediatrices rA, rB, y rCDe nuevo, en función de la forma del triángulo, el circuncentro estará dentro o fuera del mismo. Si el triángulo es agudo, como en el ejemplo anterior, entonces el circuncentro se encuentra en el interior del triángulo. Si es un triángulo rectángulo, el circuncentro es el punto medio de la hipotenusa. Y si el triángulo es obtuso, entonces el circuncentro está fuera del triángulo.
El circuncentro CC de un triángulo obtuso ABC, que es la intersección de sus tres mediatrices rA, rB, y rC, se encuentra fuera del triánguloEl nombre de circuncentro se debe a que ese punto es también el centro de la circunferencia circunscrita al triángulo. Es decir, si se considera la circunferencia que pasa por los vértices del triángulo A, B y C, el circuncentro CC es el centro de dicha circunferencia. Esto se debe al hecho de que los puntos de la mediatriz de un segmento equidistan (están a la misma distancia) de los extremos del segmento. Como el circuncentro CC está en las tres mediatrices del triángulo y los extremos de los segmentos son los vértices del triángulo, entonces el circuncentro CC equidista de los tres vértices, luego estos están en la circunferencia de centro CC y radio esa longitud entre CC y los vértices del triángulo.
El circuncentro CC de un triángulo obtuso ABC es el centro de la circunferencia circunscrita al triángulo ABC
Como se comentaba más arriba, el circuncentro de un triángulo ya aparecía en esa importante publicación de la matemática griega, y universal, que fue Los Elementos de Euclides, y que hasta finales del siglo xix sería el libro de texto de matemáticas por antonomasia.
Para concluir esta sección, vamos a comentar un resultado que relaciona el circuncentro y el ortocentro de dos triángulos asociados de una cierta manera. Dado un triángulo cualquiera ABC, podemos tomar el triángulo cuyos vértices son los puntos medios de los lados del triángulo, según la notación anterior MA, MB y MC, que se conoce con el nombre de triángulo medial del triángulo ABC. Resulta que el ortocentro del triángulo medial MAMBMC es igual al circuncentro del triángulo ABC.
Dado un triángulo ABC, el ortocentro del triángulo medial MAMB MC es igual al circuncentro del triángulo ABCEl baricentro de un triánguloEl tercer punto destacado de un triángulo que forma parte de esta pequeña historia sobre la que estamos escribiendo en esta entrada del Cuaderno de Cultura Científica es el baricentro.
Dado un triángulo cualquiera se define el baricentro (término que viene de barýs “pesado, grave” y centro, es decir, el centro de gravedad), o centroide, como el punto de intersección de las tres medianas (una mediana de un triángulo es el segmento de recta que pasa por un vértice y el punto medio del lado opuesto) del triángulo. Por ejemplo, en la siguiente imagen tenemos un triángulo ABC cualquiera. Como en el caso del circuncentro, se consideran los puntos medios de los lados del triángulo ABC, que se denotan MA, MB y MC y las tres medianas, denominadas sA (la recta que pasa por el vértice A y el punto medio del lado BC, MA), sB (la recta que pasa por B y MB) y sC (la recta que pasa por C y MC). El baricentro, BC en la imagen, es la intersección de las tres medianas sA, sB, y sC.
El baricentro BC de un triángulo ABC es la intersección de sus tres medianas sA, sB, y sCEn el artículo Notes on the centroid / Notas sobre el centroide, publicado por el matemático estadounidense, nacido en Polonia, Nathan Altshiller Court (1881-1968) en la revista The Mathematics Teacher, se explica el origen del centroide de un triángulo. Una de las primeras notas es que el término centroide es un término moderno, del siglo xix, que se introdujo para sustituir el antiguo término de “centro de gravedad” cuando se habla solo desde el punto de vista geométrico y no físico. Y en la siguiente nota se afirma que la primera vez que se publica de forma explícita el resultado de que las tres medianas de un triángulo se cortan en un punto (el centro de gravedad del triángulo) es en el texto Mechanica del matemático e ingeniero griego Herón de Alejandría (sobre el siglo I o II).
La recta de EulerYa conocemos qué son el ortocentro, el circuncentro y el baricentro de un triángulo cualquiera, por lo tanto, estamos en condiciones de enunciar el teorema de la línea recta de Euler.
Caricatura de Leonhard Euler, realizada por Enrique Morente, para la exposición de la Real Sociedad Matemática Española, El rostro humano de las matemáticas (2008)Leonhad Euler ha sido el matemático más prolífico de todos los tiempos. Miremos en la rama de las matemáticas que miremos, seguro que nos encontramos con un gran número de estudios, de resultados importantes y profundos de Euler. A lo largo de su vida publicó más de 500 libros y artículos, añadiendo su obra póstuma (hasta 1911) se alcanza la cifra de 866 (nombrados como E1-E866 y que pueden encontrarse online en el Archivo Euler). La edición moderna de las obras de Euler, que ha acometido la Sociedad Suiza de Matemáticas, empezó en 1911. Es el proyecto Opera Omnia Leonhard Euler, que consta de 81 volúmenes, en cuatro series: Serie I) Opera mathematica (Matemáticas), 29 volúmenes; Serie II) Opera mechanica et astronomica (Mecánica y Astronomía), 31 volúmenes; Serie III) Opera physica, Miscellanea (Física y Miscelánea), 12 volúmenes; Serie IVA) Commercium epistolicum (correspondencia), 9 volúmenes; Series IVB) manuscritos, que se publicará online.
En el artículo E325, titulado Solutio facilis problematum quorundam geometricorum difficillimorum / Soluciones fáciles para algunos problemas geométricos difíciles y publicado en la revista Novi Commentarii academiae scientiarum Petropolitanae en 1767 (fue presentada a la Academia de Ciencias de San Petersburgo en diciembre de 1763), se recoge el conocido como teorema de la recta de Euler.
Teorema de la recta de Euler: Dado un triángulo cualquiera ABC, el ortocentro O, el circuncentro CC y el baricentro BC son colineales (a la recta que incluye a los tres puntos se la denomina recta de Euler). Además, la distancia del ortocentro O al baricentro BC es igual a dos veces la distancia del baricentro BC al circuncentro CC.
El ortocentro O, el circuncentro CC y el baricentro BC de un triángulo ABC están alineados y la recta que los contiene es la recta de EulerEn el libro 100 grandes problemas de matemática elemental: su historia y soluciones (100 Great Problems of Elementary Mathematics: Their History and Solutions), del matemático Heinrich Dorrie, que se cita en la bibliografía, se puede leer una sencilla demostración del teorema de la recta de Euler.
Además del ortocentro, el circuncentro y el baricentro de un triángulo, existen otros puntos definidos en relación al triángulo que también están en la recta de Euler, como el centro de la circunferencia de los nueve puntos, el punto de Exeter o el punto de de Longchamps, entre otros, pero esa es otra historia que será contada en otra ocasión.
Nine-point circle / Circunferencia de los nueve puntos (1970), del dibujante e ilustrador infantil estadounidense Crockett Johnson (1906-1975). Imagen de la página web de The National Museum of American HistoryBibliografía
1.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.
2.- Heinrich Dorrie, 100 Great Problems of Elementary Mathematics: Their History and Solutions, Dover, 1965.
3.- Howard Eves, A Survey of Geometry, Allyn and bacon, 1972.
4.- Mowaffaq Hajja, Horst Martini, Concurrency of the Altitudes of a Triangle, Mathematische Semesterberichte 60 (2), pp. 249–260, 2013.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo La recta de Euler se ha escrito en Cuaderno de Cultura Científica.
Cómo se forman los condensados dentro de las células
Las células biológicas contienen pequeñas gotas llamadas condensados que consisten en conjuntos de proteínas y otras moléculas. Estas gotas desempeñan papeles importantes en varias funciones celulares, como las reacciones bioquímicas. Se sabe que las interacciones entre las regiones intrínsecamente desordenadas (IDR, por sus siglas en inglés) de diferentes proteínas (partes de una proteína que carecen de una estructura bien definida) impulsan la formación de condensados. Pero los detalles exactos de cómo intervienen las IDR en esta formación no estaban claros.
Ahora Kyosuke Adachi y Kyogo Kawaguchi del Centro RIKEN para la Investigación de la Dinámica de Biosistemas en Japón han ideado un modelo que proporciona esa información. Los investigadores afirman que su modelo podría usarse para obtener otros conocimientos clave sobre los principios fundamentales de la organización celular.
Adachi y Kawaguchi han realizado simulaciones de la dinámica molecular de la formación de condensados para más de 200 IDR que se conocen en proteínas humanas. A continuación han combinado los resultados de estas simulaciones con una nueva aproximación para la dinámica de los IDR. Finalmente, han desarrollado una teoría que les permite vincular la fuerza de las interacciones entre los IDR de diferentes proteínas con el orden específico de los aminoácidos de los IDR, los componentes básicos de las proteínas.
El nuevo modelo indica que las IDR formadas por ciertas cadenas de aminoácidos tienen más probabilidades de unirse, lo que hace que sus proteínas se agrupen en un condensado. El modelo también muestra que las interacciones entre las IDR afectan a la posibilidad de que varios condensados puedan coexistir en una célula sin que se fusionen, y puede utilizarse para determinar cuántos condensados oexistentes puede albergar una célula.
Según los investigadores, el nuevo modelo podría ayudar a mejorar la comprensión de muchos procesos biológicos, incluidos los mecanismos por los que las células compartimentan sus funciones y la dinámica de las IDR de una proteína en diferentes condiciones.
Referencias:
Kyosuke Adachi & Kyogo Kawaguchi (2024) Predicting Heteropolymer Interactions: Demixing and Hypermixing of Disordered Protein Sequences Phys. Rev. X doi: 10.1103/PhysRevX.14.031011
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Cómo se forman los condensados dentro de las células se ha escrito en Cuaderno de Cultura Científica.
Una capa brillante para un planeta oscuro
Mercurio no es solo el planeta más pequeño de nuestro sistema solar, sino que también es uno de los más desconocidos, ya que, casualmente, ha sido el planeta interior -o rocoso- menos visitado por misiones espaciales. Entre otras razones, ello se debe a la dificultad que supone colocarse en órbita alrededor de Mercurio, lo que requiere una gran cantidad de combustible -combustible en sentido amplio- para alcanzar el cambio de velocidad necesario que permita la inserción.
A pesar de esto, misiones como la MESSENGER nos han permitido conocer mucho mejor a Mercurio y detectar, por ejemplo, la presencia de agua y de compuestos orgánicos en su superficie, la existencia de un núcleo en estado líquido e incluso los restos de la actividad volcánica que sufrió el planeta en su pasado. Las observaciones las pudo obtener desde su órbita desde 2011 a 2015, cuando la misión, como despedida, impactó finalmente contra la superficie del planeta.
A simple vista, el aspecto de Mercurio nos recuerda mucho al de nuestra Luna. Sin embargo, son lugares muy, pero que muy distintos. Imagen cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington.Pero, ¿cómo es el interior de Mercurio? Lo cierto es que es un planeta muy particular, especialmente si lo comparamos el resto de los planetas interiores. Para que nos hagamos una idea, el núcleo -la capa más interna de los planetas- de Mercurio ocupa aproximadamente un 57% del volumen total del planeta, mientras que en Venus ocuparía un 15%, en la Tierra un 16% y en Marte un 13%. Mercurio claramente destaca por tener un valor totalmente anómalo en comparación con el resto.
Este pequeño detalle ya nos cuenta que la historia de Mercurio podría haber sido un poco diferente a la del resto de planetas rocosos, apuntando directamente a su formación o a su infancia -eso sí, infancia en términos planetarios. O bien la zona donde se formó Mercurio dentro de la nebulosa protoplanetaria estaba empobrecida en elementos ligeros -quizás por procesos dinámicos, no tanto por una diferencia composicional dentro de la nebulosa- porque tras su formación, las elevadas temperaturas del Sol mientras este se contraía vaporizaron parte de su corteza y manto rocoso -para lo que Mercurio tendría que tener una masa de partida de aproximadamente el doble- o, por último, un gigantesco impacto que fuese capaz de eliminar una gran parte de su corteza y manto dejando las zonas más densas del planeta y llevándose las ligeras, y para lo que Mercurio también tendría que haber tenido también en torno al doble de masa que en la actualidad.
Pero volvamos al asunto que nos trae hoy aquí y seamos realistas: Mercurio es un planeta muy poco… “brillante”. Apenas refleja el 10% de la luz solar, algo que hasta la llegada de las misiones planetarias había tenido una difícil explicación. Los últimos datos afirman que muy probablemente esta escasa reflectividad se deba a que su superficie está cubierta por una cantidad entre el ~1-4% de grafito -un compuesto de carbono que usamos todos los días, por ejemplo, en las minas de nuestros lápices y que a la luz es evidente que tiene un color bastante oscuro-, a lo que habría que sumar probablemente otros compuestos del carbono, aunque las últimas estimaciones de Xu et al. (2024) dicen que sería inferior al 1%.
La eyecta provocada por los cráteres de impacto -es decir, los materiales que salen hacia fuera del cráter cuando un cuerpo impacta contra la superficie de un planeta- salpican de tonos más claros la superficie de Mercurio. Imagen cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington.¿Cuál sería la procedencia de este grafito que hoy vemos en la superficie? No está muy claro, y dependiendo del modelo de formación, explicar su presencia puede ser complicado, pero la forma más sencilla sería que, en algún momento de su historia, la superficie de Mercurio estuviese en un estado de océano de magma -una etapa habitual durante la formación de los planetas interiores- y donde toda la superficie se encuentra fundida. Es en este océano donde el carbono, debido a su densidad, flotaría hasta la superficie, quedando expuesto tal y como vemos hoy en día, mezclado con otros minerales silicatados que forman su corteza.
Este detalle sobre la composición de su superficie nos hace pensar que Mercurio podría tener más carbono en su interior del que podríamos pensar a priori y esto puede tener unas consecuencias un tanto inesperadas que podemos leer en Yongjiang et al. (2024): la existencia de una “capa” de diamantes en el interior de Mercurio. Y es que sabemos por nuestra experiencia en la Tierra que los diamantes en los planetas rocosos se forman en ambientes de alta presión y temperatura, lo que en nuestro planeta equivale a profundidades del manto.
Mercurio es mucho más pequeño que nuestro planeta y la presión necesaria para transformar el carbono en su forma de grafito a diamante se alcanzaría en lo que vendría siendo el límite entre el manto y el núcleo, eso sí, también tendrían que darse unas condiciones de temperatura adecuadas. Pero además del carbono hay un elemento que probablemente haya tenido un papel importante para formar esta posible capa: el azufre.
Y es que la presencia de azufre en el interior del planeta podría ayudar a bajar la temperatura que los silicatos presentes en el manto requieren para fundirse, permitiendo unas condiciones que ayudarían a dar estabilidad a la formación de los diamantes. Si a esto le sumamos un ambiente muy reductor -con bajo contenido en oxígeno- los diamantes podrían haberse empezado a formar al mismo tiempo que empezó a solidificarse el núcleo, permitiendo dar lugar una capa de diamantes en el límite entre el manto y el núcleo y que incluso podría tener varios kilómetros de potencia o espesor.
Los científicos que han escrito este artículo, además, han diseñado y ejecutado una serie de experimentos de alta presión y temperatura -sin olvidar los modelos geoquímicos y termodinámicos- a fin de poder replicar las condiciones que se podrían encontrar en este límite entre el manto y el núcleo, observando que efectivamente, los diamantes podrían formarse bajo estas condiciones.
En esta imagen también se puede apreciar perfectamente el fuerte contraste de color entre la eyecta y la superficie de Mercurio, mucho más oscura. Y es que es posible que los minerales que hay a más profundidad de la corteza tengan un tono más claro y sean menos ricos en carbono. Imagen cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington.Todo esto nos puede parecer una mera curiosidad, pero en Mercurio podrían tener una interesante derivada… puesto que los diamantes son unos excelentes conductores térmicos -de hecho, se usan en algunas aplicaciones electrónicas donde la disipación del calor es algo crítico y los materiales que son buenos conductores eléctricos no se pueden colocar- y una capa rica en diamantes podría tener una gran influencia en la transferencia del calor en el interior del planeta, alterando la propia dinámica interna del planeta. ¿Qué consecuencias tiene esto? La generación de un campo magnético similar al de la Tierra, aunque con una fuerza del 1% del nuestro.
El papel de la capa de diamantes es el de facilitar la pérdida de calor del núcleo, favoreciendo la convección necesaria para que funcione la geodínamo necesaria para la formación del campo magnético.
Mercurio no es el único planeta que podría tener capas con diamantes, sino que los gigantes de hielo, como son Urano y Neptuno, también podrían tener zonas donde las condiciones permitan la formación de los diamantes. De momento ninguno de estos lugares son accesibles a nuestra tecnología. Esta posibilidad pone de manifiesto que los diamantes son un mineral más abundante de lo que podemos pensar. Eso sí, que nadie piense que los va a encontrar perfectamente tallados para recoger y colocar en un anillo: eso ya corre de nuestra cuenta.
La próxima misión destinada a Mercurio, la europea BepiColombo debería alcanzar su órbita en 2025, aportándonos a lo largo de su misión datos que nos ayuden a conocer mejor su geología y quién sabe si a verificar la posibilidad de que Mercurio tenga una resplandeciente capa de diamantes.
Referencias:
Cheng, Bingqing, Sebastien Hamel, y Mandy Bethkenhagen. «Thermodynamics of Diamond Formation from Hydrocarbon Mixtures in Planets». Nature Communications 14, n.º 1 (27 de febrero de 2023): 1104. doi: 10.1038/s41467-023-36841-1.
Frost, Mungo, R. Stewart McWilliams, Elena Bykova, Maxim Bykov, Rachel J. Husband, Leon M. Andriambariarijaona, Saiana Khandarkhaeva, et al. «Diamond Precipitation Dynamics from Hydrocarbons at Icy Planet Interior Conditions». Nature Astronomy 8, n.º 2 (8 de enero de 2024): 174-81. doi: 10.1038/s41550-023-02147-x.
Semerikova, Anna, Artem D. Chanyshev, Konstantin Glazyrin, Anna Pakhomova, Alexander Kurnosov, Konstantin Litasov, Leonid Dubrovinsky, Timofey Fedotenko, Egor Koemets, y Sergey Rashchenko. «Does It “Rain” Diamonds on Neptune and Uranus?» ACS Earth and Space Chemistry 7, n.º 3 (16 de marzo de 2023): 582-88. doi: 10.1021/acsearthspacechem.2c00343.
Xu, Yongjiang, Yanhao Lin, Peiyan Wu, Olivier Namur, Yishen Zhang, y Bernard Charlier. «A Diamond-Bearing Core-Mantle Boundary on Mercury». Nature Communications 15, n.º 1 (14 de junio de 2024): 5061. doi: 10.1038/s41467-024-49305-x.
Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.
El artículo Una capa brillante para un planeta oscuro se ha escrito en Cuaderno de Cultura Científica.
La interpretabilidad de los modelos de inteligencia artificial
Imagina que eres médico y utilizas un sistema de IA de última generación para diagnosticar a tus pacientes. Un día, te dice que un paciente tiene una enfermedad rara, pero cuando le preguntas por qué, simplemente parpadea, incapaz de explicar su razonamiento. Frustrante, ¿verdad? Este escenario puede sonar a ciencia ficción, pero es un reto real en el mundo del aprendizaje automático hoy en día.
Bienvenido al fascinante mundo de la interpretabilidad de modelos, un tema que lleva muchos años dando que hablar en la comunidad de la IA. A medida que los modelos de aprendizaje automático se vuelven más complejos e influyen más en nuestras vidas, nos enfrentamos a una pregunta acuciante: ¿Cómo podemos confiar en las decisiones tomadas por algoritmos que no comprendemos del todo?
Foto: Icons8 Team / UnsplashEn un artículo clásico -muy citado- titulado «The Mythos of Model Interpretability» (2017) el investigador Zachary C. Lipton profundiza en este aspecto crucial. Sostiene que, aunque todo el mundo parece hablar de interpretabilidad, en realidad no tenemos una definición clara y consensuada de lo que significa.
La importancia de la interpretabilidadEntonces, ¿qué importancia tiene la interpretabilidad? Bueno, resulta que hay varias interpretaciones o motivaciones diferentes para la interpretabilidad en el aprendizaje automático:
Confianza (trust): Queremos estar seguros de que nuestros modelos toman decisiones por las razones correctas. Imaginemos un coche autoconducido que hace un giro brusco: ¿no querríamos saber por qué?
Causalidad (causality): En campos como la medicina, no sólo nos interesan las predicciones, sino entender las causas subyacentes. Una IA capaz de predecir una enfermedad cardiaca es útil, pero una que pueda explicar los factores que la provocan tiene un valor incalculable.
Toma de decisiones justa y ética: Como la IA se utiliza cada vez más en ámbitos delicados como la justicia penal y la aprobación de préstamos, tenemos que asegurarnos de que no perpetúa los prejuicios. Si una IA deniega un préstamo a alguien, tenemos que poder examinar su proceso de toma de decisiones.
Informatividad (informativiness): A veces queremos que nuestros modelos nos enseñen algo nuevo sobre el mundo. Un modelo interpretable puede revelar patrones o relaciones inesperadas en los datos.
Transferibilidad (transferability): Necesitamos saber hasta qué punto nuestros modelos funcionarán bien en situaciones nuevas y ligeramente diferentes. Esto es crucial para desplegar sistemas de IA en el mundo real, donde las condiciones pueden cambiar.
Los enfoques de la interpretabilidadLipton señala que hay distintas formas de lograr la interpretabilidad. Algunos investigadores se centran en hacer más transparente el funcionamiento interno de los modelos, mientras que otros desarrollan técnicas para explicar las decisiones de los modelos a posteriori.
Los enfoques de la transparencia incluyen:
-
Simulabilidad: ¿Puede un ser humano simular todo el modelo?
-
Descomponibilidad: ¿Puede entenderse intuitivamente cada parte del modelo?
-
Transparencia algorítmica: ¿Entendemos cómo funciona el algoritmo de aprendizaje?
Entre los métodos de interpretabilidad post hoc se incluyen:
-
Explicaciones textuales: Generación de explicaciones legibles para el ser humano sobre las decisiones del modelo.
-
Visualización: Creación de representaciones visuales de lo que ha aprendido el modelo.
-
Explicaciones locales: Explicar predicciones individuales en lugar de todo el modelo.
-
Explicación mediante ejemplos: Mostrar casos similares que el modelo utilizó para tomar su decisión.
Curiosamente, el artículo cuestiona algunos supuestos comunes. Por ejemplo, mucha gente cree que los modelos lineales simples son intrínsecamente más interpretables que las redes neuronales complejas. Pero Lipton sostiene que esto no siempre es cierto: depende de lo que entendamos por interpretabilidad y de cómo se utilicen los modelos. Por ejemplo, un modelo lineal con miles de características puede ser más difícil de entender a primera vista que una red neuronal entrenada con datos brutos. La elección entre interpretabilidad y rendimiento no siempre está clara.
La interpretabilidad, un arma de doble filoAunque el impulso a favor de la interpretabilidad es generalmente positivo, Lipton advierte de que no está exento de posibles inconvenientes. Por ejemplo, a veces, hacer que un modelo sea más interpretable puede reducir su precisión. O puede que las explicaciones sencillas nos den una falsa sensación de seguridad sobre los sistemas complejos. O tal vez, quién sabe, un modelo muy interpretable podría revelar información sensible sobre los datos de entrenamiento.
A medida que la IA sigue dando forma a nuestro mundo, tenemos que ser más precisos sobre lo que queremos decir cuando exigimos modelos «interpretables». No se trata solo de simplificar las cosas, sino de garantizar que nuestros sistemas de IA se ajusten a los valores humanos y sean fiables a la hora de tomar decisiones importantes.
La búsqueda de una IA interpretable es algo más que un reto técnico: es un paso crucial en la creación de sistemas de IA en los que podamos confiar y que podamos utilizar de forma responsable en la sociedad. Mientras seguimos ampliando los límites de lo que la IA puede hacer, también debemos ampliar nuestra comprensión de cómo funciona. Es un viaje que promete no solo hacer que nuestros sistemas de IA sean más fiables, sino también profundizar en nuestra propia comprensión de la toma de decisiones y de la propia inteligencia.
Para saber más:
La IA podría convertir la ciencia en algo incomprensible
¿Qué es el aprendizaje automático?
Sobre el autor: Julián Estévez Sanz, Profesor e investigador en Robótica e Inteligencia Artificial, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo es una versión del publicado en El blog de Julián Estévez el 19 de agosto de 2024
El artículo La interpretabilidad de los modelos de inteligencia artificial se ha escrito en Cuaderno de Cultura Científica.