Cuaderno de Cultura Científica jarioa-rako harpidetza egin
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Eguneratua: duela ordu 1 41 min

¿Agujero negro más ligero o estrella de neutrones más pesada?

Og, 2024-01-25 11:59

Con un radiotelescopio de Sudáfrica se ha identificado un sistema binario formado por una estrella pulsante y un misterioso objeto compacto, con unas 2,35 masas solares, lo que lo sitúa en la llamada ‘brecha de masas’ entre las estrellas de neutrones y los agujeros negros. Si fuera esto último, se tendría la codiciada pareja púlsar de radio-agujero negro, que permitiría nuevos test de la relatividad general de Einstein.

estrella de neutroneslustración del sistema binario suponiendo que el objeto compacto descubierto sea un agujero negro, junto al púlsar de radio PSR J0514-4002E (la estrella compañera más brillante del fondo). Ambos estarían separados por 8 millones de kilómetros y giran uno alrededor de la otra cada 7 días. Fuente: MPIfR / Daniëlle Futselaar (artsource.nl)

Las estrellas de neutrones, los restos ultradensos de la explosión de una supernova, solo pueden tener un peso limitado. Una vez que adquieren demasiada masa, por absorber o colisionar con otra estrella, se colapsan. Se ha especulado mucho sobre en qué se convierten luego, pero la opinión predominante es que en agujeros negros, objetos tan gravitatoriamente potentes que ni siquiera la luz puede escapar de ellos.

La teoría, respaldada por la observación, indica que los agujeros negros más ligeros que pueden crearse por el colapso de estrellas son unas 5 veces más masivos que el Sol, es decir, que tienen unas 5 masas solares. Esto es considerablemente mayor que las 2,2 masas solares que se requieren para que colapse una estrella de neutrones (las más masivas tienen hasta 2,5), dando lugar a lo que se conoce como la brecha de masa de los agujeros negros. Se desconoce la naturaleza de los objetos compactos que se encuentran dentro de este ‘hueco’, ya que solo se han captado algunos datos en lejanos eventos de fusión de ondas gravitacionales.

Ahora, el descubrimiento de un objeto en esta brecha de masa en nuestra propia galaxia por un equipo de astrónomos de la colaboración internacional TRAnsients and PUlsars with MeerKAT (TRAPUM) puede ayudar a comprender por fin lo que son.

Su trabajo, coordinado desde el alemán Instituto Max Planck de Radioastronomía (MPIfR, que colidera TRAPUM junto a la Universidad de Mánchester) y publicado esta semana en la revista Science, informa sobre una pareja masiva de estrellas u objetos compactos en el cúmulo globular NGC 1851, en la constelación austral de Columba (la paloma).

Utilizando el radiotelescopio MeerKAT de Sudáfrica, en combinación con potentes instrumentos construidos por ingenieros del MPIfR, pudieron detectar débiles pulsos procedentes de una de las estrellas, identificándola como un púlsar de radio, un tipo de estrella de neutrones que gira rápidamente y emite haces de luz de radio hacia el universo como un faro cósmico. Este púlsar, denominado PSR J0514-4002E, gira más de 170 veces por segundo, y cada rotación produce un pulso rítmico, como el tic-tac de un reloj.

estrella de neutronesRadiotelescopio MeerKAT, situado en el semidesierto de Karoo, en Sudáfrica. Fuente: SARAO

Mediante la observación de pequeños cambios en este tic-tac a lo largo del tiempo, utilizando una técnica llamada pulsar timing o cronometraje de púlsares, fueron capaces de realizar mediciones extremadamente precisas de su movimiento orbital.

«Es como orbitar un cronómetro casi perfecto alrededor de una estrella a casi 40.000 años luz de distancia y cronometrar esas órbitas con una precisión de microsegundos», explica Ewan Barr, que dirigió el estudio junto con Arunima Dutta, colega y doctoranda del MPIfR.

Esa temporización regular también permitió medir con gran precisión la ubicación del sistema, lo que demostró que el objeto que se mueve junto al púlsar no era una estrella normal (es invisible en las imágenes de NGC 1851 del telescopio espacial Hubble), sino un resto extremadamente denso de una estrella colapsada.

Además, el cambio observado en el tiempo del punto más cercano de aproximación entre las dos estrellas u objetos (el periastro) mostró que la compañera o compañero tiene una masa que es mayor que la de cualquier estrella de neutrones conocida pero menor que la de cualquier agujero negro conocido, lo que la sitúa directamente en la brecha de masa de los agujeros negros.

Como las estrellas de neutrones más masivas suelen tener entre 2,2 y 2,5 masas solares (más cerca de lo primero, aunque es objeto de debate), mientras que los agujeros negros de menos de 5 masas solares rara vez se observan, ¿qué es entonces este misterioso objeto compacto, que tiene entre 2,09 y 2,71 masas solares?

“Depende de cuál sea realmente la masa máxima de las estrellas de neutrones”, subraya Barr a SINC, y lo explica: “Existen pruebas convincentes, procedentes de fusiones por ondas gravitacionales, de que la masa máxima de una estrella de neutrones se sitúa en torno a 2,17. Según nuestras observaciones, la masa más probable de la compañera es de 2,35 masas solares. Basándonos en esto, el balance de probabilidades sugiere que lo que hemos encontrado es demasiado pesado para ser una estrella de neutrones y, por tanto, es más probable que sea un agujero negro”.

“Sin embargo, sinceramente, yo no me fiaría ni de lo uno ni de lo otro –comenta–. La masa por sí sola no es una prueba especialmente persuasiva para una u otra interpretación y es seguro que tras hacer público este resultado habrá teóricos que soñarán con nuevas formas de crear estrellas de neutrones ultramasivas”.

¿Y si fuera una estrella de quarks?

Respecto a la posibilidad de que no sea ni una estrella de neutrones ni un agujero negro, apunta: «La probabilidad de que eso ocurra es extremadamente pequeña. Existen objetos teóricos más densos que una estrella de neutrones, pero no lo suficiente como para colapsar y convertirse en un agujero negro. Un candidato es una estrella de quarks compuesta por una especie de plasma estable de quarks y gluones que no se colapsa debido a las fuerzas de repulsión entre estos quarks. Una estrella así sería masiva y densa, pero también muy difícil de detectar directamente debido a la falta de emisión electromagnética. Por el momento, no existen pruebas convincentes de la existencia de este tipo de estrellas».

«Sea lo que sea este objeto, es una noticia apasionante», afirma Paulo Freire, también del MPIfR. «Si es un agujero negro, será el primer sistema púlsar-agujero negro conocido, que ha sido el Santo Grial de la astronomía de púlsares durante décadas», indica. Esta codiciada pareja estelar permitiría realizar nuevas pruebas o test de la relatividad general de Einstein.

«Y si es una estrella de neutrones –continúa–, tendrá implicaciones fundamentales para nuestra comprensión del desconocido estado de la materia a estas increíbles densidades».

Una historia de formación exótica

El equipo propone que la formación del objeto masivo, y su posterior emparejamiento con el púlsar de radio de giro rápido en una órbita estrecha, es el resultado de una historia de formación bastante exótica, solo posible debido a su particular entorno local. Este sistema se encuentra en un cúmulo globular (NGC 1851) con una densa colección de estrellas viejas que están mucho más apretadas que las del resto de la galaxia. Aquí, la aglomeración es tal que las estrellas pueden interactuar entre sí, perturbando sus órbitas y, en los casos más extremos, colisionando.

La explicación sobre su posible formación no es sencilla. Se cree que una de esas colisiones entre dos estrellas de neutrones creó el objeto masivo misterioso (sea agujero negro o estrella de neutrones). Por su parte, el púlsar de radio (de milisegundos, MSP) debió adquirir material de una estrella donante en una binaria de rayos X de baja masa (LMXB).

Este proceso de «reciclaje» es necesario para que el púlsar alcance su velocidad de rotación actual. Los autores creen que esta estrella donante (que quedó como enana blanca, WD) fue sustituida por el objeto masivo actual durante un encuentro de intercambio.

estrella de neutronesPosible historia de formación del púlsar de radio NGC 1851E y su exótico compañero. Fuente: Thomas Tauris (Aalborg University / MPIfR)

«Se trata del púlsar binario más exótico descubierto hasta ahora», afirma el coautor Thomas Tauris, de la Universidad de Aalborg (Dinamarca), «y su larga y compleja historia de formación supera los límites de nuestra imaginación».

Aunque el equipo no puede afirmar de forma concluyente si han encontrado la estrella de neutrones más masiva conocida, el agujero negro más ligero conocido o incluso alguna nueva variante de estrella exótica, lo cierto es que han descubierto un laboratorio único para sondear las propiedades de la materia en las condiciones más extremas del universo.

«Aún no hemos terminado con este sistema», afirma Arunima Dutta, que concluye: «Descubrir la verdadera naturaleza de la compañera será un punto de inflexión en nuestra comprensión de las estrellas de neutrones, los agujeros negros y cualquier otra cosa que pueda estar al acecho en la brecha de masa de los agujeros negros».

Próximos pasos para resolver el misterio

Por su parte, Barr comenta los próximos pasos: “Estamos realizando observaciones para detectar cambios en la señal del púlsar debidos al campo gravitatorio de su pareja. La detección de estos efectos nos indicaría con mayor seguridad cuál es la masa del púlsar y del objeto compacto. El radiotelescopio MeerKAT no es lo suficientemente sensible para detectar estos efectos, y esperamos con impaciencia la llegada de nuevos instrumentos, como el telescopio Square Kilometre Array, que debería detectar fácilmente estos cambios”.

“Hay un efecto relativista en particular que nos interesa, llamado precesión Lense-Thirring, que se produce en presencia de objetos fuertemente gravitatorios (básicamente, los objetos arrastran consigo el espacio-tiempo a medida que giran, como las corrientes en el océano). A diferencia de otros efectos, que solo nos indicarían la masa de la estrella u objeto compañero, la detección de la precesión Lense-Thirring nos informa sobre la velocidad a la que gira. Se espera que los agujeros negros giren mucho más rápido que las estrellas de neutrones, por lo que esto nos daría una forma directa de saber cuál de los dos es”. La investigación del enigmático objeto continúa.

Referencia:

Ewan Barr, Arunima Dutta et al. (2024) A pulsar in a binary with a compact object in the mass gap between neutron stars and black holes Science doi: 10.1126/science.adg300

 

Una versión de este artículo fue publicada originalmente en SINC el 18 de enero de 2024. Autor: Enrique Sacristán.

El artículo ¿Agujero negro más ligero o estrella de neutrones más pesada? se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Los sólidos platónicos

Az, 2024-01-24 11:59

Recientemente, he tenido el placer de organizar una visita, con ojos matemáticos, a la maravillosa exposición Gego, mirando el infinito, que el Museo Guggenheim Bilbao acoge estos días, del 7 de noviembre de 2023 al 4 de febrero de 2024. Gertrude Goldschmidt (Hamburgo, 1912–Caracas, 1994), cuyo nombre artístico es Gego, fue una artista venezolana, de origen alemán, pionera del arte abstracto latinoamericano, cuya obra artística podemos enmarcar dentro de las corrientes de la abstracción geométrica, el arte cinético y el arte óptico, con una fuerte influencia matemática. Entre las obras que se pueden admirar en esta exposición hay esculturas colgantes como Esfera n. 2 (1976), Esfera n. 4 (1976) o Siete icosidodecaedros (1977), de su serie Esferas, que son poliedros, esto es, figuras geométricas tridimensionales, cuyas caras planas son polígonos y se unen unas con otras a través de sus lados y que, además, encierran un volumen finito. Algunos de esos poliedros, en particular, los de la escultura Siete icosidodecaedros, pertenecen a la familia de poliedros denominada sólidos arquimedianos, como expliqué en la mencionada visita y sobre los que tenía la intención de escribir en esta entrada del Cuaderno de Cultura Científica. Sin embargo, no tiene sentido explicar qué son los sólidos arquimedianos sin pasar primero por los sólidos platónicos, que es lo que vamos a hacer finalmente en esta anotación.

Escultura colgante Siete icosidodecaedros (1977), de la artista venezolana, de origen alemán, Gego, que forma parte de la exposición Gego, mirando el infinito, (Museo Guggenheim Bilbao, 7 de noviembre de 2023 – 4 de febrero de 2024). Fotografía: Raúl IbáñezLos sólidos platónicos

Para introducir a los sólidos platónicos primero vamos a definir de forma sencilla qué es un poliedro. Un poliedro es una figura geométrica tridimensional formada por caras poligonales planas (triángulos, cuadriláteros, pentágonos, hexágonos, etc; aunque también podrían ser estrellados, como la estrella pentagonal (pentagrama o pentalfa), y la estrella hexagonal (hexagrama o estrella de David), que generan curiosos poliedros que se autointersecan, aunque en esta entrada no vamos a dedicar mucha atención a estos), aristas rectas (que son los lados compartidos de cualesquiera dos caras poligonales planas) y los vértices (que son los puntos en los que se juntan las aristas).

Algunos ejemplos de poliedros, desde el tetraedro, que es una pirámide triangular, pasando por el prisma y el antiprisma pentagonales, el icosaedro formado por 20 triángulos, el icosaedro truncado, formado por pentágonos y hexágonos, que fue la forma de los balones de fútbol durante años, y un poliedro estrellado, más complejo de ver, ya que sus caras son estrellas pentagonales y, por lo tanto, se autointersecan. Imágenes de Tomruen, a través de Wikimedia Commons

 

La anterior definición es imprecisa. Aunque nuestro objetivo no es dar una definición estricta de poliedro, si matizaremos un poco la definición. Por una parte, cada cara del poliedro tiene que estar en un plano distinto a los planos de las demás caras y, por otra parte, consideraremos que los poliedros encierran un volumen finito (en particular, no son abiertos).

Existen muchas familias de poliedros, por este motivo primero vamos a centrarnos en los más sencillos y regulares, los sólidos platónicos. Un sólido platónico es un poliedro regular convexo. Vamos por partes. Un poliedro es regular si sus caras son polígonos regulares (esto quiere decir que los lados del polígono, respectivamente, sus ángulos interiores, son iguales entre sí) todos iguales y la estructura de todos los vértices es la misma. Por ejemplo, el tetraedro de la anterior imagen es un poliedro regular, puesto que todas sus caras son triángulos equiláteros del mismo tamaño y la estructura de todos los vértices es la misma, cada vértice recibe tres triángulos equiláteros. Por otra parte, el concepto de poliedro convexo tiene cierta complejidad, pero podemos explicarlo de la siguiente forma. Un poliedro es convexo si dados dos puntos cualesquiera del mismo, el segmento que los une está en el interior del poliedro, como en los cinco primeros ejemplos de la imagen anterior, y no será convexo en caso contrario, como en el poliedro estrellado anterior, en el que, por ejemplo, los segmentos que unen cualesquiera dos vértices son exteriores. Otra forma de definir la convexidad es que para cualquier plano en el que se apoye una cara del poliedro, este estará colocado completamente a un solo lado de dicho plano. Por ejemplo, en el caso del tetraedro si consideramos el plano en el que descasa cualquiera de sus caras triangulares, vemos claramente que el tetraedro estará completamente colocado a un lado del plano, luego el tetraedro es un sólido platónico. Sin embargo, si tomamos el plano que contiene a cualquiera de las caras del poliedro estrellado anterior (que es una estrella pentagonal), tenemos que hay partes del poliedro a cada lado del plano, luego es no convexo.

A pesar de la existencia de infinitos polígonos regulares, que van desde los sencillos triángulo equilátero (3 lados iguales), cuadrado (cuatro lados) o pentágono (5 lados), subiendo en la cantidad de lados, hexágono (6), heptágono (7), octógono (8), nonágono (9), así hasta el infinito, solamente existen cinco sólidos platónicos. A saber, el tetraedro (formado por 4 triángulos equiláteros y cuya estructura en los vértices está formada por la confluencia de tres triángulos equiláteros, lo cual podemos expresarlo como que tiene una estructura {3, 3, 3}), el octaedro (8 triángulos equiláteros y estructura de los vértices igual a {3, 3, 3, 3}), el cubo (6 cuadrados y estructura de los vértices {4, 4, 4}), el icosaedro (20 triángulos equiláteros y estructura de sus vértices {3, 3, 3, 3, 3}) y el dodecaedro (12 pentágonos y estructura de sus vértices {5, 5, 5}), que vemos en la siguiente imagen.

sólidos platónicosImagen de los sólidos platónicos, tetraedro, octaedro, cuadrado, icosaedro y dodecaedro. Imagen de DTR, a través de Wikimedia Commons

 

Antes de continuar, vamos a contar la cantidad de vértices, aristas y caras que tienen estos cinco poliedros regulares convexos y que recogemos en la siguiente tabla.

Los griegos ya lo sabían

Los antiguos matemáticos griegos ya demostraron que tan solo existen cinco sólidos platónicos, es decir, poliedros regulares (mismas caras y mismos vértices) convexos. Por ejemplo, en la gran obra de la matemática griega, y universal, Los Elementos, del matemático griego Euclides de Alejandría (aprox. 325 – 265 a.n.e.) se estudian los sólidos platónicos (principalmente, en su libro número XIII) y se demuestra que solamente existen cinco. La idea, que es muy simple, consiste en estudiar las posibles estructuras en los vértices. Puedes saltarte la demostración, aunque es tan sencilla e intuitiva que merece la pena leerla.

Empecemos por los triángulos. Como en un plano, alrededor de un vértice, podemos disponer de seis triángulos equiláteros, puesto que 6 x 60 = 360 grados (recordemos que los ángulos interiores de un triángulo equilátero son de 60 grados), el número máximo de triángulos equiláteros alrededor de un vértice del poliedro regular convexo será, como mucho, cinco. Por lo tanto, obtenemos que solamente hay tres sólidos platónicos formados por triángulos, a saber, el tetraedro, con tres triángulos equiláteros {3, 3, 3}, el octaedro, con cuatro triángulos equiláteros {3, 3, 3, 3} y el icosaedro, con cinco triángulos equiláteros {3, 3, 3, 3, 3}. Y no hay más posibilidades. Con tan solo dos triángulos es imposible formar un poliedro cerrado, ya que no podemos cerrar la estructura en el vértice. Y con seis triángulos equiláteros la figura en el vértice sería plana, no hay manera de que sea tridimensional, y no hay espacio para encajar más de seis triángulos equiláteros alrededor de un vértice.

Imagen de los tres poliedros regulares convexos formados por triángulos, vistos con uno de sus vértices en el centro, el tetraedro (3 triángulos equiláteros por vértice), el octaedro ((4 triángulos equiláteros)) y el icosaedro (5 triángulos equiláteros) y, en cada caso, el mismo número de triángulos equiláteros en el plano que los que están alrededor de un vértice. Imagen construida a partir de imágenes de los poliedros de Stephen Wolfram y Eric W. Weisstein, realizadas con Mathematica

 

Si continuamos con los cuadrados, resulta que alrededor de un vértice no podrá haber más de tres cuadrados, ya que 4 x 90 = 360 grados (recordemos que los ángulos interiores de un cuadrado son de 90 grados), luego con cuatro cuadrados la figura sería plana y no hay forma de construir un poliedro. Con dos cuadrados no llegamos a nada, como en el caso anterior, pero con tres cuadrados por vértice se obtiene el cubo.

Imagen del único poliedro regular convexo formado por cuadrados, visto con uno de sus vértices en el centro, el cubo, con 3 cuadrados por vértice, y el mismo número de cuadrados en el plano. Imagen construida a partir de una imagen del cubo de Stephen Wolfram y Eric W. Weisstein, realizada con Mathematica

 

Algo similar pasa para los pentágonos, cuyo ángulo interior en sus vértices es de 108 grados, luego el número máximo de pentágonos alrededor de un vértice de un sólido platónico es tres, ya que con cuatro nos pasamos de los 360 grados (108 x 4 = 432 grados).

Imagen del único poliedro regular convexo formado por pentágonos, visto con uno de sus vértices en el centro, el dodecaedro, con 3 pentágonos por vértice, y el mismo número de pentágonos en el plano. Imagen construida a partir de una imagen del cubo de Stephen Wolfram y Eric W. Weisstein, realizada con Mathematica

 

Los hexágonos nos van a dar una idea de lo qué ocurre con polígonos de más lados. Ya hemos comentado más arriba que con dos polígonos solamente, da igual el número de lados de estos, es imposible crear un poliedro. El problema es que con tres hexágonos en un vértice tenemos que la figura ya es plana, puesto que 3 x 120 = 360 grados (los ángulos interiores de un hexágono son de 120 grados), luego es imposible generar un poliedro con 3, o más, hexágonos. La cosa es peor aún para polígonos de siete, o más, lados, puesto que es imposible encajar tres, o más, polígonos en un vértice, ya que la suma de sus ángulos siempre es mayor de 360 grados.

Por lo tanto, los únicos poliedros regulares convexos, es decir, sólidos platónicos, son el tetraedro, el octaedro, el icosaedro, el cubo y el dodecaedro.

sólidos platónicosEsculturas de los cinco sólidos platónicos (1996), realizadas por el artista alemán Ekkehard Neumann, para el parque Bagno de la ciudad alemana de Steinfurt

 

Sin embargo, la mayoría de los historiadores atribuyen el contenido del libro XIII de Los Elementos de Euclides al matemático griego Teeteto (aprox. 417 – 369 a.n.e.), quien estudió bajo la dirección del matemático pitagórico Teodoro de Cirene (465 – 398 a.n.e.), al igual que el filósofo griego Platón (aprox. 427 – 347 a.n.e.), quien lo incluiría, como interlocutor del personaje principal de todos sus diálogos, el filósofo Sócrates (470 – 399 a.n.e.), en dos de sus diálogos, el Sofista y Teeteto.

Cosmogonía platónica

El nombre de sólidos platónicos para los poliedros regulares convexos viene del diálogo Timeo, de Platón. En este diálogo, se describen los poliedros regulares convexos, que posteriormente, recibirán el nombre de sólidos platónicos, y se relacionan con la creación del cosmos. Para Platón los cuatro primeros poliedros regulares, tetraedro, octaedro, icosaedro y cubo, están relacionados con los cuatro elementos que forman el cosmos, fuego, aire, agua y tierra. Así podemos leer en este diálogo (hemos tomado la edición bilingüe de José María Zamora Calvo, publicada por Abada Editores, en 2010):

A la tierra asignemos la figura cúbica, ya que es la más difícil de mover de los cuatro géneros y la más plástica de entre los cuerpos; y es del todo necesario que lo que posea tales características tenga al nacer las caras más estables. Ahora bien, entre los triángulos supuestos al comienzo, la cara de lados iguales es por naturaleza más estable que la de lados desiguales, y la superficie de cuatro lados iguales formada por dos equiláteros resulta necesariamente una base más estable que el triángulo equilátero, tanto en sus partes como en el todo. Por consiguiente, si atribuimos esta figura a la tierra, aseguramos el discurso verosímil y, asimismo, al agua la forma menos móvil de las restantes, al fuego la más móvil, y al aire la intermedia. Y atribuimos el cuerpo más pequeño [tetraedro] al fuego, el más grande [icosaedro] al agua, y el del medio [octaedro] al aire; y, a su vez, el más agudo al fuego, el segundo más agudo al aire, y el tercero al agua.

El universo está formado por los cuatro elementos fuego [tetraedro], tierra [cubo], agua [icosaedro] y aire [octaedro], pero Dios utiliza el dodecaedro, que en el diálogo solo se menciona como la “quinta composición” (esto es, el quinto poliedro regular convexo), para crear el universo, ya que el dodecaedro es el poliedro regular convexo más próximo a la esfera. Platón escribe en el diálogo (edición bilingüe de José María Zamora Calvo, publicada por Abada Editores, en 2010):

Había aún una quinta composición [dodecaedro]; el dios la utilizó para el universo, cuando lo pintó con diversos colores.

Dios habría tomado el quinto poliedro como modelo para crear el universo y este es el motivo por el cual se ha considerado el dodecaedro como el símbolo del universo. Si nos fijamos en la pintura, La última cena (1955), o más exactamente El sacramento de la última cena, del artista catalán Salvador Dalí (1904-1989), Jesús y los apóstoles están rodeados en esa última cena de un enorme dodecaedro.

Ilustración del libro Harmonices mundi (1619), del matemático y astrónomo alemán Johannes Kepler (1571-1630), que incluye -en el centro a la derecha- la imagen de los cinco sólidos platónicos con dibujos que los relacionan con la cosmogonía platónica

Algunas fuentes, entre las que están el filósofo neoplatónico griego Proclo (412-485), atribuyen a Pitágoras la cosmogonía descrita en el diálogo Timeo de Platón, aunque la mayoría de los historiadores consideran bastante improbable que Pitágoras hubiese planteado este origen del universo. Según muchas fuentes los primeros pitagóricos conocerían solo tres de los cinco sólidos platónicos, el cubo, el tetraedro y el dodecaedro, y se atribuye a Teeteto el octaedro y el icosaedro.

¿Se conocían los poliedros regulares en el neolítico?

En la siguiente imagen, del libro Time Stands Still; New Light on Megalithic Science / El tiempo se detiene; Nuevos descubrimientos en la ciencia del Megalítico (1979), del profesor de arquitectura, escritor y artista británico Keith Critchlow (1933-2020), apasionado de la denominada “geometría sagrada”, aparecen cinco “bolas de piedra talladas”. Las bolas de piedra talladas son objetos artificiales esféricos tallados en piedra, lo que se denomina petroesferas, que datan de finales del neolítico (hace más de 4.000 años) y que han sido encontradas principalmente en Escocia, aunque también en el resto de Gran Bretaña e Irlanda. Su tamaño suele ser de unos 7 centímetros de diámetro y cuentan con entre 3 y 160 abultamientos. Además, se desconoce cuál era el uso de estas bolas de piedra talladas. Esta imagen ha sido utilizada por Critchlow para demostrar que en el neolítico ya se conocían los cinco sólidos platónicos, más de mil años antes de Platón.

Imagen del libro Time Stands Still; New Light on Megalithic Science / El tiempo se detiene; Nuevos descubrimientos en la ciencia del Megalítico (1979), del británico Keith Critchlow, con las supuestas cinco bolas de piedra talladas con la forma de los cinco sólidos platónicos

Sin embargo, algunas personas, como el artista y matemático estadounidense George W. Hart, encontraron algunas contradicciones en esta imagen. Por este motivo, hay quienes acudieron a la fuente original. Las cinco bolas de piedra talladas que menciona Critchlow se encuentran en el Museo Ashmolean de Oxford (Inglaterra, Gran Bretaña) y son las que aparecen en la siguiente imagen.

Imagen de las cinco bolas de piedra talladas que se encuentran en el Museo Ashmolean de Oxford. Imagen de la página web del Museo Ashmolean

Si vamos revisando las cinco bolas de piedra tallada una a una observamos lo siguiente. La primera, arriba a la izquierda, tiene siete abultamientos, luego estos no pueden corresponderse ni con vértices, ni con caras, de un poliedro regular convexo (véase la tabla anterior), como ocurría en la interpretación que hacía Critchlow en su imagen. La segunda bola, arriba en el centro, tiene seis abultamientos y podríamos interpretarla tanto como un octaedro, si los abultamientos se consideran como los vértices del poliedro, o como un cubo si los abultamientos (que están bastante aplanados) se consideran como las caras del poliedro. Esta doble interpretación que estamos realizando, está relacionada con el hecho de que el cubo y el octaedro son duales, como comentaremos más adelante. La tercera bola, arriba a la derecha, tiene 14 abultamientos, que no se corresponde con ningún poliedro regular, ya se consideren los abultamientos como caras o vértices (véase la tabla anterior). La cuarta bola, abajo a la izquierda, posee 6 grandes abultamientos, es como segunda bola, pero con abultamientos un poco más grandes. Y, finalmente, la última bola posee cuatro abultamientos, por lo que podemos interpretarla como la representación del tetraedro, ya se consideren los abultamientos como caras o vértices.

Por lo tanto, las cinco bolas de piedra talladas del Museo Ashmolean no están relacionadas con los cinco sólidos platónicos, como afirmaba Critchlow. En conclusión, la mencionada fotografía parece estar amañada.

Existen más ejemplos de bolas de piedra talladas con estructura de tetraedro o cubo/octaedro (en función de si los abultamientos son más o menos planos parecerán más un cubo o un octaedro), similares a las bolas del Museo Ashmolean. En las siguientes imágenes vemos algunos de estos ejemplos.

Tres bolas de piedra talladas, que se encuentran en el Kelvingrove Art Gallery and Museum, de Glasgow (Gran Bretaña), con seis abultamientos. Las dos primeras, con abultamientos más planos, nos recuerdan más al cubo, mientras que la tercera, con abultamientos más pronunciados, nos remite a la estructura del octaedro

 

Fotografía de la bola de piedra tallada, encontrada en Towie, Aberdeenshire (Escocia) y que se encuentra en el Museo Nacional de Escocia, fechada alrededor del 3.000 a.n.e. Esta bola tiene estructura de tetraedro. Imagen del Museo Nacional de Escocia

Incluso puede encontrarse alguna bola de piedra tallada en la que podemos interpretar un dodecaedro. En la siguiente imagen vemos el modelo 3d de una bola de piedra tallada, encontrada en Aboyne, Aberdeenshire (Escocia), con 12 abultamientos, cada uno de los cuales está rodeado de otros cinco, luego simulan caras pentagonales lo que hace que la bola de piedra tallada parezca un dodecaedro.

Dos vistas del modelo 3d, realizado por Hugo Anderson-Whymark, de una bola de piedra tallada, encontrada en Aboyne, Aberdeenshire (Escocia), con 12 abultamientos, cada uno de los cuales está rodeado de otros cinco (primera imagen), luego simulan caras pentagonales lo que hace que la bola de piedra tallada parezca un dodecaedro (segunda imagen)

Por otra parte, si relacionamos los abultamientos con los vértices de un poliedro regular, podríamos relacionar la anterior bola de piedra tallada con el icosaedro, lo cual está relacionado con el hecho de que el dodecaedro y el icosaedro son duales, como veremos.

Nos podríamos plantear si en el neolítico conocían los poliedros regulares convexos, como sugería Critchlow. Todo hace pensar que, aunque podamos relacionar algunas de las bolas de piedra talladas con los sólidos platónicos, esto no demuestra que las personas que tallaron estas piedras esféricas con abultamientos simétricos tuvieran en mente los poliedros regulares a la hora de crearlos. Claramente tenían cierta intuición geométrica, relacionada con la simetría, pero no un conocimiento de los sólidos platónicos. La relación de las bolas de piedras talladas con los poliedros regulares es más bien una interpretación moderna de las bolas. Además, como ya hemos comentado antes, existen bolas con muy distinto número de abultamientos, que van desde 3 hasta 160.

Bolas de Piedra talladas del Hunterian Museum de Glasgow (Escocia)Algunos poliedros regulares antiguos

Lo que sí podemos afirmar es que existen algunas representaciones antiguas de algunos de los sólidos platónicos, como los dodecaedros romanos, de bronce o piedra, encontrados (hasta un centenar de ellos) en diferentes partes de Europa, que datan de entre los siglos II y IV, luego no anteriores a Teeteto o Platón, y cuya función se sigue desconociendo hoy en día, o el icosaedro romano encontrado en una excavación de Alemania.

Fotografía de dos dodecaedros y un icosaedro romanos de bronce, del siglo III, encontrados en dos excavaciones alemanas y que pertenecen al Museo regional renano Tréveris. Imagen de kleon3 a través de Wikimedia Commons

 

Incluso existen algunos más antiguos, como el dodecaedro etrusco, un dodecaedro de piedra encontrado en una excavación en Monte Loffa (Véneto, Italia), datado por lo menos en el 500 a.n.e. En algunos libros se acompaña esta afirmación con la imagen de un dodecaedro romano, como los anteriores, sin embargo, esa imagen no se corresponde con el dodecaedro etrusco. Amelia Carolina Sparavigna, del Politécnico de Turín (Italia), en su artículo An Etruscan Dodecahedron / Un dodecaedro etrusco, acude a la investigación original, el artículo Intorno un dodecaedro quasi regolare di pietra a facce pentagonali scolpite con cifre, scoperto nelle antichissime capanne di pietra del Monte Loffa / Sobre un dodecaedro de piedra casi regular, con caras pentagonales talladas con figuras, descubierto en las antiguas cabañas de piedra de Monte Loffa (1885), de Stefano De’ Stefani, quien estudia este pequeño dodecaedro de piedra y lo acompaña con una ilustración del mismo (la de la siguiente imagen).

Ilustración del dodecaedro etrusco perteneciente al texto Sobre un dodecaedro de piedra casi regular, con caras pentagonales talladas con figuras, descubierto en las antiguas cabañas de piedra de Monte Loffa (1885), de Stefano De’ Stefani

En opinión de De’ Stefani el dodecadero etrusco podría ser un dado y las marcas corresponderse con algún tipo de representación de los números del 1 al 12.

También se han encontrado diferentes dados icosaédricos, realizados con distintos materiales, del Antiguo Egipto, tanto del período helenístico, como del romano, entre el siglo II a.n.e. y el siglo IV n.e., y con números, en griego o romano, en sus caras.

Dos dados icosaédricos, con 20 caras, con letras griegas en sus caras del Antiguo Egipto, entre los siglos II a.n.e. y IV n.e. Imágenes del Museo Metropolitano de ArteDualidad

Antes de dar por finalizada esta entrada del Cuaderno de Cultura Científica vamos a explicar el concepto de dualidad para los poliedros. Se dice que dos poliedros son duales si las caras de uno se corresponden con los vértices del otro, y recíprocamente. Construyamos los poliedros duales de los sólidos platónicos.

Dado un poliedro regular convexo se construye el poliedro dual uniendo los puntos centrales de las caras adyacentes, de esta forma cada cara del poliedro original se corresponde con un vértice del nuevo poliedro. De forma análoga, cada vértice del poliedro original se va a corresponder con una cara del nuevo poliedro, ya que cada vértice del poliedro original tiene alrededor una serie de caras adyacentes dos a dos y conectadas de forma cíclica, de manera que al unir sus centros, que son los vértices del nuevo poliedro, se obtiene la cara de ese nuevo poliedro, que está conectada con el vértice del que partíamos).

Por ejemplo, el poliedro dual del dodecaedro es el icosaedro, como se muestra en la siguiente imagen. Como vemos, las caras del dodecaedro se corresponden, por construcción, con los vértices del icosaedro, así como los vértices del dodecaedro se corresponden con las caras del icosaedro.

sólidos platónicosImagen que ilustra que el icosaedro es dual del dodecaedro, realizada por la estudiante Klara Mundilova (2012), utiñizando POV-Ray – The Persistance of Vision Raytracer, para la clase del profesor Hans Havlicek, de la TU DMG Technische Universität Wien, de Austria

 

Resulta que los poliedros duales de los sólidos platónicos siguen siendo sólidos platónicos. Más concretamente, el dodecaedro y el icosaedro son duales, el cubo y el octaedro son duales, y el tetraedro es dual de sí mismo, como podemos observar en la siguiente imagen.

Dualidad de los sólidos platónicos. Imagen del proyecto ATRACTOR de Portugal, a través de su página web

La dualidad se puede obtener mediante otros procesos, pero no vamos a entrar en ellos en esta ocasión. Para terminar esta entrada vamos a mostrar las esculturas basadas en la dualidad de los sólidos platónicos de la artista saudí-palestina Dana Awartani (1987),

Escultura Tetraedro dentro de un tetraedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Octaedro dentro de un cubo II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Cubo dentro de un octaedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Icosaedro dentro de un dodecaedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana AwartaniEscultura Dodecaedro dentro de un icosaedro II (2019), perteneciente a la serie Los duales de los sólidos platónicos, de la artista saudí-palestina Dana Awartani. Materiales: Madera, cobre y latón. Tamaño: 121 x 100 x 100 cm. Imagen de la página web de la artista Dana Awartani

En la siguiente entrada continuaremos hablando de los sólidos platónicos, los poliedros regulares convexos.

Bibliografía

1.- Geaninne Gutiérrez-Guimaraes (editora), Gego, midiendo el infinito (catálogo de la exposición), Museo Guggenheim Bilbao, 2023.

2.- Pedro Miguel González Urbaneja, Los sólidos pitagórico-platónicos (Geometría, Arte, Mística y Filosofía), FESPM, 2008.

3.- Claudi Alsina, Las mil caras de la belleza geométrica (los poliedros), El mundo es matemático, RBA, 2010.

4.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Los sólidos platónicos se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Cómo garantizar la seguridad de los vehículos autónomos

Ar, 2024-01-23 11:59

A medida que los automóviles y aeronaves pilotados por ordenador se vuelven más comunes, la clave para prevenir accidentes, según muestran los investigadores, es saber lo que no se sabe.

Un artículo de Steve Nadis. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

seguridadSeñor Salme para Quanta Magazine

Los automóviles y aeronaves sin piloto ya no son cosa del futuro. Solo en la ciudad de San Francisco, dos compañías de taxis han registrado colectivamente 12,9 millones de kilómetros de conducción autónoma hasta agosto de 2023. Y más de 850.000 vehículos aéreos autónomos, o drones, están registrados en los Estados Unidos, sin contar los militares.

Pero existen preocupaciones justificadas sobre la seguridad. Por ejemplo, en un período de 10 meses que finalizó en mayo de 2022, la Administración Nacional de Seguridad del Tráfico en Carreteras de los Estados Unidos informó de casi 400 accidentes que involucraron automóviles que utilizaban alguna forma de control autónomo. Seis personas murieron como consecuencia de estos accidentes y cinco resultaron gravemente heridas.

La forma habitual de abordar este problema, a veces denominada “prueba por agotamiento”, implica probar estos sistemas hasta que estés convencido de que son seguros. Pero nunca se puede estar seguro de que este proceso descubrirá todos los defectos potenciales. «La gente realiza pruebas hasta que agotan sus recursos y su paciencia», explica Sayan Mitra, científico informático de la Universidad de Illinois en Urbana-Champaign. Sin embargo, las pruebas por sí solas no pueden ofrecer garantías.

Mitra y sus colegas sí pueden. Su equipo ha logrado demostrar la seguridad de las capacidades de seguimiento de carriles para automóviles y de los sistemas de aterrizaje para aeronaves autónomas. Su estrategia se está utilizando ahora para ayudar a aterrizar drones en portaaviones, y Boeing planea probarla en un avión experimental este año. «Su método para proporcionar garantías de seguridad de extremo a extremo es muy importante», afirna Corina Pasareanu, científica investigadora de la Universidad Carnegie Mellon y del Centro de Investigación Ames de la NASA.

Su trabajo consiste en garantizar los resultados de los algoritmos de aprendizaje automático que se utilizan para informar a los vehículos autónomos. A alto nivel, muchos vehículos autónomos tienen dos componentes: un sistema de percepción y un sistema de control. El sistema de percepción te dice, por ejemplo, a qué distancia está tu coche del centro del carril, o en qué dirección va un avión y cuál es su ángulo con respecto al horizonte. El sistema funciona alimentando datos sin procesar de cámaras y otras herramientas sensoriales a algoritmos de aprendizaje automático basados en redes neuronales que recrean el entorno fuera del vehículo.

Luego, estas evaluaciones se envían a un sistema independiente, el módulo de control, que decide qué hacer. Si se avecina un obstáculo, por ejemplo, decide si aplica los frenos o gira para evitarlo. Según Luca Carlone, profesor asociado del Instituto de Tecnología de Massachusetts, si bien el módulo de control se basa en tecnología bien establecida, «toma decisiones basadas en los resultados de la percepción y no hay garantía de que esos resultados sean correctos».

Para brindar una garantía de seguridad, el equipo de Mitra trabajó en asegurar la confiabilidad del sistema de percepción del vehículo. Al principio supusieron que es posible garantizar la seguridad cuando se dispone de una representación perfecta del mundo exterior. Luego determinaron cuánto error introduce el sistema de percepción en su recreación del entorno del vehículo.

La clave de esta estrategia es cuantificar las incertidumbres involucradas, conocidas como banda de error, o las “incógnitas conocidas”, como lo expresa Mitra. Este cálculo proviene de lo que él y su equipo llaman contrato de percepción. En ingeniería de software, un contrato es un compromiso de que, para una determinada entrada a un programa de ordenador, la salida estará dentro de un rango especificado. Calcular este rango no es fácil. ¿Qué precisión tienen los sensores del coche? ¿Cuánta niebla, lluvia o resplandor solar puede tolerar un dron? Pero si puedes mantener el vehículo dentro de un rango específico de incertidumbre y si la determinación de ese rango es lo suficientemente precisa, el equipo de Mitra demostró que puedes garantizar su seguridad.

seguridadSayan Mitra, informático de la Universidad de Illinois, Urbana-Champaign, ha ayudado a desarrollar un enfoque sistemático para garantizar la seguridad de ciertos sistemas autónomos. Foto: Virgil Ward II

Es una situación familiar para cualquiera que tenga un velocímetro impreciso. Si sabes que el dispositivo nunca se desvía más de 5 kilómetros por hora, puedes evitar la multa por exceso de velocidad manteniéndote siempre 5 km/h por debajo del límite de velocidad (tal y como lo indica tu velocímetro no confiable). Un contrato de percepción ofrece una garantía similar de seguridad de un sistema imperfecto que depende del aprendizaje automático.

«No se necesita una percepción perfecta», explica Carlone. «Lo único que quieres es que sea lo suficientemente buena como para no poner en riesgo la seguridad». Las mayores contribuciones del equipo, afirma, son «introducir la idea completa de los contratos de percepción» y proporcionar los métodos para construirlos. Lo han hecho recurriendo a técnicas de la rama de la informática llamada verificación formal, que proporciona una forma matemática de confirmar que el comportamiento de un sistema satisface un conjunto de requisitos.

«Aunque no sabemos exactamente cómo la red neuronal hace lo que hace», como afirma Mitra, han demostrado que todavía es posible probar numéricamente que la incertidumbre de la salida de una red neuronal se encuentra dentro de ciertos límites. Y, si ese es el caso, entonces el sistema será seguro. «Podemos entonces proporcionar una garantía estadística sobre si (y en qué medida) una red neuronal determinada realmente cumplirá esos límites».

La empresa aeroespacial Sierra Nevada está probando actualmente estas garantías de seguridad al aterrizar un dron en un portaaviones. Este problema es, en cierto modo, más complicado que conducir automóviles debido a la dimensión adicional que implica volar. “Al aterrizar, hay dos tareas principales”, explica Dragos Margineantu, tecnólogo jefe de IA en Boeing, “alinear el avión con la pista y asegurarse de que la pista esté libre de obstáculos. Nuestro trabajo con Sayan implica obtener garantías para estas dos funciones”.

«Las simulaciones que utilizan el algoritmo de Sayan muestran que la alineación [de un avión antes del aterrizaje] mejora», afirma. El siguiente paso, previsto para finales de este año, es emplear estos sistemas mientras aterriza de hecho un avión experimental de Boeing. Uno de los mayores desafíos, señala Margineantu, será descubrir lo que no sabemos – “determinar la incertidumbre en nuestras estimaciones” – y ver cómo eso afecta a la seguridad. «La mayoría de los errores ocurren cuando hacemos cosas que creemos saber, y resulta que no es así».

 

El artículo original, How to Guarantee the Safety of Autonomous Vehicles, se publicó el 16 de enero de 2024 en Quanta Magazine.

Traducido por César Tomé López

El artículo Cómo garantizar la seguridad de los vehículos autónomos se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

El origen incierto de las islas evanescentes de Titán

Al, 2024-01-22 11:59

Titán es un mundo apasionante. Junto con la Tierra, es el único lugar de nuestro Sistema Solar donde existe un ciclo hidrológico, aunque radicalmente distinto al nuestro: Mientras que en nuestro planeta este ciclo funciona con el agua y sus cambios de estado, las frías temperaturas de Titán -hablamos de unos 180 grados centígrados bajo cero de media- hacen que este ciclo esté basado en el metano y el etano, que a esas temperaturas se comporta de una manera similar al agua en nuestro planeta.

En este exótico o extraño -para nuestros ojos, claro- ciclo, las nubes de metano y etano se forman sobre una atmósfera compuesta principalmente por nitrógeno y desde ella precipitan las gotas de lluvia capaces de llenar lagos y mares y de excavar unas redes de drenaje que nos recuerdan tanto a nuestros valles, ríos y ramblas.

TitánTitán, visto desde la sonda Cassini. En luz visible, no podemos ver nada de su superficie, solo su atmósfera. Cortesía de NASA/JPL-Caltech/Space Science Institute.

Este ciclo hidrológico -entiéndase en todo este artículo el uso del término hidrológico lato sensu – es susceptible de comparaciones con el nuestro, puesto que, a pesar de ser mundos radicalmente diferentes, es capaz de modelar el paisaje de una manera similar, lo que nos da una perspectiva sobre la gran diversidad de procesos que se dan en los distintos cuerpos del Sistema Solar y como son capaces de crear paisajes similares. Eso no quita que no se puedan dar procesos diferentes a los que hay en la Tierra, aunque, por muy marciano que nos parezca un paisaje, en ocasiones tenemos más cosas en común que diferencias.

La llegada de la sonda Cassini al sistema de Saturno fue una verdadera revolución en nuestro conocimiento sobre este satélite, ya que la distancia a nuestro planeta y una superficie perpetuamente cubierta de una neblina de compuestos orgánicos, hacía tarea imposible que pudiésemos saber que pasaba en su superficie, algo que tuvo solución gracias a los datos de radar, pero también a las imágenes tomadas en determinadas “ventanas” ópticas -entiéndase por ventanas en el sentido de longitudes de onda- que también nos aportaban algunos detalles de una superficie hasta entonces inédita para el ser humano.

TitánLas islas que aparecen y desaparecen en Ligeia Mare, vistas con el radar de la misión Cassini. Cortesía de NASA/JPL-Caltech/Space Science Institute.

En el año 2014 un equipo de científicos publicó el descubrimiento una nueva isla en Ligeia Mare, el segundo mar más extenso de Titán y que se encuentra en la región polar del hemisferio norte. Era la primera vez que observábamos un fenómeno dinámico en las masas de líquido del satélite… pero, ¿por qué no estaba esta isla antes? ¿Qué había provocado su aparición?

Las primeras teorías apuntaron a que fuesen el resultado de las olas que provocaron un “reflejo” de las ondas de radar que tendría ese aspecto, a la presencia de burbujas de gas ascendiendo desde el fondo del mar, trozos de compuestos orgánicos sólidos que al calentarse el líquido dejasen flotarlos… e incluso islas de verdad, pero los científicos no tenían ninguna preferencia muy marcada…. Al fin y al cabo, era la primera vez que veíamos algo así.

Un nuevo estudio publicado en Geophysical Research Letters afirma que la aparición de estas islas en realidad tiene mucho que ver con la relación entre la composición de la atmósfera y las reacciones químicas que allí se dan, los lagos y los materiales sólidos que se depositan en la superficie procedentes también de la atmósfera.

TitánLigeia Mare, la segunda masa de líquido más grande de Titán. Obsérvense las numerosas redes de drenaje que desembocan en el mar. Cortesía de NASA/JPL-Caltech/Space Science Institute.

Estos sólidos compuestos de compuestos orgánicos se acumulan cerca de la línea de costa, con el paso del tiempo pueden formar una capa que, al romperse, podría acabar flotando sobre el mar, de una manera muy similar a como ocurre la ruptura de los glaciares terrestres que da lugar a los icebergs u otros trozos de hielo flotante.

Estas masas flotantes estarían durante un tiempo sobre el mar, ya que poco a poco se irían saturando sus poros y poco a poco hundiéndose, como ocurre con la pumita -esa roca de origen volcánico- en la Tierra, que al principio flota y a veces incluso la vemos en los océanos formando grandes “balsas” de roca, pero conforme esos poros se llenan de agua, lentamente se van hundiendo en el agua.

De algún modo estamos hablando de glaciares, pero, en este caso, de compuestos orgánicos que, además, según este estudio, no se disolverían en las masas de metano y etano como tampoco sería muy raro que ocurriese si estas partículas tuviesen una determinada composición.

Algunos de los mares y lagos de la región polar norte de Titán. Si contamos los más pequeños, hay decenas de estos cuerpos de líquido. Cortesía de NASA/JPL-Caltech/Space Science Institute.

Pero este estudio también se centra en un detalle muy importante y que hasta ahora no ha tenido tampoco una explicación clara… ¿Por qué los mares de Titán tienen una superficie tan suave, sin un oleaje visible? Los autores sugieren que podría ser fruto de una capa de compuestos orgánicos sólidos congelados que cubre la superficie de estos, una capa muy fina, dándole esa apariencia poco revuelta.

Si todo va bien, es posible que podamos saber si este estudio está en lo cierto con la llegada de la misión Dragonfly a Titán en el año 2034 y que, si todo va bien, despegará de nuestro planeta en julio de 2028. Esta misión tendrá una duración estimada de unos dos años y no solo nos mostrará la superficie desde el nivel del suelo, sino que será un dron capaz de surcar los cielos de este satélite tan interesante.

Referencias:

Hofgartner, J. D., Hayes, A. G., Lunine, J. I., Zebker, H. A., Stiles, B., Sotin, C., Barnes, J. W., Turtle, E. P., Baines, K. H., Brown, R. H., Buratti, B. J., Clark, R. N., Encrenaz, P., Kirk, R., Gall, A. L., Lopes-Gautier, R., Lorenz, R. D., Malaska, M. J., Mitchell, K. L., . . . Wood, C. A. (2014). Transient features in a Titan sea Nature Geoscience doi: 10.1038/ngeo2190

Yu, X., Yu, Y., Garver, J., Zhang, X., & McGuiggan, P. (2024). The fate of simple organics on Titan’s Surface: A theoretical perspective Geophysical Research Letters doi: 10.1029/2023gl106156

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo El origen incierto de las islas evanescentes de Titán se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Einstein, Tesla, Eratóstenes y sus triángulos

Ig, 2024-01-21 11:59

Los triángulos son los polígonos más simples, pero los más especiales. Aprendemos en la escuela a temprana edad sus mágicas propiedades, como por ejemplo que sus ángulos siempre suman 180 grados o el famoso teorema de Pitágoras, que se cumple si uno de los tres ángulos es recto. Estas sencillas peculiaridades pueden aplicarse al mundo real y ayudarnos a comprender mejor cómo funcionan las cosas.

Foto: Tusik Only / UnsplashRelatividad especial

La conocida teoría de la relatividad especial de Albert Einstein relaciona el tiempo y el espacio, y da lugar a llamativas consecuencias físicas. Entre ellas, las más mencionadas son la dilatación del tiempo, la contracción de la longitud o el aumento de la energía que podemos medir, si un objeto se desplaza a cierta velocidad con respecto a nosotros. Todo esto parece muy complicado, pero puede expresarse mediante un simple triángulo rectángulo.

La velocidad por el tiempo es igual a la distancia. Si tenemos un láser y un detector colocados a cierta distancia como vemos en la Figura 1, podemos detectar el instante t en el que llega la luz al extremo superior. Como la velocidad de la luz es c, la distancia recorrida es c por t.

Figura 1: Láser y detector: al llegar la luz al detector nos marca el instante t y podemos calcular la distancia recorrida por el haz (c por t).

 

Si, como aparece en la Figura 1, montamos el láser en una plataforma que se mueve a velocidad v, pero en dirección perpendicular a como apuntamos el láser, podemos repetir el experimento, pero esta vez observándolo desde fuera de la plataforma. Como se muestra en la Figura 2, desde fuera veremos un recorrido diagonal del láser, debido a la composición del movimiento vertical y horizontal que percibimos desde el exterior. Como la velocidad de la luz es siempre c, la distancia diagonal recorrida por el láser que vemos desde fuera es c por t’. Finalmente, el tercer lado del triángulo de la Figura 2 es el recorrido horizontal de la plataforma (v por t’).

Figura 2: Distancias recorridas por el láser y la plataforma, observadas desde fuera, completando un triángulo rectángulo

 

Tenemos un triángulo rectángulo, así que podemos aplicar el teorema de Pitágoras: la suma de los cuadrados de los catetos es igual al cuadrado de la hipotenusa. Con este simple cálculo extraemos de este triángulo las transformaciones de Lorenz, que son las fórmulas que nos cuantifican cuánto se dilata el tiempo o se contrae la longitud, si un objeto se mueve a una velocidad v respecto a nosotros. Este factor se llama factor de Lorenz γ. Si llamamos β a la razón entre una velocidad v y la máxima velocidad posible (la velocidad de la luz en el vacío c) podemos construir otro triángulo rectángulo como mostramos en la Figura 3:

Figura 3: Cómo calcular el factor de Lorenz: bajas velocidades (izquierda) y altas velocidades (derecha)

 

Aplicando de nuevo el teorema de Pitágoras podemos fácilmente calcular cuánto se modifican las medidas del tiempo y la longitud cuando los objetos se mueven a mayor o menor velocidad. Vemos por ejemplo que si β es pequeña (bajas velocidades, a la izquierda de la Figura 3), 1/γ es ligeramente menor que 1 y. por tanto, γ es ligeramente superior a 1, con lo cual las medidas del tiempo y longitud apenas se modifican. Para velocidades altas (a la derecha de la Figura 3), 1/γ es muy pequeño, con lo que el factor de Lorenz γ es muy grande, y se produce un gran efecto.

Una de las consecuencias más llamativas de la relatividad especial es la relación energía-momento, que se utiliza en todas partes, desde la mecánica cuántica hasta la relatividad general. Una vez más el teorema de Pitágoras nos permite cuantificar la energía de un objeto de cierta masa y de cierta cantidad de movimiento (momento o ímpetu p). Este triángulo mostrado en la Figura 4 nos permite calcular la energía de cualquier objeto móvil, incluso aquellas partículas sin masa, como los fotones, que viajan a la velocidad de la luz, cuyo cateto derecho de la Figura 4 es nulo, o un objeto inmóvil, cuyo cateto inferior en la Figura 4 sería nulo, pero su energía sería igual a la famosa equivalencia de masa y energía de Einstein E=mc2.

Figura 4: Cómo calcular la energía de un objeto de cierta masa m y cierto momento p.

 

Energía eléctrica

La mayoría de los generadores de electricidad son máquinas rotatorias, como un aerogenerador (“molino” de viento), un salto de agua de un embalse, que mueve las turbinas de una central hidroeléctrica, o el vapor de agua que se produce en una central nuclear o en una térmica, que también actúa sobre sus turbinas de vapor, que giran y generan electricidad.

Al ser máquinas rotatorias, la electricidad que se produce es de corriente alterna. Las señales alternas se expresan de forma compacta en matemáticas con números complejos, lo cual a veces parece algo muy complicado de entender, pero de nuevo aparecen los sencillos triángulos para representar gráficamente la tensión (voltios), la corriente (amperios) y la impedancia (ohmios) de cualquier circuito eléctrico.

La potencia eléctrica que nos da un suministrador es el producto de la tensión por la corriente eléctrica que circula cuando enchufamos un aparato. Resulta que si medimos los voltios y los amperios alternos que circulan, puede ser que estas oscilaciones no se produzcan a la vez, sino que la corriente esté ligeramente desfasada con respecto a la tensión. Este desfase se representa en la Figura 5 mediante el ángulo φ del triángulo mostrado. Este triángulo nos indica que si el desfase φ es grande, no aprovechamos bien la electricidad generada y transportada. En trigonometría el coseno de un ángulo pequeño es cercano a 1, y el cosφ es el conocido factor de potencia eléctrica, que cuanto más cerca esté de 1, más eficiente resulta el circuito.

Figura 5: Potencia eléctrica Activa (P: que hace trabajo), Aparente (S: que debe generarse y transportarse) y Reactiva (Q: que no se aprovecha). Si conseguimos que la corriente y la tensión oscilen en fase (φ=0), aprovechamos eficientemente la energía eléctrica

El desfase φ se produce típicamente por la gran cantidad de cableados y bobinados que son necesarios para generar, transformar y transportar la energía eléctrica. Para mejorar la eficiencia podemos contrarrestar el desfase en este caso mediante un conjunto de condensadores eléctricos para regular φ hacia valores mínimos y mejorar el factor de potencia.

Medida del radio de la tierra

Eratóstenes de Cirene (276-194 a.e.c.) fue uno de los sabios de la antigüedad que más conocimiento pudo adquirir y aplicar, al hacerse cargo de la Biblioteca de Alejandría durante más de 40 años. Entre sus muchas contribuciones a la ciencia, la maravillosa criba de Eratóstenes, sencillo algoritmo para obtener números primos y la medida del radio de la Tierra con instrumental rudimentario son, en mi opinión, sus más alucinantes aportaciones, por la importancia de sus resultados aplicados, la simplicidad de su realización y la potencia de su razonamiento.

No sabemos con todo detalle cómo midió Eratóstenes el radio de la Tierra, ya que no nos han llegado sus escritos directos, sino lo narrado por otros autores. Así todo, es brillante su observación de que el solsticio de verano, el sol al mediodía no arrojaba sombra en los pozos de Siena (hoy Asuán), y, sin embargo, en su ciudad, Alejandría, los árboles, obeliscos o palos verticales sí que proyectaban sombra de longitud medible.

Figura 6: Posible medida de Eratóstenes y sus colaboradores

 

Si Eratóstenes utilizó alguno de los antiguos obeliscos de Alejandría, de una altura aproximada de 21 metros, pudo medir una sombra bien mensurable de unos 2,6 metros. Sus colaboradores o los datos de la Biblioteca le dieron una medida de distancia entre las ciudades de Asuán y Alejandría de aproximadamente 800 kilómetros (ver Figura 6).

El cálculo de Eratóstenes suele narrarse con cierta exactitud geométrica, al aplicar el quinto postulado de Euclides, de Los Elementos, que con seguridad se hallaba presente en la Biblioteca de Alejandría. Este postulado equivale a que los ángulos de cualquier triángulo suman 180 grados, o también que, si dos rectas son paralelas, los ángulos alternos internos formados con otra recta que corta a ambas son iguales. Sin embargo, resulta muy complicado medir con exactitud un ángulo tan pequeño como el de los rayos del sol proyectando sombra en Alejandría, ya que Eratóstenes no disponía entonces de cálculo trigonométrico.

Figura 7: Posible cálculo de Eratóstenes, utilizando la longitud de los catetos de dos triángulos semejantes en lugar de un ángulo difícil de medir. Nótese que el ángulo real de Eratóstenes es aún mucho menor que el mostrado en este diagrama

 

Para evitar un cálculo fino de 7,2 grados, y, por tanto, el ángulo del sector terrestre que separa ambas ciudades, en la Figura 7 se muestra un posible cálculo no exacto, pero sí sencillo, que es plausible Eratóstenes pudo haber usado para obtener el radio de la Tierra. Se trata de dos triángulos semejantes. Tenemos bien medidos los dos catetos del triángulo pequeño del obelisco, y aproximadamente medido el cateto pequeño del triángulo grande, que es la distancia entre ambas ciudades. Esta distancia curva entre ciudades es solo ligerísimamente inferior a la longitud L mostrada en la Figura 7, de modo que la magia de dos triángulos semejantes permitiría a Eratóstenes efectuar una simple regla de tres, y el radio de la Tierra es R=L(h/s), es decir R = 800 km (21 m/2,6 m) = 6461 km. Los triángulos son asombrosos.

Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)

El artículo Einstein, Tesla, Eratóstenes y sus triángulos se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

¡Ups! Galileo y las mareas

La, 2024-01-20 11:59

Muchos desconfiaron de la teoría de Johannes Kepler para explicar las mareas. Según el astrónomo alemán, estas se debían por alguna clase de atracción misteriosa que la Luna ejercía sobre las mareas. Uno de los que desconfió de esta teoría fue Galileo Galilei y se puso a pensar en la suya propia. Para él las mareas eran producto de la rotación y la traslación de la tierra. Aquello parecía tener todo el sentido del mundo. Al girar sobre sí misma y alrededor del sol, la tierra sufría aceleraciones y desaceleraciones periódicas. Hoy sabemos que Galileo se equivocó y las arriesgadas intuiciones de Kepler eran correctas.

Los vídeos de ¡UPS¡ presentan de forma breve y amena errores de la nuestra historia científica y tecnológica. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se han emitido en el programa de ciencia Órbita Laika (@orbitalaika_tve), en la 2 de RTVE.

Producción ejecutiva: Blanca Baena

Guion: José Antonio Pérez Ledo

Grafismo: Cristina Serrano

Música: Israel Santamaría

Producción: Olatz Vitorica

Doblaje: K 2000

Locución: José Antonio Pérez Ledo

Edición realizada por César Tomé López

El artículo ¡Ups! Galileo y las mareas se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Primera vía metabólica que produce óxido nítrico en plantas a partir de aminoácidos

Or, 2024-01-19 11:59

Una investigación, liderada por la Universidad Pública de Navarra (UPNA) y en la que colabora la Universidad del País Vasco (UPV/EHU), muestra la primera vía metabólica que produce óxido nítrico (NO) en plantas a partir de aminoácidos y la importancia de las oximas, un tipo de compuestos químicos, como productoras de dicha molécula. Este hallazgo, anhelado durante más de veinte años en el ámbito de la biología vegetal, tiene potenciales aplicaciones en la agricultura y la medicina.

óxido nítrico

El monóxido de nitrógeno (según la nomenclatura IUPAC), más conocido como óxido nítrico, una molécula pequeña (un átomo de nitrógeno unido a un átomo de oxígeno, NO), gaseosa e incolora, juega un papel clave como señalizador en muchas funciones vitales de los organismos vivos. En humanos regula aspectos cruciales como la salud cardiovascular e influye en el rendimiento deportivo. Además, está involucrado en la síntesis de antioxidantes y en procesos inflamatorios. Su importancia fue reconocida con el Premio Nobel de Medicina de 1998.

A diferencia de los animales, que producen óxido nítrico a través de una enzima (denominada NO sintasa), las plantas han utilizado predominantemente para su síntesis un proceso reductivo: toman nitrato y, a través de procesos enzimáticos mediados por la nitrato reductasa, lo convierten en óxido nítrico. Hasta este trabajo no se habían identificado, ya sea en experimentos de laboratorio o en condiciones naturales dentro de las plantas, vías metabólicas que pudieran producir óxido nítrico a partir de dos fuentes: el amonio libre (NH4+), usado como fertilizante, y los aminoácidos (los componentes básicos de las proteínas que también contienen nitrógeno).

“Aunque puede parecer que el asunto es trivial, desde hace muchos años se consideraba una cuestión no resuelta en biología vegetal y se sospechaba que su descubrimiento permitiría entender otros procesos esenciales en las plantas, como así está siendo. De hecho, a principios de siglo, importantes publicaciones científicas dieron a conocer varios trabajos en este ámbito, luego retractados por no ser correctos. En 2004, la revista Science se hizo eco de estos reveses y reconoció la importancia de encontrar esta vía metabólica. Aunque en los años posteriores se han publicado innumerables trabajos sobre esta cuestión, ninguno había llegado a mostrar una vía bioquímica que condujese a la producción de óxido nítrico a partir de nitrógeno reducido, como el del amonio, o los aminoácidos”, explica el catedrático José F. Morán, del IMAB (Instituto de Investigación Multidisciplinar en Biología Aplicada) de la UPNA .

Resistencia de las plantas ante el estrés

La investigación ha revelado una vía alternativa: la producción de óxido nítrico utilizando enzimas, llamadas peroxidasas, que actúan sobre un tipo de compuestos químicos, las oximas (como la indolacetaldoxima). Esta investigación promete mejorar la tolerancia de las plantas a condiciones de estrés, como la sequía, y podría influir en la nutrición vegetal, particularmente, en contextos de uso sostenible de fertilizantes.

Las aldoximas estudiadas han mostrado formar óxido nítrico en pequeñas cantidades ‘in vitro’ —en tubos de ensayo— e ‘in vivo’ —dentro de las células vivas de la planta—, y todas muestran un efecto inductor en el crecimiento de raíces laterales “lo que podrá ayudar a mejorar la tolerancia de las plantas en procesos de estrés como la sequía. Pero como tienen un efecto hormonal, representarán una herramienta útil con la que simular etapas del desarrollo vegetal, especialmente, en otras condiciones de estrés como la deficiencia de nutrientes, las altas temperaturas o la tolerancia a la nutrición con amonio como única fuente de nitrógeno. Este tipo de nutrición es importante, por ejemplo, cuando se quieren utilizar los purines de ganadería en vez de emplear fertilizantes nitrogenados fabricados con gran consumo de combustibles fósiles”, indica el equipo investigador.

Investigación en salud humana

Además, el papel de las aldoximas en la producción de óxido nítrico podrá abrir caminos en la investigación en humanos: en concreto, sobre enfermedades cardiovasculares y en el diseño de nuevos fármacos. A ello se suman otras vías de estudio relacionadas con la salud de las personas. “La indolacetaldoxima es una molécula con una importante homología estructural con la serotonina y con la melatonina, las hormonas de la felicidad, y de los ciclos circadianos y del sueño en humanos, respectivamente —señala José F. Morán—. El descubrimiento de su efecto y su modo de acción generará nuevos abordajes en los estudios para entender mejor los efectos de estas dos hormonas. Asimismo, las bacterias digestivas son capaces de sintetizar estas hormonas beneficiosas, por lo que indolacetaldoxima es una candidata de interés en el análisis de la señalización entre el cuerpo humano y sus bacterias intestinales”. Y el óxido nítrico “también está implicado en la gestión del ciclo celular y será esencial estudiar su efecto sobre células cancerosas y metastáticas”, concluye el catedrático de la UPNA.

Referencia:

López-Gómez P., Buezo J., Urra M., Cornejo A., Esteban R., Fernández de los Reyes J., Urarte E., Rodríguez-Dobreva E., Chamizo-Ampudia A., Eguaras A., Wolf S., Marino D., Martínez-Merino V., and Moran J.F. (2024) A new oxidative pathway of nitric oxide production from oximes in plants Mol. Plant. doi: 10.1016/j.molp.2023.12.009

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

 

El artículo Primera vía metabólica que produce óxido nítrico en plantas a partir de aminoácidos se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

No estaban tan locos estos romanos

Og, 2024-01-18 11:59

He modificado ligeramente una famosa cita que Obélix repite constantemente en todos los cómics de Uderzo y Goscinny porque resume muy bien el tema que voy a tratar en esta ocasión: los secretos geológicos que se esconden detrás de las técnicas de construcción de la República y el Imperio Romanos.

hormigónTestigo de hormigón romano del siglo I de nuestra era (izquierda), que resiste una compresión superior a 100 kg/cm2, y testigo de hormigón del siglo XXI fabricado con las técnicas modernas (derecha), resistente a compresiones de 200 a 300 kg/cm2. Muestras expuestas en el Museo del Teatro Romano de Caesaraugusta (Zaragoza). Foto: Blanca María Martínez

Si hay algo que realmente nos sorprende de la Roma clásica es que muchas de sus colosales edificaciones han resistido en pie más de 2000 años. Y esas impresionantes dotes de ingeniería tienen que ver con sus conocimientos geológicos, posiblemente a partir de descubrimientos involuntarios pero funcionales. Pero no me estoy refiriendo a las rocas de diferente origen, composición y hermosas coloraciones naturales usadas como materiales ornamentales en fachadas, escalinatas o estatuas, sino al componente empleado para anclar los cimientos y levantar los muros de sus construcciones, el hormigón.

Seguro que todo el mundo que está leyendo este texto se ha acercado alguna vez a una obra y ha visto al personal vertiendo, generalmente a paladas, un par de materiales en una hormigonera, añadirle agua y esperar a que la máquina de varias vueltas para mezclar bien todos los componentes y generar así una pasta grisácea a la que denominamos hormigón. Uno de esos materiales que se añaden a la mezcla son los áridos, es decir, rocas que se rompen y machacan hasta alcanzar tamaño grava o arena. Y el otro es el cemento, una mezcla de arcillas y calizas deshidratadas tras calentarlas por encima de los 1200ºC, obteniendo así una cal viva (óxido de calcio) que tiene la propiedad de endurecerse al añadirle agua.

hormigónDetalle de los cimientos de uno de los muros del Teatro Romano de Caesaraugusta (Zaragoza), construido en el siglo I de nuestra era, a partir de la mezcla de cal viva, arena y cantos extraídos de las terrazas fluviales del río Ebro, mezcladas con el agua dulce del mismo. Los cantos de la imagen tienen tamaños superiores a los 5 cm de largo. Foto: Blanca María Martínez

El hormigón parece ser el típico producto complejo descubierto recientemente debido a la evolución técnica en el mundo de la construcción, pero nada más lejos de la realidad. Desde al menos el siglo II antes de nuestra era, los romanos ya empleaban esta misma técnica para fabricar su propio hormigón, el denominado opus caementicium. Lo que hacían era calcinar la roca caliza en hornos de cocción, o caleros, hasta los 500-600ºC para obtener la cal viva utilizada como cemento mezclándola con arena y agua, añadiendo después cantos y fragmentos de rocas para obtener un hormigón tan resistente que emplearon para rellenar encofrados que actuaban como cimientos o soportes de muros de carga en sus construcciones.

Incluso, en poco tiempo le dieron una vuelta de tuerca a esta receta, consiguiendo mejorarla. En la zona de la bahía de Nápoles empezaron a utilizar una ceniza volcánica denominada puzolana (formada por óxidos de aluminio y silicio) para mezclarla con el resto de la arena. Y descubrieron que esta nueva mezcla podía ser utilizada en medios acuáticos, como el litoral marino, incluso aumentando la resistencia del hormigón, debido a una reacción química entre el agua de mar y la puzolana, que da lugar a la formación de nuevos minerales (como la tobermorita rica en aluminio) que consolidan los materiales.

hormigónVista general de las gradas del Teatro Romano de Caesaraugusta (Zaragoza), con las marcas dejadas por los dientes metálicos de la pala excavadora que sacó a la luz los restos de la construcción al rozar con el hormigón romano endurecido. Foto: Blanca María Martínez

Pero el uso de ceniza volcánica en la mezcla no es el único secreto de la durabilidad del hormigón romano. Recientemente, un equipo internacional de investigadoras e investigadores ha descubierto que los romanos mezclaban la cal viva (óxido de calcio) con pequeñas partículas de cal apagada o cal hidratada (hidróxido de calcio), un compuesto muy reactivo que es capaz de generar carbonato cálcico. Esto aporta al hormigón romano una capacidad de autorregeneración similar a la mostrada por el T-1000 de la película Terminator 2 mediante el siguiente proceso: cuando el material se fracturaba, podía circular agua por las grietas y reaccionar con las partículas de cal apagada, dando lugar a un fluido cargado en calcio que precipitaba en forma cristalina como carbonato cálcico, actuando como una especie de parche que cerraba la grieta. Si encima el hormigón tenía puzolana en su composición, la reacción química con el agua lo endurecería aún más. Y, de esta manera, las construcciones romanas han podido resistir el paso del tiempo por más de 2000 años.

La receta de este hormigón tan increíble nunca se dejó por escrito, al menos de manera detallada, ya que las menciones de los escritores romanos a sus técnicas de construcción fueron demasiado vagas e, incluso, ambiguas. Por eso, tras la caída del Imperio Romano, se dejó de emplear y no se ha conseguido replicar, con algunas diferencias, hasta hace un par de siglos.

Por supuesto, hay que darle al césar lo que es del césar, y es innegable que los romanos fueron unos maestros en los avances técnicos y de ingeniería, además de saber aprovechar las características geológicas de los materiales que utilizaron, aunque no conociesen exactamente la base científica en la que sustentaban sus éxitos. Pero es bien sabido que siempre copiaban e intentaban mejorar todo aquello que aprendieron de la gran civilización mediterránea previa. Por lo que sí, el primer hormigón de la historia se descubrió unos cuatro siglos antes en Grecia, preparándolo con una mezcla de cal viva, arena, rocas molidas y agua. Y sí, también usaban fragmentos de rocas volcánicas en esa argamasa. Aunque los griegos no fueron capaces de encontrar esos secretitos de la durabilidad y autorregeneración que descubrieron los romanos, aunque lo hiciesen por pura casualidad.

Referencia:

Linda M. Seymour et al. (2023) Hot mixing: Mechanistic insights into the durability of ancient Roman concrete. Science Advances doi:10.1126/sciadv.add1602

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo No estaban tan locos estos romanos se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Melba Roy Mouton, la matemática que vigilaba satélites

Az, 2024-01-17 11:59

Mons Mouton es una montaña lunar, parecida a una mesa, situada cerca del Polo Sur de la Luna. En febrero de 2023 la Unión Astronómica Internacional la bautizó con este nombre en honor a la matemática estadounidense Melba Roy Mouton, como reconocimiento a sus logros como programadora informática y sus contribuciones a las misiones de la NASA.

Melba Mouton fue una de nuestras líderes pioneras en la NASA. No solo ayudó a la NASA a tomar la iniciativa en la exploración de lo desconocido en el aire y el espacio, sino que también trazó un camino para que otras mujeres y personas racializadas siguieran carreras y lideraran la ciencia de vanguardia en la NASA.

Sandra Connelly, administradora científica en la sede de la NASA en Washington.

MelbaMelba Roy Mouton. Fuente: Wikimedia Commons.

Melba Louise Chloe nació el 28 de abril de 1929 en Fairfax (Virginia, Estados Unidos). Realizó sus estudios en la Universidad de Howard, graduándose en matemáticas con especialización en física en 1950.

Los apellidos con los que se la conoce corresponden a los de sus dos maridos, Wardell Roy (con el que tuvo dos hijos y del que se divorció) y Webster Mouton (con el que tuvo un hijo).

Su carrera en la NASA

Trabajó inicialmente en el Servicio de Mapas del Ejército y la Oficina del Censo de Estados Unidos. En este centro gubernamental se centraban en el trazado de futuros barrios y otros lugares de expansión demográfica durante el baby boom que tuvo lugar en Estados Unidos tras la Segunda Guerra Mundial. La tarea de Mouton consistía en analizar estadísticas de poblaciones, interpretar los datos obtenidos y transformarlos en una información fácil de entender por otros investigadores.

En 1959 fue contratada por la NASA e ingresó en el Centro de Vuelo Espacial Goddard.

En 1960 se puso en órbita el satélite experimental de comunicaciones de la NASA Echo 1. Cuatro años más tarde se lanzó Echo 2. Mouton fue la supervisora del equipo de “computadoras humanas” que realizaba el seguimiento de su órbita. Sus cálculos ayudaron a producir los horarios de los elementos orbitales mediante los cuales millones de personas pudieron ver el satélite desde la Tierra cuando pasaba por encima de ella. La cosmóloga Chanda Prescod-Weinstein explicaba de este modo la complejidad de ese trabajo de seguimiento de satélites:

Cuando ponemos satélites en órbita, hay que vigilar muchas cosas. Tenemos que asegurarnos de que la atracción gravitatoria de otros cuerpos, como otros satélites, la Luna, etc., no perturbe y desestabilice la órbita. Son cálculos extremadamente difíciles de hacer incluso hoy en día, incluso con un ordenador-máquina. Así que lo que hizo fue un trabajo extremadamente intenso y difícil. El objetivo del trabajo, además de garantizar que los satélites se mantuvieran en una órbita estable, era saber dónde estaba todo en todo momento. Así que tenían que ser capaces de calcular con un alto nivel de precisión.

MelbaMelba Roy Mouton (1960). Fuente: Wikimedia Commons.

 

Debido a sus capacidades, se le asignaron otras tareas como la de iniciarse en los lenguajes de programación como el APL (A Programming Language) necesarios en trabajos relacionados con la mecánica compleja, los lanzamientos espaciales y el trazado de órbitas. Y, tras aprender, fue instructora en una serie de seminarios sobre el lenguaje de programación APL celebrados en los Watson Research Labs.

Los reconocimientos llegan

Antes de jubilarse en 1973, Melba Mouton se convirtió en subdirectora de Programas de Investigación de la División de Trayectoria y Geodinámica del Centro de Vuelo Espacial Goddard. En reconocimiento a su dedicado servicio y sus destacados logros (que llevaron, entre otros, al éxito del alunizaje del Apolo 11 el 20 de julio de 1969) se le concedió el Premio Apollo Achievement Award.

El 15 de abril de 1972 la NASA utilizó su imagen, junto con la de varios colegas afroamericanos, en un anuncio en el periódico The Afro American en el que la institución declaraba su compromiso con la diversidad.

Y volvemos a la montaña de Melba: Mons Mouton es una montaña lunar ancha y de cima relativamente plana. Alrededor de su base hay un anillo de enormes cráteres. Está previsto que Mons Mouton sea en el lugar de alunizaje del rover lunar VIPER (Volatiles Investigating Polar Exploration Rover). Este robot se posará en el Polo Sur de la Luna a finales de 2024 en una misión de cien días para buscar hielo y otros recursos potenciales. La información obtenida ayudará a conocer el origen y la distribución del agua en nuestro satélite.

Melba Mouton falleció el 25 de junio de 1990 debido a un tumor cerebral. Dedicó catorce años de trabajo a la NASA, en los inicios de la carrera espacial y de la programación. Como mujer y afroamericana no lo tendría nada fácil. Nos queda su ejemplo y esa montaña lunar que acogerá a VIPER en su extraordinaria misión.

melbaImagen del Polo Sur lunar coloreada por elevación. Mons Mouton aparece abajo a la izquierda. Fuente: NASA’s Scientific Visualization Studio / Ernie Wright, Alex Kekesi, Noah Petro, David Ladd, Ian Jones, Laurence Schuler

Referencias

 

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad

El artículo Melba Roy Mouton, la matemática que vigilaba satélites se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Un indicio de desacuerdo con el modelo estándar en un tipo de desintegración del bosón de Higgs

Ar, 2024-01-16 11:59

Las colaboraciones ATLAS y CMS del Gran Colisionador de Hadrones han analizado datos de una rara desintegración del bosón de Higgs, encontrando un indicio de desacuerdo con las predicciones del modelo estándar.

HiggsInteracciones entre partículas del modelo estándar. Fuente: Wikimedia Commons

Para la física de partículas, 2012 marcó un hito con el descubrimiento del bosón de Higgs, que hasta entonces era la única partícula que faltaba en la lista predicha por el modelo estándar. Ese descubrimiento no detuvo la búsqueda de nuevas partículas, que los investigadores mantienen realizando mediciones precisas de la desintegraciones menos frecuentes de las partículas conocidas. La evidencia de nuevas partículas podría aparecer como una desviación de las predicciones que hace el modelo estándar sobre el número de tales desintegraciones.

Ahora, las colaboraciones ATLAS y CMS del CERN han detectado juntas una sobreabundancia de una rara desintegración nunca antes vista que involucra al bosón de Higgs.

El modelo estándar predice que la desintegración de 15 de cada 10.000 bosones de Higgs dará como resultado la creación de un bosón Z y un fotón. En el modelo estándar, esta desintegración está mediada por un quark top o un bosón W. Pero los modelos que van más allá del modelo estándar indican que la desintegración también podría estar mediada por una o más partículas desconocidas.

El doble de lo predicho HiggsDiagramas de Feynman de ejemplos de desintegración de un bosón de Higgs (H) en un bosón Z y un fotón (γ). Fuente: G. Aad et al. (ATLAS Collaboration, CMS Collaboration) (2024) Evidence for the Higgs Boson Decay to a Z Boson and a Photon at the LHC Physical Review Letters doi: 10.1103/PhysRevLett.132.021803

Para explorar esta posibilidad, las colaboraciones ATLAS y CMS han buscado señales de la desintegración de Higgs en un bosón Z y un fotón en datos de colisiones protón-protón registrados entre 2015 y 2018. Los bosones Z se desintegran en dos electrones o dos muones antes de llegar a los detectores, por lo que los científicos idearon métodos para determinar si las firmas de electrones, muones y fotones encontradas en los datos se originaban a partir de eventos bosón Z-fotón. De esos eventos, seleccionaron aquellos que tenían las propiedades esperadas para una desintegración del bosón de Higgs, y encontraron el doble de lo predicho por el modelo estándar.

Por ahora los datos son insuficientes para descartar la posibilidad de que esta discrepancia sea una fluctuación estadística. En cualquier caso, los investigadores dicen que este trabajo ofrece una nueva vía para realizar pruebas de estrés del modelo estándar.

Referencias:

G. Aad et al. (ATLAS Collaboration, CMS Collaboration) (2024) Evidence for the Higgs Boson Decay to a Z Boson and a Photon at the LHC Physical Review Letters doi: 10.1103/PhysRevLett.132.021803

Nikhil Karthik (2024) Measurements of Rare Higgs Decay May Disagree with Predictions Physics 17, s4

 

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Un indicio de desacuerdo con el modelo estándar en un tipo de desintegración del bosón de Higgs se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Aguas duras y cálculos renales

Al, 2024-01-15 11:59

Los cálculos renales, más conocidos como «piedras en los riñones», son un problema médico muy frecuente. Se estima que en torno al 10 % de la población sufrirá en el algún momento de su vida estos dolorosos pedruscos que se forman lentamente a partir de la cristalización de diferentes compuestos en la orina. El tamaño y la forma de dichas piedras puede ser extremadamente variable. En la actualidad, el cálculo renal que ostenta el récord mundial por sus dimensiones se detectó en un paciente de Sri Lanka en 2023. Imposible que el guijarro pasara desapercibido: contaba con 13,4 centímetros de largo y 800 gramos de peso.

En la gran mayoría de los casos (alrededor de un 75 %) los cálculos renales están compuestos por calcio. En menor medida, pueden estar formados por ácido úrico, cistina o estruvita (magnesio y fosfato de amonio). Múltiples factores influyen en la producción de dichas piedras: alteraciones en el pH que causan una orina demasiado ácida o básica, ciertas enfermedades como infecciones urinarias o hiperparatiroidismo, concentración elevada de ciertos compuestos en la orina por razones genéticas, ambientales o estilos de vida, déficit de inhibidores de la formación de cálculos…

cálculos renalesFoto: Andres Siimon / Unsplash¿Y el agua de grifo?

En la cultura popular está muy extendida la idea de que la composición mineral del agua que se bebe influye en la aparición de las piedras en los riñones. Según esta creencia, el consumo de aguas duras (especialmente aquellas con una elevada concentración de calcio) favorecería la generación de cálculos con el paso del tiempo.

En España, la cuenca del Mediterráneo (Andalucía, Murcia, Comunidad Valenciana y Cataluña) se caracteriza por ofrecer agua potable con un mayor porcentaje de calcio que en otras regiones de nuestro país. Este mineral, junto con el cloro, dan un fuerte y característico sabor a dicha agua, que no suele ser precisamente un rasgo apreciado para su ingesta en dichos territorios (las elevadas ventas de garrafas de agua mineral en los supermercados o la instalación de filtros de agua de grifo dan fe de ello). Sin embargo, más allá del sabor desagradable, ¿el agua dura del grifo supone realmente un riesgo adicional en la formación de cálculos renales?

Para responder a la pregunta lo primero que hay que tener en cuenta es que la composición y la calidad de las aguas de consumo en Europa está estrictamente regulada por varias leyes para proteger la salud humana. Entre los muchos parámetros que se controlan está la concentración de carbonato de calcio (CaCO3), que es el factor principal que define la dureza del agua. Su máxima concentración permitida en el agua potable en el territorio europeo es de 500 mg/l. Si tenemos en cuenta que solo el 0,5 % del agua potable que se distribuye en España no es apta para consumo humano, esto significa que las aguas más duras de nuestro país no pueden serlo de forma excesiva. Según informes publicados por la Organización Mundial de la Salud, las aguas con carbonato de calcio dentro de dicho límite no deberían tener efectos perjudiciales para la salud humana.

Cantidad más que calidad

Más allá del hecho anterior, que es relevante, existen otros datos que ponen de manifiesto que la dureza del agua potable apta para consumo humano parece influir muy poco o nada en el riesgo de sufrir piedras en los riñones en la población general. Por un lado, varios estudios epidemiológicos no encuentran relación, o esta es muy débil, entre el consumo de aguas duras y un aumento en el riesgo de cálculos renales.

Sí que se ha observado que ingerir aguas más duras se asocia con una mayor excreción en la orina de citrato, magnesio y calcio, pero esto no tiene por qué implicar per se un mayor riesgo de cálculos. Ahora bien, los médicos, como medida de precaución, pueden recomendar a los pacientes que han sufrido previamente cálculos renales beber aguas de composición específica según el tipo de piedras que hayan desarrollado, aunque la evidencia científica que respalde este acto sea débil. En torno al 50 % de estos pacientes suelen volver a sufrir nuevas piedras a los 5-10 años, así que se aplica el principio de cautela.

En resumen, sigue sin estar claro que el consumo de aguas duras supongo un riesgo añadido en la formación de cálculos renales en la población general sana. De existir algún riesgo, este parece, según el conjunto de los estudios, pequeño y poco relevante si se consideran todos los factores que influyen en la aparición de piedras en el riñón. No obstante, sí que existe un importante consenso sanitario y científico sobre una pauta que sí tiene una influencia observable a la hora de disminuir el riesgo de cálculos: beber agua de forma abundante cada día para aumentar el volumen de producción de orina y prevenir que esta se concentre demasiado. En ese sentido, la Asociación Española de Urología (AEU) recomienda ingerir un mínimo de 2 litros de líquidos diarios a los pacientes que han sufrido anteriormente cálculos renales. En otras palabras, no es tanto la calidad del agua lo que cuenta, sino la cantidad que se beba a la hora de prevenir piedras o evitar que estas vuelvan a aparecer.

Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica

El artículo Aguas duras y cálculos renales se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Capillitas y clanes

Ig, 2024-01-14 11:59

Cuando tenemos la oportunidad de relacionarnos con muchas personas, tendemos a formar grupos con quienes nos son más afines, con aquellos a quienes nos sentimos más próximos. Por esa razón, en las sociedades con diversidad de grupos raciales1 la gente tiende a entablar amistad con personas de su mismo grupo, si en el entorno en que se establecen las relaciones hay un número alto de individuos. Si hay pocos, sin embargo, al haber menos posibilidad de elegir, es más probable que se formen grupos diversos.

A esa conclusión general han llegado en un estudio en el que, partiendo del desarrollo de un modelo teórico, se contrastaron las predicciones del modelo con datos obtenidos de más de mil institutos de bachillerato en Estados Unidos. La conclusión, como se ha indicado, es que allí donde hay muchas personas con las que se puede entablar relación, la gente tiende a hacerlo con personas de su mismo grupo racial.

capillitasFoto: Flow Clark / Unsplash

Se supone que preferimos relacionarnos con personas con las que tenemos ciertas afinidades; eso es básico. Y como es lógico, donde hay pocas personas, es más difícil encontrar esas afinidades; por eso en esas circunstancias es más fácil superar la barrera que supone tener un rasgo distintivo tan marcado como el aspecto racial. Sin embargo, en contextos en los que hay muchas personas entre las que elegir, es más fácil hallar afinidades en personas que físicamente son más parecidas a nosotros, porque lo cierto es que tendemos a sentirnos más próximos a las personas con las que compartimos rasgos (considerados) raciales y otras similitudes.

Los autores del trabajo sugieren que el mecanismo vale para cualquier otra forma de “diferenciador” social. Así, cuando se permite a los individuos que ejerciten totalmente sus preferencias preexistentes, ello conduce a que se organicen grupos muy homogéneos, capillitas, sea cual sea el criterio diferenciador de que se trate. Por eso, -sostienen-, al ampliar enormemente el campo de relaciones posibles, internet actuaría en el sentido de acentuar el aislamiento social, configurando grupos muy homogéneos y con muy poca relación con otros grupos. Puede resultar paradójico, sí, pero tiene mucho sentido.

Como se ha podido establecer, en las ciudades de mayor tamaño la probabilidad de interactuar con otras personas es mayor que en las de menor tamaño. Y esa mayor probabilidad de interacción parece tener curiosas implicaciones. Por ejemplo, la probabilidad de contagiarse enfermedades infecciosas es proporcionalmente mayor en las grandes ciudades, pero también lo es la de innovar, la de generar nuevas ideas, la de inventar, porque todo eso depende de manera crítica de las redes de relaciones.

Cuanto más amplias son esas redes, cuantas más son las personas con las que nos comunicamos, más intercambio de ideas se producen y más combinaciones de ideas se generan. Así aumenta la probabilidad de que se produzcan invenciones, innovaciones, etc. Probablemente, ese es un factor que conduce a que las grandes ciudades concentren más instituciones y más personas dedicadas a actividades de I+D; a que sean más dinámicas; a que se hagan más negocios. En las grandes ciudades se genera más riqueza y la gente gana más dinero.

Hay otros muchos factores –tanto institucionales, como geográficos o económicos– que influyen, por supuesto, pero en esta ocasión trato de generalizar. Las afirmaciones anteriores se basan en análisis en los que se analizan las variables consideradas en relación con el número de habitantes de las ciudades; y ese análisis se hace para diferentes países y continentes, con lo que la fiabilidad de las conclusiones parece alta.

Este fenómeno puede parecer, quizás, algo contradictorio con lo señalado en relación con la mayor heterogeneidad de los grupos en contextos caracterizados por bajos números de personas, pero no lo es. Porque la configuración de grupos sociales por afinidades e intereses, que serían muy homogéneos en contextos muy numerosos (grandes ciudades o internet), no impide que se produzca una alta frecuencia de interacciones entre individuos, porque el aislamiento entre unos grupos homogéneos y otros, y la interacción entre personas diferentes se pueden producir, de manera simultánea, en planos muy distintos. Así, en los ámbitos laborales o profesionales se producen interacciones entre personas con diversos intereses y preferencias, y por otro lado, las relaciones de amistad se basan en mayor medida en afinidades o aficiones comunes. Son, como digo, planos diferentes.

Sobre estas cosas ya había escrito G. K. Chesterton (Herejes, 1905), con su inconfundible estilo, eso sí:

En una comunidad grande podemos elegir nuestra compañía. En una comunidad pequeña, ésta ya está elegida para nosotros. Así es que, en todas las sociedades grandes y altamente civilizadas, surgen grupos basados en lo que se llaman afinidades, que se cierran al mundo exterior con más eficiencia que los portones de un convento. No hay nada realmente estrecho en un clan: lo que es realmente estrecho es una capillita. Los hombres del clan viven juntos porque todos van en el mismo tartán o todos descienden de la misma vaca sagrada; pero en sus almas, por el divino acomodo de las cosas, siempre habrá más colores que en cualquier tartán. Los miembros de una capillita, en cambio, viven juntos porque tienen el mismo tipo de alma, y su estrechez es una estrechez hecha de coherencia y de satisfacción espiritual, como la que existe en el infierno. Una sociedad grande existe con el objeto de formar capillitas. Una sociedad grande está destinada a la promoción de la estrechez.

Nota:

1 El adjetivo “racial” se refiere a grupos sociales, aunque la pertenencia a tales grupos se asigne en virtud de rasgos externos, como el color de la piel, los rasgos faciales o las características del cabello. Como ya advertí aquí, desde el punto de vista biológico (o genético) no se sostiene la existencia de razas.

 

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Capillitas y clanes se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

El secreto de la naturaleza

La, 2024-01-13 11:59

Pedro Miguel Etxenike, entre otros muchos reconocimientos a su labor investigadora, recibió en 1998 el Premio Max Planck de Física y ese mismo año el Premio Príncipe de Asturias de Investigación Científica y Técnica por sus descubrimientos en la predicción teórica de estados electrónicos imagen en la superficie de sólidos. Ha realizado importantes aportaciones en el campo de las interacciones ion-materia y de las pérdidas de energía de electrones en microscopía electrónica y de efecto túnel. Actualmente es catedrático de Física de la Materia Condensada en la Universidad del País Vasco (UPV/EHU) y Presidente del Donostia International Physics Center (DIPC).

El documental “El secreto de la naturaleza” recorre la vida y obra de Pedro Miguel Etxenike. De 55 minutos de duración, plantea al espectador las reflexiones de Etxenike en torno a la ciencia, preguntándose qué es y en qué consiste. El reputado físico propone una reflexión partiendo de un par de preguntas estéticas: ¿Es la belleza criterio de verdad? ¿Qué es la belleza?

Este documental se estrenó en 2018 y ha sido dirigido por José Antonio Pérez Ledo y coproducido por K2000 y la Cátedra de Cultura de la Universidad del País Vasco.

Edición realizada por César Tomé López

El artículo El secreto de la naturaleza se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Un estudio práctico de la interferometría estelar óptica

Or, 2024-01-12 11:59
interferometríaFuente: Aula Espazio Gela.

Los orígenes de la interferometría estelar se remontan a 1803 con las primeras investigaciones del británico Thomas Young y su experimento de doble rendija para combinar la luz de dos fuentes emisoras, implementado medio siglo más tarde por el francés Hippolyte Fizeau. Pero no fue hasta 1891 cuando el físico estadounidense Albert Abraham Michelson (famoso por el experimento de Michelson-Morley y premio Nobel de Física en 1907) aplicó con éxito la técnica para medir el diámetro de las lunas galileanas de Júpiter. En 1820, Michelson junto los astrónomos J. A. Anderson y F. G. Pease consiguieron medir por primera vez los diámetros de estrellas gigantes. Desde entonces, las técnicas interferométricas constituyen una herramienta poderosa en astronomía, aunque de difícil manejo experimental, que se viene usando desde observatorios en Tierra y en el espacio.

En el Máster en Ciencia y Tecnología Espacial de la UPV/EHU se imparte la asignatura Interferometria Espacial en la que se introducen sus fundamentos y se llevan adelante prácticas con telescopios, simulando las estrellas con fuentes de luz láser y fibras ópticas de plástico, lo que había dado lugar a algunas publicaciones previas. Pero esta vez se propuso como objetivo la obtención y estudio de interferogramas de estrellas brillantes reales seleccionadas por sus características. Estas fueron: Sirio una estrella blanca, la más brillante del cielo, y las estrellas Betelgeuse (roja) y Rigel (azul) de la constelación de Orión.  La detección de los patrones de interferencia de estas estrellas se realizó mediante el telescopio de 28 cm de diámetro del Aula Espazio Gela de la Escuela de Ingeniería de Bilbao.

Pablo Rodríguez-Ovalle, Alberto Mendi, Ainhoa Angulo, Iván Reyes, Mikel Pérez-Arrieta, estudiantes ya graduados del Máster, guiados por la profesora Asun Illarramendi y el director del Aula y del Máster Agustín Sánchez-Lavega, llevaron adelante la preparación del dispositivo experimental y la obtención y estudio de los patrones de interferencia de estas estrellas.

Interferogramas

Encontraron que, si bien los patrones experimentales ajustaban razonablemente bien con la predicción teórica, su visibilidad interferencial se veía afectada por la turbulencia de la atmósfera terrestre (conocida como “seeing”), es decir, por los movimientos erráticos de las masas de aire de nuestra atmósfera que la luz de la estrella atraviesa hasta llegar al telescopio. Modificando la teoría, el equipo pudo medir la turbulencia atmosférica en las noches de observación, un aspecto básico que todos los observatorios desean cuantificar por su efecto pernicioso en la obtención de imágenes astronómicas con los telescopios en la Tierra.

Se propone esta metodología como una práctica en la que se analizan conceptos importantes relacionados con la interferometría estelar, como la coherencia espacial y temporal de la luz. Asimismo, el experimento proporciona medidas de la turbulencia de la atmósfera terrestre, seleccionando diferentes tipos de estrellas, longitudes de onda, y características de las máscaras colocadas sobre el objetivo del telescopio para producir los interferogramas. El trabajo ha sido publicado en la revista American Journal of Physics, una de las más prestigiosas de educación en Física, editada por la Asociación Americana de Profesores de Física y por el Instituto Americano de Física.

Referencia:

P. Rodríguez-Ovalle, A. Mendi-Martos, A. Angulo-Manzanas, I. Reyes-Rodríguez, M. Pérez-Arrieta, M. A. Illarramendi and A. Sánchez-Lavega (2023) Practical study of optical stellar interferometry American J. Physics doi: 10.1119/5.0125446

El artículo Un estudio práctico de la interferometría estelar óptica se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

¿Qué pasaría si un microagujero negro impactara contra la Tierra?

Og, 2024-01-11 11:59
microagujero negroSimulación de un microagujero negro detectado por el experimento ATLAS del CERN, antes de que se desintegrara por un proceso conocido como radiación de Hawking.
CERN, CC BY

Comprimamos toda la masa del planeta Tierra (unos 6 cuatrillones de kilogramos) al tamaño de una canica de unos 1.8 centímetros de diámetro. En ese improbable escenario, nuestro planeta se habría convertido en un microagujero negro, nada que ver con los supermasivos como el que habita en el centro de la Vía Láctea, recientemente fotografiado.

Teóricamente, durante los primeros instantes del big bang, se produjo el colapso gravitatorio de regiones extremadamente calientes y densas del universo, y se formaron los agujeros negros primordiales. Propuestos por el físico Stephen Hawking, estos extraordinarios objetos pueden poseer cualquier masa. Pero son los de tamaño reducido (menor que un átomo) los que han suscitado mayor interés, ya que se cree que podrían constituir gran parte de la materia oscura del universo.

Hasta la fecha no ha sido posible detectarlos. Pero sí se ha estudiado cuántos podrían chocar contra la Tierra y qué sucedería tras el impacto.

No son agujeros totalmente negros

¿Cuánto de pequeños pueden llegar a ser estos agujeros negros? ¿Existe un límite en su tamaño? Entramos en el terreno (altamente especulativo) de los llamados microagujeros negros.

Hipotéticamente, estos objetos tendrían masas de unos 0.00002 gramos y tamaños trillones de veces menores que un protón: se desintegrarían de forma prácticamente instantánea. De hecho, se cree que cualquier agujero negro primordial acabaría su vida en forma de un microagujero antes de evaporarse por completo.

Pero quizá lo más sorprendente es que se encuentran a temperaturas muy elevadas, emitiendo radiación (la denominada radiación de Hawking): cuanto más pequeños sean, más temperatura alcanzan hasta, eventualmente, evaporarse por completo.

Hawking escribe en Breve historia del tiempo: del Big Bang a los agujeros negros que estos objetos primordiales “no son totalmente negros”, pues también emiten energía, especialmente aquellos de menor tamaño.

A modo de ejemplo, un agujero negro primordial con una masa equivalente al monte Everest tendría el tamaño aproximado de un átomo, alcanzando una temperatura de millones de grados centígrados.

¿Cómo sería un encuentro con un microagujero negro?

Supongamos que tuviéramos la oportunidad de encontrarnos con uno de estos miniagujeros negros de 1 kilogramo de masa. En este caso, su tamaño sería trillones de veces más pequeño que el de un átomo de hidrógeno.

En principio no tendríamos por qué preocuparnos: al ser tan pequeño, no tendría capacidad para absorber materia de su alrededor. Se desintegraría de forma casi instantánea, probablemente generando una explosión equivalente a una bomba termonuclear.

Si el desafortunado encuentro tuviera lugar con un agujero negro de masa asteroidal (un millón de veces menos masivo que la Luna, pero con un tamaño del orden del átomo de hidrógeno), éste no se desintegraría de forma inmediata (ya que su vida media sería mayor que la edad estimada del universo). No asistiríamos a una explosión como la anterior, pero este agujero negro diminuto empezaría a devorar progresiva y lentamente la materia circundante. En ese caso, el escenario final para nuestro planeta no sería muy alentador.

¿Y si un microagujero negro del tamaño de un protón impactara contra la Tierra?

Los investigadores creen que los agujeros negros primordiales (de diferentes tamaños) podrían estar ubicados en regiones galácticas donde la concentración de materia oscura es notablemente alta.

Así, estos objetos vagarían por el universo (moviéndose en diferentes direcciones y velocidades) y podrían interactuar con otros astros como agujeros negros masivos, estrellas o planetas (la Tierra entre ellos).

¿Y que le sucedería a nuestro planeta si uno de estos visitantes diminutos impactara contra nosotros?

Un estudio publicado en la revista Monthly Notices of the Royal Astronomical Society abordaba este hipotético escenario para un agujero negro del tamaño de un protón, y partiendo de la suposición de que el 100 % de la materia oscura estuviera formada por agujeros negros primordiales. En cuanto a la probabilidad de ocurrencia, podemos estar tranquilos: se espera un impacto contra la Tierra cada 1 000 millones de años

Además, dada su alta velocidad, estos agujeros negros minúsculos no quedarían atrapados en el interior de nuestro planeta (lo que sería fatal, pues comenzaría a devorarla lentamente desde dentro). En lugar de eso la atravesarían dejando cráteres de entrada y salida, generándose una intensa actividad sísmica. Según los cálculos de estos investigadores, la cantidad de energía liberada en esta colisión sería comparable a la de un asteroide de un kilómetro de tamaño.

¿Cómo podríamos detectarlos en el universo?

En una reciente publicación propuse la posible interacción de un agujero negro de tamaño atómico y uno de los objetos más densos del universo: una estrella de neutrones.

La hipótesis de partida es que uno de estos agujeros negros podría encontrarse con una estrella de neutrones vieja (cuya temperatura es muy baja y ha perdido prácticamente toda su velocidad de rotación). Según los cálculos, la frecuencia de estos encuentros sería del orden de 20 eventos por año, aunque la mayoría sería difícil de observar debido a su enorme distancia y a la orientación adecuada respecto a la Tierra.

Se consideran dos escenarios posibles: primero, cuando la estrella de neutrones captura el agujero negro primordial. Segundo, cuando el agujero negro de tamaño atómico se acerca desde muy lejos, rodea la estrella de neutrones y se vuelve a alejar. Es lo que se denomina escenario de dispersión.

Dependiendo del tipo de evento se generaría una señal característica y única (un estallido de rayos gamma o GRB) que serviría para identificar las interacciones, constituyendo una prueba indirecta de la existencia de los agujeros negros diminutos.

Simulación del efecto de un agujero negro primordial (puntos blancos) atravesando una estrella. En la ilustración se pueden apreciar las ondas de vibración resultantes del impacto. Créditos: Tim Sandstrom.

Una publicación del Instituto Max Planck de Astrofísica ha propuesto otra forma de hallar estos minúsculos agujeros negros. Parten de que el exceso de emisión de ciertas estrellas gigantes rojas podría deberse a la presencia en su interior de microagujeros negros, alimentándose de materia estelar, permitiendo su eventual localización.

Implicaciones de la existencia de los agujeros negros primordiales

Desde luego que sería un hallazgo apasionante, pues quedaría confirmada una de las grandes predicciones astrofísicas del siglo XX: la radiación de Hawking y el posible origen primordial de los diminutos agujeros negros.

En palabras del mismísimo Stephen Hawking, “los agujeros negros no son tan negros como los pintan. No son las prisiones eternas que alguna vez se pensó. Las cosas pueden salir de un agujero negro tanto al exterior como, posiblemente, a otro universo.”The Conversation

Sobre el autor: Óscar del Barco Novillo es profesor asociado en el Departamento de Física (área de Óptica) de la Universidad de Murcia

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo ¿Qué pasaría si un microagujero negro impactara contra la Tierra? se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Los números de la suerte

Az, 2024-01-10 11:59

Existen sucesiones de números naturales (o enteros) realmente curiosas e interesantes, no en vano, les hemos dedicado varias entradas en la sección Matemoción del Cuaderno de Cultura Científica. Entre las sucesiones de números de las que hemos hablado están la famosa sucesión de Fibonacci (véanse las entradas ¡Póngame media docena de fibonaccis!, Los números (y los inversos) de Fibonacci, ¡Nos encanta Fibonacci!, o El origen poético de los números de Fibonacci, entre otras), la musical sucesión de las vacas de Narayana (de la que hablamos en la entrada Las vacas de Narayana, la versión hindú de los conejos de Fibonacci), la sucesión de Kolakoski (sobre la que podéis leer en La misteriosa sucesión de Kolakoski), la sucesión de Levine (véase la entrada La sucesión de Levine), los números narcisistas (sobre los que puede leerse en la entrada ¿Pueden los números enamorarse de su propia imagen?), los números de Bell relacionados con la poesía (véase la entrada ¿Cuántas estructuras rítmicas existen en poesía?) o las sucesiones fractales (a la cuales hemos dedicado las entradas Sucesiones fractales, La sucesión fractal de Thue-Morse y la partida infinita de ajedrez  y Sucesiones fractales: del número a la nota musical), entre otras. Por otra parte, en esta entrada hablaremos de otra interesante sucesión de números naturales, que pertenece a la familia de sucesiones de números generadas mediante “cribas”.

suerte

¿Cómo se criban los números?

En una entrada anterior ya hemos hablado de una criba famosa, la conocida criba de Eratóstenes, que sirve para obtener los números primos al ir eliminando (cribando) los números que son múltiplos de los números primos que se van obteniendo en el proceso, empezando por los múltiplos de los primeros primos 2, 3, 5 y 7, y siguiendo con los que van surgiendo en el cribado, 11, 13, 17, 19 y así todo lo que deseemos. Sobre esta criba podéis leer en las entradas Buscando lagunas de números no primos y El poema de los números primos.

suertePrimer lienzo del tríptico Un mar de números primos (2019), de la artista donostiarra, afincada en París, Esther Ferrer. Este lienzo es una criba de Eratóstenes rectangular de tamaño 49 x 65, es decir, abarca los primeros 3.185 números, aunque solo aparecen de forma explícita los números primos, que son 450 en ese intervalo

Pero vayamos con la definición de la sucesión de los números de la suerte, definidos a través de una criba diferente, que no tiene en cuenta la divisibilidad, sino la posición de los números en la lista de todos los números naturales. Para ilustrarlo mejor vamos a tomar la lista de los primeros 200 números naturales y realizaremos el proceso sobre ellos.

suerte

El primer número, después de la unidad, es el número 2. Por lo tanto, vamos a eliminar uno de cada dos números de toda la lista de números naturales (imagen anterior), es decir, vamos a eliminar los números pares. Luego, después de este primer cribado, los granos (números) que caen por los agujeros de la criba son los números pares, mientras que los que permanecen en la criba son los impares.

El siguiente número, que ha quedado en la criba, es el número 3. Por lo tanto, vamos a eliminar uno de cada tres números, de los que han quedado. Empecemos, 1, 3 y eliminamos el 5, seguimos, 7, 9, y eliminamos el 11, después, 13, 15 y fuera el 17, y así se continúa como aparece en la siguiente imagen, en la cual vemos aquellos granos (números) que no han caído por los agujeros de la criba (no son el tercer número de cada triple de números consecutivos).

El siguiente número, que ha quedado en la criba, es el número 7. Por lo tanto, vamos a eliminar uno de cada siete números, de los que aún permanecen en la ficticia criba. Si miramos la imagen de arriba y vamos contando, tenemos 1, 3, 7, 9, 13, 15 y después, 19, que es el número que eliminamos, después 21, 25, 27, 31, 33, 37 y se elimina el 39, y así se continúa, de siete en siete. Al final, después de este cribado, quedan los números que aparecen en la siguiente imagen.

El siguiente número que queda en la criba, después del 7 que hemos considerado antes (por ahora tenemos en nuestra familia especial de números no cribados, luego los números de la suerte, 1, 3 y 7), es el 9, luego eliminaremos uno de cada 9 números. Por lo tanto, vamos a contar, 1, 3, 7, 9, 13, 15, 21, 25 y eliminamos el siguiente, que es 27, y así con el resto de números que vemos en la imagen anterior. El resultado de este cribado, de los números que aparecen cada nueve posiciones, está recogido en la siguiente imagen.

Lo mismo haremos con el siguiente, que es el número 13.

Tenemos 1, 3, 7, 9, 13 y 15, luego eliminaremos uno de cada 15 números, de entre los que han quedado sin cribar hasta ahora. Después llega el 21 y lo mismo, así como 25, 31, 33 y 37, quedando los números que aparecen en la siguiente imagen. Como el siguiente número es el 43, pero en el conjunto de los números que quedan sin cribar (hasta el número 200) solo quedan 39 números, ya no es posible cribar más y habremos obtenido todos los números de la suerte hasta el 200.

Por lo tanto, los números de la suerte menores que 200 son:

1, 3, 7, 9, 13, 15, 21, 25, 31, 33, 37, 43, 49, 51, 63, 67, 69, 73, 75, 79, 87, 93, 99, 105, 111, 115, 127, 129, 133, 135, 141, 151, 159, 163, 169, 171, 189, 193 y 195.

Los números de la suerte son la sucesión A000959 de la Enciclopedia On-line de Sucesiones de Números Enteros – OEIS.

Estos números fueron bautizados como “números de la suerte” en el artículo On Certain Sequences of Integers Defined by Sieves / Sobre ciertas sucesiones de números enteros definidas mediante cribas, publicado por los matemáticos Verna Gardiner, R. Lazarus, N. Metropolis y S. Ulam, en la revista Mathematics Magazine (del año 1956). Más aún, los autores sugirieron el nombre de criba de Josephus Flavius para el proceso de cribado que da lugar a los números de la suerte, puesto que el proceso es similar al descrito en el conocido problema de Josefo (del que ya hablaremos en alguna otra ocasión).

Se parecen a los números primos

Los números de la suerte menores que el número 200 son 39, como acabamos de calcular, mientras que los números primos menores que 200, como habíamos calculado en la entrada El poema de los números primos [https://culturacientifica.com/2019/05/01/el-poema-de-los-numeros-primos/], son 46. En el artículo On Certain Sequences of Integers Defined by Sieves / Sobre ciertas sucesiones de números enteros definidas mediante cribas, sus autores, Verna Gardiner, R. Lazarus, N. Metropolis y S. Ulam, observaron que los números de la suerte se comportaban de forma similar a los números primos en algunas cuestiones. En particular, observaron que la frecuencia de números de la suerte entre 1 y n, para valores cada vez mayores de n, era similar a la de los números primos. En la siguiente imagen, del artículo On Certain Sequences of Integers Defined by Sieves, se recoge la tabla de números de la suerte y primos hasta el 48.600, en intervalos de 2.000 números.

Lo que Gardiner, Lazarus, Metropolis y Ulam sugerían era que el comportamiento asintótico de los números de la suerte es similar al de los números primos, el conocido como teorema de los números primos. Este, de forma simplificada, nos dice que la función “contador de números primos”, esto es, pi(n) = cantidad de números primos menores que n, se aproxima a la función n / ln (n) -donde ln(n) es el logaritmo neperiano de n-. Este resultado fue conjeturado por el gran matemático alemán Carl Friedrich Gauss (1777-1855), con tan solo 15 años, y probado, de forma independiente, por los matemáticos franceses Jacques Hadamard (1865-1963) y Charles de la Vallée-Poussin (1866-1962).

Un año después de la publicación del artículo de Gardiner, Lazarus, Metropolis y Ulam, los matemáticos D. Hawkins and W. E. Briggs demostraron que existía un resultado análogo para los números de la suerte, es decir, que la cantidad de números de la suerte menores que n, la función s(n), se aproxima a la función n / ln (n).

Gardiner, Lazarus, Metropolis y Ulam también conjeturaron la existencia de un resultado análogo a la conjetura de Goldbach para los números de la suerte. La conocida conjetura de Goldbach (sobre la que podéis leer más en la entrada La conjetura de Goldbach) nos dice que

todo número par mayor que dos puede escribirse como suma de dos números primos”.

Si empezamos por el principio, 4 = 2 + 2, 6 = 3 + 3, 8 = 3 + 5, 10 = 3 + 7 = 5 + 5, 12 = 5 + 7, 14 = 3 + 11 = 7 + 7, 16 = 3 + 13 = 5 + 11, … y así se continua. La conjetura de Goldbach sigue siendo una conjetura, no ha podido ser demostrada -lo que la convertiría en teorema-, a pesar de los esfuerzos realizados en ese sentido. Se sabe que se verifica para todos los pares menores que 4.000.000.000.000.000.000, pero aún no para la totalidad de los números pares.

En el artículo On Certain Sequences of Integers Defined by Sieves se conjeturó la existencia de un resultado similar a la conjetura de Goldbach para números de la suerte. En particular se probó que

todo entero entre 1 y 100.000 puede escribirse como la suma de dos números de la suerte”.

En la segunda película de la serie de animación Futurama, titulada Futurama: La bestia con un millón de espaldas, el profesor Farnsworth, y su rival el profesor Wernstrom, dicen que han conseguido una prueba elemental de la conjetura de Goldbach

Otro punto de conexión parece haberse establecido con los números primos gemelos. Recordemos que, como todos los números pares, a excepción del 2, son números compuestos, no primos, entonces lo más cerca que pueden estar dos números primos, salvo el 2 y el 3 que están pegados, es con solo un número par entre ellos. Y precisamente, a las parejas de números primos que están tan cerca, se les llama números primos gemelos (para más información puede verse la entrada Números primos gemelos, parientes y sexis (1)), como las parejas 11 y 13, 17 y 19, o 59 y 61.

De forma análoga, recordemos que los números pares no son números de la suerte (en este caso, ni siquiera el 2), se pueden definir los números de la suerte gemelos, como las parejas 7 y 9, 73 y 75, o 169 y 171. El gran divulgador de las matemáticas estadounidense Martin Gardner (1914-2010), en su artículo Lucky numbers and 2187 / Los números de la suerte y el 2187, afirmaba que “la cantidad de parejas de números de la suerte gemelos es igual a la cantidad de parejas de números primos gemelos”. A continuación, incluimos las parejas de números primos, respectivamente, números de la suerte, gemelos menores que 1.000.

Parejas de números primos gemelos menores que 1.000, que son 35:

(3, 5) (5, 7) (11, 13) (17, 19) (29, 31) (41, 43) (59, 61) (71, 73), (101, 103) (107, 109) (137, 139) (149, 151) (179, 181) (191, 193) (197, 199) (227, 229) (239, 241) (269, 271) (281, 283) (311, 313) (347, 349) (419, 421) (431, 433) (461, 463), (521, 523) (569, 571) (599, 601) (617, 619) (641, 643) (659, 661) (809, 811) (821, 823) (827, 829) (857, 859) (881, 883)

Parejas de números de la suerte gemelos menores que 1.000, que son 33:

(1, 3), (7, 9), (13, 15), (31, 33), (49, 51), (67, 69), (73, 75), (127, 129), (133, 135), (169, 171), (193, 195), (235, 237), (259, 261), (283, 285), (319, 321), (391, 393), (427, 429), (475, 477), (487, 489), (517, 519), (535, 537), (577, 579), (613, 615), (619, 621), (643, 645), (727, 729), (739, 741), (883, 885), (895, 897), (925, 927), (931, 933), (979, 981), (991, 993).

Y, como no podía ser de otra manera, el siguiente tema de interés ha sido el estudio de los números primos de la suerte, pero ese es otro tema del que quizás hablemos en el futuro.

Homenaje a Martin Gardner

Vamos a terminar esta entrada con un número de la suerte especial, el número 2.187, que era el número de la casa en la que vivía el divulgador de las matemáticas Martin Gardner en su niñez, en Tulsa (Oklahoma, Estados Unidos). En su artículo Lucky numbers and 2187 / Los números de la suerte y el 2187, Martin Gardner habla de las curiosas propiedades de este número de la suerte. Como afirma el Dr. Matrix (alter ego de Martin Gardner en sus artículos), “todos los números tienen infinitas propiedades inusuales”, veamos algunas del número 2.187.

A. El número 2.187 es igual a 3 elevado a la 7 (es decir, 37), luego si escribimos este número en base 3, se representará como 10.000.000 (en base 3).

B. Si intercambiamos la posición de los dos últimos dígitos del 2.187 se obtiene 2.178, que multiplicado por 4 nos da 8.712, que es el número anterior (2.178) cambiado de orden (de atrás hacia delante). Más aún, si restamos 2.187 a 9.999 se obtiene 7.812, que es el mismo número, pero cambiado el orden. Seguimos con los dígitos del número 2.187, que son 2, 1, 8 y 7, y formamos los números 21 y 87, que multiplicados nos da 1.827, un número con los mismos dígitos, pero permutados.

C. Vamos a terminar con una curiosa torre de sumas que aparece al sumarle al número 2.187 números formados por las cifras básicas, empezando por el 1, en orden creciente, desde 1.234 hasta 123.456.789.

2.187 + 1.234 = 3.421

2.187 + 12.345 = 14.532

2.187 + 123.456 = 125.643

2.187 + 1.234.567 = 1.236.754

2.187 + 12.345.678 = 12.347.865

2.187 + 123.456.789 = 123.458.976

Como puede observarse, al sumar esos números con las cifras básicas en orden creciente se obtiene un número con los mismos dígitos que el número que se ha sumado al 2187, pero permutado el orden.

Bibliografía

1.- R. Ibáñez, La gran familia de los números, Libros de la Catarata – ICMAT – FESPM, 2021.

2.- Clifford A. Pickover, El prodigio de los números. Desafíos, paradojas y curiosidades matemáticas, Ma Non Troppo (ediciones Robinbook), 2002.

3.- Verna Gardiner, R. Lazarus, N. Metropolis and S. Ulam, On Certain Sequences of Integers Defined by Sieves, Mathematics Magazine, Vol. 29, No. 3, pp. 117-122, 1956.

4.- D. Hawkins and W. E. Briggs, The Lucky Number Theorem, Mathematics Magazine, Vol. 31, No. 2, pp. 81-84, 1957.

5.- Martin Gardner, Lucky numbers and 2187, Mathematical Intelligencer, Vol. 19, n. 2, pp. 26-29, 1997.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Los números de la suerte se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Las células de todo el cuerpo hablan entre sí sobre el envejecimiento

Ar, 2024-01-09 11:59

Los biólogos han descubierto que las mitocondrias de diferentes tejidos se comunican entre sí para reparar las células dañadas. Cuando su señal falla, el reloj biológico comienza a detenerse.

Un artículo de Viviane Callier. Historia original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.

mitocondriasLas señales químicas liberadas por las mitocondrias se comunican de alguna manera a las mitocondrias de otros tejidos, lo que influye en la rapidez con la que envejecen los organismos. Ilustración: Kristina Armitage / Quanta Magazine

El envejecimiento puede parecer un proceso no regulado: a medida que avanza el tiempo, nuestras células y cuerpos inevitablemente acumulan golpes y abolladuras que causan disfunciones, fallos y, en última instancia, la muerte. Sin embargo, en 1993 un descubrimiento trastocó esta interpretación de los hechos. Los investigadores encontraron una mutación en un solo gen que duplica la esperanza de vida de un gusano; trabajos posteriores demostraron que varios genes relacionados, todos ellos implicados en la respuesta a la insulina, son reguladores clave del envejecimiento en una gran cantidad de animales, desde gusanos y moscas hasta humanos. El descubrimiento sugería que el envejecimiento no es un proceso aleatorio (de hecho, lo regulan genes específicos) y abría la puerta a más investigaciones sobre cómo se produce el envejecimiento a nivel molecular.

Recientemente, una serie de artículos han documentado una nueva vía bioquímica que regula el envejecimiento, que se basa en señales transmitidas entre las mitocondrias, los orgánulos conocidos por ser el centro energético de la célula. Trabajando con gusanos, los investigadores descubrieron que el daño a las mitocondrias en las células cerebrales desencadenaba una respuesta de reparación que luego se amplificaba, desencadenando reacciones similares en las mitocondrias de todo el cuerpo del gusano. El efecto de esta actividad de reparación fue extender la esperanza de vida del organismo: los gusanos con daño mitocondrial reparado vivieron un 50% más.

Es más, las células de la línea germinal (las células que producen óvulos y espermatozoides) son fundamentales para este sistema de comunicación antienvejecimiento. Es un hallazgo que añade nuevas dimensiones a las preocupaciones sobre la fertilidad implícitas cuando la gente habla sobre el envejecimiento y su «reloj biológico». Algunos de los hallazgos se han publicado en Science Advances y otros en el servidor de preimpresión científica biorxiv.org este otoño.

La investigación se basa en trabajos recientes que sugieren que las mitocondrias son orgánulos sociales que pueden comunicarse entre sí incluso cuando se encuentran en tejidos diferentes. En esencia, las mitocondrias funcionan como walkie-talkies celulares, enviando mensajes por todo el cuerpo que influyen en la supervivencia y la duración de la vida de todo el organismo.

“Lo importante aquí es que además de los programas genéticos, también hay un factor muy importante para regular el envejecimiento, que es la comunicación entre los tejidos”, explica David Vílchez, que estudia el envejecimiento en la Universidad de Colonia y no ha participado en el estudio.

El biólogo celular Andrew Dillin descubrió los primeros indicios de esta nueva vía que regula la duración de la vida hace aproximadamente una década. Estaba buscando genes que prolongaran la vida en los gusanos Caenorhabditis elegans cuando descubrió que dañar genéticamente las mitocondrias extendía la vida de los gusanos en un 50%.

Esto fue inesperado. Dillin había asumido que las mitocondrias defectuosas acelerarían la muerte en lugar de prolongar la vida; después de todo, las mitocondrias son fundamentales para el funcionamiento celular. Sin embargo, por alguna razón, el deterioro del buen funcionamiento de las mitocondrias obligaba a los gusanos a vivir más tiempo.

Más intrigante fue el hecho de que las mitocondrias dañadas en el sistema nervioso de los gusanos parecían estar impulsando el efecto. «Esto significa en realidad que algunas mitocondrias son más importantes que otras», afirma Dillin, que ahora es profesor en la Universidad de California, Berkeley. «Las neuronas dictan esto sobre el resto del organismo, y esto fue realmente sorprendente».

mitocondriasDurante la última década el biólogo celular Andrew Dillin ha descubierto los detalles bioquímicos de una nueva vía que regula el envejecimiento, en la que las mitocondrias de las células de todo el cuerpo se comunican sobre la salud celular. Foto: Cortesía de Andrew Dillin

Ahora, Dillin y su equipo han ampliado ese hallazgo al descubrir nuevos detalles sobre cómo las mitocondrias del cerebro se comunican con las células de todo el cuerpo del gusano para prolongar la vida.

En primer lugar, tenía que entender por qué un daño a las mitocondrias del cerebro podría tener un efecto beneficioso en el organismo. El proceso de generación de energía de una mitocondria requiere una maquinaria molecular extremadamente compleja con docenas de partes proteicas diferentes. Cuando las cosas van mal, como cuando faltan algunos componentes o están mal plegados, las mitocondrias activan una respuesta de estrés, conocida como respuesta de proteína desplegada, que administra enzimas reparadoras para ayudar a que los complejos se ensamblen adecuadamente y restablezcan la función mitocondrial. De esta forma, la respuesta de proteína desplegada mantiene a las células sanas.

Dillin esperaba que este proceso se desarrollara solo dentro de las neuronas con mitocondrias dañadas. Sin embargo, observó que las células de otros tejidos del cuerpo del gusano también activaban respuestas de reparación a pesar de que sus mitocondrias estaban intactas.

Es esta actividad reparadora la que ayudó a los gusanos a vivir más tiempo. Al igual que llevar un coche al mecánico con regularidad, la respuesta de proteína desplegada parecía mantener las células en buen estado de servicio y funcionar como limpieza antienvejecimiento. Lo que seguía siendo un misterio era cómo se comunicaba esta respuesta de proteína desplegada al resto del organismo.

Después de algunas investigaciones, el equipo de Dillin descubrió que las mitocondrias de las neuronas estresadas utilizaban vesículas (recipientes en forma de burbujas que mueven materiales por la célula o entre células) para transportar una señal llamada Wnt más allá de las células nerviosas a otras células del cuerpo. Los biólogos ya sabían que Wnt desempeña un papel en la configuración del patrón corporal durante el desarrollo embrionario temprano, durante el que también desencadena procesos de reparación como la respuesta de proteína desplegada. Aún así, ¿cómo podría la señalización Wnt, cuando se activa en un adulto, evitar la activación del programa embrionario?

Dillin sospechaba que tenía que haber otra señal con la que Wnt interactuaba. Después de seguir trabajando, los investigadores descubrieron que un gen expresado en las mitocondrias de la línea germinal (y en ninguna otra mitocondria) puede interrumpir los procesos de desarrollo de Wnt. Este resultado sugería que las células de la línea germinal desempeñan funciones críticas en la transmisión de la señal Wnt entre el sistema nervioso y los tejidos del resto del cuerpo.

«La línea germinal es absolutamente esencial para esto», señala Dillin. Sin embargo, no está claro si las mitocondrias de la línea germinal actúan como amplificadores, recibiendo la señal de las mitocondrias del cerebro y transmitiéndola a otros tejidos, o si los tejidos receptores están «escuchando» señales de ambas fuentes.

De cualquier manera, la fuerza de la señal de la línea germinal regula la esperanza de vida del organismo, afirma Dillin. A medida que un gusano envejece, la calidad de sus óvulos o espermatozoides disminuye, lo que llamamos el tictac de un reloj biológico. El declive también se refleja en la capacidad cambiante de las células germinales para transmitir señales desde las mitocondrias del cerebro, sugiere. A medida que el gusano envejece, su línea germinal transmite la señal de reparación con menor eficacia, por lo que su cuerpo también decae.

Los científicos aún no saben si estos hallazgos se aplican a los humanos y a cómo envejecemos. Aun así, la hipótesis tiene sentido desde un punto de vista evolutivo más amplio, apunta Dillin. Mientras las células germinales están sanas, envían señales de supervivencia para garantizar que su organismo huésped sobreviva para reproducirse. Pero a medida que la calidad de las células germinales disminuye, no hay ninguna razón evolutiva para seguir extendiendo la vida; desde la perspectiva de la evolución, la vida existe para reproducirse.

El hecho de que las mitocondrias puedan hablar entre sí puede parecer algo alarmante, pero tiene una explicación. Hace mucho tiempo, las mitocondrias eran bacterias de vida libre que unían fuerzas con otro tipo de célula primitiva para trabajar juntas en lo que se convirtió en nuestras modernas células complejas. Por lo tanto, su capacidad para comunicarse es probablemente una reliquia del ancestro bacteriano de vida libre de las mitocondrias.

«Esta pequeña cosa que ha estado funcionando dentro de las células durante miles de millones de años todavía conserva sus orígenes bacterianos», explica Dillin. Y si su investigación con gusanos se sostiene en organismos más complejos como los humanos, es posible que tus mitocondrias estén hablando en este momento de tu edad.

 

El artículo original, Cells Across the Body Talk to Each Other About Aging, se publicó el 8 de enero de 2023 en Quanta Magazine.

Traducido por César Tomé López

El artículo Las células de todo el cuerpo hablan entre sí sobre el envejecimiento se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

La tectónica de placas de Venus

Al, 2024-01-08 11:59

Venus es un planeta extraño para nuestros estándares: A pesar de tener un tamaño y una composición parecida a la Tierra, son dos mundos totalmente diferentes en casi todos los aspectos que podamos imaginar, desde su achicharrante atmósfera hasta su relieve, cuya geografía tampoco nos recuerda mucho a ningún paisaje terrestre, salvo raras excepciones.

Pero, ¿y la geología? ¿Podemos compararla? Claro, pero lo cierto es que hasta en este aspecto tenemos dificultades, ya que la escasez de misiones modernas y la dificultad que nos plantea el estudio de su superficie lo convierten en un planeta inhóspito hasta para la investigación, aunque afortunadamente, si todo va bien, en la próxima década podríamos tener una gran cantidad de datos fruto de las misiones espaciales, como DAVINCI, VERITAS o EnVision.

Lo que está claro es que si comparamos Venus, Marte y la Tierra -por situar los planetas interiores más similares- su camino evolutivo los ha llevado a ser lugares radicalmente diferentes. Desde el punto de vista geológico, una de las diferencias más marcadas es la total ausencia -al menos en la actualidad- de una tectónica de placas… ¿es acaso la Tierra un bicho raro entre los planetas?

VenusVenus observado por la sonda MESSENGER en junio de 2007 durante su travesía hacia Mercurio. Ni un atisbo de su superficie es visible debido a su opacidad atmosférica. Cortesía de NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington.

Hoy nuestro viaje para comprender mejor la geología de Venus va a comenzar en su atmósfera. Cuando pensamos en la atmósfera de cualquier cuerpo planetario, es importante tener en cuenta que estas tienen un vínculo esencial con el interior, ya que una gran parte de los gases que forman las atmósferas actuales proceden directamente de la degasificación que ocurre en las zonas volcánicas, conectando de este modo en interior del planeta y su exterior. Por norma general, sería muy difícil que un planeta tuviese atmósfera si de algún modo su superficie fuese “impermeable” y no dejase escapar los gases desde su interior. Obviamente hay excepciones, pero de eso igual hablamos en otro momento.

Y es aquí donde entra un nuevo estudio publicado en Nature Astronomy… ¿Podría estar relacionada la actual composición y presión atmosférica con la existencia de una tectónica de placas en el pasado? Como hemos mencionado más arriba, hoy día Venus carece de una tectónica de placas, estando su corteza formada por una gran placa, al igual que también ocurre en Marte.

Este tipo de régimen tectónico limita mucho la interacción entre el interior y el exterior del planeta, ya que, por ejemplo, no existen zonas de subducción en las cuales se introduzca materia hacia el interior, creando una serie de ciclos geológicos y geoquímicos de gran importancia y que, en la Tierra, entre otras cosas, permiten una regulación climática a gran escala y el ciclo de elementos -entre los distintos reservorios de nuestro planeta- esenciales para la vida. O lo que es lo mismo, sirve como un gran mecanismo regulador que hace nuestro planeta un lugar más habitable.

VenusQuizás lo que más nos recuerde de Venus a la Tierra en la actualidad sean sus morfologías volcánicas, como este pequeño volcán situado en Parga Chasma. Cortesía de NASA/JPL.

Que hoy Venus sea así no quiere decir que siempre haya funcionado de la misma manera. Y es que estos investigadores han realizado numerosas simulaciones de la atmósfera del planeta para saber el porqué hoy día es como es, llegando a la conclusión que para tener la abundancia de nitrógeno y dióxido de carbono que hoy día observamos, la única forma de lograrlo es si Venus tuvo una tectónica de placas entre hace 4500 y 3500 millones de años. No una tectónica de placas tan desarrollada como la que tenemos hoy en la Tierra, pero al menos sí una incipiente.

Este hecho podría indicarnos que Venus en esos primeros momentos fue un planeta muy similar a la Tierra y que probablemente ambos planetas habrían iniciado la tectónica de placas en un marco temporal muy similar, pero que Venus habría comenzado a transformarse con el paso del tiempo.

¿Qué quiere decir esto? Pues que probablemente Venus sufrió una evolución climática y geodinámica de una manera más o menos simultánea: al mismo tiempo que Venus fue calentándose y perdiendo su agua, la ausencia de esta y las altas temperaturas pudieron dificultar el mantenimiento de los mecanismos que pusieron en marcha la tectónica de placas.

Y es que no podemos olvidar que el agua juega dos papeles fundamentales dentro de ese mecanismo: por un lado, en la zona más superficial de las cortezas planetarias podría ayudar a facilitar la fracturación de esta -y, por lo tanto, iniciando el ciclo de la subducción- y por otro, ya más en el interior del planeta, la hidratación de en capas como la astenosfera facilitaría su deformación y movimiento a escala geológica.

Venus¿Canales de agua? No, canales de lava. Es curioso como distintos procesos geológicos son capaces de crear morfologías similares en planetas diferentes. NASA/JPL.

Este nuevo estudio abre varias cuestiones bastante profundas: Por un lado, tenemos el hecho de que los planetas no tendrían por qué tener un régimen geodinámico único a lo largo de toda su vida, sino que por una serie de cambios podemos pasar de un planeta con tectónica de placas a otro sin tectónica de placas, algo muy importante a considerar a la hora de estudiar la evolución de nuestro entorno planetario.

Por otro, si Venus fue más parecido a la Tierra en el pasado que lo es hoy, pudo tener un aspecto astrobiológico que tenemos que considerar, puesto que teniendo en cuenta que es muy similar en tamaño y composición al nuestro, también podrían haberse dado las condiciones para el origen de la vida, pero también que planetas que han sido habitables -en el sentido de unas condiciones como las nuestras- pueden dejar de serlo y quizás, viceversa.

Por último, este estudio pone de manifiesto que es posible que a través del estudio de las atmósferas podamos inferir no solo el estado actual de los planetas -no solo en nuestro Sistema Solar, sino también pienso en exoplanetas- a nivel geológico, sino que quizás también podamos tirar hacia atrás la línea del tiempo y conocer cómo fue su geología y si el planeta pudo ser habitable también en el pasado.

Referencias:

Weller, M. B., Evans, A. J., Ibarra, D. E., & Johnson, A. (2023) Venus’s atmospheric nitrogen explained by ancient plate tectonics. Nature Astronomy doi: 10.1038/s41550-023-02102-w

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario y divulgador científico.

El artículo La tectónica de placas de Venus se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

El año que los Reyes Magos me regalaron un microscopio

Ig, 2024-01-07 11:59

Los Reyes Magos de 1978, cuando yo tenía 14 años recién cumplidos, me trajeron un juguete inesperado: un microscopio, que todavía conservo.

Mi microscopio de juguete Bianchi 2002, regalo de Reyes de 1978. Fotografía: Lluís Montoliu

Durante el curso 1977-78 yo estaba cursando 1º de B.U.P., lo que equivale al 3º de la E.S.O. actual. Nuestro profesor de ciencias, Don Saturnino Valle, nos había hablado por vez primera de genética, de los experimentos de Mendel, y me había dejado fascinado. Me propuse que ese y no otro sería mi destino profesional, algo que orgullosamente he conseguido, trabajando en lo que quería e investigando sobre nuestros genes y genomas.

Nuestro profesor nos mandó un trabajo escrito sobre el tema, por grupos. El grupito de amigos del que yo formaba parte nos esmeramos y nuestro trabajo resultó destacado por el profesor.

Como premio nos entregó un sencillo atlas de histología con imágenes microscópicas impresas de preparaciones de plantas y animales, lo sorteamos y acabó en mis manos. De nuevo la fascinación, el descubrimiento de las células, de los núcleos de las células, de las formas caprichosas que adquirían en los tejidos.

En el colegio teníamos microscopios, pero en mi casa lógicamente no. Durante ese curso, antes de la celebración de las navidades, debí dar la lata mucho en casa sobre este tema. Tanto que sus majestades los Reyes Magos estuvieron atentos y, cuando llegó el 6 de enero, el regalo que me encontré asociado a mi nombre era un estuche de plástico rojo con el panel frontal transparente. Contenía el instrumento con el que había imaginado que podría seguir observando preparaciones microscópicas.

El microscopio traía una caja de preparaciones de órganos de insectos (alas de hormiga, de abeja, patas de moscas…) que, al observarlas a mayor aumento, mostraban todo un abanico de detalles invisibles a simple vista.

Preparaciones microscópicas de órganos de insectos que traía el microscopio de juguete. Fotografía: Lluís MontoliuEl despertar de una vocación

Seguramente debí recibir otros regalos ese día, pero no recuerdo ninguno más. Hay regalos que nos impactan sobremanera, por lo que significan, por cómo pueden ayudar a moldear la vida futura que afrontaremos. Llamémoslo vocación, interés, anhelo, deseo o sueño. Pero sí, hay objetos determinantes en la historia vital de cada uno de nosotros.

Este microscopio es uno de los míos, seguramente uno de los que más contribuyó a que optara por dedicarme a lo que me he dedicado: a ser un investigador científico.

Bianchi 2002

El microscopio Bianchi 2002, de nombre pretencioso y futurista, estaba hecho enteramente de plástico. Había sido fabricado a finales de los años 70 y no era un prodigio de la técnica, pero cumplía fielmente su función.

Tenía dos oculares intercambiables, con diferentes aumentos, y cuatro objetivos de 60x, 150x, 200x y 400x aumentos. Eso le permitía llegar a unos aumentos considerables, de más de 1 000 veces (aunque la calidad de la imagen se empobrecía considerablemente a medida que incrementaban los aumentos del objetivo).

Para iluminar la preparación tenía un espejo (como los que usaba Don Santiago Ramón y Cajal a principios del siglo pasado) que debía situarse orientado a una fuente de luz, natural o artificial, como una lámpara, para concentrar el reflejo en el centro de la preparación y poder visualizar la muestra. Y claro, con más aumentos se requería más luz, lo cual no siempre era posible.

Cuando uno trastea con estos microscopios y con el espejo se percata de las dificultades que tuvieron que abordar nuestros primeros sabios microscopistas, siempre a la búsqueda de fuentes de luz y del ángulo correcto para poder ver, con las lentes de aumento del aparato, todo aquello que escapaba a la visión con el ojo desnudo, tan limitado para resolver objetos e imágenes diminutas.

A pesar de que los microscopios de Cajal eran infinitamente mejores que este, en especial por las lentes ópticas que incluían, de gran calidad, el sistema de iluminación que usaba era el mismo que el de este microscopio de juguete: un espejo orientable.

Preparaciones que aún conservo

Unos años después, completada mi enseñanza secundaria, entré a estudiar Ciencias Biológicas en la Universidad de Barcelona. Tras terminar el primer curso, que incluía la asignatura de Biología, impartida por la profesora Mercè Durfort, catedrática de citología e histología recientemente fallecida, volví a enamorarme de las imágenes microscópicas y me apunté a un curso práctico que ella ofrecía en el Instituto Químico de Sarrià. Era el verano de 1982, y aprendimos a preparar y a observar múltiples preparaciones animales y vegetales. Preparaciones microscópicas que guardo celosamente todavía y que entonces pude seguir observando en mi casa gracias al microscopio de juguete que me habían regalado cuatro años antes.

Preparaciones microscópicas realizadas por el autor durante el verano de 1982. Fotografía: Lluís Montoliu

Supongo que todos recordamos regalos de Reyes especiales. Este microscopio sin duda fue, para mí, uno de ellos. Tras múltiples mudanzas, cambios de país, y tras casi 46 años, sigo conservándolo. Acudir a la bodega-trastero de casa para reencontrarme con él con motivo de este artículo ha sido una alegría.The Conversation

Sobre el autor: Lluís Montoliu, Investigador científico del CSIC, Centro Nacional de Biotecnología (CNB – CSIC)

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo El año que los Reyes Magos me regalaron un microscopio se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Alimentos sin gluten: la verdad y nada más que la verdad

La, 2024-01-06 11:59

gluten

La intolerancia al gluten es una afección que dura toda la vida y que, a día de hoy, afecta al 1% de la población. Además, la mejora en los protocolos de detección ha hecho que más personas sean conscientes de su intolerancia a la proteína.

Como consecuencia, el interés sobre los alimentos que contienen gluten ha aumentado y los supuestos beneficios de una dieta libre de esa proteína se han convertido en tema de debate. Pero, ¿son realmente más sanas ese tipo de dietas? Estas y otras dudas sobre los alimentos sin gluten son el eje de la charla “Alimentos sin gluten: la verdad y nada más que la verdad” que pronunció Jonatan Miranda.

La charla tuvo lugar el 13 de diciembre de 2023 en la Biblioteca Bidebarrieta, dentro del ciclo de conferencias científicas organizadas por la Cátedra de Cultura Científica de la Universidad del País Vasco y la Biblioteca Bidebarrieta.

Jonatan Miranda es profesor titular del departamento de Farmacia e Investigación Alimentaria de la Universidad del País Vasco. Actualmente es el investigador principal proyecto APPINBREAD-3S del Ministerio de Ciencia e Innovación. Además, es miembro del grupo de investigación Gluten3S y participa en el Plan de Investigación Vasco de la Granja a la Mesa.

Edición realizada por César Tomé López

El artículo Alimentos sin gluten: la verdad y nada más que la verdad se ha escrito en Cuaderno de Cultura Científica.

Kategoriak: Zientzia

Orriak