Cambios cerebrales durante el embarazo y la maternidad

Cuaderno de Cultura Científica - Sat, 2024/06/29 - 11:59

maternidad

Los cambios del cerebro durante el embarazo y la maternidad, cómo el estrés ha pasado de ser un mecanismo de supervivencia a un eventual elemento de riesgo para nuestra salud o cuál ha sido el papel que ha jugado el suicidio en la evolución del ser humano fueron algunos de los temas que se tratarán en la VI Jornada Nacional sobre Evolución y Neurociencias.

La jornada tuvo lugar el Bizkaia Aretoa de la UPV/EHU los pasados 25 y 26 de abril y estuvo dirigida por Eva Garnica y Pablo Malo, de la Red de Salud Mental de Bizkaia, institución que organizó la jornada junto a la Cátedra de Cultura Científica de la UPV/EHU.

El encuentro, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolutivo y divulgar de un modo accesible para todos los públicos.

Los cambios fisiológicos y neuronales asociados al embarazo y crianza de los hijos transforman a la persona. Susana Carmona nos explica cómo afectan al cerebro de las madres en Cambios cerebrales durante el embarazo y la maternidad.

Susana Carmona Cañabate, psicóloga clínica y doctora en neurociencias, es investigadora principal del Grupo de Neuroimagen del Hospital General Universitario Gregorio Marañón (Madrid).



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Cambios cerebrales durante el embarazo y la maternidad se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Ezjakintasunaren kartografia #499

Zientzia Kaiera - Sat, 2024/06/29 - 09:00


Oso mundu konplexuan bizi gara, eta, aztertu ahal izateko, zientziak hura zatitu eta idealizatu egiten du. Agian zientziak bilatzen duena ez delako egia, ulertzea baizik. Horrek, zientziaren helburu anitzekin batera, kontraesanak eta gatazkak sortzen ditu. Jesus Zamoraren Misunderstanding idealization, truth, and understanding (1)

Oxigenoaren agerpena Lurrean eta ondorengo guztia,  Oxidazio Handia bezala ezagutzen dena, ez zen bat-batean gertatu, ehunka milioi urte luzatu zen prozesua izan zen. How the oxygenation of the oceans took place

Ordenagailuek, oro har, eta adimen artifizialak, bereziki, argi-, soinu- eta presio-inputetan oinarrituta jarduten dute. Eta usainak gaineratzen baditugu? Giving computers a sense of smell

Giro-tenperaturan material supereroale bat lortzera hurbildu nahi badugu, elektroni-fonoi akoplamendu handia duen materiala aurkitzea izan daiteke bidea. DIPCko jendea, Increasing superconducting critical temperature by enhancing electron-phonon coupling

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #499 appeared first on Zientzia Kaiera.

Categories: Zientzia

La IA podría convertir la ciencia en algo incomprensible

Cuaderno de Cultura Científica - Fri, 2024/06/28 - 11:59

Hace unos días un artículo preaceptado en la revista Nature nos hablaba de las maravillas del modelo de inteligencia artificial (IA) AlphaFold 3, que superaban en mucho a su versión anterior. Se trata de un sistema capaz de predecir la estructura de proteínas, ácidos nucleicos y moléculas pequeñas cuyo potencial para la medicina de precisión y la creación de medicamentos es enorme. Además, el uso de modelos –tanto predictivos como generativos– de IA para diagnóstico está produciendo resultados asombrosos.

Casi al mismo tiempo, se nos informaba en los medios del proyecto de creación en la Unión Europea de un centro de investigación en IA dedicado especialmente al desarrollo de sistemas útiles para la investigación científica.

Todo esto no ha hecho más que comenzar. Las consecuencias que la extensión del uso de modelos predictivos tendría para la ciencia desde el punto de vista epistemológico y metodológico es un asunto sobre el que hay un creciente interés.

iaEsta imagen fue creada por Twistedpoly como parte del proyecto Visualizando la IA de Google DeepMind.  Foto: Google DeepMind / Unsplash

En otro artículo publicado este año en Nature se señalan tres ilusiones a las que puede conducir una aplicación acrítica de la IA en la investigación científica:

  1. La ilusión de profundidad explicativa. Consistiría en hacer creer a los científicos que entienden más sobre un conjunto de fenómenos porque han sido predichos con exactitud por un modelo de IA.
  2. La ilusión de amplitud exploratoria. Consistiría en creer que lo que puede ser modelizado por la IA agota la realidad que ha de ser explorada.
  3. La ilusión de objetividad. Consistiría en creer que las herramientas de la IA eliminan cualquier elemento de subjetividad y representa a todos los puntos de vista relevantes.

Son tres peligros que habrá que esquivar. La pérdida de importancia de la comprensión profunda de los fenómenos en la ciencia es un riesgo. La ciencia ha buscado la explicación y la predicción. Cabe la posibilidad de que el enorme éxito predictivo conseguido a través de sistemas de IA –que se comportan como cajas negras, puesto que son incapaces de justificar sus resultados–, relegue a un segundo plano la capacidad explicativa.

Como resultado, perdería peso la elaboración teórica en la ciencia y la búsqueda de las causas.

Estos modelos predictivos pueden ser muy útiles en la práctica, puesto que son capaces establecer correlaciones precisas que nos avisen con bastante seguridad de cuándo puede suceder algo –cuándo está aumentando la incidencia de una enfermedad–, pero el precio a pagar podría ser la imposibilidad de desentrañar lo que ocurre para encontrar una explicación causal.

Es cierto que no todos los sistemas de IA que se emplean en investigación funcionan como cajas negras. También es cierto que las correlaciones halladas por los modelos predictivos podrían ayudar a encontrar, mediante investigaciones ulteriores, relaciones causales imprevistas, conexiones nuevas e incluso fenómenos no conocidos o no conceptualizados hasta entonces.

Sin embargo, el empleo cada vez más extendido de sistemas de IA que presentan lo que se ha denominado opacidad epistémica puede conducir a la merma en la comprensión de la realidad que nos procura la capacidad explicativa de hipótesis, modelos y teorías.

“Calla y calcula”

Se suele decir que la interpretación de Copenhague de la mecánica cuántica se resume en el mandato “calla y calcula”. Es una exageración, claro está, que buscaba que los físicos no se entretuvieran demasiado con las cuestiones de fundamento, ampliamente filosóficas, y se centraran en el éxito predictivo de la teoría. Cabría la posibilidad de que muchos científicos tomaran esa boutade como un mandato inevitable de la ciencia sometida a los designios de la IA.

Esta actitud podría tener consecuencias negativas en ciencias sociales y biomédicas, en las que se basan políticas públicas, y las decisiones que se tomen pueden afectar a la vida de las personas a causa, por ejemplo, de sesgos no detectados. Estas ciencias tratan sobre sistemas complejos en los que con frecuencia una pequeña variación en las condiciones iniciales puede llevar a resultados completamente diferentes.

¿Cómo decirle a un paciente que un modelo predictivo ha dado como resultado una alta probabilidad de padecer una enfermedad mortal de la que no muestra ningún síntoma, pero sin que haya posibilidad de darle ninguna explicación acerca de cómo el sistema ha llegado a tal conclusión? ¿Bastará con señalarle que el sistema es altamente fiable porque su éxito predictivo está bien constatado? ¿Debería un médico actuar de alguna manera o prescribir un tratamiento sin tener una garantía epistémica adicional que justifique su intervención?

Un resultado interesante a este respecto es que algunos estudios recientes han mostrado que las personas son favorables a priorizar la exactitud en las predicciones de los sistemas de IA frente a la explicabilidad de los resultados si tienen que elegir entre ambas cosas.

De esa elección entre explicación y predicción podrían decir mucho todas las ciencias basadas en modelos matemáticos, como la economía o la biología evolutiva. Pero, hasta ahora, incluso en esas ciencias los modelos cuantitativos buscaban establecer en la medida de lo posible relaciones causales, cosa que no es objetivo central de los modelos predictivos de IA, que solo buscan el acierto.

Sin embargo, la tentación de usar estos modelos predictivos es fuerte, puesto que los gestores de políticas públicas reclaman con frecuencia a los científicos sociales respuestas claras para los problemas acuciantes. Aquí se trata en el fondo de obtener respuestas fiables a problemas complejos, aún a costa de no entender bien por qué esa debe ser la respuesta correcta. Hay quienes abogan por una integración de ambos tipos de modelos, los centrados en la explicación causal y los centrados en la predicción. Está por ver cómo lograr tal cosa.

¿Hacia una ciencia ininteligible?

El uso generalizado de estos modelos en la ciencia afectaría también a la idea de que el progreso científico se basa en la elaboración de hipótesis revisables que van siendo sustituidas por mejores hipótesis. En ese proceso, como ya señaló el filósofo de la ciencia Larry Laudan, una ganancia explicativa puede compensar una cierta pérdida predictiva.

No menos perturbadora sería la tendencia a creer que lo no tratable mediante modelos de IA deja de tener interés para la propia ciencia. En último extremo, podría conducir incluso a una ciencia en buena medida ininteligible para los humanos, en el sentido de que tendrán resultados conseguidos mediante modelos no interpretables. Este cambio nos obligaría a replantearnos no ya solo qué noción de verdad es la que aceptaremos sino, incluso, si no tendríamos que abandonar el concepto como tal, contentándonos con la mera utilidad de una creencia.

No parece que el ser humano esté, de momento, capacitado para este cambio.

Todo esto son buenas razones para no poner todo el peso de la investigación en los modelos predictivos, por beneficiosos que puedan ser. Estos modelos han de ser completados con el uso de modelos explicativos y con la búsqueda de hipótesis explicativas contrastables. Una contrastación para la que los modelos predictivos pueden cumplir una importante función.

Otra cosa sería que finalmente pudiera lograrse abrir de algún modo esas cajas negras, quizás mediante otros sistemas de IA que no fueran a su vez ellos mismos cajas negras, o bien que pudiera alcanzarse en el futuro una IA transparente, en la que los algoritmos fueran capaces de dar cuenta cabal de sus resultados de un modo inteligible para los seres humanos. Es un objetivo en el que se trabaja con creciente atención por parte de la inteligencia artificial explicable (XAI), pero el camino es aún incierto. Ojalá seamos capaces de hallarlo pronto.The Conversation

Sobre los autores: Antonio Diéguez Lucena, Catedrático de Lógica y Filosofía de la Ciencia, Universidad de Málaga e Iñigo De Miguel Beriain, Investigador distinguido, Facultad de Derecho, Ikerbasque Research Professor, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo La IA podría convertir la ciencia en algo incomprensible se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Kiñuren begirada: neutrinoak

Zientzia Kaiera - Fri, 2024/06/28 - 09:00

Azken aldian geroz eta gehiago entzuten da “neutrino” hitza. Zer dira neutrinoak? Non daude eta nolakoak dira?

Galdera hauek erantzungo dizkigu gaurkoan Kiñu kirikinoak.

Neutrinoak masa oso txikiko eta kargarik gabeko partikulak dira. Ia argiaren abiaduran bidaiatzen dute eta oso ugariak dira unibertsoan. Baina ez espazio zabalean bakarrik; momentuoro gure gorputza gurutzatzen dute milioika neutrinok, eta ez dugu somatu ere egiten.

Hain partilula iheskorrak izanik, oso zailak dira hautematen eta ikertzen. 1930. urtean, Wolfgang Pauli fisikariak proposatu zuen lehen aldiz neutrinoen existentzia, baina ez ziren 1956. urtera arte detektatu. Ordea, misterio asko gordetzen dituzte oraindik; pentsatzen da unibertsoa gobernatzen duten indarrak ulertzen lagundu dezaketela.

neutrinoak

Hilero, azkenengo ostiralean, Kiñuk bisitatuko du Zientzia Kaiera bloga. Kiñuren begirada gure triku txikiaren tartea izango da eta haren eskutik gure egileek argitaratu duten gai zientifikoren bati buruzko daturik bitxienak ekarriko dizkigu fin.

Egileaz:

Maddi Astigarraga Bergara (IG: @xomorro_) Biomedikuntzan graduatua, UPV/EHUko Ilustrazio Zientifikoko masterra egin du eta ilustratzailea da.

The post Kiñuren begirada: neutrinoak appeared first on Zientzia Kaiera.

Categories: Zientzia

El software humano del Proyecto Manhattan

Cuaderno de Cultura Científica - Thu, 2024/06/27 - 11:59

A día de hoy, impresiona bastante darse cuenta de que algunos de los hitos científicos y tecnológicos más relevantes de la historia reciente se consiguieron con una capacidad computacional limitada por la cantidad de cerebros humanos que hubiera disponibles para trabajar en un problema. Pero el caso es que, en algunos centros de investigación, esos cerebros estaban casi mejor organizados que cualquier máquina de la que pudieran disponer. Ese fue el caso, alrededor de 1943, de las instalaciones de computación de Los Alamos durante el Proyecto Manhattan.

Lo importante de toda esta cuestión, y sin entrar ahora a detallar cómo se gestó o las circunstancias científicas, políticas y bélicas que llevaron hasta la determinación de financiar la creación de la primera bomba atómica, es que en los años cuarenta del siglo XX, los cálculos necesarios para diseñar un artefacto semejante no eran, ni mucho menos, triviales. Sobre todo en lo que concernía al diseño del mecanismo y el cálculo de la hidrodinámica de implosión de la bomba de plutonio ―el tipo que la que se probó en el test Trinity―, lo que suponía, entre otras cosas, determinar cuánta energía liberaría el artefacto. La imposibilidad, sobre todo al principio, de hacer pruebas implicaba que había que trabajar con modelos matemáticos que conllevaban la resolución de ecuaciones diferenciales en derivadas parciales no lineales, algo, para cualquiera que no esté familiarizado con ellas, bastante arduo sin un ordenador.

En aquel momento, sobre todo antes de la Segunda Guerra Mundial, se contaba, principalmente, con tres tipos de dispositivos de cálculo: calculadoras electromecánicas de escritorio; máquinas tabuladoras de tarjetas perforadas, y analizadores diferenciales ―un tipo de computador analógico como el que Vannevar Bush construyó en el MIT―. En el Proyecto Manhattan se utilizaron, sobre todo, los dos primeros. El analizador diferencial se destinó durante la guerra sobre todo a la elaboración de tablas de artillería.

A principios de 1943, Stanley P. Frankel y Edred Nelson llegarían a Los Alamos para encargarse de organizar todo el trabajo de matemáticas teórico. Ya habían adquirido experiencia de ese tipo en el Laboratorio Lawrence de Berkeley haciendo cálculos relacionados con la separación de isótopos de uranio y la estimación de la masa crítica necesaria para mantener una reacción en cadena. En Nuevo México se encargarían, en un principio, de los cálculos relacionados con la bomba de uranio, de tipo balístico, para más tarde, hacia 1944 y tras la insistencia de John von Neumann en un cambio de enfoque, pasar a encargarse de los relacionados con la bomba de uranio y su mecanismo de implosión.

Para ello, lo primero que hicieron fue encargar ciertas unidades de calculadoras de escritorio Marchant, Fridens y algunas Monroe, y las distribuyeron entre las «computadoras humanas» que se encargarían del proceso y que solían ser mujeres. Más adelante empezaron a valorar la posibilidad de utilizar máquinas tabuladoras y en marzo de 1944 llegó el refuerzo de las IBM 601, entre otras.

En Los Alamos, computadoras humanas, normalmente mujeres, realizaban a mano los cálculos necesarios para el desarrollo de la bomba atómica con calculadoras electromecánicas Marchant similares a la que aparece en la foto. Fuente: CC0 1.0/Daderot ManhattanLa IBM 601 era una máquina tabuladora capaz de multiplicar ―aunque no dividir― dos números que se introducían en ella utilizando tarjetas perforadas. Se llegaron a instalar cuatro de ellas en Los Alamos para finales de 1944, además de otros modelos similares de IBM con otras aplicaciones. El sistema se componía de ocho máquinas en total. Fuente: CC BY-SA 3.0/Sandstein

Aquí merece la pena hacer un inciso. Es de sobra conocido que, en los inicios de la historia de la computación, quienes se encargaban principalmente de las labores de programación de los primeros computadores eran ellas. En el caso del Proyecto Manhattan, quienes lo hacían eran, en un gran porcentaje, las esposas de los científicos que trabajaban allí. Así, podemos encontrar nombres como Mary Frankel, que llegó a supervisar uno de los grupos de cálculo, o Mici Teller, cuyos apellidos de casadas no deberían resultar desconocidos. También son reseñables los trabajos que Klara Dan von Neumman llevó a cabo allí tras la guerra con el ENIAC. Se estima que hubo más de trescientas mujeres allí ocupando puestos técnicos en el Proyecto Manhattan. En el caso de Los Alamos, el lugar era, además, una ciudad en miniatura donde se mudaron familias enteras, y se incentivó activamente el trabajo de estas mujeres, muchas de ellas amas de casa, otorgándoles ciertas ayudas, normalmente relacionadas con el cuidado del hogar y de los hijos.

ManhattanMary Frankel (X214) y Mici Teller (X169) fueron dos de las numerosas mujeres calculadoras que trabajaban en Los Alamos. Fuente: Los Alamos National Laboratory

No obstante, lo que más llama la atención del el equipo de computación de Frankel y Nelson no eran ni las mujeres calculadoras ni las máquinas que utilizaban en sí, sino la organización. Cuando empezaron a valorar el uso de máquinas tabuladoras para realizar los cálculos, idearon un sistema para agilizarlos creando una especie de «programa» o diagrama de flujo que dividía el proceso de resolución de una ecuación en pasos sencillos. Hasta que contaron con las IBM no pudieron probarlo directamente, así que hicieron una especie de simulacro utilizando el equipo de mujeres calculadoras. El proceso era bastante intuitivo. Con su Marchant encima de la mesa, cada una efectuaba uno de los pasos: unas hacían multiplicaciones, otras divisiones, otras raíces cuadradas… siempre lo mismo, y pasaban su resultado a la siguiente mesa en una tarjeta para que otra compañera continuara con su parte del cálculo. El sistema funcionó increíblemente bien, muchísimo mejor y más eficientemente que si una sola persona resolvía la ecuación completa paso a paso.

En medio de todo aquello se encontraba un jovencísimo físico de veintiséis años que en el futuro casi pasaría más a la historia por tocar los bongos que por ganar un premio Nobel: Richard Feynman. Era uno de los que se encargaba de reparar las calculadoras Marchant cuando se rompían ―no había tiempo de enviarlas al fabricante y esperar a que las devolviera―, y conocía muy bien el funcionamiento de todo aquello. Cuando llegaron las primeras IBM, en abril de 1944, también ayudó a Frankel y Nelson a montarlas ―el secretismo extremo alrededor de todo lo relacionado con el Proyecto Manhattan complicó, en un primer momento, que ningún empleado de IBM consiguiera autorización para ir a Los Alamos para hacerlo―. Y en cuanto todo estuvo listo, obviamente, Feynman tuvo una de sus peculiares ideas: poner a competir a las mujeres calculadoras y a las máquinas tabuladoras realizando el mismo trabajo: ¿quién tardaría menos en resolver un problema? A día de hoy, diríamos que cualquier ordenador, pero entonces ganaron las mujeres. La única desventaja que mostraron, utilizando el mismo proceso de cálculo, era que, obviamente y a diferencia de las IBM, la fatiga acababa haciendo mella en ellas.

Aquel «programa» humano, unido al uso de las máquinas tabuladoras ya operativas, supuso un aumento de rendimiento espectacular porque, además, vieron que de esta manera no tenían que limitarse a realizar un solo cálculo por vez, sino que podían llegar a efectuar hasta dos o tres en paralelo. Utilizando tarjetas de colores, en cada puesto se realizaba el mismo paso siempre, pero para diferentes asuntos, cada uno identificado con un color.

Es curioso, además, como aquellas máquinas tan básicas hicieron perder la cabeza a Stanley Frankel, que se puso a utilizarlas para cualquier cosa menos para lo que las habían comprado y a probar qué serían capaces de hacer ―como el geek que se compra un PC nuevo con las últimas especificaciones del mercado―. Feynman acabaría sustituyéndolo en su puesto, y demostró ser un gran organizador. El equipo que trabajaba con las máquinas tabuladoras, ahora formado principalmente por chavales jóvenes sacados del instituto con algún conocimiento técnico o de ingeniería, ni siquiera sabía para qué eran todos aquellos cálculos. Feynman consiguió permiso para contárselo y, de nuevo, la productividad se disparó: los chicos empezaron a buscar maneras de mejorar y agilizar los procesos trabajando día y noche. Se pasó de resolver tres problemas en nueve meses, antes de las tabuladoras y de aquel software humano, a nueve problemas en tres meses.

Es increíble, que con tan solo lápiz, papel y talento, los científicos sacaran todo ese partido a aquellas máquinas rudimentarias y se las apañaran para desentrañar uno de los secretos más intrincados del átomo.

ManhattanLa única imagen a color  de la explosión de Trinity con buena exposición, tomada por Jack Aeby. Fuente: Wikimedia Commons

Bibliografía

Archer, B. J. (2021). The Los Alamos computing facility during the Manhattan Project. Nuclear technology, 204, pp. S190-S203. doi: 10.1080/00295450.2021.1940060

Feynman, R. P. (2018 [1987]). ¿Está usted de broma, Sr. Feynman? Aventuras de un curioso personaje. Alianza Editorial.

Howes, R. y Herzenberg, C. L. (1999). Their day in the sun. Women of the Manhattan Project labor and social change. Temple University Press.

Sobre la autora: Gisela Baños es divulgadora de ciencia, tecnología y ciencia ficción.

El artículo El software humano del Proyecto Manhattan se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Zientziaren uretan

Zientzia Kaiera - Thu, 2024/06/27 - 09:00

Zientziaren uretan liburuan jaso dira Euskal Herriko Unibertsitateko Kultura Zientifikoko Katedrak Zientzia Kaiera blogean 2014. eta 2022. urteen artean argitaratutako artikuluen aukeraketa bat. Bederatzi jakintza-arlotako dibulgazio-artikuluak aukeratu dira.

zientziarenIrudia: “Zientziaren urtean” liburuaren azala. (Iturria: Euskal Herriko Unibertsitatea)

Besteak beste, zientziaren historiako pasarteak, eguneroko elementuei buruzko edukiak edota interes orokorreko gai esanguratsuak bildu dira. Helburua da zientzia eskura izatea, eta ahalik eta jende gehien murgiltzea.

Izan ere, egungo gizartea ulergaitza da ekarpen zientifikoei erreparatzen ez badiegu. Hiriak, garraioa, energia, elikadura, osasuna, era guztietako zerbitzuak… Gure bizimodua bera ere ezin genezake ulertu zientziaren eta teknologiaren eragina kontuan hartu gabe.

Zer ekoiztu, nola egin, zer esparrutan, zer erosi, zer jan, norentzat eta abarreko kontuez galdetu beharko diegu geure buruei gai askori dagokionez. Ganorazko erantzuna eman ahal izateko, gutxieneko zientzia-ezagutza oso lagungarria izango da, ezinbestekoa zenbait kasutan. Bide horretan laguntzeko asmoz gauzatu da liburu hau.

Argitalpenaren fitxa:
  • Izenburua: Zientziaren uretan
  • Egilea: Elisabete Alberdi Celaya / Uxune Martínez Mazaga
  • Argitaletxea: Euskal Herriko Unibertsitatea
  • Hizkuntza: Euskara
  • Urtea: 2023
  • Orrialdeak: 168
  • ISBNa: 978-84-1319-610-7
Iturria:

Euskal Herriko Unibertsitatea: Zientziaren uretan

The post Zientziaren uretan appeared first on Zientzia Kaiera.

Categories: Zientzia

El teorema de Morley

Cuaderno de Cultura Científica - Wed, 2024/06/26 - 11:59

La geometría euclidiana y, en particular, la geometría plana, está repleta de hermosos y sorprendentes teoremas, que suelen venir acompañados de diagramas con mucho encanto, como el teorema de Napoleón (véase la entrada Variaciones artísticas del teorema de Napoleón), el teorema de van Aubel (véase la entrada Una pequeña joya geométrica: el teorema de van Aubel), el teorema de Viviani (cuya demostración sin palabras podéis admirar en la entrada Teoremas geométricos sin palabras: Viviani), el teorema de la circunferencia de Conway (un moderno resultado geométrico del que podéis leer en la entrada Teoremas geométricos sin palabras: Conway), el teorema de Marion (véase la entrada El teorema de Marion (Walter)), el teorema de la bandera británica (véase la entrada El teorema de la ikurriña), o el mismísimo teorema de Pitágoras (véase la entrada Pitágoras sin palabras), entre muchos otros.

Línea polar de un punto y un círculo (Apolonio), del dibujante e ilustrador infantil estadounidense Crockett Johnson (1906-1975). Imagen de la página web de The National Museum of American History

Existen muchos otros fascinantes teoremas geométricos del plano. En esta entrada del Cuaderno de Cultura Científica vamos a hablar de uno especialmente interesante y atractivo, que ha cautivado a muchas personas, en particular, del ámbito de las matemáticas, a lo largo del siglo XX (no es un teorema antiguo). Durante este tiempo se han desarrollado una cantidad importante de diferentes demostraciones, muchas de ellas de la mano de grandes matemáticos, como el matemático francés, que recibió la Medalla Fields en 1982, Alain Connes (1947), el matemático húngaro Béla Bollobás (1943), el matemático, físico y científico de la computación Edsger W. Dijkstra (1930-2002), el prolífico e imaginativo matemático británico John H. Conway (1937-2020), creador del autómata celular denominado el juego de la vida, o el matemático y físico matemático británico Roger Penrose (1931), que recibió el Premio Nobel de Física en 2020, entre muchos otros. Es el teorema de Morley, que debe su nombre al matemático británico, que vivió gran parte de su vida en Estados Unidos, Frank Morley (1860-1937), relacionado con las trisectrices de un triángulo cualquiera.

El teorema de las trisectrices de Morley

Antes de nada, enunciemos la versión simple del teorema de Morley, que es un resultado geométrico de una especial sencillez en su enunciado, pero de una gran profundidad en su significado.

Teorema de Morley (1899): Los puntos de intersección de las trisectrices adyacentes de los ángulos de un triángulo cualquiera, son los vértices de un triángulo equilátero.

Expliquémoslo brevemente. Partimos de un triángulo ABC cualquiera, como el que vemos en la siguiente imagen.

Triángulo ABC

 

A continuación, en cada uno de los tres ángulos del triángulo ABC se trazan las trisectrices, es decir, las dos rectas que dividen al ángulo en tres ángulos iguales, como se muestra en la siguiente imagen.

Los tres pares de trisectrices, líneas rectas, de los ángulos del triángulo ABC

 

Alguien, al leer que estamos tomando las trisectrices de un ángulo, podría pensar que esto no es posible. La confusión puede venir del hecho de que hay tres problemas clásicos de la matemática griega, la cuadratura del círculo, la trisección de un ángulo y la duplicación de un cubo, que no tienen solución, pero solo si esta solución se intenta construir “con regla y compás”, que son los instrumentos clásicos de la matemática griega (véase, por ejemplo, el artículo Los tres problemas clásicos, de Santiago Fernánez, o el libro Historia de las matemáticas, de Carl B. Boyer).

A continuación, se toman los tres puntos que son la intersección de las trisectrices adyacentes de los ángulos del triángulo ABC, que en la imagen hemos denominado E, F y G.

Los puntos E, F y G son las intersecciones de las trisectrices adyacentes de los ángulos del triángulo ABC

 

Entonces, el teorema de Morley establece que el triángulo EFG, cuyos vértices son los puntos de intersección de las trisectrices adyacentes de los ángulos del triángulo ABC, es un triangulo equilátero, es decir, con los tres lados iguales (así como sus ángulos, de 60 grados). A este triángulo equilátero se le llama “triángulo de Morley”.

El triángulo EFG es equilátero

 

Si en lugar de tomar las trisectrices de los ángulos interiores del triángulo, se toman las trisectrices de los ángulos exteriores, se forma otro triángulo equilátero. Antes de mostrar este resultado, recordemos cuales son los ángulos exteriores de un triángulo.

Ángulos interiores y exteriores de un triángulo ABC

 

Por lo tanto, también sería cierto el teorema de Morley para ángulos exteriores, es decir, que los puntos de intersección de las trisectrices adyacentes de los ángulos exteriores de un triángulo cualquiera, son los vértices de un triángulo equilátero.

Teorema de Morley para las trisectrices de los ángulos exteriores, es decir, el triángulo IJK es equilátero

 

La historia del teorema de Morley

Como se comentaba al principio de esta entrada del Cuaderno de Cultura Científica, el teorema de Morley debe su normbre al matemático británico, afincado en Estados Unidos, Frank Morley (1860-1937).

Aunque de origen británico, Frank Morley, graduado en el King’s College de la Universidad de Cambridge en 1884, emigró a Estados Unidos en 1887, donde fue contratado en el Haverford College, en centro cuáquero de Pensilvania. Como se puede leer en el obituario de la American Mathematical Society, Frank Morley, In memoriam, en 1889 se casó con la británica Lilian Janet Bird y tuvieron tres hijos, el periodista y escritor Christopher Morley, autor de novelas como La librería ambulante, La librería encantada o Kathleen, que pueden leerse en las ediciones en castellano de la editorial Periférica, el periodista, ganador del Premio Pulitzer, Felix Morley, y el matemático Frank Vigor Morley, que publicaría con su padre el libro Inversive Geometry.

Tras su periodo en el Haverford College, en 1900 se trasladó a la Universidad Johns Hopkins, en Baltimore (Maryland), donde dirigió el departamento de matemáticas hasta que se jubiló en 1928, siendo además editor de su prestigiosa revista, American Journal of Mathematics, de 1900 a 1920. Fue miembro de la New York Mathematical Society (fundada en 1888) y su sucesora la American Mathematical Society, donde ocupó varios cargos, entre ellos su presidencia. Entre sus publicaciones destacan los libros A Treatise on the Theory of Functions (Macmillan, 1893) y Introduction to the Theory of Analytic Functions (Macmillan, 1898).

Retrato del matemático británico-estadounidense Frank Morley, realizado por el artista y fotógrafo Alfred Hugh Fisher (1867-1945)

En 1900, Frank Morley publicó su excepcional artículo On the Metric Geometry of the Plane n-line, en el primer número de la revista Transactions of the American Mathematical Society, en el que desmuestra varios resultados sobre el comportamiento de las n-líneas en el plano. Aunque en este artículo, como era normal en esa época, no se estructuraba en la forma actual de teorema/demostración. Inmerso dentro del contenido de este brillante artículo estaba enuciado el conocido como “teorema de Morley” (los puntos de intersección de las trisectrices adyacentes de los ángulos de un triángulo cualquiera, son los vértices de un triángulo equilátero), más aún su teoría consideraba 18 casos de triángulos equiláteros “de Morley”. Uno de los casos cuando se consideran las trisectrices de los ángulos interiores (el primero de los casos analizados en esta entrada, el teorema de Morley en su versión simple y clásica), otro de los casos cuando se consideran las trisectrices de los ángulos exteriores (el otro triángulo equilátero de Morley, más grande, visto arriba) y los casos, no mencionados aún, de cuando se mezclan las trisectrices de dos angulos exteriores y uno interior (un ejemplo con los tres triángulos equiláteros exteriores que aparecen ahora se muestra en la siguiente imagen), siendo los demás casos más complejos.

Cinco, de los dieciocho, triángulos equiláteros de Morley, construidos mediante las trisectrices de los ángulos de un triángulo cualquiera. Imagen del libro The Penguin Dictionary of Curious and Interesting Geometry, de David Wells

El geómetra Frank Morley era completamente consciente de este resultado, el conocido como teorema de Morley, en su versión simple, y con los 18 triángulos equiláteros en su versión completa, que era parte de una teoría más global, sin embargo, no publicó el enunciado del teorema de forma explícita y separada, ni ofreció una demostración del mismo. Aunque sí lo menciónó en sus comunicaciones privadas, en particular, sus cartas a sus amigos, como las que escribió en 1904 al matemático británico Herbert William Richmond (1863-1948) y al físico y matemático británico Sir Edmund Taylor Whittaker (1873-1956).

La primera vez que se publica el teorema de Morley es en forma de problema, presentado por E. J. Ebden, en la revista británica The Educational Times (revista que se publicó entre 1847 y 1923, cuando se convirtió en la revista Education Today), como el problema 16381 (que se muestra en la siguiente imagen), en 1908; así como, el mismo año, presentado por T. Delahaye y H. Lez, en la revista belga Mathesis (que se publicó entre los años 1881 y 1915), como problema 1655.

Problema 16381, presentado por E. J. Ebden, en The Educational Times (1908)

La primera solución al problema 16381 de The Educational Times fue dada por M. Satyanarayana ese mismo año, en julio, mientras que el problema había sido publicado en febrero. En la siguiente imagen vemos la solución mencionada. Mientras que los mismos T. Delahaye y H. Lez, publicaron la solcuión al problema 1655 en la revista belga Mathesis.

Solución al problema 16381, en The Educational Times (1908) , dada por M. Satyanarayana

La siguiente demostración conocida es la del matemático indio Mandyam T. Naraniengar (1871-1940), que sería presidente de la Indian Mathematical Society (1930-1932), así como editor de la revista Journal of the Indian Mathematical Society (1909-1927), publicada en Mathematical Questions and Solutions, from The Educational Times, en 1909.

Por otra parte, la solución completa del teorema de Morley, considerando los casos de los 18 triángulos equilateros, fue publicada en 1913, en el artículo The six trisectors of each of the angles of a triangle, de la revista Proceedings of the Edinburgh Mathematical Society, por los matemáticos F. Glanville Taylor y W. L. Marr, que lo reconocían como un resultado de Frank Morley.

Esquema general del teorema de Morley, con los 18 triángulos equiláteros asociados, que aparece en el artículo de los matemáticos F. Glanville Taylor y W. L. Marr

 

Desde entonces, se han publicado muchas demostraciones del teorema de Morley.

Una demostración del teorema de Morley

Existen muchas demostraciones diferentes del teorema de las trisectrices de Morley, también conocido como el teorema del milagro de Morley, pruebas geométricas, trigonométricas o algebraicas, algunas bastante técnicas, otras de ideas más sencillas y algunas de una gran belleza, como la demostración del matemático británico John H. Conway. En la página Cut the knot [https://www.cut-the-knot.org/], del matemático Alexander Bogomolny, podéis encontrar veintisiete pruebas diferentes, más otras tres que no son válidas.

Vamos a terminar esta entrada con una pequeña idea de la demostración clásica de Naraniengar del teorema de Morley. Recordemos que queremos demostrar que “los puntos de intersección de las trisectrices adyacentes de los ángulos de un triángulo cualquiera, son los vértices de un triángulo equilátero”.

En primer lugar, Naraniengar demuestra el siguiente lema técnico.

Lema: Si cuatro puntos Y’, Z, Y, Z’ satisfacen las condiciones

i) Y’Z = ZY = YZ’

ii) ángulo(YZY’) = ángulo (Z’YZ) = 180º – 2 (alpha) > 60º,

entonces los cuatro puntos Y’, Z, Y, Z’ están en una misma circunferencia. Además, si un punto A, en el lado contrario al punto Y respecto a la recta Y’Z’, está colocado tal que ángulo(Y’AZ’) = 3 (alpha), entonces el quinto punto A también está en la misma circunferencia.

MorleyIlustración del lema técnico de la demostración de Naraniengar

 

En segundo lugar, dado un triángulo cualquiera ABC, con ángulos internos iguales a 3 (beta), en B, y a 3 (gama), en C, como en la siguiente imagen, se consideran los dos pares de trisectrices de los ángulos en B y C, y sus intersecciones en los puntos U y X.

Morley

Si ahora tomamos el triángulo BCU, entonces los ángulos en B y C son bisecados por las rectas BX y CX, por lo tanto X es el incentro del triángulo BCU (recordemos que el incentro es el punto en el que se cortan las tres bisectrices de sus ángulos internos). En consecuencia, la recta UX biseca el ángulo en U.

Ahora se construyen los puntos Y y Z que están en los segmentos CU y BU, tales que los segmentos XY y XZ forman un ángulo de 30 grados con el segmento XU en lados opuestos, como en la imagen. Lo que nos lleva a que los triángulos UXY y UXZ son semejantes, los segmentos XY y XZ son iguales, y el ángulo en X es de 60 grados. Por lo tanto, el triángulo XYZ es un triángulo equilátero.

La última parte de la demostración de Naraniengar consiste en demostrar que Z e Y son precisamente las otras dos intersecciones de las trisectrices de A con las trisectrices de B y C adyacentes, de esta manera el triángulo central descrito por el teorema de Morley sería XYZ, que ya sabemos que es equilátero. Para ello se utilizará el lema técnico. Lo primero que hacemos es definir los puntos Y’ y Z’ de la siguiente forma. Sobre el segmento BA consideramos el punto Y’ tal que BY’ = BX, mientras que sobre el segmento CA consideramos el punto Z’ tal que CZ’ = CX. Entonces, por semejanza de triángulos, se observa fácilmente que

Y’Z = ZX = ZY = YX = YZ’.

Por otra parte, comparándo los ángulos alrededor de Z y alrededor de Y, se puede observar que los ángulos implicados ángulo(YZY’) y ángulo (Z’YZ) son iguales y de la forma 180º – 2 (alpha) > 60º.

Finalmente, aplicando el lema técnico. Entonces, como las cuerdas Y’Z, ZY y YZ’ son iguales, también lo son los tres ángulos que determinan en A, luego las líneas AZ y AY son trisectrices del ángulo en A. De esta forma, se concluye que los puntos X, Y, Z son las intersecciones de las trisectrices adyacentes de los ángulos del triángulo ABC que forman un triángulo, como ya se ha probado al principio, equilátero. Y queda demostrado el teorema de Morley.

MorleyMorley Triangle (1969), del dibujante e ilustrador infantil estadounidense Crockett Johnson. Imagen de la página web de The National Museum of American History.

En una próxima entrada disfrutaremos de la hermosa demostración del teorema de Morley propuesta por el matemático británico John H. Conway.

Bibliografía

1.- David Wells, The Penguin Dictionary of Curious and Interesting Geometry, Penguin, 1991.

2.- Martin Gardner, Nuevos pasatiempos matemáticos, Alianza editorial, 2018.

3.- H. S. M. Coxeter and S. L. Greitzer, Geometry Revisited, Mathematical Association of America, 1967.

4.- C. O. Oakley, J. C. Baker, The Morley Trisector Theorem, American Mathematical Monthly 85, pp. 737-745, 1978.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El teorema de Morley se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Nozebo efektua eta glutena

Zientzia Kaiera - Wed, 2024/06/26 - 09:00

Gure gizartean, elikadura moda iragankorrez eta sinesmen faltsuz betetako eremua da. Ezjakintasunak eta zenbait marketin-estrategiek pertsonen artean ideia okerrak agertzea eta zabaltzea sustatzen dute. Horren adibide da «superelikagai» kontzeptua.

Superelikagai kontzeptua elikagai jakin batzuen kontsumoa sustatzeko erabiltzen da, eta gehiegizkoak edo irrealak diren propietate osasungarriak ematen zaizkie. Beste batzuetan, zenbait mantenugai deabrutzen dira, hala nola laktosa eta glutena. Modu okerrean sinesten da mantenugai horiek osasunerako ondorio kaltegarriak dituztela, baita arazorik ez duen biztanleria osasuntsuan ere. Hau da, laktosarekiko intolerantzia, zeliakia, gariarekiko alergia edo gluten ez zeliakoarekiko sentikortasuna (GEZS) ez duten pertsonentzat ere kaltegarriak direla pentsatzen da.

Nozebo efektuaIrudia: gizartean zabalduta dauden ideia batzuen arabera, mantenugai jakin batzuk kaltegarriak dira, baita horiekiko intolerantzia edo alergiarik ez duten pertsonentzat ere. (Argazkia: Towfiqu barbhuiya – Unsplash lizentziapean. Iturria: Unsplash)

Horren ondorioz, pertsona batzuek glutena edo laktosa duten elikagaiak baztertu eta molekula horiek ez dituzten beste produktu batzuekin ordezten dituzte, nahiz eta ez duten halakorik hartzea eragozten dien gaitzik. Gainera, produktu horiek garestiagoak izaten dira. Horretarako ematen diren justifikazioen artean, kontzeptu okerrak nabarmentzen dira: hala nola laktosarik gabeko esnea arinagoa eta digestiboagoa dela (hau da, sintoma gastrointestinal gutxiago eragiten dituela) edo glutenik gabeko elikagaiak osasungarriagoak eta naturalagoak direla eta argaltzen laguntzen dutela. Egia esan, justu kontrakoa gertatzen da. Glutenik ez duten produktuek nutrizio konposizio pobreagoa izaten dute; gatz, azukre eta gantz aseen ehuneko handiagoa dute, eta mineral, bitamina eta zuntz gutxiago. Bestalde, esnean laktosarik ez dagoenez, hartu ondoren mineral gutxiago xurgatzen dira (esaterako, kaltzioa, fosforoa edo magnesioa), azukre horrekin egindako esnearekin alderatuta.

Izan al liteke gizabanako osasuntsu batzuek mantenugai batzuen aurrean (glutena, adibidez) dituzten espektatiba negatiboek, horiek hartu ondoren, beren osasunerako ondorio negatiboak sentitzera eramatea, halako autobetetako profezia bat sortuz? Medikuntzan, badakigu fenomeno hori maiz gertatzen dela pazienteen artean, bai saiakuntza klinikoetan, bai egunerokoan. Sendagai bat edo plazebo bat hartzen ari diren jakin gabe, pertsona batzuek sintoma edo zeinu jakin batzuk izaten dituzte; ez sintoma edo zeinu horien eragin aktiboagatik, baizik eta hartzera doazenean dituzten uste edo espektatiba negatiboengatik. Gertaera berezi horri «nozebo efektua» deitzen zaio, eta plazebo efektuaren kontrakoa da.

Nozebo efektua saiakuntzara

Duela gutxi, kalitate handiko saiakuntza kliniko bat egin da (taldeetako bateko parte-hartzaileak ausaz hautatu dira eta plazeboarekin kontrolatu; hainbat herrialdetan egin da), eta berriro indartu du ideia hau: pertsonek glutenaren aurrean dituzten espektatiba negatiboek eragina dute beren osasun arazoen agerpenean. Ikerketa horren emaitzak The Lancet, Gastroenterology & Hepatology aldizkarian argitaratu dira. 84 parte-hartzaileek, 18 eta 70 urte bitartekoek, ez zuten gariarekiko alergiarik, ezta zeliakiarik ere. Baina ikertzaileei jakinarazi zieten GEZSa zutela, glutena kontsumitu ondorengo 8 orduetan hainbat sintoma gastrointestinal zituztelako. Boluntario horiek ez zuten medikuaren baieztapen diagnostikorik jaso; aitzitik, beraiek aipatzen zuten osasun arazo hori.

Saiakuntzan parte hartu aurretik, gizabanakoek glutenik gabeko dieta aske bat jarraitu behar zuten, gutxienez astebetez eta baita azterketan zehar ere. Hori egiten zen gizabanakoek beste arrazoi batzuengatik sintoma gastrointestinalik ez zutela ziurtatzeko, eta, beraz, dieta hori egiten zuten bitartean sintomarik gabe edo sintoma arinekin egon behar zuten. Parte-hartzaileak ausaz 4 taldetan banatu ziren, gosaltzeko eta bazkaltzeko glutendun ogia kontsumitzeko itxaropen handia edo txikia zegoen (bi xerra guztira) edo, benetan, glutendun ogia jasotzen zuten ala ez kontuan hartuta. Ikertzaileek eta boluntarioek ez zekiten parte‑hartzaileek kontsumitzen zuten ogiak molekula hori zuen.

Gluten espektatiba handia

Sintoma gastrointestinal gehien izan zituen taldea glutendun ogia jaso eta kontsumitzen egoteko espektatiba handia zuena izan zen. Horiek glutendun ogia jaten ari ziren baina hura jaten egoteko espektatiba txikia zutenek baino sintoma nabarmen gehiago zituzten. Gainera, ez zen alde esanguratsurik ikusi sintomen magnitudean glutendun ogia jateko espektatiba txikia zutenetan, benetan hartzen ari ziren ala ez. Bitxiki, glutena kontsumitzeko espektatiba handia zuten bi parte-hartzailek, eta, benetan, glutenik gabeko ogia jan zutenek, kontrako gertaeren berri eman zuten. Batek ziurtatu zuen masailezurrean azkura zuela, eta besteak tripetako hotsa eta zorabioak.

Zentzuak agintzen duenaren kontra, azterketa horrek erakusten du ogian glutena egotea ez zela arazo gastrointestinal gehien eragiten zituena GEZSa zutela uste zuten pazienteengan, baizik eta kontsumitzen egoteko espektatiba bera. Egileek ondorioetan nabarmentzen dutenez, espektatiba negatiboen konbinazioak eta glutena benetan hartzeak eragiten zituzten sintoma gastrointestinal gehien, eta horrek nozebo efektua adierazten du, baina ezin da baztertu glutenaren efektu aktibo jakin bat. Javier Molinak, San Pedro de Alcántara Ospitaleko (Caceres) Digestio Aparatuko Zerbitzuko medikuak, Science Media Centren azaldu duenez, «ikerketa honek ebidentzia zientifiko sendoa ematen du terapia psikologikoa babesteko. Terapia horrekin zuzendu egingo lirateke espektatibak eta uste okerrak garun-heste ardatzaren nahasmenduen diziplina anitzeko tratamenduan».

Saiakuntza kliniko horrek gogorarazten digu inoiz ez dela burua gutxietsi behar osasun arazoen agerpenean. Arazo organikorik egon ez arren, espektatiba negatiboek pazienteen bizitzan eragin dezaketen kaltea oso erreala izan daiteke.

Egileaz:

Esther Samper (@Shora) medikua da, Ehunen Ingeniaritza Kardiobaskularrean doktorea eta zientzia-dibulgatzailea.

Jatorrizko artikulua Cuaderno de Cultura Científica blogean argitaratu zen 2024ko urtarrilaren 1ean: Efecto nocebo y gluten.

Itzulpena: UPV/EHUko Euskara Zerbitzua.

The post Nozebo efektua eta glutena appeared first on Zientzia Kaiera.

Categories: Zientzia

Un solo campo explica la inflación observada

Cuaderno de Cultura Científica - Tue, 2024/06/25 - 11:59
inflaciónArriba: Ilustración de los satélites CBE, WMAP y Planck, con una imagen muestra resolución de cada experimento. Abajo: mapa de la radiación del Fondo de Microondas obtenida con Planck. Fuente: Astronomy/OpenStax CNX.

La inflación cósmica, la teórica expansión exponencial del espacio en el Universo temprano, ofrece soluciones a importantes enigmas cosmológicos. Explica por qué el Universo parece perfectamente plano: la expansión estira cualquier curvatura hasta el punto de ser imperceptible. También explica cómo las fluctuaciones del vacío cuántico podrían convertirse en semillas de la estructura del Universo.

La mayoría de los modelos de física más allá del modelo estándar implican muchos campos cuánticos nuevos, lo que sugiere que la inflación podría haber sido impulsada por múltiples campos. Sin embargo, las observaciones de la radiación del fondo de microondas cósmico favorecen la existencia de un solo campo “inflatón”. Entonces, ¿son los modelos multicampo incompatibles con las observaciones?

Ahora, Koki Tokeshi, de la Universidad de Tokio (Japón), y Vincent Vennin, de la Universidad de la Sorbona (Francia), proponen una explicación para la aparición de un único campo que domina la inflación. Los investigadores consideran un modelo de inflación que involucra dos campos inflatón cuyas fluctuaciones cuánticas hacen que su dinámica sea estocástica. En cualquier porción microscópica del espacio los campos evolucionan estocásticamente hasta que termina la inflación.

Utilizando una prueba existente, el dúo calcula que, en esa zona, esta evolución puede hacer que el campo más ligero (el asociado a un “parámetro de masa” más pequeño) domine sobre el otro. Por lo tanto, la inflación en esa zona podría aproximarse bien mediante una teoría con un solo campo.

Pero, ¿qué tan comunes son las zonas del Universo susceptibles de una evolución como esta? Tokeshi y Vennin muestran que las zonas con condiciones iniciales adecuadas corresponden a regiones espacio-temporales que sufren más inflación y, por tanto, acaban teniendo mayores volúmenes.

Como resultado, la inflación con dos campos puede parecer inflación de un solo campo porque estas regiones terminan constituyendo la mayor parte del volumen del Universo. Los investigadores dicen que esperan que se obtengan resultados similares en el caso de más de dos campos.

Referencias:

K. Tokeshi and V. Vennin (2024) Why does inflation look single field to us? Phys. Rev. Lett. doi: 10.1103/PhysRevLett.132.251001

C. M. Peterson and M. Tegmark, (2011) Testing two-field inflation Phys. Rev. D doi: 10.1103/PhysRevD.83.023522

R. Garisto (2024) One Field to Rule Them All Physics 17, s78

El artículo Un solo campo explica la inflación observada se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Nire sailean hori ez da gertatzen (edo zelan justifikatu ezer ez egitea)

Zientzia Kaiera - Tue, 2024/06/25 - 09:00

Zisgizon zuriak nagusi dira STEM arlo gehienetan, eta bereziki nolabaiteko botere edo eragina daukaten postuetan. Horrek, printzipioz, ahalmena emango lieke gauzak aldatzeko. Genero desparekotasunagatik suminduta agertu arren eta ozen adieraziagatik ere arazo horri aurre egiteko interesa, asmo onak gorabehera, beren taldearen pribilegioei eusten dieten sineste egiturak, diskurtsoak eta gelditasuna agertu ohi dituzte.

Gizonak fisikan

Azterlan batean, Melissa Dancyk eta Apriel K. Hodarik elkarrizketak egin zizkieten gizonezko zenbait fisikariri, eta agerian geratu zen zientzialari haiek beren diskurtso berdin zaleak baliogabetzen zituzten arau sexistei eusten zietela. Ikerketan argi geratu zen goi mailako hezkuntza jaso duten pertsona pribilegiatuek inertziei eusten dietela saiheste jokabideen bitartez: inkestatuek ukatu egin zuten beren inguruan desparekotasunik zegoenik, sexismoaren kausak gizarte sistema handiei leporatu zizkieten, esanez haiek ezer gutxi egin zezaketela, eta argudioak eman zituzten ezer ez egitea justifikatzeko.

egitea1. irudia: goi mailako hezkuntza jaso duten pertsona pribilegiatuek inertziei eusten dietela saiheste jokabideen bitartez. (Argazkia: geralt – Pixabay lizentziapean. Iturria: pixabay.com)

Gizon asko oso arduratuta daude, eta prest daude ikasteko eta lan egiteko beren inguruko bidegabekeriaren kontra, baina eragin positiborik sortzeko ahalmenik gabe ikusten dute bere burua. Gizonak gehiengoa dira fisikaren arloan (STEM arlo gehienetan bezala), maila guztietan, eta goiko postuetan are nabarmenagoa da nagusitasun hori. Historikoki, haiek eratu dituzte zientziaren kultura eta egiturak, eta, aldaketaren aldeko erretorikak gorabehera, jarraitzen dute arrakasta profesionalerako ildoa markatzen.

Oso gutxi dira beren interesak eta pribilegioak modu kontzientean babesten dituztenak, hau da, zapalkuntza mekanismoak erabiliz. Estatu Batuetan 2020an inkesta bat egin zitzaien kimika, matematika eta fisikako 1023 irakasleri. Gehienak –% 86– beren arloan aniztasuna bultzatzeko neurrien alde zeuden, eta % 2k baino ez zuten “kaltegarritzat” jotzen ahalegin hori. Galdetutakoen % 91 “ados” edo “guztiz ados” egon ziren esaldi honekin: “Nik badut erantzukizunik (neure arlo)an dagoen desparekotasunaren kontrako neurriak hartzeko”.

Beraz, zientzia ikasi eta zientzian lan egiten duten gizon gehienek aitortzen dute desparekotasunik badagoela, gauzak aldatzea gura dute eta prest daude haiek zerbait egiteko. Hala ere, azken 25 urteotan horretan erabilitako denbora eta baliabideak gorabehera, oso gutxi handitu da fisikako emakume doktoreen kopurua. Zenbateko hori hutsaren hurrengoa da beste kolektibo zaurgarri batzuekin gurutzatzen denean: Estatu Batuetan 1972tik 2017ra bitartean 59.894 doktore titulu eman ziren fisikan, eta horietatik 90 baino ez (hau da, % 0,15) emakume beltzei.

Zein mekanismoren bidez defendatzen dute beren nagusigoa asmo oneko gizonek fisikaren arloan?

Galdera horri erantzuteko, ikerketaren egileek proposatu dute erabiltzea talde pribilegiatuak aztertzean gutxitan baliatzen den lente bat. Ikerketa eta esku hartzerako proiektu gehienek botere gutxien duten taldeei erreparatu ohi diete, hau da, bereizkeria pairatzen dutenei. Ahalegin horiek guztiak funtsezkoak badira ere (hau da, neskak STEMera bultzatzea, neskatilak eskolan motibatzea, pedagogia inklusiboak egitea etab.), beharrezkoa da boteretsuak inplikatzea eta kontzientzia hartzera bultzatzea. Beren gelditasunaren ezaugarriak aztertzeko lentea hartuta, elkarrizketa egin zitzaien postu finkoak zeuzkaten gizonezko fisikariei, eta behatu ziren haien aldaketa asmoak, eta haien jokamoldearen eragina, haien hizkeraren eta haren atzeko sineste sistema. Aztertu zen nola darabiltzaten hitzek inertzia bat iraunarazten duten, sexismoaren konplizea dena.

Analisiak tonu kritikoari eusteko, beharrezkoa izan zen berez sinpleak ez diren kontzeptuak sinplifikatzea: esaterako, azaltzea zer den pribilegioa generoaz ari garenean. Testuinguru honetan pribilegioak ekarriko luke, besteak beste, onarpen sozial handiena, begirune profesional handiena, karreran gora egiteko aukerak, horri lotuta doan urteko soldata handiagoarekin etab., eta gainera lanean jazarpenik ez jasotzea. Abantaila ugari eta askotarikoak eskura izanik, gizonezkoei errazagoa zaie zientzian jarraitzea.

Oso ikerketa gutxi egin dira goi mailako postuetan dauden gizonen bizipenak, sinesteak eta ekintzak jasotzeko. Hori ez da kasualitatea; adierazten digu botereak nola baldintzatzen duen zein galdera egin daitezkeen ikerketetan, eta nori egin dakizkiokeen. Ikertaldeak dibertsoak izateak beti hobetzen du errealitatearen analisia.

Boterea dutenei entzun egiten zaie

Fisikako postu garrantzitsuetan egoteagatik, gizon askoren ahotsa ozenago entzuten da, eta handiagoa da haien eragina fisikaren kulturan. Emakumeak sexismoari aurre egiten saiatzen direnean, askotan ondorio negatiboren bat jasan behar izaten dute, eta oso litekeena da salatutako desparekotasunak ez konpontzea. Ingurune batzuetan esajeratuak eta bazter nahasleak izatea leporatzen zaie oraindik, diskriminazioari buruzko kexak ez zaizkie aintzat hartzen, eta errepresalien jomuga bihurtzen dira. Aldiz, talde pribilegiatuetako pertsonek oso bizipen desberdinak izan ohi dituzte beren andrazko kideen zapalkuntza ikustarazten dutenean. Besteen aurreiritziei aurre egiten dieten talde pribilegiatuek haserrekuntza eta aurkakotasun gutxiago sortzen dute zapalkuntza jasaten duten lankideek eurek baino; jendeak ez du pentsatzen gizon horiek gogaikarriak direnik, edo behintzat ez gauza bera salatzen duten emakumeak beste. Zerbait salatzen duena talde pribilegiatuko kidea bada, eragin handiagoa dauka eta erantzun eraginkorragoak lortzen ditu erasotzailearen aldetik.

Zerbait egiteko pausoak

Diskriminazioa amaitzeko lehen pausoa da onartzea diskriminaziorik, egon, badagoela. Horretan gizon askok badute zereginik oraindik. Badirudi batzuk ez direla inongo desparekotasunez ohartzen, eta, halakorik ikusten badute, zientziaren mundutik kanpoko kausei leporatzen diote, hala nola gizarte mailari edo norberak bere karreraz libreki hartutako erabakiei.

egitea2. irudia: diskriminazioa amaitzeko lehen pausoa da onartzea diskriminaziorik, egon, badagoela. (Argazkia: Nothing Ahead – domeinu publikoko argazkia. Iturria: pexels.com)

Desparekotasunik egon badagoela behin aitortuta, hurrengo pausoa da zerbait egiteko motibazioa hartzea. Ez da kontu erraza, askotan sexismoari garrantzia kentzen zaiolako, aintzat hartzeko bezain larria ez dela esanez.

Zapalkuntzarik egon badagoela eta neurriak hartu behar direla behin aitorturik, hurrengo pausoa zerbait egitea da. Hori ez doa esan gabe, askotan talde pribilegiatuek eurek boikotatzen dituztelako beren asmo onak. Berdintasunaren aldeko aliatuek egoera zailean aurkitzen dute beren burua: desmuntatu behar dute abantailak ematen dizkien sistema bat, eta, aldi berean, eurak murgilduta dauden kulturak pribilegio horiek ez ikustera eta ez ulertzera bultzatzen ditu.

Sistemari eusten dion aldamioaren parte izan nahi ez badute, ahalegina egin beharko dute, eta ez txikia, beren estatusaz eta estatus horretara heltzeko jarraitu dituzten ildoez jabetzeko. Ohartuko balira batzuetan gurasokeriaz joka dezaketela beren kide diskriminatuekin –salbatzaile jokatuz, lankide jokatu beharrean– hori aurrerapauso ederra izan liteke berdintasunerantz.

Elkarrizketetan ikusi zen gizonezko zientzialariok maiz axalekoari erreparatzen diotela, garrantzitsuari heldu beharrean, hala nola aldaketa estrukturalak egiteari. Jarrera performatibo hutsak ere aurkitzen dira: gizon asko oso ozenki plazaratzen dute beren sumindura genero desparekotasunen aurrean –adibidez sare sozialetan–, baina gero ez dira sakon inplikatzen beren inguruko pertsona zaurgarrien arazoetan.

Ezjakintasunaren epistemologia

Zelan gerta liteke pertsona bat ez jabetzea begi bistakoa den gauza batez? Ezjakintasunaren epistemologiak proposatzen du arrazakeriari eta sexismoari buruzko ezjakintasuna ez dela gertatzen norberak jakintza eskuratzeko modurik ez duelako, baizik eta ezjakintasunak pribilegio postuetan daudenen interesei laguntzen dielako, eta, horregatik, boterean daudenek, bai norbanakoek eta bai egiturek, ezjakintasunari eusten diotela. Bestela esanda, ezjakintasunak inertzia justifikatzen du, denak berdin jarraitzea. Hori dela eta, ezjakintasunaren mekanismoak identifikatzea eta ulertzea lagungarria izan daiteke haien kontrako estrategiak bilatzeko.

Parekotasunaren alde zeudela adierazi arren, gizonezko fisikariok, pentsamoldez, hizkeraz eta jokamoldez, inertzia hori defendatzen zuen, eta eurek ezer ez egitea justifikatzen. Hona hemen beren diskurtsoen atzean ezkutatzen ziren hiru ideia:

1.“Halako gauzak nire lan ingurunetik urrun gertatzen dira”. Urruntze fisikoa: desparekotasuna leku urrunetan gertatzen da.

Emakumeak fisikan diskriminatuta daudela uste izan arren, ez zaie iruditzen hori berengandik gertu gertatzen denik. Ez da gertatzen ez beren ikasgeletan, ez beren ikertaldean, ez beren sailean, ez beren lankideen artean, ez beren eskualdean ez beren azpiarlo zehatzean. Pentsaera hori badaezpadakoa da, fisikako sexismoaren kausak eta konponbideak gizon horien eragin eremutik kanpo kokatzen dituelako. Ezjakintasunean jarraitzeko beste mekanismo bat da.

2.“Gaia handiegia da nik horretan eraginik izateko”: desparekotasuna gizarte egitura handietan kokatzea.

Fisikan zergatik dagoen desparekotasuna azaltzeko, elkarrizketatuek beren kontrolpean ez dauden egitura kultural oso zabalak aipatu zituzten. Hona hemen hiru erantzun ohiko:

  • Neskatilak desanimatzearen errua hezkuntza sistemarena da, batez ere bigarren hezkuntzarena.
  • Sexismoa gehienbat iraganeko kontua da, eta aldaketa berez etorriko da denborarekin, bereziki orain goi karguetan daudenek erretiroa hartzen dutenean.
  • Desparekotasuna zor zaio emakumeek eta gizonek gurasotasunaren inguruan hartutako erabakiei, alegia, batzuek eta besteek bizitza profesionalaren eta familiaren inguruan (zaintza, kontziliazioa etab.) egindako hautuei.

3.“Nik ezin dut ezer egin, beraz justifikatuta dago ezer ez egitea”. Fisikariek arrazoi hauek eman zituzten ezer ez egitea justifikatzeko, besteak beste:

  • Norbera sexismoaz ez ohartzea, nahiz eta bere gertuko ingurunean gertatu, edo nahiz eta beste batzuek sexismoa ikusarazi. Norbera ohartzen ez bada, ez du sexismoa aitortzeko erantzukizunik.
  • Pentsatzea zerbait eginez gero, ondorioak okerragoak izango direla diskriminazioa bera baino. Zerbait egiteak deseroso jar balezake jokabide diskriminatzailea duena, horrek justifikatzen du ezer ez egitea. Gainera, askotan emakumeek eurek ez dute nahi ezer egiterik, ondorio kaltegarriak ekarriko lizkiekeelako.
  • Norberak zer egin ez jakitea. Gizon batzuk ez dira gai desparekotasuna bidegabekeria gisa ulertzeko, eta parekotasuna, eskubide gisa. Behar dute beste norbaitek haiei esatea zer egin, edo beste norbaitek zeozer egitea, ez eurek. Gainera, diotenez, batzuetan ez dago ezer egiterik. Ezinezkoa da besteak aldatzea eta beti egongo dira aurreiritziak. Bizitzan desparekotasuna dago, ezinbestean.

Pentsamoldeon atzean dauden sinesteek ezjakintasuna bultzatzen dute eta euskarria ematen diete zapalkuntza sistemei. Eragotzi egiten diete pertsonei aldaketa positiboetan parte hartzea.

Gomendioak

Zientzian genero parekotasuna lortzeko, beharrezkoa da talde hegemonikoak autokritika sakona egitea. Berdintasunaren alde esku hartzerakoan, ahalegina egin beharko litzateke botere guneetan dauden pertsonengan sortzeko aldaketak. Hona hemen horretarako proposamen batzuk:

  1. Goi kargudunei irakastea haiek zapalkuntzaren konplize bihurtzen dituzten ohiko jokamolde diskurtsiboak. Batzuetan beharrezkoa da kontzientzia hartzea eta pentsamendu eta ekintza patroiak ezagutzea. Esaterako, “mikroeraso” terminoari esker, jendeak ikasi ahal izan du eraso sotil eta asmo gabekoak ezagutzen eta izendatzen.
  2. Pertsona pribilegiatuak beren ezagutza faltaren erantzule egitea. Sailetan ez dago kontu emateko mekanismorik parekotasuna ebaluatzeko. Gizonei beren arlo profesionalean jarraitzea eta gora egitea bideratzen dien sari sistema indarrean dagoen artean, jokabide sexistak edo bestelako zapalkuntzak kontuan hartu barik, oso litekeena da desparekotasunak bere horretan irautea.
  3. Berdintasuna gizonen kontu ere bihurtzea. Fisikariek adierazi zuten beren ustez inklusio lana talde zaurgarrien kontua zela. Aitzitik, pribilegiodunak dira eragin handia izan dezaketenak aldaketa positiboak sortzeko.
  4. Ingurune hurbileko desparekotasunari buruzko datuak biltzea eta argitara ematea. Norberaren pertzepzioa egiatzat hartzen denean, ezjakintasunak bere horretan irauten du. Garrantzitsua da sailek edukitzea genero parekotasunaren egoera erakusten duten datuak. Datuok izan behar dira, batetik, kuantitatiboak eta, bestetik, zapalduei entzunez eta diotena sinetsiz bildutakoak.
  5. Diskriminazioari aurre egiteko trebetasunak esplizituki irakastea. Inkestatuek esan zuten ez zeukatela tresnarik desparekotasunari aurre egiteko. Desparekotasuna ezagutzen eta haren inguruan eraginkortasunez berba egiten ikasteak lana eskatzen du. Diskriminazioari zuzenean nahiz zeharka kontra egiteko, beharrezkoa da guzti-guztien benetako inklusioa posible egingo duten lan inguruneak eratzea.

Hortaz, desparekotasuna urruneko lekuetan kokatu beharrean, emankorragoa litzateke gure ingurune hurbilean dagoela onartzea (hau da, “bai: nire sailean badago sexismorik” esatea). Azpiordezkapenaren kausak egitura sozial handiei leporatu beharrean, emankorragoa litzake aitortzea pertsona askok fisika bertan behera uzten dutela eskoletan eta lan egiten duten sailetan giro oldarkorra dagoelako (hau da, “nire andrezko ikasleek beren kideen eta nagusien aurreiritziak pairatzen dituzte” esatea). Eta, ezer ez egitea justifikatu beharrean, emankorragoa izango litzateke zerbait egitea (hau da, “ikusi nuenean lankide batek mespretxuzko komentario bat egin zuela andrezko irakasle bakarraren kontra, esan nion hori lekuz kanpo zegoela” esatea).

Beraz, fisikaren arloan gauzak parekotasunerantz aldatzeko, ezinbestekoa izango da gizonezko zientzialari askok aurrerapauso bat egitea, beren pasibotasunaz gogoeta eginez, eta diskurtso diskriminatzaileak apurtzen saiatuz.

Erreferentzia bibliografikoa:

Dancy, Melissa; Hodari, Apriel K. (2023). How well-intentioned white male physicists maintain ignorance of inequity and justify inaction. International Journal of STEM Education, 10, 45. DOI: 10.1186/s40594-023-00433-8

Egileaz:

Marta Bueno Saz (@MartaBueno86G) Salamancako Unibertsitatean lizentziatu zen Fisikan eta Pedagogian graduatu. Gaur egun, neurozientzien arloan ari da ikertzen.

Jatorrizko artikulua Mujeres con Ciencia blogean argitaratu zen 2023ko urriaren 24an: En mi departamento no pasa (o cómo justificar la inacción).

Itzulpena: UPV/EHUko Euskara Zerbitzua.

The post Nire sailean hori ez da gertatzen (edo zelan justifikatu ezer ez egitea) appeared first on Zientzia Kaiera.

Categories: Zientzia

¿Cuánta sal tiene el océano de Plutón?

Cuaderno de Cultura Científica - Mon, 2024/06/24 - 11:59

Ochenta y cinco años pasaron entre el descubrimiento de Plutón -allá por 1930- y la primera visita por parte de una sonda espacial en julio de 2015, cuando la sonda New Horizons nos permitió ver de cerca por primera vez la superficie del hoy planeta enano y que, a priori, debido a su pequeño tamaño y la aparente ausencia de fuentes de energía que pudiese ayudarle a mantener cierto grado de actividad, pensábamos que podría tratarse de un cuerpo frío y anodino.

Nada más lejos de la realidad: lo que pudimos ver fue un mundo complejo y activo con llanuras y glaciares de nitrógeno, montañas de hielo de agua y una tenue atmósfera. Precisamente en la mayor de sus llanuras, Sputnik Planitia, los científicos encontraron una serie de patrones poligonales que parecían indicar un mecanismo convectivo dentro del hielo que lo obligara a fluir, pero no solo eso, sino que la presencia de la propia llanura podría apuntar a la existencia de un océano de agua líquida bajo la superficie.

Imagen de Plutón. Obsérvese la gran diversidad presente en su superficie, con lugares llanos, montañosos y zonas totalmente desnudas de cráteres. Fuente: NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute.

¿Cómo es posible que a esa distancia del Sol y un cuerpo tan pequeño como Plutón haya sido capaz de mantener un océano subterráneo? En primer lugar, en su núcleo rocoso todavía podrían existir elementos radioactivos que durante su desintegración fuesen capaces de generar un calor que mantenga una temperatura adecuada para que el agua pueda mantenerse en estado líquido.

Por otro, la presencia de sales dentro del propio océano serviría como un anticongelante, bajando todavía más la temperatura necesaria para congelar el agua, de un modo similar a cuando, en invierno, usamos la sal para ayudar a eliminar el hielo de nuestras carreteras.

Pero hay un detalle más: Sputnik Plantia podría ser una de las grandes cuencas de impacto de nuestro Sistema Solar, como la de Hellas en Marte o la de Caloris en Mercurio y su posición y características se pueden explicar mejor si existe un océano por debajo de esta, como explican Nimmo et al. (2016), ya que la anomalía gravitatoria positiva que se ha detectado en esta zona estaría provocada por el ascenso de aguas frías y densas del océano hacia la superficie.

En esta imagen oblicua de la superficie de Plutón podemos ver perfectamente las montañas formadas principalmente por bloques de hielo de agua y Sputnik Planitia, extendiéndose más allá del horizonte. Fuente: NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute.

Si, además, le sumamos el efecto del depósito de nitrógeno sobre la llanura, provocado por la congelación de este gas desde la atmósfera cuando las temperaturas son muy bajas, la anomalía gravitatoria también se puede comprender mejor. La anomalía gravitatoria detectada tampoco se podría explicar solo con el depósito de nitrógeno, ya que se necesitaría una capa de más de 40 kilómetros de espesor para explicar las observaciones.

Uno de los requisitos de los que hablábamos para mantener el agua líquida es que el océano sea salado, pero, ¿cuánta sal necesita para mantenerlo en este estado? Un nuevo estudio publicado por McGovern et al. (2024) ha analizado la respuesta del océano ante la carga que le supone la corteza superior (recordemos, de hielo) y cuál sería la deformación que debemos esperar en la superficie ante el peso del hielo de nitrógeno.

Obviamente no hay una respuesta única a esta pregunta, ya que el resultado es diferente según el espesor de la propia corteza de hielo, la profundidad de Sputnik Planitia y, en último lugar, por la densidad del océano subterráneo. Por ello, los científicos han tenido que crear una serie de escenarios diferentes variando los parámetros. Por ejemplo, para la salinidad han escogido valores en los que la densidad del agua varía entre los 1000 y los 1400 kg/m3. O lo que es lo mismo, de agua pura a agua muy salina.

Uno de los hallazgos más interesantes de estos modelos es que si se incrementa la salinidad del océano, algo que haría las aguas más densas, las estructuras geológicas que se observan en la superficie no se ajustarían tan bien a los modelos, pero si la densidad de agua del océano está por debajo 1100 kg/m3. Este detalle implica una salinidad muy modesta, hay un mejor ajuste entre el modelo y la deformación observada en la superficie.

La atmósfera de Plutón destaca en esta imagen por crear un “brillo” provocado por la dispersión de la luz del Sol y que rodea el planeta. fuente: NASA/Johns Hopkins University Applied Physics Laboratory/Southwest Research Institute.

Un océano menos salino sería más estable a lo largo del tiempo y provocaría una menor deformación en la corteza de hielo, al mismo tiempo generando menos deformación en la superficie, algo que explica por qué la superficie de Sputnik Planitia es tan suave a nivel topográfico.

Por otro lado, una salinidad moderada tiene muchas implicaciones astrobiológicas ya que, si se confirma este dato, el océano de Plutón sería un lugar mucho más hospitalario para la vida que si fuese extremadamente salado por lo que este estudio deja de manifiesto que, al menos en este aspecto, el océano de Plutón podría ser un ambiente potencialmente habitable.

Probablemente tardaremos todavía muchas décadas en volver a ver una misión que surque los cielos de Plutón y nos pueda decir si estos modelos están en lo cierto pero, sea cual sea la respuesta, estoy seguro que este planeta enano no dejará de sorprendernos.

Referencias:

Nimmo, F., D. P. Hamilton, W. B. McKinnon, P. M. Schenk, R. P. Binzel, C. J. Bierson, R. A. Beyer, et al. (2016) Reorientation of Sputnik Planitia Implies a Subsurface Ocean on Pluto Nature 540, no. 7631 (2016): 94–96. doi: 10.1038/nature20148.

Kimura, Jun, and Shunichi Kamata (2020) Stability of the Subsurface Ocean of Pluto Planetary and Space Science doi: 10.1016/j.pss.2019.104828

McGovern, P. J., and A. L. Nguyen (2024) The Role of Pluto’s Ocean’s Salinity in Supporting Nitrogen Ice Loads within the Sputnik Planitia Basin Icarus doi: 10.1016/j.icarus.2024.115968.

Sobre el autor: Nahúm Méndez Chazarra es geólogo planetario, divulgador científico y autor de la sección Planeta B.

El artículo ¿Cuánta sal tiene el océano de Plutón? se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Eklipseak iragartzeko antzinako artea zientzia zehatz bihurtu zenekoa

Zientzia Kaiera - Mon, 2024/06/24 - 09:00

2024ko apirilaren 8ko eklipsearen kronologia segundoan ezagutu zen, gizaki ikaratiak ekitaldi kosmikoak aurreikusteko saiakerak egiten hasi zirenetik milaka urtera.

https://zientziakaiera.eus/app/uploads/2024/06/EclipsePrediction-crStephanieSwart_KristinaArmitage_EmilyBuder-Lede.mp4 Antzinakoek aldizkakotasuna nabaritu zuten, eta hark hasiera eman zion eguzki eklipseen eta, oro har, astronomiaren ulermen gero eta zabalagoa izateari. (Bideoa: Stephanie Swart, Kristina Armitage eta Emily Buder – Copyright lizentziapean. Iturria: Quanta Magazine)

Historiaren zati handi batean, eguzki-eklipseak subiranoarentzako berri txartzat interpretatzen ziren. Haren edo erreinuaren osasunari begirako adur txarreko seinalea ziren. Baina ikara horiek elikatu zituzten, hain zuzen ere, erudiziozko milaka urte. Aurrerapena Mesopotamian hasi zen, datu historikoetan aldizkako patroiak bilatzen hasi zirenean. Eta egungo arora arte iraun du; izan ere, egun eguzki-sistemako gorputzen etorkizuneko mugimendu interdependenteak ezagutzen ditugu mendetako aurrerapenarekin. Garai batean eskala kosmikoko larritasun iturria zena erlojugintzako mekanismo hotz bihurtu dugu.

Inflexio puntu bat aukeratu behar balitz, 1715eko apirilaren 22ko goiza izan liteke: Londresen eguzki-eklipse bat egon zen. Eta Edmond Halley polimata britainiarrak, Halley kometa izendatzeagatik ezagunagoa denak, eklipse hori iragarri zuen. Iragarki bat argitaratu zuen, non Ilargiaren itzalak Ingalaterraren gainean egingo zuen bidea adierazteko mapa bat ere jarri zuen. Urte horretan, Ingalaterrak errege koroatu berria zuen, eta haren aurkako matxinada prestatzen ari zen. Eklipsea iragarpenaren bidez desmitifikatzean, Halleyk seinale txar gisa zuen boterea neutralizatu nahi zuen.

Horrez gain, datu biltzaileak ere errekrutatu nahi zituen, behaketa horien bidez etorkizunean eklipseen iragarpenak are hobeto egiteko. “Ikusnahiek Beha dezatela, bereziki Erabateko Iluntasunaren iraupena”, iragarri zuen, “horrela zehaztuko baitira modu argian Itzalaren Kokapena eta tamaina; eta, horri esker, etorkizunean antzeko Agerpenak Iragarri ahal izango ditugu, egun baino doitasun handiagoz”.

Erritmoari eusten dioten seinaleak

Hamarkada batzuk lehenago, Halleyk, antzinako testu asko irakurtzen zituenak, eklipseei eta Ilargiak zeruan hartzen zuen kokapenari buruz pentsatzeko ziklo zerutar erabilgarri bat berraurkitu eta ezagutarazi zuen: 6.585 egun, edo 18 urte baino pixka bat gehiago. Ziklo hori «saros» izendatu zuen. Historialari modernoen aburuz, hitz hori sinbolo sumertar baten itzulpen txar bat da, jatorriz «unibertsoa» edo «zenbaki handia» esan nahi zuena.

Oraingo Aroaren Aurreko 600. urtearen inguruan, Mesopotamian, Asiriako eta Babiloniako apaiz matematikariek buztinezko taulatxotan erregistratutako aurreko eklipseen datak aztertu zituzten, hurrengo eklipsea noiz gerta zitekeen asmatzeko estrategiak garatzeko itxaropenarekin. Kultura horietako erregeak kezkatuta zeuden eklipseekin, eta denbora gutxian, zodiakoa asmatu zenean, Eguzkiaren, Ilargiaren eta planeten kokapena kontrolatzeko beharrak mundu osoari eragingo zion.



Eguzki eklipseen iragarpenak berrikuntza bultzatu du zientziaren eta matematikaren historian zehar, Sarosen ziklotik hasi eta Greziako geometria, Newtonen kalkulua eta hiru gorputzen problemaraino. (Bideoa: Emily Buder eta Stephanie Swart – Copyright lizentziapean. Iturria: Quanta Magazine)

Lehendabiziko soluzioak arau orokorrak izan ziren. Adibidez, ilargi-eklipseak, askotan, sei hilabetean behin gertatzen dira. Babiloniarrak ere ohartu ziren eguzki- eta ilargi-eklipse espezifikoak, askotan, antzeko ekitaldi batetik bereizita zeudela (ekitaldi horri Halleyk saros izena jarri zion).

Ziklo hori termino modernoetan ulertzeko, imajina dezagun gorputz astronomikoen geometria eguzki-eklipse bat gertatzen den unean, Ilargia zuzenean Eguzkiaren eta Lurraren artean jartzen denean, hiru gorputzek lerro definitu bat sortzen dutelarik. Hori gertatzeko, ilargi berria egon behar da. Horrez gain, Ilargiak leku zehatz batean egon behar du; zehazki, Lurraren inguruko orbita inklinatua Lurra bere orbitan Eguzkiaren inguruan mugitzen den planoan sartuta.

Eta, orain, imajina dezagun erlojua aurreratzen dugula baldintza horiek errepikatzen diren hurrengo momentura arte. Horretarako, zenbait ilargi ziklo gainjarri baina ezberdin kontziliatu behar ditugu. Lehenengo zikloa: 29,5306 egun inguru igarotzen dira ilargi berri batetik hurrengora. Bigarren zikloa: Ilargiak 27,2122 egun inguru behar ditu Lurraren orbitaren planotik pauso batean joatetik hurrengo itzulian pauso berera joateko. Hirugarren zikloa: Ilargiaren orbita eliptikoak Lurretik hurbildu eta urruntzen duenez, Ilargiak ere tamainan eta abiaduran oszilatzen du Lurraren gaineko zeruetan; ziklo horrek 27,5546 egun irauten ditu gutxi gorabehera.

Sarosa, beraz, denbora tarte birobil polit bat besterik ez da, non ziklo horiek guztiak zenbaki osoko kopuru jakin batean errepikatzen baitira: Ilargi berrirako 223 pauso ia berdina da ekliptikaren barruko eta kanpoko 242 itzulirekiko, baita Ilargiaren ageriko tamainan 239 oszilaziorekiko ia berdina ere. Eguzki edo ilargi eklipse bat ikusi baduzu, saros bat itxaron besterik ez duzu behar gorputz astronomikoek gutxi gorabehera kokapen geometriko berdina errepikatzeko.

eklipseak1. irudia: ezkerrean, Babiloniako buztinezko taulatxo kuneiforme bat, hamar zentimetro zabalekoa; Kristo aurreko 609. eta 447. urteen arteko ilargi eklipseak jasotzen ditu.Eskuinean, Antiziterako mekanismo gisa ezaguna den antzinako planetario greko baten zati bat. Naufragio batean aurkitu zen eta, gutxi gorabehera, Kristo aurreko II. mendeko data jarri zitzaion. Planetarioak sarosa bezalako zikloak jarraitzen zituen, eklipseak eta beste ekitaldi astronomiko batzuk iragartzeko. (Irudiak: The Trustees of the British Museum (ezkerrean); 2005 Atenasko Arkeologia Museo Nazionala (eskuinean). Iturria: Quanta Magazine)

Hala ere, Ilargiaren orbita parametro horiek baino konplexuagoa da. Eta, nolanahi ere, eskema horrek ez du adierazten Lurreko zein lekutatik ikusi ahal izango den eklipsea.

Halley eta haratago

Baina Halleyk sarosari buruzko informazioa irakurri eta berak erabiltzeko berrekarri zuenerako, kultura askotako ahaleginez beteriko mende asko igaro ziren, non eklipseen arazoa askoz gehiago zehaztu zen. Halaxe deskribatu zituen gertaerak Clemency Montelle historialari matematikariak 2011n Chasing Shadows liburuan. Babiloniarrak, azkenean, bazter utzi zituzten «itxaron saros bat» bezalako arau enpiriko soilak, eta Ilargiak zeruan etorkizunean izango zituen koordenatuak kalkulatzeko zenbakizko eskema konplexuagoak erabiltzen hasi ziren. Antzinako grekoek kosmosari buruzko beren ideia geometrikoak fusionatu zituzten babiloniarren estiloko zenbakizko kalkuluekin. Sintesi hori oinarri hartuta, mundu islamikoko astronomoak, hala nola al-Juarismi («algoritmo» hitzaren homonimoa IX. mendean), funtzio trigonometrikoak eta zenbaki hamartarrak (Indiakoak) erabiltzen hasi ziren, eta paper asmatu berrian (Txinan) zirrimarratzen zituzten, oraindik ere iragarpen metodo aurreratuagoak garatzeko; eta metodo horiek Europa osoan ere zabaldu ziren.

Baina Halleyk oraindik ere berriagoa zen zerbait bazuen jokoan sartzeko. Antzinatetik sarosa berreskuratu eta aldi berean, bere lagun Isaac Newtonen grabitazioari buruzko ideien argitalpena finantzatzen ari zen; eta, gerora, Newtonek ideia horiek aplikatuko zituen Ilargiaren orbita ulertzeko. 1715ean, mende askoren ostean Londresera eguzki-eklipse bat iristear zegoenean, Halleyren iragarpenen mapa antzinateko eta aro modernoko pentsamoldeen konbinazioa zen.

eklipseak2. irudia: 1715eko apirilaren 22ko eguzki-eklipsea baino egun batzuk lehenago, Edmond Halley astronomo britainiarrak egunkari hau argitaratu zuen ekitaldiaren unea eta kokapena iragartzeko. Ibilbidea osotasunean iragartzen zuen mapa nahiko zehatza izan zen: 20 bat milia baino ez ziren desbideratu iparraldeko muturrean. (Irudia: Houghton Liburutegia, Harvard Unibertsitatea. Iturria: Quanta Magazine)

Hurrengo pausoa 1824an eman zen. Friedrich Bessel astronomo alemaniarrak Newtonen ikuspegia zabaldu zuen, zeinak grabitatearen legeak erabiltzen baitzituen eklipseei buruzko hausnarketak egiteko. Ilargiaren itzala irudikatu zuen, Lurraren erdigunetik igarotzen zen alegiazko plano baten gainean proiektatuta. Ondoren, itzal hori berriro proiekta zitekeen globoaren azaleran, ikusteko zehazki non eta noiz inpaktatuko zuen. Baina, puntu horretara iristeko, zeukaten Lurraren irudia aldatu behar izan zuten: forma esferikoa baztertu, eta biraka zebilen zuloz beteriko objektu pikortsu gisa irudikatu zuten. Besselen ostean, nazio askok izan zuten irismen inperial globala itzal horiei jarraitzeko. Halaxe azaldu du St. Andrews Unibertsitateko matematikako historialari Deborah Kentek. Eta, horren bidez, are gehiago perfekzionatu zitzaketen beren kalkuluak, zientziari lotutako botere bigunaren gailentasuna lortzeko borrokan.

Hurrengo mendean zehar, eklipseen espedizioei esker, zientziaren misteriorik handienetako bat ebatzi zuten: Merkurioren orbita arraroa Eguzkitik oso hurbil zegoen deskubritu gabeko planeta baten ondorioa zen (zeina eklipse batean ikusgarri egingo zen)? Edo, gerora konfirmatuko zena, arazoren bat zegoen Newtonen grabitatearen ulermenarekin? Hori dela eta, eklipseen iragarpena eta behaketa are garrantzitsuagoa bihurtu zen, eta Lurraren bazter guztietako zientzialariak lanean jarri zituzten, jarraibide oso zorrotzekin, zehazki non egon behar zuten eta zer datu erregistratu behar zituzten adierazita. Behaketaren ondoren, txosten lehorrak aurkezten zituzten, “harridura erupzioren” batek zipriztinduta; Kenten hitzetan. «Txosten guztietan neurriz gaineko deskribapen rapsodiko eta viktoriarrezko bi paragrafo inguru daude».

20. mendean, arazoa berriro eraldatu zen. Ordura arte, eklipseen iragarpen egoki batek beti izan zuen zerikusia baieztapen honekin: Ilargia eta Eguzki Sistemako gainerako guztia etengabe daude elkarrekiko interakzioan. Ez zen soilik ezin ebatzizko “hiru gorputzen problema” famatua; N-gorputzen problema bat zen. NASA pertsonak eta robotak Eguzki Sistemako gorputzetarantz bidaltzen hasi zenean, premiazkoa zen gorputz horiek non zeuden eta etorkizunean non egongo ziren jakitea; eta, ondorioz, ulerterrazagoa bihurtu zen.

Apoloko astronautek Ilargian utzi zituzten ispiluei esker, badakigu non dagoen Ilargia Lurrarekiko, bi metro inguruko doitasunarekin; halaxe azaldu du Ryan Parkek, NASAko Zurrusta Propultsioko Laborategiko (JPL, ingelesezko siglengatik) Eguzki Sistemaren Dinamika taldeko zuzendariak. Eta Eguzki Sistemaren inguruan burrunban dabiltzan bitartean irismen datuak transmititzen dituzten aireontzi ugariei esker, Eguzkiaren kokapen zehatza ere ezagutzen dugu. Parken taldeak Ilargiaren eta Eguzkiaren kokalekuaren datuak sartzen ditu ordenagailu batean, planeten eta ehunka asteroideren antzeko parametroekin batera, baita zenbait zuzenketa ere, hala nola eguzki haizearen presioa. Hau da, ez dituzte soilik Newtonen grabitatearen legeak sartzen, baizik eta erlatibitatearen doikuntza sotilenak ere. Horiek horrela, ereduak elementu guztien aurreikusitako kokalekuak ematen ditu, Ilargiarena barne. Eta gero, aldian-aldian, JPLko taldeak eredua eguneratu eta zerrenda berriak argitaratzen ditu.

Kokaleku horiek gehiegizkoak badira ere eklipseak aurreikusteko, nahiko onak dira espazioko bidaiei begira. «Pixka bat harritzen naiz», esan du Parkek, espazioko misioen garatzaileek galdetzen dutenean ea denbora asko dedikatu beharko duten Ilargia zehazki non dagoen eta nola mugitzen den deskubritzeko. «Ez, ez, esaten diet nik, arazo hori duela urte batzuk ebatzi genuen jada».

Jatorrizko artikulua:

Joshua Sokol (2024). How the Ancient Art of Eclipse Prediction Became an Exact ScienceQuanta Magazine, 2024ko apirilaren 5a. Quanta Magazine aldizkariaren baimenarekin berrinprimatua.

Itzulpena:

UPV/EHUko Euskara Zerbitzua.

The post Eklipseak iragartzeko antzinako artea zientzia zehatz bihurtu zenekoa appeared first on Zientzia Kaiera.

Categories: Zientzia

El queso, entre los genes y la cultura

Cuaderno de Cultura Científica - Sun, 2024/06/23 - 11:59

Todos los mamíferos nos alimentamos de leche al nacer. La leche es un alimento complejo y muy nutritivo, que contiene proteínas, grasas, hidratos de carbono, vitaminas A y B, y minerales como calcio y fósforo: casi todo lo que necesitamos para vivir. Los primeros indicios de consumo de leche animal por parte de la humanidad se remontan al primer Neolítico. Por ejemplo, en yacimientos arqueológicos de hace casi 9.000 años, cerca del mar de Mármara en la actual Turquía, se encontraron grasas lácteas en antiguos fragmentos de cerámica [1].

La capacidad humana para digerir la leche de otros animales se desarrolló recientemente, y con probabilidad según los estudios genéticos, en los últimos 10.000 años. Un puñado de mutaciones permitió a buena parte de las personas adultas persistir la producción de la enzima lactasa, capaz de descomponer el azúcar de la leche, la lactosa. No toda la población mundial tiene extendidas las mismas mutaciones respecto a la persistencia de la lactasa.

La transformación de la leche -y muy en particular la producción de queso- constituyó un acontecimiento cultural fundamental para la historia de la humanidad. Ello no sólo permitía conservar los productos lácteos de manera no perecedera, sino que también hacía de la leche un alimento mucho más digerible y aprovechable para las primeras poblaciones agricultoras-ganaderas del Neolítico, con o sin beneficiosas mutaciones genéticas [2]. Es muy llamativo que esto es un ejemplo de coevolución genética-cultural a escalas temporales diferentes, pero beneficiosas simultáneamente para la supervivencia humana y su desarrollo. La fabricación del queso no es, por tanto, una actividad humana menor, sino de primera importancia.

quesoQueso tipo Idiazábal confeccionado por el autor. Foto: Victor Etxebarria

Hoy día la industria láctea produce múltiples tipos de leche que podemos ver en las estanterías de los supermercados. No todas las leches son leches, ya que se someten a procesos industriales más o menos beneficiosos para obtener bebidas lácteas. Hace unas décadas el único proceso que se efectuaba era la pasteurización de la leche, o el hervido en casa de la leche cruda adquirida directamente a las granjas o ganaderías. Esto es importante para consumir leche con seguridad, ya que es la forma más sencilla y eficaz de matar posibles microorganismos patógenos que se pueden desarrollar en la leche.

La fabricación de gran cantidad de queso en la industria láctea requiere recoger leche de distintas ganaderías y tienen que pasteurizarla porque no pueden garantizar su higiene y calidad global. De esta manera, el queso que se produce en la industria no es de calidad superior.

Las granjas dedicadas al pastoreo elaboran quesos con leche cruda, ordeñando su propio rebaño para producir algunos de los mejores quesos del mundo. La proximidad de las casas rurales a la propia fuente les permite controlar la calidad de la leche y la producción del queso. A diferencia de otros productores, no mezclan la leche de una vaca enferma tratada con antibióticos con la leche utilizada para hacer queso, mantienen escrupulosa limpieza, la salud individual de los miembros de su cabaña, así como la cadena de frío de la leche.

La leche cruda no es peligrosa para la fabricación de queso, si se mantiene su higiene y frescura. El queso elaborado con leche cruda es muy superior a la versión pasteurizada por la complejidad de su composición inicial y las características, texturas y sabores que puede proporcionar. En cualquier caso, el ganado sano y la leche fresca, limpia y de calidad (pasteurizada o no pasteurizada) es el factor más importante de todos en el proceso de elaboración del queso. Este proceso consiste a grandes rasgos en fermentar, cuajar, salar y curar, lo cual elimina las posibles bacterias patógenas. Además, y de forma inversa, la idea de que la leche pasteurizada ya no puede contaminarse no es cierta [3].

La fabricación de queso implica en primer lugar la fermentación por medio de bacterias presentes en la leche cruda, que transforman la lactosa en ácido láctico. Esta acidificación de la leche facilita su conversión en queso por medio de enzimas proteasas que actúan sobre las proteínas de la leche y precipitan en una cuajada de proteínas y grasa. La fermentación bacteriana continúa consumiendo la lactosa hasta que la eliminación del suero sobrante y el salado de los cuajos detienen la acidificación. Este queso puede colocarse en un molde y curarlo durante unos meses, desarrollando su textura, aromas y sabores, principalmente mediante las enzimas de la leche cruda que catalizan la ruptura de las moléculas grasas (lipolisis) y proteicas (proteólisis), liberando ácidos grasos de cadena corta y aminoácidos libres. Estos componentes volátiles generan el olor del queso, sus sabores y transforman su estructura molecular.

Este proceso resulta en un nutritivo manjar. La ley alimentaria en la mayor parte de los países permite la venta de quesos fabricados a partir de leche cruda, si se han curado durante al menos 60 días, proceso que elimina posibles patógenos. La pasteurización de la leche para quesería calienta la leche al menos a 72ºC durante 30 segundos. Esto mata la mayor parte de las bacterias (patógenas o no) e inutiliza todas sus enzimas. El queso puede fabricarse, pero la materia prima no es óptima. La ordinaria pasteurización UHT (150ºC durante 2 segundos) permite conservar los principales nutrientes de la leche muchos meses en un envase tipo tetrabrik, pero hace inviable fabricar queso.

Existen muchos tipos de quesos en el mundo. Solamente en Francia al parecer existen unas 1000 variedades. La mayor parte de los quesos pueden alimentar a todo tipo de personas, incluidas las intolerantes a la lactosa. En cierto sentido, el queso es un alimento pre-digerido por los fermentos y por el curado. La reducción drástica de la lactosa y el segmentado de las moléculas grasas y proteicas, lo hacen muy fácil de asimilar, muy nutritivo y exquisito. Si a usted no le gusta mucho el queso, es muy probable que no ha buscado bien, porque los sabores, aromas, texturas y sutilezas que existen son casi infinitas. Algunas joyas son quesos artesanos producidos por pequeñas explotaciones ganaderas en todo el mundo. Como casi siempre, es mejor apostar por la calidad que por la cantidad, y la ciencia y la tecnología del queso forma parte de la cultura universal.

Referencias

[1] Evershed, R., Payne, S., Sherratt, A. et al. (2008) Earliest date for milk use in the Near East and southeastern Europe linked to cattle herding. Nature 455, pp 528–531 https://doi.org/10.1038/nature07180

[2] Salque, M., Bogucki, P., Pyzel, J. et al. (2013) Earliest evidence for cheese making in the sixth millennium BC in northern Europe. Nature 493, pp 522–525. https://doi.org/10.1038/nature11698

[3] Montel, M.C., Buchin, S., Mallet, A., Delbes-Paus, C., Vuitton, D.A., Nathalie Desmasures, N. and Berthier, F. (2014) Traditional cheeses: Rich and diverse microbiota with associated benefits. International Journal of Food Microbiology vol. 177, pp.: 136–154. https://doi.org/10.1016/j.ijfoodmicro.2014.02.019

Sobre el autor: Victor Etxebarria Ecenarro es Catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU)

El artículo El queso, entre los genes y la cultura se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Asteon zientzia begi-bistan #491

Zientzia Kaiera - Sun, 2024/06/23 - 09:00

Asteon zientzia begi-bistan igandeetako gehigarria da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna jaso eta laburbiltzea da gure helburua.

ekosoziala

Klima-larrialdia

Energia kontsumoak eta emisioek marka hautsi zuten 2023. urtean, Energy Instituteren txostenaren arabera. Datuen arabera, Europan eta Ipar Amerikan jaisten ari da energia kontsumoa, baina Asian gora doa. Emaitzek erakusten dute berriztagarrien hedapena ez dela nahikoa izaten ari gas kutsagarrien emisioen gorakada eteteko, eta beraz, planetaren berotzea eragozteko. Informazio gehiago Berrian.

Ingurumena

Pirinioetako larreetan bioaniztasuna indartzeko gakoak identifikatu dituzte. Zehazki, Nafarroako mendebaldeko Pirinioetako bazkalekuetan egin dute ikerketa. Ondorioztatu dutenez, azienda-mota da larrearen balio naturala zehazten duen faktore garrantzitsu bat. Zaldi-azienda, ardi-azienda edo biak nahastuak zituzten partzelek nabarmen balio natural handiagoa zuten behi-azienda zutenek baino. Azalpenak Zientzia Kaieran.

Belen Gonzalez Itsas Zientzietako ikertzailea da, eta uretako laginak ikertzen ditu, bai itsasokoak eta baita ibaietakoak ere. Azaldu duenez, Bizkaiko kostaldeko uretan ere badaude elementu kutsatzaile asko, eta duela urte batzuetako datuekin alderatuta, gero eta kutsadura gehiago, ur beroagoa eta okupazio handiagoa dagoela ikusi dute. Gonzalazen iritziz, zientziak, arazoaz jakinarazteaz gain, irtenbideak proposatu beharko lituzke. Datu guztiak Berrian.

Hezkuntza-zientzia

Hezkuntza ekosoziala eta baso eskolen jarduna nola uztar daitezken aztertzen ari dira Larraitz Altuna eta Jon Diaz EHUren Hezkuntza Zientzien saileko ikertzaileak. Haien ustetan, baso eskolen aire zabaleko metodologiak indartu egiten du hezkuntza ekosozialaren irismena, eta zenbait proiektu pilotu jarri dituzte martxan. Halako hezkuntza motak naturarekiko atxikimendua indartu dezakeela diote, eta klima-aldaketaren aurrean jokabide aktiboagoa sorrarazi dezakeela. Informazio gehiago Berrian.

Osasuna

Ikerketa berri baten arabera, odol-analisi batekin parkinsona iragarri liteke. Zortzi proteinen mailari erreparatzen zaie, eta sintoma motorrak hasi baino zazpi urte lehenago ere diagnostikatu ahal izango litzateke. Bestetik, markatzaile horiek botika berrien jomuga izan litezkeela adierazi dute ikertzaileek, hanturarekin eta proteinen degradazioarekin lotuta baitaude. Datu guztiak Elhuyar aldizkarian.

Biologia

Gure gorputzaren zati handi bat gandor neuraletik sortzen da, eta baita animalia ornodun guztietan ere. Gandor neurala garapen enbrionarioan esku hartzen duten zelulek osatzen dute, eta orain arte ez zen haren jatorria ongi ezagutzen. Ciona intestinalis aszidiarekin egindako ikerketa batek bere gastrulako bi zelula pare identifikatu ditu, eta ondorioztatu dute horiek direla gandor neuralaren jatorri ebolutiboa. Informazio gehiago Zientzia Kaieran.

Ugaztunetan sexua determinatzen duen molekula-multzo bat aurkitu dute. mikroRNA izeneko molekulak dira, eta ikertzaileek ikusi dute mutazio baten ondorioz mikroRNA-multzo jakin bat falta zaien sagu arretan SYR genearen adierazpena atzeratzen dela. Gene horrek testikuluen garapena aktibatzen du, eta ondorioz, XY enbrioietan obuluak garatzen dira. Azalpenak Elhuyar aldizkarian.

Paleoantropologia

Neolito aroaren aurreko giza-populazio batek landare jatorriko elikagai ugari jaten zuen. Marokon aurkitu dituzte arrastoak, eta zalantzan jarri dute historiaurreko dietari buruz pentsatzen zena, haragia elikagai nagusia zela uste baitzen. 25 hortz eta zazpi hezur analizatu dituzte, eta hortzetako esmaltean dauden zink eta estrontzio isotopoekin ondorioztatu dute beren dieta nagusiki landareetan oinarritzen zela. Datu guztiak Zientzia Kaieran.

Arkeologia

Paleolitoko labar-arteak funtzio asko zituen Euskal Herriko kobazuloetan. Lau taldetan sailkatu dituzte irudiak ikonografiaren eta kokapenaren arabera. Batzuk ikusiak izateko egin ziren, funtzio xamanikoekin. Beste batzuk igarotze-erritoei erantzuten diete. Buztinezko grabatuak eta eskunturak ere topatu dituzte, eta azken taldea zeinu abstraktuek osatzen dute. Azalpenak Elhuyar aldizkarian.

Astronomia

Jupiterren Orban Gorri Handiaren sorrera, adina eta bilakaera argitu dituzte. Orban hori zurrunbilo antizikloniko handi bat da, Eguzki Sistemako planeten atmosferetan dagoen zurrunbilo handiena, eta gaur egun Lurraren diametroa du, gutxi gorabehera. Ikerketako egileen artean dago EHU, eta emaitzen arabera, orbanak gutxienez 190 urte izango lituzke, eta uzkurtzen eta biribiltzen joan da denborarekin. Informazio gehiago Elhuyar aldizkarian.

Argitalpenak

Aristoteles Grezia klasikoko filosofo eta zientzialaria izan zen. Platonekin batera, filosofia okzidentalean ezagunenetako bat. Filosofo eta zientzialari honen bizitza ezagutu ahalko dugu “Aristoteles: Jakiteko irrika” komikiaren bitartez. Jakin-min handiko pertsona izan zen Aristoteles, eta hainbat zientziaren esparru landu zituen, besteak beste, biologia, fisika, kimika eta astronomia. Bizitzaren helburua jakintza lortzea zela sinesten zuen. Azalpenak Zientzia Kaieran.

Egileaz:

Irati Diez Virto (@Iraadivii) Biologian graduatua da, Biodibertsitate, Funtzionamendu eta Ekosistemen Gestioa Masterra egin zuen UPV/EHUn eta Kultura Zientifikoko Katedrako kolaboratzailea da.

The post Asteon zientzia begi-bistan #491 appeared first on Zientzia Kaiera.

Categories: Zientzia

La inversión de las élites en la prehistoria

Cuaderno de Cultura Científica - Sat, 2024/06/22 - 11:59

aburrimiento

Los cambios del cerebro durante el embarazo y la maternidad, cómo el estrés ha pasado de ser un mecanismo de supervivencia a un eventual elemento de riesgo para nuestra salud o cuál ha sido el papel que ha jugado el suicidio en la evolución del ser humano fueron algunos de los temas que se tratarán en la VI Jornada Nacional sobre Evolución y Neurociencias.

La jornada tuvo lugar el Bizkaia Aretoa de la UPV/EHU los pasados 25 y 26 de abril y estuvo dirigida por Eva Garnica y Pablo Malo, de la Red de Salud Mental de Bizkaia, institución que organizó la jornada junto a la Cátedra de Cultura Científica de la UPV/EHU.

El encuentro, cuya primera edición se celebró en 2017, se ha convertido en una cita imprescindible para las y los expertos en ámbitos como la psiquiatría, la psicología o la biología. Una jornada que sirve para analizar el comportamiento humano desde un punto de vista evolutivo y divulgar de un modo accesible para todos los públicos.

El aburrimiento ha acompañado al ser humano desde que es ser humano. En La inversión de las élites en la prehistoria Josefa Ros Velasco nos cuenta el papel del aburrimiento en la prehistoria de la mano de las tesis de Hans Blumenberg de que se trataría de una presión selectiva.

Josefa Ros Velasco es investigadora especializada en el aburrimiento. Se doctoró en filosofía por la Universidad Complutense de Madrid y ha sido investigadora postdoctoral en distintas instituciones, entre ellas la Universidad de Harvard. Ha editado de varios libros especializados sobre el aburrimiento y el suicidio, y es la autora de «La enfermedad del aburrimiento» (Alianza Editorial).



Si no ve correctamente el vídeo, use este enlace.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo La inversión de las élites en la prehistoria se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Ezjakintasunaren kartografia #498

Zientzia Kaiera - Sat, 2024/06/22 - 09:00


UPV/EHUn azken belaunaldiko ioi-iturri bat eraiki da, gas desberdinak erabil ditzakeena. Aplikazio zientifikoak, industrialak eta biomedikoak ditu. New multispecies compact ion source and efficient experimental proton beam characterization Victor Etxebarria haurraren gurasoetako baten eskutik.

Partikula birtualak behagarri bihur daitezke. Horretarako, Landauren berezitasunak ezaugarritu behar dira. Landau singularities revisited

Ordenagailu-simulazio batean bizitzeko probabilitate ez nulua bada. Eta TILKUTek badaki kodea erabiltzen duten izakiek zer egingo luketen baieztatzen badugu. Virtual reality

Benetako katalizatzaileak ez dira lauak, ezta hurrik eman ere. Katalizatzaile industrial batean benetan zer gertatzen den zehaztea laborategiko aurkikuntza bat bezain garrantzitsua da. DIPCko jendeak Investigating the fundamental stages of the CO oxidation reaction using a kinked Pt crystal

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #498 appeared first on Zientzia Kaiera.

Categories: Zientzia

El origen de la Gran Mancha Roja

Cuaderno de Cultura Científica - Fri, 2024/06/21 - 11:59

Investigadores de la Universidad del País Vasco, de la Universitat Politècnica de Catalunya – BarcelonaTech (UPC) y del Barcelona Supercomputing Center– Centro Nacional de Supercomputación (CNS-BSC) ha analizado las observaciones históricas de la Gran Mancha Roja de Júpiter desde el siglo XVII y ha desarrollado a partir de ellas modelos numéricos para explicar la longevidad y naturaleza de este impresionante fenómeno meteorológico en la atmósfera del planeta gigante gaseoso.

Imagen obtenida por la Voyager 1 de la Gran Mancha Roja de Júpiter en 1979. Fuente: NASA / Caltech/JPL

La Gran Mancha Roja de Júpiter (conocida como GRS por sus siglas en inglés, Great Red Spot), es probablemente la estructura atmosférica más conocida, un icono popular entre los objetos del Sistema Solar. Su gran tamaño (actualmente tiene el diámetro de la Tierra) y el contraste de su color rojizo frente a las nubes pálidas del planeta, hace que sea un objeto fácilmente visible incluso con pequeños telescopios. La Mancha Roja de Júpiter es un enorme remolino anticiclónico por cuya periferia los vientos circulan a 450 km/h. Es el vórtice más grande y longevo de todos los existentes en las atmósferas de los planetas del Sistema Solar, pero su edad es objeto de debate y el mecanismo que dio origen a su formación, permanece oculto.

Cambios en la Gran Mancha Roja de Júpiter en los últimos 134 años. Izquierda: Imagen obtenida el 14 de octubre de 1890 por el Observatorio Lick (EE.UU.). Fuente: BDIP-Observatoire de Paris. Derecha: Imagen obtenida por el Telescopio Espacial Hubble el 5 de enero de 2024. Fuente: HST / NASA / ESA /OPAL Program

Las elucubraciones sobre el origen de la GRS se remontan a las primeras observaciones telescópicas del astrónomo Giovanni Domenico Cassini, quien en 1665 descubrió un óvalo oscuro en la misma latitud que la GRS y lo bautizó como “Mancha Permanente” (PS de sus siglas en inglés), ya que fue observada por él y por otros astrónomos hasta 1713. Posteriormente se perdió su rastro durante 118 años y no es hasta 1831 y en años posteriores cuando S. Schwabe observa de nuevo una estructura clara, de forma aproximadamente ovalada y en la misma latitud que la GRS, que puede considerarse como la primera observación de la GRS actual, quizás de una GRS naciente. Desde entonces, la GRS se ha venido observando regularmente con telescopios y por las diferentes misiones espaciales que han visitado el planeta, hasta nuestros días.

En el estudio llevado a cabo los autores han analizado, por una parte, la evolución del tamaño a lo largo del tiempo, su estructura y los movimientos de ambas formaciones meteorológicas, la antigua PS y la GRS; para ello han acudido a fuentes históricas que se remontan a mediados del siglo XVII, poco después de la invención del telescopio. “De las medidas de tamaños y movimientos deducimos que es altamente improbable que la actual GRS fuese la PS observada por G. D. Cassini. Probablemente la PS desapareció en algún momento entre mediados de los siglos XVIII y XIX, en cuyo caso podemos decir que la Mancha Roja tiene al menos, por ahora, una longevidad de más de 190 años” explica Agustín Sánchez Lavega, catedrático de física de la UPV/EHU que ha liderado esta investigación. La Mancha Roja, que en 1879 tenía un tamaño de 39.000 km en su eje más largo ha ido contrayéndose a la vez que se ha redondeado, hasta alcanzar actualmente unos 14.000 km.

Por otra parte, desde la década de los años 70, diferentes misiones espaciales han estudiado de cerca este fenómeno meteorológico. Recientemente, “diferentes instrumentos a bordo de la misión Juno en órbita alrededor de Júpiter han mostrado que la GRS es poco profunda y delgada cuando se compara con su tamaño horizontal, pues verticalmente se extiende unos 500 km”, explica Sánchez Lavega.

Izquierda: Primera fotografía de la Gran Mancha Roja obtenida por A.A. Common desde Ealing (Reino Unido) el 3 de septiembre de 1879. Derecha: Superposición de una simulación numérica de la mancha de aquel año sobre una imagen reciente obtenida por el Telescopio Espacial Hubble. Fuente: UPV/EHU – UPC.

Con el fin de averiguar cómo pudo formarse este inmenso torbellino, los equipos de la UPV/EHU y de la UPC han realizado simulaciones numéricas en superordenadores españoles como el MareNostrum IV del BSC, integrado en la Red Española de Supercomputación (RES), mediante dos tipos de modelos complementarios del comportamiento de vórtices delgados en la atmósfera de Júpiter. En el planeta gigante, dominan intensas corrientes de vientos que fluyen a lo largo de los paralelos alternando en su dirección con la latitud. Al norte de la GRS, los vientos soplan hacia el Oeste con velocidades de 180 km/hr mientras que por el sur, lo hacen en sentido contrario, hacia el Este, con velocidades de 150 km/hr. Esto genera una enorme cizalla de norte a sur en la velocidad del viento, que es un ingrediente básico para que crezca el vórtice en su seno.

En la investigación han explorado diferentes mecanismos para explicar la génesis de la GRS, entre ellos la erupción de una gigantesca supertormenta, semejante a las que muy rara vez se observan en el planeta gemelo Saturno, o bien la fusión de múltiples vórtices más pequeños engendrados por la cizalla del viento. Los resultados indican que, si bien en ambos casos se forma un anticiclón, este difiere en su forma y propiedades dinámicas de los de la actual GRS. “Además pensamos que de haberse producido uno de tales inusuales fenómenos, seguramente él o sus consecuencias en la atmósfera, hubieran sido observadas y reportadas por los astrónomos de la época”, señala Sánchez Lavega.

En un tercer grupo de experimentos numéricos, el equipo de investigación ha explorado la generación de la GRS a partir de una conocida inestabilidad en los vientos que, en opinión de los investigadores, es capaz de engendrar una célula alargada que los encierra y atrapa. Dicha célula sería una proto-GRS, una Mancha Roja naciente, cuyo posterior encogimiento daría lugar a la GRS compacta y rápidamente rotante que se observa a finales del siglo XIX. La formación de grandes células alargadas ya se ha observado en la génesis de otros vórtices importantes en Júpiter. “En nuestras simulaciones, gracias al uso de superordenadores, hemos encontrado que las células alargadas son estables cuando rotan por su periferia con la velocidad de los vientos de Júpiter, tal y como se esperaría cuando se forman por dicha inestabilidad” declara Enrique García-Melendo, investigador del Departamento de Física de la UPC. Utilizando dos tipos diferentes de modelos numéricos, uno en la UPV/EHU y el otro en la UPC, los investigadores concluyen que si la velocidad de rotación de la proto-GRS es menor que la de los vientos circundantes, esta se fragmenta, haciendo imposible la formación de un vórtice estable. Y, si es muy alta, sus propiedades difieren de las de la actual GRS.

Las futuras investigaciones estarán encaminadas a intentar reproducir el encogimiento de la GRS en el tiempo para conocer con más detalle los mecanismos físicos que subyacen a su sostenimiento en el tiempo. A la vez que intentarán pronosticar si la GRS se desintegrará y desaparecerá al alcanzar un tamaño límite, como pudo pasarle a la PS de Cassini, o bien si se estabilizará en un tamaño límite en el cual pueda perdurar durante muchos más años.

 

Referencia:

A. Sánchez-Lavega, E. García-Melendo, J. Legarreta, A. Miró, M. Soria, K. Ahrens-Velásquez (2024) The origin of Jupiter’s Great Red Spot Geophysical Research Letters doi: 10.1029/2024GL108993

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo El origen de la Gran Mancha Roja se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Mars Climate Orbiter ontziaren istripua

Zientzia Kaiera - Fri, 2024/06/21 - 09:00

90eko hamarkadan, ia ez genekien ezer Marteren inguruan, eta espazio-agentziak hura ikertzeko misioak martxan jartzen hasi ziren. Horietako bat NASAren Mars Exploration programa izan zen, eta planeta gorriko klima hobeto ezagutzeko helburuarekin, 1998ko abenduan Mars Climate Orbiter ontzia aireratu zuten.

Marterako bidaiaren erdian, ordea, ingeniariak ohartu ziren zerbait ez zihoala ondo ontzian. Bere bidetik desbiderantzen zen behin eta berriz, eta halako batean, ohartu ziren programa matematikoan unitaeekin nahastu zirela.

UPS! ataleko bideoek gure historia zientifiko eta teknologikoaren akatsak aurkezten dizkigute labur-labur. Bideoak UPV/EHUko Kultura Zientifikoko Katedrak eginak daude eta zientzia jorratzen duen Órbita Laika (@orbitalaika_tve) telebista-programan eman dira gaztelaniaz.

The post Mars Climate Orbiter ontziaren istripua appeared first on Zientzia Kaiera.

Categories: Zientzia

Modelado del paisaje: la cirugía plástica de nuestro planeta

Cuaderno de Cultura Científica - Thu, 2024/06/20 - 11:59

Uno de los aspectos geológicos más llamativos de la Tierra, que nos genera bienestar al verlo y, a la vez, deja volar nuestra imaginación, dando lugar a múltiples mitos y leyendas, es el paisaje. Esas formas de la parte externa y superficial del planeta cinceladas con paciencia por múltiples procesos que nunca se detienen, provocando que cambien su morfología sin cesar. De ahí que la disciplina geológica que los estudia se llame geodinámica externa. Sí, hoy os voy a hablar de los procesos geológicos externos, culpables de la formación de los paisajes que nos rodean.

Estos procesos geomorfológicos forman parte del denominado ciclo de las rocas, un ciclo sin fin de formación, destrucción y transformación de los tres tipos de rocas que encontramos en nuestro planeta: sedimentarias, metamórficas e ígneas. Y, más concretamente, son los protagonistas, por no llamarlos culpables, de la fase inicial de formación de las rocas sedimentarias.

Como ya sabéis, en Geología nos encanta clasificarlo y agruparlo absolutamente todo, y los procesos geológicos externos no son una excepción. Así que os los voy a presentar siguiendo el orden en el que suceden en la naturaleza.

paisajeA) Esquema del proceso de meteorización física conocido como gelifracción o crioclastia que culmina con la rotura de las rocas. Fuente: British Geological Survey B) Bloque de roca granítica de Escocia fracturado por efecto de la gelifracción. Fuente:  Velela / Wikimedia Commons

El primero de ellos es la meteorización, que se define como la rotura de las rocas en fragmentos cada vez más pequeños y que se quedan en el mismo sitio en el que se han producido. Esta meteorización puede ser de tres tipos: en primer lugar tenemos la mecánica, que se produce por procesos físicos que afectan a las rocas, tales como cambios en la temperatura, la acción del viento o el efecto del agua, ya sea dulce, salada, en estado líquido o congelada. Un ejemplo muy curioso es la gelifracción o crioclastia, que se produce en zonas con importantes cambios de temperatura entre el día y la noche, de tal manera que el agua de lluvia se infiltra en las fracturas de la roca, al congelarse por la noche el hielo actúa como una cuña que expande las fracturas, provocando que, al fundirse durante día, el agua pueda penetrar a más profundidad en el material, se vuelva a congelar por la noche y así sucesivamente hasta que fractura por completo la roca. El segundo tipo es la meteorización química, que se debe a los cambios en la composición química de los minerales que conforman las rocas al reaccionar con el agua de lluvia, que es ligeramente ácida al llevar disuelto dióxido de carbono, o con los gases atmosféricos. Y en tercer lugar encontramos la meteorización biológica, que es aquella producida por los animales, incluidos los seres humanos, al pasar por encima de las rocas o cuando construyen sus madrigueras, y por las plantas al penetrar las raíces en el terreno.

El siguiente proceso que nos encontramos es la erosión. En realidad, es muy similar a la meteorización, pero con una pequeña diferencia, aquí las partículas fracturadas de las rocas, a las que llamamos sedimentos, son desplazadas de su lugar de origen. La erosión de las rocas se produce por la acción de diversos procesos o agentes erosivos (valga la redundancia), que pueden actuar juntos o por separado. En primer lugar tenemos la gravedad, que provoca el hundimiento, caída o desplazamiento de los materiales que estén dispuestos de manera inestable sobre el terreno. En segundo lugar encontramos el viento, que, sobre todo si lleva incorporados granos de arena o pequeños cristales de sal procedentes del agua marina en áreas litorales, golpea las rocas como si fuese un martillo pilón hasta romperlas. Y, por último, vuelve a aparecer el agua, ya sea en forma de lluvia cayendo sobre la superficie del terreno, de oleaje desbocado arrasando los acantilados y las costas, de glaciares de montaña excavando valles en forma de U a su paso o de ríos encajando su cauce y generando valles con forma de V.

Enlazando con la erosión pasamos al siguiente proceso, el transporte geológico. Y no, aquí no se incluye llevar rocas desde una cantera en un camión. Me refiero al transporte de los sedimentos por medios naturales, principalmente por el viento y el agua, como lenguas glaciares, arroyos y ríos o corrientes marinas. De acuerdo al tamaño, morfología y densidad de las partículas, así como a la energía del agente que provoca el desplazamiento, los sedimentos pueden recorrer grandes distancias durante su transporte, quedando muy alejados de su área fuente.

El último proceso geológico externo es la sedimentación, que se refiere al depósito de los materiales transportados por el viento o el agua (voy a repetirlo de nuevo, ya sea en ríos, arroyos, hielo o corrientes marinas) en las cuencas sedimentarias, que no son más que zonas deprimidas del terreno tales como lagos o el fondo marino. Estos sedimentos se van acumulando unos sobre otros hasta acabar enterrándose, comenzando así la siguiente fase de formación de las rocas sedimentarias. Pero eso es otra historia.

paisajePanorámica del paisaje de Bárdenas Reales de Navarra, donde se producen algunos de los procesos geomorfológicos externos aquí descritos: meteorización física, química y biológica; erosión por gravedad, por el viento y por el agua de lluvia y de arroyos; transporte por el agua de avenidas y arroyos; y depósito de los sedimentos al pie de las laderas y en el fondo de los cañones.

Como os decía al principio, estos procesos no dejan de actuar sobre los materiales que se encuentran en la superficie de nuestro planeta. Y su acción no solo modifica la forma del paisaje natural que tenemos a nuestro alrededor, también afecta a nuestras construcciones e infraestructuras. Los monumentos sufren la meteorización y erosión implacable de los agentes meteorológicos, las vías de comunicación se deben enfrentar a posibles movimientos del terreno o los muelles, puertos y diques están a la merced de la fuerza de las corrientes litorales. No podemos enfrentarnos a la naturaleza y no debemos menospreciar el poder de los agentes modeladores del terreno, lo que tenemos que hacer es estudiarlos, comprenderlos y adaptarnos a ellos. Además de disfrutar de las morfologías que nos rodean en cada momento, porque puede que mañana hayan cambiado.

Sobre la autora: Blanca María Martínez es doctora en geología, investigadora de la Sociedad de Ciencias Aranzadi y colaboradora externa del departamento de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Modelado del paisaje: la cirugía plástica de nuestro planeta se ha escrito en Cuaderno de Cultura Científica.

Categories: Zientzia

Aristoteles: Jakiteko irrika

Zientzia Kaiera - Thu, 2024/06/20 - 09:00

Aristoteles Grezia klasikoko filosofo eta zientzialaria izan zen. Platonekin batera, filosofia okzidentalaren pertsonaia nagusienetako bat izan zen.

Aristoteles1. irudia: “Aristoteles: Jakiteko irrika” komikiaren azala. (Ilustrazioa: Jordi Bayarri. Iturria: Ikaselkar)

Jakin-min handiko pertsona izan zen, eta bizitzaren helburua jakintza lortzea zela sinesten zuen.  Bere jaioterritik, Estagiratik, Atenasera joan zen ikastera, Platonen akademiara. Urteak eman zituen bertan, liburu eta eztabaida filosofikoen artean, baina Mazedoniak Grezia hartu zuenean alde egin behar izan zuen Atarneora.

Hainbat zientziaren esparru landu zituen: biologia, fisika, kimika, astronomia… Animaliak disekzionatzen zituen eta landareen bildumak egiten zituen, haietaz ikasteko eta ulertzeko zergatik ziren ziren bezalakoak.

Aristoteles2. irudia: Aristoteles jakin-min handiko filosofo eta zientzialaria izan zen, eta bizitzaren helburua jakintza lortzea zela sinesten zuen. (Ilustrazioa: Jordi Bayarri. Iturria: Ikaselkar)

“Aristoteles: Jakiteko irrika” Ikaselkar argitaletxeak argitaratzen duen “Zientzialariak” komiki-sortaren ale bat da. Komikiek haur eta gazteen artean irakurzaletasuna sustatzea eta euskaraz irakurtzeko ohitura zabaltzea ditu helburu. Horrez gain, irudi-sorta atsegin eta hizkuntza hurbilaren bidez, haur eta gazteei zientzia gerturatzea ere nahi du egitasmoak. Komikien bidez zientzialari eta pentsalari ezagunen biografiak eta lorpenak plazaratzen dira: Marie Curie, Newton, Galileo, Darwin, edo Hipatia.

“Zientzialariak” komiki-sortaren ale honetan ikusiko dugu, zelan duela urte asko, gaur egun dakizkigun gauza asko oraindik ezagutzen ez zirenean, ezagutzeko grina beharrezkoa zen mundua hobeto ulertzeko, eta zelan Aristoteles bezalako jakin-min handiko pertsonengatik egiten dugun aurrera.

Argitalpenaren fitxa:
  • Izenburua: Aristoteles: Jakiteko irrika
  • Egilea: Jordi Bayarri
  • Itzultzailea: Maialen Berasategi
  • Argitaletxea: Ikaselkar
  • Urtea: 2018
  • Orrialdeak: 48 orrialde
  • ISBNa: 978-84-16752-96-6

The post Aristoteles: Jakiteko irrika appeared first on Zientzia Kaiera.

Categories: Zientzia

Pages