Catástrofe Ultravioleta #33 TANATOS 2
En este episodio seguimos indagando en el concepto de la muerte. Aquí vamos a dejar atrás el resto de especies que tratamos en el anterior capítulo y vamos a centrarnos en nuestros antepasados, ¿cómo se enfrentaron ellos a la muerte? No tenemos una máquina del tiempo, pero sí algo que siempre nos dice la verdad: los huesos.
https://www.ivoox.com/t03e09-tanatos-2_md_62361097_wp_1.mp3Puedes escucharnos en:
– Podium Podcast
– iVoox
– Spotify
– Apple Podcasts
Agradecimientos: Susana Escudero, Roberto Sáez, Nacho Martínez Mendizábal y Lucía Perlado.
** Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación son obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.
El artículo Catástrofe Ultravioleta #33 TANATOS 2 se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ezjakintasunaren kartografia #332
Zenbait genek egiten zutena egiteari uzteak ez da beti txarra. Rosa García-Verdugoren eskutik: Losing genes can be a win in evolutionary terms p
Elektronikan gauzarik bitxienak egiteko inspirazio izan daitezke animaliak. Kolorea aldatzeko gaitasuna (kamaleoian oinarrituta) eta itsastekoa (muskuiluan), adibidez. Daniel González Muñozen eskutik: Mimicking animals to improve device properties
Oso korrelazionatutako eta, beraz, oso konplexuak diren sistemen simulazio teorikoak ez du zertan garestia izan, teoria sendoan oinarrituta. DIPC: The essential physics of the Mott metal-insulator transition at negligible computational cost
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #332 appeared first on Zientzia Kaiera.
¿Puede un muerto regresar a la vida?
Sendoa Ballesteros Peña
Foto: Cristian Newman / UnsplashQue el disfraz de muerto viviente sea uno de los más recurrentes de la noche de Halloween, víspera del Día de Todos los Santos, no es casual. La posibilidad de que los muertos retornen a la vida ha quitado el sueño a los humanos desde la época medieval hasta principios del siglo XIX. Las leyendas de los “no muertos” surgieron en la Europa del siglo XI, aunque el mito, probablemente, es mucho anterior.
La arqueología ha dejado a la luz testimonios de rituales funerarios grotescos, como enterramientos boca abajo u hoces sobre la garganta del difunto para evitar que el muerto se levantase de su tumba.
Pero a partir del siglo XIX se generalizó un nuevo miedo alentado por la literatura propia del romanticismo oscuro de la época: el de ser enterrado vivo. Poco después del año 1800, se comercializó el primer ataúd de seguridad. Este dispositivo permitía activar una campanilla situada en el exterior desde la propia sepultura, en el caso de que el supuesto difunto hubiese “despertado”. Hasta mediados del siglo XX se computaron al menos 22 patentes de este artilugio en Estados Unidos, si bien no existe registro ni testimonio de que alguna vez haya sido utilizado por una persona erróneamente declarada muerta.
¿Es posible declarar muerta a una persona viva?
A lo largo de la historia la forma de diagnosticar la muerte de una persona ha sufrido variaciones. Durante siglos se aceptó que la ausencia de respiraciones, de pulso, de latidos y de reacción a estímulos eran signos inequívocos de fallecimiento. Sin embargo, esos criterios no siempre eran determinados por un médico cualificado y podía existir cierta desconfianza en el diagnóstico.
Bajo esas circunstancias, y en aras de evitar el error de dar sepultura a alguien dado por muerto por error, nace la tradición del velatorio, cuya duración varía, según las culturas, entre uno y tres días. De hecho, en España, hasta el año 2011 era necesario esperar 24 horas antes de proceder al enterramiento de un cuerpo. Actualmente, la ciencia y la tecnología están suficientemente avanzadas como para no cometer errores de esa naturaleza. Aunque a veces, la prensa de hace eco de sucesos casi inverosímiles de “resucitaciones”.
¿Es posible que una persona declarada muerta “resucite”?
Cabría pensar que tal afirmación corresponde al mundo de la leyenda o del cine. Pero cuando durante la última década se ha realizado esta pregunta a una muestra de profesionales sanitarios, el 45% de los médicos de emergencias de Francia, el 37% de los intensivistas canadienses y el 37% de los holandeses respondieron que, durante su carrera, al menos habían sido testigos de un caso de autorresucitación de un paciente en ausencia de maniobras de reanimación cardiopulmonar.
De forma paralela, la literatura científica alberga casos documentados de pacientes que recuperaron las constantes vitales una vez cesadas las maniobras de reanimación cardiopulmonar o en ausencia de ellas. Un extraño suceso denominado “fenómeno de Lázaro”, en alusión al conocido pasaje bíblico.
Desde 1984, se tiene constancia de que el fenómeno de Lázaro ha afectado, al menos, a 63 pacientes clínicamente muertos, tanto en edad adulta como pediátrica. El tiempo desde el cese de las maniobras de reanimación hasta la recuperación espontánea de los signos vitales ha variado en un rango de pocos segundos hasta tres horas y media. El 35% de “los resucitados” sobrevivió hasta el alta del hospital y, en la mayor parte de las ocasiones, sin secuelas neurológicas.
No obstante, y a la vista de la elevada proporción de clínicos que, en privado, afirman haber presenciado una resucitación y la modesta descripción de casos en revistas especializadas, parece existir cierta infradocumentación de “fenómenos de Lázaro”. Esta escasez de información puede ser debida a temores de los clínicos frente a consecuencias médico-legales, de descrédito profesional o incluso por la incredulidad del personal asistencial ante sus observaciones. A diferencia de la literatura biomédica, los textos periodísticos se hacen regularmente eco de noticias que relatan hechos compatibles con el fenómeno de Lázaro.
¿Por qué se produce el fenómeno de Lázaro?
Aunque ya no se duda de la existencia de procesos de autorresucitación, en la actualidad se desconocen por qué mecanismos fisiopatológicos se producen los fenómenos de Lázaro.
Se han barajado varias hipótesis plausibles al fenómeno, aunque por sí solas no han logrado explicar la totalidad de los casos documentados.
Una de ellas tiene que ver con un posible efecto retardado de los fármacos utilizados durante la reanimación, como la adrenalina o el bicarbonato. Otras posibles explicaciones al fenómeno se han relacionado con la presencia de marcapasos funcionantes o la autorreperfusión miocardiaca tras el desprendimiento de placas de ateroma en las arterias coronarias.
Pero la hipótesis más razonable apuntaría a la existencia de un aumento de las presiones intratorácicas producida por la ventilación artificial. Este proceso podría desencadenar una disminución de la perfusión coronaria y el cese de la actividad del corazón. Al dar por finalizadas las maniobras de reanimación se provocaría la disminución la presión intratorácica y, tras ello, la recuperación espontánea del movimiento mecánico del corazón.
Sea como fuere, el fenómeno de Lázaro desafía al entendimiento humano. Una leyenda convertida en observación clínica a falta de explicación científica.
Sobre el autor: Sendoa Ballesteros Peña es enfermero en Osakidetza- Servicio Vasco de Salud y profesor asociado a la Facultad de Medicina y Enfermería, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Puede un muerto regresar a la vida? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Elizabeth Fulhame: Kimika modernoan mugarria izan zen ‘espektro bat’
Izen bat, Elizabeth Fulhame (senarraren abizena da), eta 1794an argitaratu zuen An Essay On Combustion with a View to a New Art of Dying and Painting liburua dira berari buruz dauzkagun datu bakarrak. Ez dago bere irudirik, ezta jaiotze- eta heriotza-datarik ere. Non hazi zen? Nolakoa zen haren familia? Zerk liluratu zuen zientziaren arloan? Ikasi ote zuen? Ezagutzen ez dena izan ohi da erakargarria; eta bizitza jakin bat asmatzeko aukerak txunditzen gaitu erabat.
Halere, ezkutuan dagoena argitzeko ahaleginetan, “espektro” izateari utz diezaion alegia –zientziaren historian emakumeen kasuan usu gertatu den bezala–, ez dezagun ahaztu bidean egin zuena. Liburu bakarra argitaratu zuen arren, mugarria izan zen: katalisia kontzeptua asmatu zuen (Jöns Jacob Berzelius kimikariak baino 40 urte lehenago), fotoerredukzioaren mekanismoak aurkitu, eta argazkigintzan aurrerapausoak eman zituen, argiaren ekintzak sortutako irudiei buruzko behaketei esker.
An Essay On Combustion (1794) lanari esker, Elizabethek egin zituen aurkikuntzak ezagutzeko aukera dugu. Izan ere, hamar kapitulutan kasik 150 esperimentu azaldu zituen, baita bizitzea egokitu zitzaion garaiari buruzko pasadizoak kontatu ere; gizonezkoei zegokien diziplina batean aritzean izan zituen zailtasunak, kasu. Esaterako, azterlan honetan, katalisia zer den deskribatzen du. Saiakera ugariren ostean, oxidazio erreakzio gehienak urarekin gertatzen zirela ikusi zuen; urak horietan parte hartzen zuela eta erreakzioaren amaieran birsortzen zela ondorioztatu zuen. Teoria hori frogatzeko zehatz-mehatz deskribatu zuen prozesu hori guztia eta era berean, kritikatu zituen Flogistoaren teoria eta Antoine-Laurent Lavoisierren ideiak.
Irudia: “An Essay On Combustion”liburuaren orrialde batzuekin eta Elizabeth Fulhame irudi posible batekin egindako muntaketa. (Iturria: Mujeres con Ciencia bloga)Elizabethek ez zituen kontuan hartzen bere garaikideen iritziak. Izan ere, lan horri esker aurrerapausoak eman ziren kimikaren arloan, errekuntzaren inguruko bere teoria garatu baitzuen; Berzeliusek eta Eduard Buchnerrek aurkeztutakoa baino lehenago, gainera.
Beldurrik ez bere iritzia ematekoUrrezko, zilarrezko eta beste hainbat metalen oihalak egin nahi zituen prozesu kimikoen bitartez, eta hori izan zen katalisiaren aurkikuntzaren abiapuntua. Aipaturiko liburuan azaltzen du ideia hori 1780an bururatu zitzaiola. Ildo horri jarraiki, haren senarrak eta adiskide batzuek Elizabethek aurreikusitakoa sinesgaitza zela uste zutenez, teoria horrekin ez jarraitzeko konbentzitu nahi zuten. Alabaina, zientzialariak ez zien jaramonik egin, ezta indarrean zegoen eszeptizismoari ere. Ideia horri dagokionez, bere liburuko hitzaurrean honako hau idatzi zuen:
“Konturatu nintzenean esperimentuok ezin zirela azaldu ordura arteko teoriak erabiliz, aldatu zen M. Lavoisier eta beste izen handien inguruan nuen iritzia. Sinetsita nago inongo autoritatek, garrantzitsua izanagatik ere, ez ligukeela kendu behar egia bera ikertzeko asmoa; eta iritzi bakoitza defendatu edo deuseztatzeko meritu propioek baino ez dutela balio. Hala, menturatuko naiz nire iritzia munduari eskaintzera, eta prest nago hari uko egiteko beste arrazionalago bat aurkezten den bezain laster”.
Jakina denez, liburua argitaratu ostean, askotariko iritziak jaso zituen Elizabethek: batzuek goraipatu zuten haren lana, beste batzuek kritikatu. Iritziak iritzi, lorpen handia izan zela ezin da zalantzan jarri; izan ere, 1798an Augustin Gottfried Ludwig Lentinek itzuli zuen alemanera. Geroago, 1810ean, Estatu Batuetan argitaratu zen; esan gabe doa arrakasta handia izan zuela. Urte horretan bertan Filadelfiako Kimika Elkarteko ohorezko kide izendatu zuten.
Ez zuen erraza izan behar haren ideiak plazaratzeak, batez ere emakumeei debekatzen zietelako zientzian jardutea. Arlo horretan lan egiteak arrisku bat zekarren berarekin, baina horrek ez zion axola, beti haren kideekin talka egiten zuen arren. “Apika, zentsura saihestezina da”, idatzi zuen liburuan, “batzuk hain ezjakinak dira ezen zakarrak eta isilak bilakatzen diren, eta ikaratu egiten dira ikaskuntza dirudien edozer gauzaren aurrean, edozein formatan dela ere; eta ‘emakume’ gisa agertzen bada ‘espektroa’, jasaten dituzten minak zinez kaltegarriak dira”.
Elizabethen arabera, kimika “entretenigarria” zen, dibertsio moduko bat, alegia. Berari buruz dakigun guztia idatzitako saiakera hartan dago irakurgai, gogora dezagun, zientziaren historian argitaratu den lanik garrantzitsuenetako bat. Obra horretan ez dago irudirik, ezta haren datu biografikorik ere. Eta, hala ere, dena dago hor, Elizabeth Fulhame izan zen guztia. Beti dago guri buruzko zehaztasunen bat idazten dugun horretan, lerroen artean gordeta aurkitu nahi duenarentzat.
Iturriak:- Laidler, Keith J. eta Cornish-Bowden, Athel (1977). Elizabeth Fulhame and the Discovery of Catalysis: 100 Years before Buchner, New Beer in an Old Bottle: Eduard Buchner and the Growth of Biochemical Knowledge liburuan (ed. A. Cornish-Bowden), 123-126 orr., Universitat de València, Valencia.
- Steinmark, Ida Emilie (2017). Elizabeth Fulhame: the scientist the world forgot, Education in Chemistry, Royal Society of Chemistry, 2017ko urriaren 10a.
Uxue Razkin (@UxueRazkin) kazetaria da.
The post Elizabeth Fulhame: Kimika modernoan mugarria izan zen ‘espektro bat’ appeared first on Zientzia Kaiera.
Beethoven y el metrónomo: los titubeos de un genio
Hace 8 años empecé a estudiar física en la UNED gracias, en parte, a la curiosidad inspirada por Naukas, una comunidad de divulgación científica a la que le estaré siempre agradecida. Hoy, 17 de diciembre y coincidiendo con el 250 aniversario del nacimiento de Ludwig van Beethoven, se ha publicado mi primer artículo científico en la revista PLOS ONE, firmado junto a Iñaki Úcar. Este trabajo fue inspirado inicialmente por un post de Francis Villatoro publicado en 2013. Su artículo de divulgación consiguió encender una chispa de curiosidad que culminó con mi TFG (dirigido por Álvaro Perea Covarrubias) y con el estudio que hoy os presento. Lo que sigue es un breve resumen de nuestro trabajo, traducido al castellano.
Las elecciones de tempo de los directores arrojan luz sobre el misterio del metrónomo de Beethoven
Durante la mayor parte de la historia de la música clásica occidental, el tempo, la velocidad a la que debe sonar la música, no era especificado en las partituras. En general, se consideraba obvio por el contexto musical. El metrónomo, un dispositivo que permite medir y cuantificar de manera precisa este tempo musical, no fue patentado hasta 1815. Beethoven acogió el invento con entusiasmo, hasta el punto de medir y añadir nuevas marcas a sus ocho sinfonías ya publicadas hasta esa fecha.
La gran paradoja de esta historia es que, a pesar de la implicación de Beethoven, estas marcas no han ayudado a clarificar el tempo de su música. Por el contrario, desde su publicación, han sido ampliamente disputadas: muchos intérpretes las consideran antimusicales o incluso demasiado rápidas para ser tocadas. Probablemente, el caso más paradigmático es el de la Sonata para piano Op. 106, también conocida como Hammerklavier, que comienza con una indicación completamente inviable de 138 ppm (pulsos por minuto). Esta y otras incongruencias han llevado a muchos artistas a ignorar estas cifras y usar otras pistas para determinar el tempo correcto de la música. Pero también hay quienes, buscando interpretaciones históricamente precisas, reivindican las marcas de Beethoven como su supuesta voluntad escrita. Desde la década de 1980, el movimiento HIP (por sus siglas en inglés, historically informed performances), definido por su intención de interpretar la música tal y como sonaba en la época en que fue concebida, ha culpado al romanticismo y a la escuela de dirección de Wagner por ralentizar las interpretaciones musicales de Beethoven.
El hecho de que no todas las marcas compartan la misma mala reputación ha desconcertado especialmente a los musicólogos. La explicación más controvertida e intrigante es la que se centra en el funcionamiento del propio metrónomo. Después de todo, Beethoven poseía una de las primeras unidades de un dispositivo recién inventado. Existen evidencias documentales de que al menos en dos ocasiones el compositor tuvo que llevarlo al relojero debido a su comportamiento inestable. ¿Pudo ralentizarse debido a algún daño mecánico, obligando a Beethoven a elegir marcas más rápidas de las que realmente pretendía?
Sobre la base de todo este debate, la cuestión clave es si la música implica cierto tempo que los intérpretes pueden estimar o si, en cambio, es una elección arbitraria que solo el compositor puede revelar. De hecho, hasta el siglo XIX, los compositores no tenían una forma de cuantificar la velocidad de la música. Solo podían usar indicaciones cualitativas (como Allegro, Andante, Grave) para caracterizar sus piezas. Pero incluso después de 1815, compositores como Brahms o Mendelssohn descartaron usar el metrónomo por considerarlo inútil, argumentando que cualquier músico debería poder inferir el «tempo correcto» para cualquier pieza. Hay estudios que sugieren que la información del tempo está codificada no solo en la melodía y el ritmo, sino también en otros atributos musicales como el tono, el timbre y la densidad de eventos. Como resultado, la combinación característica de melodía, armonía, ritmo, orquestación y notación dentro de una pieza pueden influir en la percepción de un tempo óptimo dentro de unos límites razonables.
En busca de ese tempo perceptivo, en este trabajo, hemos medido de manera automatizada los tempi de 36 integrales sinfónicas de Beethoven interpretadas por 36 directores diferentes. La idea es que, si el metrónomo es el culpable de las marcas exageradamente rápidas, una gran colección de tempi interpretados por diferentes directores debería revelar, en promedio, una desviación sistemática respecto a las marcas originales de Beethoven. Esta desviación podría explicarse por medio de algún fallo mecánico del metrónomo de Maelzel. Nos basamos, en última instancia, en la llamada «sabiduría de las masas». Los resultados muestran que todos los grupos de directores tocan más lento que lo indicado por Beethoven en aproximadamente 6, 8 y 13 ppm, respectivamente, en promedio.
A continuación, desarrollamos un modelo matemático del metrónomo basado en un péndulo doble y validado experimentalmente con un metrónomo contemporáneo. También desarrollamos una metodología para estimar los parámetros originales del metrónomo de Beethoven a partir de fotografías de otros metrónomos de la época y el esquema de la patente original. Finalmente, usamos este modelo para evaluar posibles distorsiones: incluyendo la alteración de la masa inferior o un aumento de la fricción entre otras. La única perturbación que provoca una deceleración homogénea del metrónomo es un desplazamiento de la escala con respecto al eje de aproximadamente centímetro y medio.
Esto podría suceder si, por alguna razón, su mecanismo se hubiera caído dentro de la caja o la escala hubiese estado mal colocada. Sin embargo, hay otra explicación más simple. Por convención, la masilla del metrónomo debe colocarse bajo la marca que se quiere reproducir. En los primeros metrónomos, esta masilla medía, precisamente, centímetro y medio de alto y una forma trapezoidal apuntando hacia abajo (ver figura). Esto podría haber llevado a sus usuarios a leer la marca del metrónomo por debajo del peso en movimiento, en lugar de por encima. Al anotar las cifras debajo de esta aparente flecha, las marcas de Beethoven habrían resultado más rápidas de lo que el compositor realmente pretendía, precisamente, por 12 bpm. Este número, por supuesto, no es accidental: como hemos mostrado, es aproximadamente la diferencia promedio entre las elecciones de tempo de los directores románticos y las anotaciones de Beethoven.
¿Pudo Beethoven realmente cometer semejante error? En la primera página del manuscrito de la Novena Sinfonía, hay una inscripción reveladora de su propio puño y letra: “108 o 120 Maelzel”. Algunos académicos han interpretado este texto como prueba del pobre estado mental de Beethoven, su indecisión o, quizás, como un rango de tempi preliminar aún pendiente de refinar. Pero la gran diferencia entre estas dos cifras hace que semejante vacilación sea improbable para un compositor que tan a menudo insistió en la importancia del tempo como parte esencial de su música. Además, si Beethoven hubiese querido delimitar un posible rango de tempi, habría escrito “108-120”, no “o” (palabra que en alemán es inconfundible: oder). Como hemos aclarado en este trabajo, la distancia entre 108 y 120 en la escala, 1.5 cm, coincide exactamente con el tamaño del peso en movimiento del metrónomo. Esta inocente anotación constituye una prueba escrita de que, después de tanto tiempo usando el dispositivo, hubo un momento al menos, en el que Beethoven no estuvo seguro sobre cómo leerlo.
Nuestro trabajo descarta la hipótesis de la ruptura de Beethoven y arroja luz sobre una controversia de 200 años entre críticos, intérpretes y académicos. La hipótesis más probable es que Beethoven o su asistente malinterpretaran el dispositivo, lo que no debe tomarse como un error tonto, sino como un síntoma de un diseño que aún no se había perfeccionado y que aún carecía del contexto cultural para apoyar a sus nuevos usuarios. Quizás, con ayuda de los datos y la física, los intérpretes encuentren una nueva forma de interpretar y escuchar a Beethoven.
Referencia:
Martín-Castro A., Ucar I. (2020). Conductors’ tempo choices shed light over Beethoven’s metronome. PLOS ONE: e0243616. doi: 10.1371/journal.pone.0243616
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo Beethoven y el metrónomo: los titubeos de un genio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Esne Bidearen mapa berria: zehatza bezain ederra
Gaia misioak Esne Bideari buruzko datu andana argitaratu ditu, eta, horietan oinarrituta, lehen ondorioak argitaratu ditu. Galaxiaren iragana eta etorkizun urruna irudikatzeko ezagutzeko aukera dute ikertzaileek, eta beste aurkikuntza asko egiteko bidea irekita geratu da.
Zinez zaila da mundua mapa batean adieraztea. Kartografoek betidanik izan duten arazoa izan da. Hiru dimentsioko mundu bat paper bateko bi dimentsioetan doitasunez irudikatzea ezinezkoa da, eta, ondorioz, proiekzioak erabili behar dira, bidean errepresentazio kartografikoaren zehaztasuna galduta. Gaur egun, mapa gehienak XVI. mendean Gerardus Mercator kartografoak asmatutako proiekzioan oinarritzen dira. Duela hamarkada batzuk modan jarri zen Arno Peters zinegile eta historialariak moldatutako beste proiekzio bat, Mercatorren proiekzioan poloetatik gertueneko masak handitzen direlako, eta hori Mendebaldeko eurozentrismoaren eta inperialismo kartografikoaren erakusle omen zirelako, Petersen ustetan. Kartografikoki Petersen proiekzioa nahiko kaxkarra izan arren, ideia ondo saldu zen halako proposamenen kala natural diren zirkuluetan, eta, horregatik, espageti itxurako mapa hori askotan ikusiko duzu. Proiekzio bakoitzaren atzean dagoen filosofia modu arinean ikusi nahi baduzu, xkcd komikian aurkituko duzu sarrerarik hoberena.
1. irudia: Esne Bideari buruz inoiz egin den maparik osatuena ari da eraikitzen Gaia misioa. Hemendik bi urte barru, datu are zehatzagoak espero dira. (Argazkia: ESA/Gaia/DPAC – CC BY-SA 3.0 lizentziapean)Hiru dimentsioak mapa batean irudikatzea zaila bada —tira, euskarri berriek hau dezente hobetu dutela aitortu beharra dago—, pentsa zein zaila izango den lau dimentsioak mapa batean jartzea. Bai, lau. Izan ere, normalean mapa batean denbora kontuan hartu behar ez den aldagaia da, baina, espazio sakonari buruzko mapei buruz hitz eginez gero, denbora funtsezkoa izan daiteke. Distantziak hain itzelak izanda, praktikan objektu bakoitzetik jasotako informazioak benetan adierazten duena da objektu horrek noizbait izan zuen egoera.
Horregatik, gure galaxiaren eta inguruan diren beste objektuei buruzko informazioa biltzen duen Gaia misioa hiru dimentsioko mapa osatzen ari dela esaten den arren, praktikan, interpretazioan, mapa hori lau dimentsiokoa da. Izar edo objektu bakoitzaren inguruko kokapena eta ezaugarriak eskuratzeaz gain, informazio hori guztia denbora esparru batean kokatzen da, eta, horrela, gure begien aurrean mantso dabilen baina praktikan bizirik eta mugimenduan dagoen egitura izugarri baten mapa dinamikoa osatzen ari dira. Izarren kokapena eta ibilbideari erreparatuta, iraganaren eta etorkizunaren argazkiak osatzen ari dira, orainaldikoekin batera.
2013an martxan jarri zenetik, ESA Europako Espazio Agentziak sustatutako zunda datu andana biltzen ari da. Eta, noizean behin, behin txukundu dituela, datu horiek askatu egiten ditu, mundu osoko astronomoen pozerako. 2016an eta 2018an egin ziren datuen lehenengo eta bigarren kaleratzeak. Oraingoan hirugarrenaren txandaren lehen fasea iritsi da, teknikoki Datuen Hirugarren Irteera Goiztiar izendatu duten kaleratzearen bitartez (EDR3 edo Early third Data Release). Goiztiarra izendatzen dute, dena ondo bidean, hemendik bi urtera hirugarren irteera osoa espero dutelako.
Kopuru hutsei erreparatuta bederen, datuak izugarriak dira. Esne Bidean eta horren inguruan diren 1.800 milioi objekturen inguruko informazioa jasotzen dira bertan: aurrekoan argitaratu zituztenak baino 100 milioi gehiago. Koloreen informazioari dagokionez, 200 milioi iturri gehiago jaso dituzte oraingoan: orotara 1.500 milioi iturri jasota daudelarik. Baina iturrien kopurua handitzeaz gain, neurketen doitasuna ere hobetu dituztela azaldu dute misioaren arduradunek. Esne Bideko izarren eta bestelako objektuen kokapena lantzen duen misio astrometrikoa izanda ere, beste hainbat datu jasotzen ditu Gaiak, objektuaren eta distantziaren arabera: izarren abiadura erradiala, argi kurbak edota tenperatura. Asteroideen kokapena ere jasotzeko gai da.
“Helburu nagusia da geure galaxia ulertzea, horren arkeologia egitea”, azaldu du Gaia bitartez datuak aztertzen ari den DPAC taldeko ikertzaile Carme Jordi-k La Mecanica del Caracol irratsaioan. Baina izarrak behatzen ari garenez, izarrei berei buruz asko ikasten dugu ere: haien fisikaz, eboluzioaz, nola jaiotzen diren eta nola hiltzen diren. Modu berean, gure eguzki sistemako objektuak eta kanpoko galaxiak ere ikusten ditugu. Azken finean, astronomiaren eremu askotan eragina izaten ari gara, ez soilik galaxiari lotutakoetan”.
2. irudia: Datozen 400.000 urteetan gure galaxiako 40.000 izarrek gure ikuspegiaren arabera zeruan egingo duten mugimendua aurreikusi dute mapa honetan. (Argazkia: ESA/Gaia/DPAC – CC BY-SA 3.0 lizentziapean)Zientzia komunitatearen esku jarri dituzten datuekin batera, informazio horrekin egin daitezkeen aurkikuntzen adierazle diren lau zientzia artikulu argitaratu dituzte. Artikulu hauek ez dira behin betiko artikuluak, misioan eskuratutako datuetatik atera daitezkeen emaitza zientifikoen artikulu erakusgarriak baizik.
Agian nabarmenena da Esne Bidea orbitatzen duen Sagitario galaxia nanoarekin izandako hurbiltze baten inguruan duela bi urte aurreratu zituzten zantzuak berretsi dituztela orain. Esne Bidearen ertzetako izarretan atzemandako mugimendu batetik ondorioztatu dute duela 300-900 milioi urteren bueltan izandako hurbiltze hori. Ikusi dutenez, hainbat izar galaxiaren planoarekiko mantso mugitzen ari dira, plano horretarantz doazelarik. Planoaren azpitik, berriz, gorantz ari diren beste izar multzo bat dago; azken hauek nahiko azkar mugitzen dira. Datuak aztertu dituzten ikertzaileen arabera, horiek lirateke Esne Bidearen eta Sagitario galaxia nanoaren arteko hurbilketa edo ia-talka horren ondorioak. Etorkizun urrun batean, Esne Bideak galaxia nano hori bereganatuko duela uste dute zientzialariek.
Gure galaxiak inguruan dituen beste bi galaxia satelite doitasun handiagorekin aztertzeko aukera izan dute: Magallanesen Hodeiak. Bertako izarrei buruz orain eskura izan dituzten datuak askoz zehatzagoak izanik, Hodei Handiak egitura kiribila duela berretsi dute, eta Handiaren eta Txikiaren artean dagoen izarren zubi bat argiago ikusi ahal izan dute.
Datuen zehaztasuna aldarrikatzeko, zifra bat jarri dute mahai gainean: 0,23 nm/s. Hori da, segundoko, gure eguzki sistemak duen azelerazioa, galaxiaren erdigunearen inguruan egiten duen orbitan. Zientzialariek diotenez, neurketa bat dator teoriak aurreikusten zuenarekin. Gutxi gorabehera atomo baten tamaina duen azelerazio hori kalkulatu ahal izateko beste galaxia eta objektu urrunek duten ageriko mugimendua neurtu dute. Mugimendu hori, noski, erlatiboa da, berez etengabeko hazkundean dagoen unibertso batean ez dagoelako behin betikoa den erreferentziarik; baina horiek hain urrun egonda, kalkuluak egiteko ia finkotzat hartu daitezke.
Azkenik, gertueneko objektuei erreparatu diete. Osatu duten Gertuko Izarren Katalogoan 331.312 objektu kontuan hartu dituzte. Gugandik 100 parseceko erradio batean dauden izarren %92 direla uste dute. Hau jauzi nabarmena da aurrean orain arte nagusi izan den Gliese katalogoarekiko: honek 3.803 objektu biltzen ditu, 25 parseceko erradio batean. Esan beharrik ez dago katalogo berriak doitasun handiagorekin eskaintzen duela objektu horiei buruzko informazioa, hala nola, kokapena, mugimendua eta distira.
Erreferentzia bibliografikoa:Gaia Collaboration, A. G. A. Brown, A. Vallenari, T. Prusti, J.H.J. de Bruijne, et al. (2020). Gaia Early Data Release 3. Summary of the contents and survey properties. Astronomy & Astrophysics (forthcoming article). DOI: https://doi.org/10.1051/0004-6361/202039657
Egileaz:Juanma Gallego (@juanmagallego) zientzia kazetaria da.
The post Esne Bidearen mapa berria: zehatza bezain ederra appeared first on Zientzia Kaiera.
Cuando la probabilidad te avisa de que no juegues
Uno de los libros de divulgación de las matemáticas que más me influyó en mi juventud fue El hombre anumérico, El analfabetismo matemático y sus consecuencias (Tusquets, 1990), del matemático y divulgador estadounidense John Allen Paulos.
Portada de la edición en castellano de 1990, de la editorial Tusquets, del libro El hombre anumérico de John Allen Paulos, junto con una fotografía del matemático sacada de la propia página web
El libro está lleno de interesantes ejemplos sobre la importancia de entender la probabilidad y cómo en ocasiones esta nos demuestra que nuestra intuición se equivoca. Muchos de estos ejemplos los he rescatado para mis artículos, conferencias, talleres y libros, como la conocida paradoja del cumpleaños, aunque seguramente mi primera lectura de la misma fue de la mano del gran maestro de la divulgación matemática, el estadounidense Martin Gardner (1914-2010), en su libro ¡Ajá! Paradojas. Paradojas que hacen pensar (Labor, 1983); el bonito ejemplo de la probabilidad de que llueva el fin de semana, que utilicé para el video de la sección Una de mates del programa de La 2 de televisión española Órbita Laika que podéis ver en la entrada Una de mates: la probabilidad de que llueva el fin de semana; el ejemplo de los falsos positivos en las pruebas médicas para detectar una enfermedad, con el que inicié la entrada Falsos positivos o la importancia de comprender la información; o el juicio en California “a la mujer rubia peinada con una cola de caballo y al hombre negro con barba y bigote”, ejemplo del mal uso de la probabilidad en los juicios (otros ejemplos de este estilo aparecen en la entrada La probabilidad en el banquillo de los acusados).
Una probabilidad continua (2011), del artista estadounidense Reed Danziger. Imagen de la página web del artistaEn el capítulo Probabilidad y coincidencia de El hombre anumérico también se incluían ejemplos sobre el lanzamiento de una moneda al aire. La probabilidad de que salga cara, o cruz, cuando lanzamos una moneda al aire –que en cualquiera de los dos casos es del 50%–, es el primer ejemplo que siempre se utiliza para explicar el concepto matemático de probabilidad, del que además derivan situaciones más complejas e incluso anti-intuitivas.
El lanzamiento de una sola moneda al aire, apostando a que salga cara o cruz, es el juego de azar más sencillo que existe, que además es un juego justo, ya que las dos personas que juegan tienen una probabilidad del 50% de ganar, siempre que no hagamos trampas.
Cara y cruz de la moneda de 2 maravedíes de Fernando VII, del año 1824
La probabilidad es la matemática del azar, nos proporciona una medida de cuánto de probable es que un evento ocurra. Por lo tanto, si jugamos a un juego de azar contra otra persona y la probabilidad de ganar no es igual para ambas, está claro que a la larga ganará el jugador que tenga una probabilidad mayor del 50%. En conclusión, el conocimiento de la probabilidad de ganar en un juego de azar nos proporciona la información necesaria para saber si debemos de jugar o no, e incluso, cómo debemos de jugar para ganar. Un ejemplo clásico que ilustra esta idea es el problema de Monty Hall, donde hay una estrategia que nos asegura ganar con una probabilidad de 2/3 contra 1/3, como explicamos en el video de la sección Una de mates del programa Órbita Laika titulado precisamente El problema de Monty Hall.
En esta entrada del Cuaderno de Cultura Científica vamos a mostrar un juego, justo en apariencia, pero realmente desigual, el juego de Penney, que podríamos llamar también el juego de la secuencia de tres tiradas de una moneda.
Este juego fue introducido por el matemático Walter Penney en la revista Journal of Recreational Mathematics, en 1969; Martin Gardner lo explicó en su columna de juegos matemáticos de la revista Scientific American y apareció posteriormente en su libro Viajes en el tiempo y otras perplejidades matemáticas (1988); aunque yo creo haberlo leído por primera vez, y si lo leí antes no lo recuerdo, en el libro Matemáticas y juegos de azar de John Haigh (2003).
Imaginemos que lanzamos una moneda al aire tres veces seguidas. Las posibles secuencias de tres lanzamientos son
CCC, CCX, CXC, XCC, CXX, XCX, XXC, XXX,
si denotamos por C el lanzamiento que es una cara y X el que es una cruz. Cada una de esas secuencias tiene una probabilidad de salir de 1/8 (una de cada ocho secuencias de tres tiradas), es decir, un 12,5%.
Podemos plantear el siguiente juego de azar para jugar con otra persona. Le pedimos que elija una secuencia de tres tiradas posible, de las ocho que existen, y nosotros elegiremos otra. Por ejemplo, puede haber elegido CCX y nosotros XCC. Y tiramos tres veces la moneda, si sale alguna de las dos opciones elegidas, gana el jugador que ha elegido esa secuencia, en caso de no salir ninguna se vuelve a tirar la moneda otras tres veces seguidas. Así hasta que salga una de las dos secuencias elegidas y gane uno de los dos jugadores.
Veamos el ejemplo de dos partidas, en la primera gana mi contrincante al salir CCX antes que XCC, mientras que la segunda es al revés.
CCC XXC XXC XCX CCX
CXC XCX CXX XCC
Los dos jugadores tienen, en cada ronda de tres lanzamientos, la misma probabilidad de que salga su jugada, un 12,5%, por lo que nos encontramos ante un juego justo.
Concurso anual de lanzamiento de monedas con bebidas de Pascua (2016), del artista estadounidense Jerry Allen Gilmore. Imagen de la página Baker Artist Portfolios
El matemático Walter Penny planteó una pequeña variación de este juego. Consiste en lo siguiente, lanzar la moneda de forma consecutiva y no en grupos de tres lanzamientos como antes. De esta manera, se considera ganador el jugador cuya jugada de tres lanzamientos consecutivos salga primero dentro de la serie continua de lanzamientos. Veamos un ejemplo. Supongamos la primera partida de las dos anteriores, pero como la tomamos como una secuencia de lanzamientos consecutivos, sería
C C C X X C X X C X C X C C X.
Entonces, el primer grupo de tres lanzamientos consecutivos es CCC como antes, pero al lanzar la moneda otra vez y obtener X, se genera el siguiente grupo de tres lanzamientos consecutivos CCX, así van obteniéndose CXX, XXC, XCX, CXX, XXC, etcétera, como se muestra en la siguiente imagen.
De manera que al lanzar la moneda quince veces seguidas, que en la primera ocasión eran cinco sucesiones de tres lanzamientos consecutivos, de esta otra forma se generan trece sucesiones de tres lanzamientos consecutivos. Más aún, en esta partida, siguiendo las reglas del juego de Penny, ganaría mi contrincante al salir CCX después de los cuatro primeros lanzamientos (CCCX).
El hecho de que se realicen los lanzamientos seguidos genera más resultados concatenados y nos ahorra tiradas en el juego. Pero no ha cambiado solo eso. Contrariamente a lo que pueda parecer, ahora ya no es un juego justo.
Veamos un ejemplo para ilustrarlo. Imaginemos que la persona contra la que jugamos elige CCC, entonces si nosotros elegimos XCC, tendremos una probabilidad de ganar de 7/8 (87,5%) contra una probabilidad de 1/8 (12,5%) que tendrá la persona contra la que jugamos. Esto se debe a que, si sale CCC en los tres primeros lanzamientos, lo cual tiene una probabilidad de ocurrir de 1/8, luego sucederá una de cada ocho veces, ganará nuestra adversaria, mientras que en las otras siete veces, de cada ocho, ganaremos nosotros con la jugada XCC. ¿Por qué? Si no ha salido CCC en los tres primeros lanzamientos, después ocurre lo siguiente. Imaginemos que la primera secuencia de tres lanzamientos CCC no se produce en los tres primeros lanzamientos del juego, entonces necesariamente en el lanzamiento anterior a esos tres habrá salido una X, siendo la serie de tres lanzamientos anterior XCC, con lo cual ganaríamos nosotros. Es decir, siempre que aparezca CCC –que no sea en los tres primeros lanzamientos– habrá salido justo antes XCC.
Lo mismo ocurre para las demás opciones, siempre que elijamos nuestra jugada convenientemente tras la elección de jugada por parte de la persona contra la que estamos jugando al juego de Penney. Dada la elección de nuestra oponente, nosotros tomaremos los dos primeros elementos de su jugada –por ejemplo, si esta ha sido CCX tomaremos CC– y los pondremos en las dos últimas posiciones de nuestra jugada, evitando además que nuestra jugada sea capicúa –luego nuestra jugada en el ejemplo sería XCC–.
En la siguiente tabla mostramos las diferentes opciones de jugada de nuestra oponente y nuestras elecciones, siguiendo la norma anterior, así como las probabilidades de ganar que tenemos, que van desde 2/3 (66,6%) hasta 7/8 (87,5%), siempre por encima del 50%. Es decir, ganaremos a la larga si jugáramos a este juego, siempre que elijamos jugada en segundo lugar, aunque parezca que es un juego justo.
Este es un juego que tiene la apariencia de ser un juego justo, en el que los dos jugadores tienen una probabilidad de ganar del 50%, pero no es así, como se ha visto. Por este motivo, si alguien que conozca el juego nos plantease jugar, podríamos caer en la trampa –siempre que nosotros no lo conozcamos– de jugar contra esa persona.
Ilustremos la información de la anterior tabla en el siguiente diagrama.
Por lo tanto, el juego de Penney es lo que se llama un juego no transitivo. La jugada XCC gana a la jugada CCX, la cual gana a la jugada CXX, la cual gana a la jugada XXC, mientras que esta finalmente gana a la inicial XCC, cerrando el ciclo. Sin embargo, en un juego transitivo, si XCC gana a CCX, que gana a CXX, que gana a XXC, entonces la primera XCC debería ganar a la última XXC, pero no es así.
El juego no transitivo más popular es piedra, papel, tijera. Ya sabéis … piedra gana a tijera, tijera gana a papel y papel gana a piedra.
Si tuviésemos en cuenta secuencias de solo dos tiradas la cuestión no es tan favorable. Si el primer jugador elige la jugada CC, el segundo jugador elegiría la jugada XC y ganaría con una probabilidad de 3/4, como ocurría en el caso de secuencias de tres jugadas (recordemos que cada una de las cuatro opciones CC, CX, XC, XX tiene una probabilidad de salir de 1/4). Lo mismo ocurre con la jugada XX, a la que gana la jugada CX tres de cada cuatro veces. Sin embargo, si el primer jugador elige XC, podemos elegir XX o CX, pero solo tendremos una probabilidad de ganar de 1/2, el 50%. Lo mismo ocurriría con la jugada CX.
Para secuencias de cuatro lanzamientos, o más, ocurre como en el juego de Penney descrito, se puede obtener una estrategia ganadora para el segundo jugador.
Incertidumbre y probabilidad (2015), del artista mexicano David Robles. Imagen de la página web del artista
Bibliografía
1.- John Allen Paulos, El hombre anumérico, El analfabetismo matemático y sus consecuencias, Metatemas 20, Tusquets editores, 1990.
2.- Martin Gardner, ¡Ajá! Paradojas. Paradojas que hacen pensar, Labor, 1983.
3.- Raúl Ibáñez, La probabilidad a juicio, en El secreto de los números, Universidad de Alicante, 2016.
4.- Martin Gardner, Viajes en el tiempo y otras perplejidades matemáticas, Labor, 1988.
5.- John Haigh, Matemáticas y juegos de azar, Jugar con la probabilidad, Metatemas 78, Tusquets editores, 2003.
6.- Matt Parker, Pi-fias Matemáticas, Crítica, 2020.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Cuando la probabilidad te avisa de que no juegues se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Nola ez zuten, bada, ehizatuko?
Argitaratu berri den ikerketa baten emaitzen arabera, emakumeek parte hartze aktibo garrantzitsua izan zuten ehizako jardueretan Neolitoan. Aktiboa eta ez salbuespenezkoa; izan ere, adierazi dutenez ehiza taldeen erdia emakumeez osatuta egotea iritsi zitekeen garai haietan. Albiste horrek agian ustekabean harrapatuko du norbait eta, horregatik, ekarpen honen izenburua Emakumeek ere Neolitoan ehizatzen zuten izan zitekeen. Horrexegatik, ziur asko galdera beste modu batera planteatzea da egokiena: nola ez zuten, bada, ehiza egingo emakumeek Neolitoan?
Irudia: Neolitoko tresnak. (Argazkia: Michael Greenhalgh – CC BY-SA 2.5. lizentziapean. Iturria: wikipedia.org)Aski zabaldutako ustea da historiaurrean lanen banaketa zorrotza zegoela eta emakumeak haurren zaintzaz arduratzen zirela eta gizonak, aldiz, ehizaz. Alabaina, geroz eta argiago dago hori ez dela horrela eta lanen banaketa horren aurkako ikerketak pilatzen doaz, pixkanaka. Azkenekoetako bat, Science Advances aldizkarian argitaratu berri dute Randall Haas eta bere lankideek. Hego Ameriketako Andeetan egin dute ikerketa eta duela 9.000 urteko hezurrak aztertu dituzte horretarako. Neolito garaiko hilobiak aztertzerakoan, ehiztarien hilobiekin egin dute topo. Nola jakin dute, baina, ehiztariak zirela? Bada, garai haietan gorpuak norberak bizitzan zehar erabilitako tresnekin batera hilobiratzen zituztela badakigu eta, hain zuzen ere, ehizarekin lotutako tresnak aurkitu dituzte emakumeen hilobietan.
Kasu aipagarrienetako bat 17-19 urte inguruko emakume baten hezurrak izan dira, ehizan erabiltzen ziren tresnekin batera hilobiratu zutena. Ez dira, gainera, animalia txikien ehizan erabiltzen zirenak, ziur asko, animalia handiak ehizatzeko erabili zituen. Aipatu behar da, bestalde, hortzetako proteinen analisiari esker zehaztu dutela sexu biologikoa. Esandakoa kasu bakarra edo egoera orokorra den jakiteko, guztira 107 hilobi aztertu dituzte ikertzaileek eta bertan dauden 429 gizabanakoren hezurrak ere bai. Horietako 27 ehiztariak zirela identifikatu ahal izan dute eta horietatik 11 emakumeak zirela ikusi dute –%41, hain zuzen ere–. Ikertzaileen ondorioa hauxe izan da: ehizan emakumeen parte hartzea oso aktiboa izan zen, ziur asko, eta ez salbuespenezkoa. Ehiztarien %30-%50 inguru emakumeak izango zirela jo dute eta, hortaz, oso probablea dela sexu biologikoaren araberako banaketa nahiko berdinzalea izan zela, ziurrenik.
Orduan, zergatik historiaurreko lanaren banaketaren ideia hori? Baliteke geroagoko gizarte ehiztari/bilatzaileetan banaketak sakonagoak izatea, baina, izatez, emakumeek ere parte hartzen zuten ehiza jardueretan. Ziur asko, gaur egun onartutzat edo naturaltzat jotzen ditugun genero rolak ez ziren existitu ere egin Neolitoan. Horixe da Science Advances aldizkarian argitaratutako lanaren ondorio nagusia, alegia, gure historiaren hasieratik ezarritzat jotzen genituen rolak, ziur aski, geroago sortu ziren. Ez ditzagun, beraz, onartutzat hartu. Baliteke uste oker horiek agertzearen arrazoia hauxe izatea: egungo ikuspegi okerretik azaldu nahi dugu historiaurrea.
Neolitoan bizirautea zen garrantzitsuena eta, ziurrenik indar eta gaitasun egokienak zituztenak joango ziren ehiza egitera -taldearen biziraupena jokoan zen-. Gizon ala emakume izan gutxienekoa izango zen. Gaitasun fisikoari buruzko eztabaida ere gainditu behar dugu, frogatu denez, Neolitoko emakumeek ez zuten indar faltarik. Neolitoko emakumeek gogor egiten zuten lan, jakina, eta hezurren analisiaren bidez ikusi da egungo emakume arraunlari profesionalek baino beso indartsuagoak zituztela.
Ikertzaileek ikuspegia aldatzeko beharra ere aipatu dute; izan ere, onartu dute haiek ere hasiera batean hilobian aurkitutako hezurrak gizon batenak zirela pentsatu zutela. Proteinen analisiak argi erakutsi zuen, oker zeudela. Ikuspegi sakonago batetik, adituek ohartarazi dute gizon ehiztari eta emakume zaintzaileen eredua sinplifikazio desegokia dela. Ehizara ahalik eta heldu indartsu gehien joango ziren, ziur aski. Horrelako ikerketek erakusten dute sexu biologikoak ez zuela markatzen gizabanakoek zer egin zezaketen eta zer ez.
Hemen aipatutakoa ez da mota honetako lehen ikerketa eta ez da azkena izango, baina, badirudi ziklikoki ahaztu egiten zaigula ikerketek zein norabide markatzen duten. Gaiari buruzko informazioa biltzeko asmotan, goraipatzekoa da pastwomen.net egitasmoa. Bertan hainbat ikerketa, lan, baliabide didaktiko eta eduki biltzen dira historian zehar emakumeen presentzia eta funtzioa berraztertzea eskatzen dutenak eta horri guztiari buruzko hausnarketa sakona egitea eskatzen dutenak.
Erreferentzia bibliografikoa:Haas, R., Watson, J., Buonasera, T., Southon, J., Chen, J.C., Noe, S., Smith, K., Viviano Llave, C., Eerkens, J., Parker, G. (2020). Female hunters of the early Americas. Science Advances, 6, 45. DOI: 10.1126/sciadv.abd0310
Informazio gehiago:- Drake, N. (2017). Prehistoric women had stronger arms than modern athletes. National Geographic, 2017ko azaroaren 29a.
- Wei-Haas, M. (2020). Prehistoric female hunter discovery upends gender role assumptions. National Geographic, 2020ko azaroaren 4a.
Josu Lopez-Gazpio (@Josu_lg) Kimikan doktorea, irakaslea eta zientzia dibulgatzailea da. Tolosaldeko Atarian Zientziaren Talaia atalean idazten du eta UEUko Kimika sailburua da.
The post Nola ez zuten, bada, ehizatuko? appeared first on Zientzia Kaiera.
Historia del movimiento ecologista
La bióloga marina Rachel Carson recopiló en el libro «Primavera silenciosa» una serie de artículos que publicó en 1962 en la revista New Yorker. En dichos artículos Carson daba cuenta de los efectos que producía el DDT, un producto utilizado como insecticida y con el cual se fumigaban grandes extensiones de cultivos, sin ningún control. La investigadora rastreó el camino del DDT por la cadena alimenticia y demostró que, a medida que se acumulaba, exterminaba o alteraba la genética de muchas especies.
«Primavera silenciosa» contribuyó a definir el lugar que ocupa la especie humana en el mundo, la cual no es propietaria del planeta, sino una especie inquilina más. La influencia de esta obra fue más allá, ya que, entre otras cosas, impulsó nuevas políticas y conductas para preservar el medio ambiente. Fue Rachel Carson la que ayudó, con su libro y su testimonio, a la creación de la Agencia de Protección Ambiental de Estados Unidos (EPA), a controlar el uso del DDT y de otros pesticidas, a la celebración del Día de la Tierra o al desarrollo del movimiento filosófico y político que hoy llamamos ecologismo.
Los vídeos de Historias de la Ciencia presentan de forma breve y amena pasajes de la nuestra historia científica y tecnológica. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.
El artículo Historia del movimiento ecologista se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El descubrimiento del neutrón (2): la hipótesis de Chadwick
Trabajando en el Reino Unido, James Chadwick encontró resultados igualmente desconcertantes que los de los Joliot-Curie para los núcleos de otros elementos ligeros, helio, litio, carbono, nitrógeno y argón incluidos.
En 1932 Chadwick propuso una hipótesis alternativa sobre la naturaleza de la radiación que tuvo mucho éxito. El primer artículo de Chadwick sobre su hipótesis era muy simple, solo la exposición de una idea. En un artículo posterior, más elaborado, The Existence of a Neutron, escribió:
Si suponemos que la radiación no es una radiación cuántica, sino que consta de partículas de masa muy cercana a la del protón, todas las dificultades relacionadas con las colisiones desaparecen, tanto en lo que respecta a su frecuencia como a las transferencias de energía a diferentes masas. Para explicar el gran poder de penetración de la radiación, debemos asumir además que la partícula no tiene carga neta. Debemos suponer que consiste en un protón y un electrón en estrecha combinación, el «neutrón» discutido por Rutherford [como una posibilidad] en su Bakerian Lecture de 1920.
Según la hipótesis de Chadwick, cuando un elemento como el berilio es bombardeado con partículas alfa, se puede producir una reacción nuclear que produce neutrones.
Aquí, el símbolo n representa el neutrón postulado por Chadwick, con carga cero y número de masa igual a 1. Estos neutrones, al no tener carga eléctrica, podrían penetrar ladrillos de un material tan denso como el plomo sin perder su energía. Cuando los neutrones atraviesan la parafina, como en el experimento de los Joliot-Curie, se producen colisiones ocasionalmente con núcleos de hidrógeno (protones). Los protones expulsados por el impacto pueden entonces observarse debido a la ionización que producen.
Por lo tanto, la hipótesis de las partículas sin carga de Chadwick podía explicar de manera cualitativa los efectos observados de la misteriosa radiación penetrante. Chadwick estimó que la masa de la partícula debe ser casi igual a la masa de un protón aplicando las leyes de conservación del momento y la energía al caso de colisiones perfectamente elásticas, es decir, simplemente aplicando las leyes que funcionan perfectamente para las bolas de billar y otras cosas objeto de estudio de la llamada física «clásica».
En una colisión frontal perfectamente elástica entre dos cuerpos casi toda la energía cinética del cuerpo inicialmente en movimiento se transferirá al cuerpo inicialmente estacionario solo si los cuerpos tienen masas aproximadamente iguales. En colisiones no frontales, se transferirá menos energía cinética. Por tanto, en promedio, una energía cinética de aproximadamente 5 MeV para los protones expulsados sería la esperable para colisiones producidas por neutrones con energías de aproximadamente 10 MeV, si las masas de neutrones y protones fueran aproximadamente iguales. Chadwick pudo hacer un cálculo más preciso de la masa del neutrón aplicando las leyes de conservación a los datos de colisiones con núcleos de diferentes masas.
Chadwick encontró que la masa del neutrón era 1,16 u [1]. Las dificultades para medir las energías cinéticas de los núcleos desplazados en las colisiones hicieron que este fuera sólo un valor aproximado, pero lo suficientemente bueno como para demostrar que el neutrón tiene una masa muy cercana a la del protón. La hipótesis de Chadwick ofreció una solución satisfactoria al problema de la «radiación» emitida cuando se bombardeaba con partículas el berilio o el boro.
Surgió toda una rama de estudio llamada física de neutrones. Su desarrollo llevó en pocos años, entre otras cosas, al descubrimiento de la fisión nuclear.
Nota:
[1] Los mejores métodos disponibles actualmente para determinar la masa de neutrones dan 1.00866491588(49) u, en una escala en la que se define que el carbono-12 tiene una masa de 12 u exactamente.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El descubrimiento del neutrón (2): la hipótesis de Chadwick se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Nola sortzen ote dira txantxarrak?
Gutariko askori gertatu ohi zaigu hortzetan txantxarra sortzea eta enpaste bat egin behar izatea. Baina nola sortzen ote dira txantxarrak? Eta zerekin betetzen da ehun kaltetua kentzean gelditzen den hutsunea? Horren atzean uste baino zientzia gehiago dago, orain ikusiko dugun bezala.
Txantxarra mundu mailan hedatuen dagoen gaixotasun kronikoa da. Adin guztietako pertsonek pairatzen dute, eta ez bada tratamendu egokia jarraitzen hortza galdu daiteke.
Irudia: Txantxarrak gure hortzen azalean ditugun gune kaltetuak dira eta hauek zulo txikiak bihurtzen dira denborarekin. (Argazkia: Imagen de Daniel Albany – domeinu publikoko irudia. Iturria: pixabay.com)Txantxarrak nola sortzen diren azaldu aurretik, hortzak zerez osatuak dauden ulertu behar da. Hortzak lau zati nagusi ditu:
- Enamela: Gorputzeko substantziarik gogorrena da eta haren osagai nagusia hidroxiapatita da (% 85), hau da, kaltzio fosfato kristalinoa. Kristal hauen artean ura, %12, eta materia organikoa, % 3, dago. Kolore horixka edo grisa dauka eta zeharrargia da; beraz, hortzaren kolorea azpian dagoen dentinaren araberakoa da.
- Dentina: Dentina enamel eta zementu erradikularraren artean dagoen substantzia da. Osaera aldetik, % 47 da hidroxiapatita, % 33 osagai organikoa eta % 20 ura. Enamela baino bigunagoa da eta egitura porotsua dauka. Kolore horixka dauka eta eragin handia dauka hortzaren kolorean.
- Zementu erradikularra: Hortzaren sustraia estaltzen duen konposatua da. % 45 materia ez-organikoa da, gehien bat hidroxiapatita, % 33 materia organikoa eta % 22 ura. Kolore horixka dauka eta enamela eta dentina baino bigunagoa da.
- Hortz-mamia: Hortzaren erdigunean dagoen ehun konektibo laxoa da. Bertan odol basoak eta nerbioak daude.
Ahoan janari hondarrak gelditzen direnean, batez ere almidoia eta azukrea, bertan ditugun bakterioek karbohidrato horiek hartzitu eta azido organiko (azido laktikoa edo azetikoa, besteak beste) bihurtzen dituzte. Enamela batez ere hidroxiapatitaz osatuta dago, eta hura erasotzen dute azidoek, eta, ondoren hortzaren hurrengo geruzara iristen dira: dentinara. Azidoek geruza hauetan dauden mineralak disolbatzen dituzte, hots, desmineralizazioa gertatzen da, eta honela pitzadurak edo zuloak sortzen dira. Zuloen eraketak hilabeteak eta zenbait kasutan urteak behar izaten ditu. Prozesuak aurrera jarraitzen badu hortzaren barnealdea eraso dezake, nerbioei eta odol basoei eraginez, eta horrek hortza galtzea eragin dezake.
Txantxarren eraketa-prozesua luzea izan ohi da; izan ere, oreka bat dago desmineralizazio- eta mineralizazio-prozesuen artean. Aipatu den bezala, azidoek hidroxiapatita disolbatzen dute, baina, bestalde, listuan kaltzioa eta fosfatoa dago, eta hortzaren mineralizazio prozesua bultzatzen dute osagai horiek. Bi prozesu hauen artean oreka bat dago, pH 5etik gora mineralizazioa bultzatzen da, baina pHa 5 baino txikiagoa bada desmineralizazioak indar gehiago hartzen du.
Oreka hau mineralizazioaren aldera bultzatu dezakeen konposatu bat fluorra da. Hortzetako pastetan gehitzen da fluorra. Ingurune azidoan hidroxiapatitaren gainazalean xurgatzen da eta fluoroapatita osatzen da mineralizazio prozesuan, konposatu hau egonkorragoa da azidoen aurrean hidroxiapatita baino (azidotan duen disolbagarritasuna txikiagoa da).
Fluorrak txantxarren sorrera galarazi dezake neurri batean; hala ere, askotan txantxarrak azaltzen dira. Hori gertatzen denean hortzean kaltetutako ehuna kendu behar da eta ondoren zuloa bete behar da, baina zerekin? Denbora luzez amalgama deritzon materiala erabili izan da zulo horiek betetzeko; amalgama merkuriozko aleazio bat da, bigarren metala zinka edo zilarra duena. Amalgamaren desabantaila nagusiak hurrengoak dira: hortzera ez da ondo itsasten eta bero-eroale ona denez gero janari hotza edo beroa hartzerakoan mina eragin dezake.
Gaur egun konpositeak erabiltzen dira txantxarrek eragiten dituzten zuloak betetzeko; % 35-85 karga ez-organikoa izaten da, esaterako beira edo silika, eta matrize gisa polimero aurrekariak erabiltzen dira, azido metakrilikoa edo epoxidoa, esaterako. Material hauek oso erraz itsasten dira hortzetara eta antzeko testura eta kolorea izaten dute; horretaz gain ezaugarri egokiak izan behar dituzte, esaterako biobateragarriak izan behar dute eta zaporegabeak.
Txantxarra dagoenean, dentistak lehenik kaltetua dagoen ehuna kentzen du, eta eremua ondo garbitzen du. Ondoren, itsasgarri-geruza bat jartzen du eta jarraian konpositea. Itsasgarria erabili behar ez izateko oso itsaskorrak diren konpositeak garatu dira; kasu honetan hortzaren zuloan konpositea soilik jartzen da. Konpositea karga ez-organikoz eta polimeroaren aurrekaria den konposatuaz dago osatuta, lehen aipatu bezala. Material hau egoera likidoan aplikatzen da, edozein forma hartzeko gai izan dadin. Behin zuloa bete duelarik argi ultramorearen bitartez erreakzionatzen hasten da monomeroa edo pisu molekular baxuko polimeroa. Horrela molekula txiki hauek elkarren artean lotzen dira hiru dimentsioko sare bat osatuz, solidoa dena. Prozedura hau pare bat aldiz errepikatzen da kasu bakoitzean geruza bat osatuz. Behin amaituta, dentistak pixka bat limatu dezake dagokion itxura emateko.
Erreferentzia bibliografikoa:Pfeifer, C. S. (2017). Polymer-based direct filling materials. Dental Clinics of North America, 61 (4), 733-750. DOI: 10.1016/j.cden.2017.06.002
Rangreez, T. A., Mobin, R. (2019). Polymer composites for dental fillings. Applications of nanocomposite materials in dentistry, 205-224, Applications of Nanocomposite Materials in Dentistry liburuan, ed. Asiri, A. M.; Inamuddin; Mohammed, A. Woodhear Publishing, Elsevier (Erresuma Batua).
Iturriak:- Guerini V. A. (1909). History of Dentistry from The Most Ancient Times until the End of The eighteenth Century. Lea & Febiger.
- Ring M. E. (1985). Dentistry: An Illustrated History. Harry N. Abrams.
- Featherstone, J. D. B. (2008). Dental caries: a dynamic disease process. Australian Dental Journal, 53 (3), 286-291. DOI: 10.1111/j.1834-7819.2008.00064.x
- Mayo Clinic. Caries dentales.
Leire Sangroniz eta Ainara Sangroniz Kimikan doktoreak dira eta UPV/EHUko Kimika Fakultatearen, Polimeroen Zientzia eta Teknologia Saileko ikertzaileak Polymat Institutuan.
The post Nola sortzen ote dira txantxarrak? appeared first on Zientzia Kaiera.
Quince virus que han cambiado la historia de la Humanidad
Raúl Rivas González
Cementerio de Longbyearbyen (islas Svalbard, Noruega) donde yace un grupo de mineros víctimas de la epidemia de gripe de 1918.Shutterstock / bmszealand
El toque real era un vano procedimiento de imposición de manos practicado por reyes franceses e ingleses durante la Edad Media y el Renacimiento. Su objetivo era sanar las fatídicas dolencias de sus súbditos. Aunque se utilizaba especialmente contra la tuberculosis, durante una época su práctica se extendió a otro tipo de enfermedades, tanto de origen bacteriano como vírico.
Durante el reinado de Isabel I la costumbre volvió a quedar restringida al ámbito de la escrófula, un proceso infeccioso que afecta a los ganglios linfáticos.
Isabel I fue una reina audaz, rotunda, poderosa y la última monarca de la dinastía Tudor que gobernó Inglaterra e Irlanda. Tanto su aspecto físico como sus hábitos cosméticos eran muy característicos. En aquella época, maquillarse era signo de distinción y la reina lo hacía profusamente con cerusa de Venecia, un pigmento blanco también conocido como albayalde.
El maquillaje le otorgaba un aspecto blanco inmaculado, casi virginal y combinaba con su apelativo, “la Reina Virgen”. Es esa estampa de piel blanquecina la que ha pasado a la posteridad y ha llegado hasta nuestros días.
Retrato de Isabel I (de autor anónimo, hacia 1589), conmemorando la derrota de la armada española.Wikimedia Commons
El motivo por el que Isabel I empleaba semejante cantidad de maquillaje era ocultar las acentuadas y numerosas marcas faciales que le había regalado una enfermedad mortal que contrajo con 29 años: la viruela. Consiguió sobrevivir, pero las cicatrices que el virus dejó en su cuerpo la acompañaron toda la vida.
Al igual que el de la viruela, muchos otros virus han desempeñado un papel esencial en importantes episodios de la historia, ya sea en literatura, arte, ciencia, política o en otras muchas facetas terrenales que conforman las aristas de nuestra existencia como especie. Estos son solo algunos ejemplos.
La viruela y la primera campaña de vacunación masiva
La viruela es la enfermedad que causa el virus variola, un orthopoxvirus muy contagioso que acabó con la vida del todopoderoso Ramsés V, cuarto faraón de la dinastía XX de Egipto, y del emperador azteca Moctezuma.
La extensión de la fatídica viruela durante los siglos XVIII y XIX provocó que en 1803 el médico militar español Francisco Javier de Balmis y Berenguer organizara “la Real Expedición Filantrópica de la Vacuna”, apodada como Expedición Balmis. Su objetivo era vacunar contra esta enfermedad a todos los súbditos del Imperio español.
La acción estuvo apoyada y sufragada por el rey Carlos IV, comprometido con la causa tras ver morir de viruela a su hija, la infanta María Teresa. La hazaña, que se desarrolló entre 1803 y 1814, constituyó la primera campaña de vacunación masiva de la historia.
En 1980, la Organización Mundial de la Salud (OMS) certificó la erradicación de la viruela como consecuencia de una excepcional campaña de vacunación global capitaneada por el epidemiólogo Donald Henderson.
El María Pita, navío fletado para la expedición, partiendo del puerto de La Coruña en 1803 (grabado de Francisco Pérez). Wikimedia CommonsEl virus del mosaico del tabaco y el desarrollo de la virología
En 1882, el alemán Adolf Mayer describió por primera vez la enfermedad del mosaico del tabaco. Al mismo tiempo, en San Petersburgo, también Dmitri Ivanovsky estudiaba la patología. Ivanovsky demostró que el agente que la causaba pasaba por un filtro esterilizante, sin advertir que había descubierto un nuevo tipo de agente infeccioso: los virus.
El virus del mosaico del tabaco permitió el desarrollo de la virología. También contribuyó significativamente a la comprensión de la naturaleza genética del ARN, el código genético y al avance de la biología molecular y al entendimiento de las propiedades fisicoquímicas y antigénicas de las macromoléculas.
Virus de Inmunodeficiencia Humana y SIDA: la primera gran pandemia mediática
A finales del siglo XX, el virus de la inmunodeficiencia humana (VIH) tuvo un impacto devastador en los ámbitos social, económico, sanitario y demográfico del planeta, convirtiéndose en la primera gran pandemia a la que se ha enfrentado la sociedad tecnológicamente avanzada.
En sus últimos estadios es habitual que se de alguna de las más de 20 infecciones oportunistas o de cánceres relacionados con el contagio del virus. Llegado ese momento, se aplica que la persona sufre el síndrome de la inmunodeficiencia adquirida (SIDA).
Hasta la fecha, se estima que han fallecido más de 35 millones de personas por causas relacionadas con el SIDA. Entre ellas, celebridades como Freddy Mercury, Rock Hudson o Anthony Perkins, que ayudaron a visibilizar la enfermedad.
La presencia del virus cambió el mundo, modificando las costumbres, el comportamiento, los hábitos sanitarios, el consumo de drogas, los métodos de prevención, las prácticas de atención médica y las relaciones sexuales de millones de personas.
Microfotografía de VIH-1 (en verde) en un cultivo de linfocitos.Wikimedia Commons / C. Goldsmith / CDC
El virus del mosaico del tulipán y el “negocio del aire”
El virus del mosaico del tulipán provoca una redistribución de los pigmentos en la flor del tulipán originando ejemplares maravillosos y únicos. A mediados del siglo XVI, afectó por vez primera al cultivo del tulipán en Holanda, dando lugar a variedades impredecibles, irrepetibles, que encendieron la codicia y el deseo de los compradores.
La posesión de uno de aquellos llamativos tulipanes era símbolo de opulencia y poder. Así, en 1623, el precio de un único bulbo superó en cinco veces al salario anual de un artesano.
En 1637 la especulación por los bulbos de tulipán colapsó. Las bancarrotas regaron el país, la economía holandesa se resquebrajó y el panorama social quedó reorganizado. El fenómeno fue conocido como windhandel (negocio de aire) y constituyó la primera gran burbuja económica de la historia.
El enterobacteriófago T4
El bacteriófago T4 o fago T4 es un virus que infecta a la bacteria Escherichia coli y uno de los organismos modelos más utilizados en los laboratorios científicos.
Es fácil y seguro de cultivar, por lo que su estudio se intensificó desde mediados del siglo XX. Gracias a ello, se descubrieron muchos de los principios básicos y generales de la biología molecular y de la evolución de estos patógenos. El pequeño virus cambió el curso de la investigación científica y de la ciencia elemental a nivel mundial.
¿Qué papel tuvo el sarampión en la colonización de América?
El sarampión es una enfermedad vírica muy contagiosa que puede causar complicaciones graves como ceguera, encefalitis, diarrea intensa, infecciones del oído o neumonía.
Según las estimaciones de la OMS y los Centros para el Control y la Prevención de Enfermedades de los Estados Unidos (CDC), en 2018 más de 140.000 personas murieron de sarampión en todo el mundo.
Llegó al continente americano en el siglo XV, junto a los colonizadores españoles. Los indígenas no estaban inmunizados frente a la enfermedad, por lo que las epidemias de sarampión y viruela facilitaron que los conquistadores Hernán Cortés y Francisco Pizarro, apoyados por solo unos cuantos cientos de soldados, pudieran doblegar a poderosos ejércitos bien establecidos como el azteca de Moctezuma, en México, o el inca de Huayna Cápac, en Perú.
El SARS-CoV, un punto de inflexión en la economía asiática
El SARS-CoV es un coronavirus que fue detectado por primera vez en el año 2002 en la provincia china de Guangdong. Es el responsable del síndrome respiratorio agudo grave (SARS). Según la OMS, más de 8.000 personas enfermaron del SARS durante el brote de 2003. 774 murieron.
La nueva enfermedad provocó que el gobierno chino impusiera cuarentenas y aislamiento a gran parte de la población, impidiendo el desarrollo de las prácticas comerciales habituales. Consecuencia de ello, algunas empresas comenzaron a fomentar el comercio electrónico.
Por ejemplo, el negocio de la plataforma Alibaba creció un 50%. La compañía lanzó Taobao que en apenas dos años superó a eBay, convirtiéndose en líder del mercado chino y facilitando el desarrollo del próspero comercio electrónico actual.
Cómo la fiebre amarilla interrumpió la construcción del canal de Panamá
La fiebre amarilla es una enfermedad vírica aguda y hemorrágica, ocasionada por arbovirus del género Flavivirus y transmitida por mosquitos infectados de los géneros Aedes y Haemogogus. A finales del siglo XIX, la enfermedad obstaculizó las obras del canal de Panamá. Dado que los trabajadores enfermaban o abandonaran el puesto por temor al contagio, su construcción se retrasó 33 años.
De hecho, la fiebre amarilla, la malaria y una desastrosa gestión provocaron el abandono del proyecto y el final del “canal francés”. Esto hizo que el gobierno de Estados Unidos financiara el proyecto, al obtener los derechos de explotación y construcción. Finalmente, fue inaugurado el 15 de agosto de 1914, convirtiéndose en una de las obras de ingeniería más importantes de la historia.
Obras de construcción del Canal de Panamá en 1913.Wikimedia Commons / Thomas Marine
La peste porcina africana: un lastre para el mercado de la carne de cerdo en 2018
La peste porcina africana (PPA) es una enfermedad muy contagiosa producida por un virus ADN de la familia Asfarviridae. No representa una amenaza para la salud humana, pero que es letal para los cerdos domésticos y los jabalíes de todas las edades.
Dado que la PPA es una enfermedad de declaración obligatoria a la Organización Mundial de Sanidad Animal (OIE), cuándo aparece un brote en una explotación porcina, todos los cerdos deben ser sacrificados y se deben implementar estrictas medidas sanitarias. Acciones que provocan pérdidas económicas directas e indirectas y consecuencias sociales en las regiones afectadas.
En agosto de 2018, un brote de PPA apareció en el noreste de China y rápidamente se extendió por el país. A pesar de que China es uno de los mayores productores y consumidores de carne de cerdo del mundo, la enfermedad acabó con el 40% de estos animales en el país. Cientos de millones de animales murieron o tuvieron que ser sacrificados.
El resultado fue una escasez crónica de carne de cerdo y un aumento vertiginoso de los precios. Las importaciones de carne de cerdo aumentaron pero, al no haber suficientes ejemplares porcinos en el mundo para abastecer a China, los precios en todos los países ascendieron.
Ante la imposibilidad de criar cerdos, China dio prioridad a la producción de pollos. Además, dejó de comprar cereales y soja para piensos en el mercado exterior, alterando todos los mercados a nivel global.
Virus de la peste porcina africana. Wikimedia CommonsLa vacuna contra la poliomielitis, inspiración musical
El virus de la polio se transmite de persona a persona, casi siempre por vía fecal-oral, pero también puede transmitirse por el agua o los alimentos contaminados. Durante el siglo XX la enfermedad alcanzó proporciones epidémicas. Combatirla fue un objetivo preferente para intentar conseguir su erradicación.
En 1921, Franklin Delano Roosevelt contrajo poliomielitis y el virus le postró en una silla de ruedas el resto de su vida. De ahí que, al convertirse en presidente de Estados Unidos en 1933, iniciase la conocida “guerra contra la polio”. La popularidad de Roosevelt fue tan grande que le permitió ser el único presidente en ganar cuatro elecciones americanas.
En 1963, el Gobierno realizó una agresiva campaña publicitaria a favor de la vacunación contra la polio con la vacuna Sabin. Administrarle esta a uno de sus hijos inspiraría al compositor Robert Sherman en la creación de una de las melodías más famosas de la historia del cine: “A Spoonful Of Sugar”, de Mary Poppins.
Mary Poppins – Spoonful of Sugar (Disney Movies)El adenovirus humano tipo 12
Los adenovirus fueron descubiertos por primera vez en 1953 por Wallace Rowe. Se aislaron de un cultivo de células de tejido adenoide, de ahí el apellido de Adenoviridae.
Se trata de virus de tamaño pequeño que incluyen 7 especies de adenovirus humanos (de A a G) y 57 serotipos inmunológicamente distintos. En 1962, John Trentin y sus colegas descubrieron que, en condiciones de laboratorio, el virus causaba cáncer en crías de hámster. Esta fue la primera demostración de actividad oncogénica causada por un virus humano.
Los adenovirus han ayudado a los científicos en el estudio de las funciones de los genes. También a comprender el empalme del ARN mensajero, la poliadenilación alternativa, los potenciadores y la inactivación de proteínas de los genes supresores de tumores.
Virus de la gripe H1N1, gripe española y baby boom
La gripe estacional es una enfermedad vírica conocida y temida. Algunas de sus cepas han provocado terribles pandemias. La más notable, la conocida como gripe española en 1918, causó la muerte de más de 40 millones de personas.
Cartel sobre la epidemia de gripe de 1918 publicado por la Junta de Salud de Alberta (Canadá).Wikimedia Commons / Alberta Board of Health
El agente causante fue el tipo H1N1 del virus de la gripe. Este, al desencadenar una incontrolada tormenta de citoquinas, condujo al descontrol del sistema inmunológico y a una inflamación y daño pulmonar irreversible.
La pandemia reveló que las enfermedades infecciosas eran un problema que debía abordarse a nivel poblacional. Durante los años posteriores muchos países cambiaron su estrategia de salud pública. Por un lado, optaron por adoptar el concepto de medicina socializada; por otro, reforzaron los sistemas de vigilancia y de atención médica.
El dramático descenso poblacional se vio compensado en los años siguientes por el efecto baby boom. Alentado por las estrategias de gobiernos de numerosos países, impulsó la natalidad y las características familias numerosas de mediados del siglo XX.
El virus John Cunningham
El virus John Cunningham o virus JC es muy común. De hecho, está presente entre el 50 y el 70% de la población humana. Aunque se contrae durante la infancia, parece que permanece latente hasta que alguna circunstancia (como la supresión del sistema inmunitario) lo reactiva y permite su proliferación, que puede producir infecciones cerebrales graves.
Hay al menos 14 subtipos de virus asociados con diferentes poblaciones humanas. Debido a su presunta codivergencia con los humanos, el virus JC se ha utilizado como marcador genético para la evolución y la migración humanas. Se ha podido observar que los presentes en las personas nativas del nordeste de Asia son muy parecidos a los que poseen los nativos norteamericanos. Esta situación apoyaría la hipótesis de una migración arcaica desde Asia a América del Norte a través del puente de tierra de Beringia.
¿Qué relación hay entre el personaje de Blancanieves y la varicela?
La varicela es una infección sistémica aguda provocada por el virus varicela-zóster que suele aparecer en la infancia. Sus epidemias se producen tanto en invierno como al comienzo de la primavera y se repiten en ciclos de 3 o 4 años.
Según parece, la infección mantiene cierta relación con el personaje de Blancanieves: su historia está inspirada en la figura de Maria Sophia Margaretha Catharina von Erthal, una princesa alemana huérfana de madre, que durante su infancia sufrió una ceguera parcial al contraer la varicela. La bondad de Catharina unida a la minusvalía que padecía le granjeó el aprecio y el afecto incondicional del pueblo.
Años más tarde, la historia llegó a oídos de los hermanos Grimm que construyeron y pertrecharon un magnífico relato en torno a ella. Así, sin querer, la varicela originó un maravilloso cuento que nos ha acompañado desde la niñez.
Granja de visones en Dinamarca.Shutterstock / BigDane
La actual pandemia por SARS-CoV-2 y la industria holandesa del visón
El actual brote de la enfermedad covid-19 causada por el coronavirus SARS-CoV-2 se notificó por primera vez en Wuhan (China) el 31 de diciembre de 2019. Desde entonces, el virus ha matado a más de 1 200 000 personas y ha acelerado cambios profundos en nuestra sociedad como el comportamiento habitual, la forma en que nos relacionamos e incluso las líneas de negocio de diferentes países.
Muchos animales son susceptibles a la infección por SARS-CoV-2. En especial los visones, que manifiestan problemas respiratorios similares a los humanos.
Países Bajos es el cuarto país del mundo en producción de visones (unos 6 millones de animales al año). Aunque en 2012 el senado holandés votó a favor de la prohibición de su cría por motivos éticos y permitió un período de transición de 12 años, la situación ha cambiado radicalmente: la rápida propagación del SARS-CoV-2 ha infectado a más de un tercio de todas las granjas de visones holandesas demostrándose la evidencia de la transmisión del SARS-CoV-2 del animal a humano dentro de las granjas de visones.
Por ello, el gobierno holandés se ha visto obligado a adelantar el fin de los programas de cría de visones del 1 de enero de 2024 a finales de marzo de 2021.
En fin, son muchos los virus que han modificado nuestra historia. Tengamos por seguro que en el futuro seguirán siendo protagonistas de nuestras vidas.
Sobre el autor: Raúl Rivas González es catedrático de microbiología de la Universidad de Salamanca
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo Quince virus que han cambiado la historia de la Humanidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Bonbillaren historia
Goritasun-bonbillek argia eman ziguten XX. mendean. Bonbilla izan da, ezbairik gabe, historiako aurrerapen garrantzitsuenetako bat, eta harekin batera, seguru asko, Thomas Edisonen izena etorriko zaigu burura. Hala ere, goritasun-lanpararen ibilbidean ekarpenak egin dituztenen zerrenda luzea da. Robert Friedel eta Paul Israel historialariek goritasun-lanparen 22 asmatzaile zenbatu dituzte. Baina biak bat datoz aitortzerakoan Edisonen bertsioa besteak gainditzeko gai izan zela. Izan ere, Edisonek egindako hobekuntzek bonbilla eraginkorragoa, gogorragoa eta ekonomikoki bideragarriagoa bideratu zuten.
Inork ez du zalantzan jartzen Edisonen merezimendua. Egun, asmatzailea, ekintzaile gisa ikusiko genuke baina funtsean enpresaburua izan zen. Horrek ez dio batere kalterik egiten, baina kontuan hartu behar da bere jarduteko modua ulertzeko, betiere irabazi asmoarekin eta merkatu mugatu bateko lehiari begira. Beste batzuek egiten zutena sortu, hobetu eta, batez ere, produktu iraultzaileak jartzen zituen merkatuan.
Eta zertara dator arestian aipatutako guztia? Argitzeko Joseph Swan fisikari, kimikari eta asmatzaileak sortu zuela karbonozko harizpietako lehen bonbilla eta 1879ko otsailean aurkeztu zuen. Bera izan zen, halaber, erabilera komertzialerako bonbillen lehen hornitzailea, 1881ean Londresko Savoy hotela argiztatzeko.
“Zientziaren historia” ataleko bideoek gure historia zientifiko eta teknologikoaren gertaerak aurkezten dizkigute labur-labur. Bideoak UPV/EHUko Kultura Zientifikoko Katedrak eginak daude eta zientzia jorratzen duen Órbita Laika (@orbitalaika_tve) telebista-programan eman dira gaztelaniaz.
The post Bonbillaren historia appeared first on Zientzia Kaiera.
La madre de todas las restauraciones
Al llegar al corazón de Gante en Sint-Baafsplain el viajero queda flanqueado por dos imponentes torres de origen medieval: la del campanario y la de la Catedral de San Bavón. Una vez asimilado este despliegue arquitectónico, entra a la catedral y se encuentra con la joya más destacada de la ciudad y una de las piezas más importantes del arte europeo: la Adoración del Cordero Místico, también conocido como el políptico de Gante.
Pero, para que el políptico siga deslumbrando a los visitantes, es necesario que alguien cuide de él. Tiene casi 600 años y ha tenido una vida más que ajetreada que le ha dejado numerosas cicatrices. Por eso, en 2012 se puso en marcha un meticuloso proceso de restauración cuya última fase arrancará en 2021. Sin reparar en gastos todo un equipo de profesionales se ha puesto al servicio de esta obra maestra. En este texto trataremos de explicar en qué consiste su trabajo.
La adoración del Cordero Místico (3.4×4.6 m) de los hermanos van Eyck (1422(?)-1432)
Las vivencias del retablo
Empecemos por el principio. El políptico fue un encargo del próspero mercader Jodocus Vijd y su poderosa esposa Elisabeth Borluut al pintor flamenco Hubert van Eyck. El nombre tal vez no os suene, pero el apellido seguro que sí. Hubert era el hermano mayor de Jan van Eyck, uno de los más célebres artistas del s. XV. De hecho, a la muerte del primero en 1426, Jan se hizo cargo del políptico hasta que lo finalizó en 1432. A día de hoy, no sabemos qué partes pintó cada uno, pero parece claro que fue Hubert quien diseñó y construyó el retablo.
De esta colaboración fraternal surgió una de las obras de arte de mayor calidad de la pintura flamenca y de todo el Renacimiento. Una obra maestra que ha despertado la codicia de gente poderosa, lo que ha causado su expolio en más de una ocasión. Por ejemplo, los franceses se la llevaron a París tras las campañas napoleónicas y los nazis a las minas de Altausse (Austria) durante la Segunda Guerra Mundial (como se puede ver en la película The Monuments Men). Entre esos dos periodos tampoco pasó muchos años en Gante. De hecho, estuvo la mayoría del tiempo en Berlín, en este caso después de que el rey de Prusia lo comprase en 1821. Allí, en 1894, cortaron seis de los paneles laterales longitudinalmente (por el canto), para poder exhibir la parte trasera y la frontal simultáneamente. Pragmatismo alemán. No olvidemos que estamos hablando de un políptico y, según esté abierto o cerrado (Imagen 2), veremos una cara o la otra de los paneles laterales. Los únicos que se libraron del tajo fueron Adán y Eva (ver Imagen 1).
El políptico cerrado (y restaurado). Fuente: © KIK-IRPA, Brussels.
Por si todas estas desventuras fuesen pocas, la obra también ha sufrido varios robos de guante blanco. De hecho, hay un panel que se robó en 1934 y nunca se ha llegado a recuperar: el de Los Jueces Justos (esquina inferior izquierda de la Imagen 1). Lo que vemos hoy en día no es más que una copia de Jef van der Veken colocada en 1951.
Conocer la obra: documentación y estudio técnico
Al igual que el templo de Delfos tenía grabado el “conócete a ti mismo”, cualquier buena restauración podría comenzar con el lema “conoce a la obra lo mejor que puedas”. Antes de iniciar cualquier intervención es necesario lograr la mayor información posible sobre la pieza a tratar. Esto incluye una profunda labor de investigación y un estudio técnico hasta donde permitan los recursos disponibles.
Dentro de la labor de investigación es de vital importancia conocer cómo han sido las restauraciones anteriores. Como os podéis imaginar, el Altar de Gante ha sido sometido a innumerables intervenciones a lo largo de su amplia existencia. La primera de las que hay registro data de 1550, cuando se encargó a dos pintores que limpiasen la obra. También hay constancia de limpiezas y “retoques” realizados en 1798 y en 1920, además de los cambios ya mencionados que se llevaron a cabo en 1894. Todas estas intervenciones han modificado la apariencia original y han añadido nuevos materiales que deben de ser cuidadosamente analizados durante el examen técnico. Ya entre 1950 y 1951 se realizó una restauración que podemos considerar como moderna. Tanto es así que, si observamos la publicación derivada de ese trabajo, veremos que el estudio realizado sobre la pieza no dista tanto de los que se hacen hoy en día. De hecho, se considera todo un hito de esta disciplina (al volante estaba el gran Paul Coremans).
Más de medio siglo después se decidió acometer la restauración que ahora nos ocupa. Para tal fin se decidió habilitar una galería del Museo de Bellas Artes de Gante. Este estudio de conservación improvisado era visible al público y ofrecía las condiciones adecuadas, incluyendo una humedad similar a la de la catedral (Imagen 3).
Espacio donde se realizó la restauración. Fuente: © KIK-IRPA, Brussels.
Antes de tomar la decisión de llevar a cabo la restauración se había realizado un completísimo estudio técnico entre los años 2010 y 2012. Gracias a la constante evolución de las técnicas analíticas se logró una información mucho más detallada que la que se había obtenido a lo largo del s. XX. El estudio incluye (tomen aire): macrofotografía, fluorescencia ultravioleta, reflectografías, radiografías, fluorescencia de rayos X, estudios dendrocronológicos, espectroscopia Raman, análisis cromatográficos y microscopía 3D. Una de las cosas más maravillosas es que buena parte de esa información está disponible on-line para toda persona que quiera deleitarse con ella. En #KimikArte ya hemos hablado más de una vez de la mayoría de esas técnicas, así que hoy nos limitaremos a dar una pincelada sobre la microscopía 3D antes de pasar a hablar del trabajo de restauración.
El uso de microscopios en el estudio técnico no es ninguna novedad, pero sí lo es la aplicación de una tecnología que permite obtener una imagen tridimensional de la superficie (hasta con 2500 aumentos). Así se obtiene un “mapa topográfico” en el que se observa la profundidad del craquelado y se puede estudiar si hay repintes sobre la pintura original (Imagen 4). En el caso del políptico este tipo de imágenes fue de gran utilidad para complementar la información lograda con el microscopio binocular tradicional. Así pudieron detectar repintes sobre la obra de los hermanos van Eyck, como, por ejemplo, los realizados en la cabeza de Jodocus Vijd (panel inferior izquierdo de la Imagen 2) que, con el paso del tiempo, se habían degradado.
El microscopio sobre la cabeza de Jodocus Vijd (izquierda) y una imagen tridimensional (200 aumentos) donde se observa un repinte rojo sobre la pintura original (derecha). Fuente: © KIK-IRPA, Brussels.
¿Y ahora qué?
Una vez realizado el estudio técnico llegaba el momento de tomar decisiones. Había quedado clara la existencia de numerosos repintes y de barnices degradados. Aunque desde el punto de vista estructural la obra estaba en un estado excelente, se antojaba necesaria una restauración completa y no sólo para mejorar la lectura de la obra, sino para prevenir daños irreparables. Por ejemplo, había zonas donde el barniz se estaba deteriorado y arrastraba capas de pintura subyacentes. Teniendo todo esto en cuenta, se decidió pasar a la acción.
Otra de las decisiones fundamentales era qué hacer con los paneles que se habían cortado por la mitad. ¿Volverlos a juntar? Pese a lo que podríamos pensar, se conservaban en buen estado y el embarrotado que le habían puesto a cada mitad no presentaba problemas graves, así que mejor no tocar lo que está bien (Imagen 5). Ajustaron los travesaños un poco y asunto resuelto.
Embarrotado (en posición horizontal) del panel de Elisabeth Borluut (esquina inferior derecha de la Imagen 2). Fuente: © KIK-IRPA, Brussels.
Antes de pasar a la restauración de los paneles, reparemos en un elemento que habíamos dejado olvidado: los marcos. Éstos habían sido completamente repintados y distaban mucho del aspecto original. Algunos tenían pintura metálica que se había oscurecido con el paso del tiempo y otros directamente se habían pintado de negro. Tras eliminar estos repintes se descubrió que van Eyck había buscado una especie de trampantojo para obtener un efecto pétreo a través de la policromía. Desgraciadamente, el aspecto original era irrecuperable, pero gracias a la intervención se logró mejorar la armonía entre los marcos y las pinturas, devolviendo en cierta medida la sensación de unidad.
De izquierda a derecha, aspecto del marco del Arcángel (i) antes de la restauración, (ii) después de eliminar repintes y rellenar las pérdidas y (iii) tras la reintegración cromática. Fuente: © KIK-IRPA, Brussels.
El algodón no engaña: eliminación de los barnices
El objetivo del barniz es proteger la obra, darle un brillo homogéneo y saturar los colores. El problema es que, cuando el barniz envejece, amarillea e impide una lectura adecuada de la obra, ya que altera la percepción de los colores y de la profundidad. Fruto de las numerosas intervenciones sufridas, el Altar de Gante tenía una complejísima composición de barnices. Una especie de lasaña construida a lo largo de varios siglos. Por si fuera poco, en la restauración de los años 1950 se había empleado un barniz cetónico, que no sólo amarillea, sino que, con el paso del tiempo, resulta difícil de eliminar (recordemos que los procesos de restauración han de ser reversibles). Todo esto acentuó la necesidad de eliminar los barnices. Pero, ¿cómo se hace eso sin dañar la pintura que descansa debajo?
Con mucho cuidado y la aplicación previa de test de limpieza. Uno de los mantras de la química es “semejante disuelve a semejante”, así que se trata de buscar un disolvente que sea capaz de disolver el barniz sin afectar a la policromía. Como los barnices son compuestos orgánicos, los disolventes adecuados suelen ser mezclas de etanol, acetona y un hidrocarburo alifático. La limpieza se puede llevar a cabo de diferentes formas, siendo una de las más habituales el uso de hisopos de algodón (Imagen 7). Pero, antes de lanzarse a frotar con el hisopo toda la superficie, es necesario encontrar la mezcla de disolventes que mejor actúa. De forma sistemática se van probando mezclas diferentes sobre pequeñas zonas de la obra, hasta dar la con la composición más adecuada, que puede variar en función de la zona que se limpie.
Izquierda, proceso de eliminación de barnices con un hisopo. Derecha, cata donde se puede apreciar la diferencia que provoca la eliminación del barniz oxidado. Ambas zonas corresponden al panel del Cordero Místico (panel central inferior en la Imagen 1). Fuente: © KIK-IRPA, Brussels.
Una de las maneras de hacer el seguimiento de la eliminación de los barnices es valerse de iluminación ultravioleta. Cuanto más se ha oxidado un barniz, mayor fluorescencia ofrece al ser expuesto a luz ultravioleta, por lo que al eliminarlo se va reduciendo dicha fluorescencia (Imagen 8, derecha). Una vez realizados los test de limpieza en el políptico, vieron que la compleja mezcla de barnices depositada sobre la obra requería el uso de diferentes mezclas de disolventes en función del área a tratar y se dividió el proceso en dos fases. Primero se eliminó el barniz de 1951 y luego se redujo el grosor de los barnices naturales más antiguos. Fue entonces cuando se pudo observar hasta qué punto se había repintado la obra durante sus más de cinco siglos de vida.
Izquierda, panel de San Juan Bautista, donde las partes más claras muestran las zonas donde se ha eliminado el barniz natural. Derecha, panel con la Sibila de Cumas, donde las partes menos fluorescentes muestran las zonas donde se ha eliminado el barniz cetónico. Fuente: © KIK-IRPA, Brussels.
Repintes fuera
Antes de que la restauración se estableciese como una disciplina propiamente dicha a lo largo del s. XX, era común que las obras sufriesen repintes. Es decir, que otra persona aplicase capas de pintura sobre zonas pintadas por los artistas. Como ya hemos dicho, en el Altar de Gante se encontraron numerosos repintes, llegando a ocupar un 70 % de la superficie en ciertos paneles. Llegaba el momento de tomar otra difícil decisión. ¿Había que retirar los repintes? En muchos casos estaban pintados con la misma técnica que habían usado los hermanos van Eyck (óleo), por lo que la tarea se complicaba aún más.
Tras estudiar y documentar detalladamente todos los repintes, se consideró que en muchas zonas su eliminación era segura y, una vez obtenido el permiso pertinente, se pusieron manos a la obra. A base de escalpelo y con la ayuda de un microscopio fueron retirándolos con sumo cuidado, empleando disolventes cuando la situación lo requería. ¡Imaginaos recorrer el políptico milímetro a milímetro arrancando esas capas de pintura!
Eliminación de repintes. Fuente: © KIK-IRPA, Brussels.
Reintegraciones dentro
Ya tenemos el políptico sin repintes ni barniz, pero el trabajo todavía no ha acabado. En ese estado no se podría exponer al público, por lo que toca seguir con la restauración.
El siguiente paso fue consolidar la capa pictórica y adherir aquellas partes de pintura que corrían riesgo de desprenderse. Para ello se usó cola de vejiga de esturión. Sí, habéis leído bien. Esta cola es una de las más apreciadas en las labores de restauración por su poder adhesivo y por no dejar apenas manchas. Tras fijar la pintura había que rellenar todas las pérdidas que se habían ocasionado, para lo que se empleó un estuco de carbonato cálcico y cola animal (Imagen 10).
Aspecto del panel de Elisabeth Borluut (esquina inferior derecha de la Imagen 2) antes y después de rellenar las pérdidas. Fuente: © KIK-IRPA, Brussels.
En este punto tocaba devolver el color que le faltaba a la obra, pero esta vez siguiendo los estándares adecuados: sin cubrir el material original y haciendo que las reintegraciones fuesen discernibles y reversibles para poder ser eliminadas sin dañar la obra en futuras restauraciones. Con este fin se aplicó al estuco un tono base con acuarela y, tras añadir una capa de barniz damar a modo de separación, se continuó con la reintegración cromática empleando pigmentos de molienda industrial suspendidos en una resina acrílica que imitaban los colores saturados del original. Una vez finalizado todo este proceso, sólo quedaba dar la última capa de barniz.
De izquierda a derecha detalle del Cordero Místico antes, durante y después de la restauración en la página web que recoge las imágenes del estudio. Fuente: © KIK-IRPA, Brussels.
Como habéis visto, un proceso de restauración consta de diferentes etapas y exige una planificación adecuada que ha de ser llevada a cabo por profesionales con los conocimientos necesarios. Si el año que viene no vuelve cargado de contratiempos, debería arrancar la última fase de esta restauración, que incluye los paneles interiores superiores del políptico. Será entonces cuando podamos volver a disfrutar de esta obra en todo su esplendor.
Agradecimientos
A mis compañeras (y compañero) de la Facultad de Bellas Artes por toda la ayuda que me prestan para entender mejor el mundo de la Restauración y la Conservación.
Para saber más
Closer to van Eyck: The Ghent alterpiece restored.
Closer to van Eyck: Rediscovering the Ghent alterpiece.
A. Diéguez-Rodríguez. Ante la restauración del políptico de los hermanos van Eyck de Gante en investigart.com
Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.
El artículo La madre de todas las restauraciones se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Asteon zientzia begi-bistan #328
COVID-19aren eta hiesaren pandemiak izan ditu mintzagai Berriako testu honetan Ana Galarragak. Gaixotasun oso desberdinak dira baina badituzte antzekotasunak. Zeintzuk dira bakoitzaren ezaugarriak?
Bi bakterio espezie berri identifikatu dituzte Osakidetzako ikertzaileek. Elhuyar aldizkariak azaldu digunez, Nocardia gipuzkoensis eta Nocardia barduliensis dira eta pazienteengandik isolatu dituzte.
UPV/EHUk argitaratutako tesi batean ondorioztatu dute unibertsitateko ikasleen %14k gantz gehiegi dutela gorputzean. Seiehun ikasle baino gehiago elkarrizketatu dituzte. Ikerketaren arabera, ikasleen dieta proteina eta gantz askokoa da, eta karbono hidrato eta zuntz gutxikoa. Berriako artikulu honetan aurkituko dituzue xehetasunak.
ArkeologiaNeanderthalek ere hilak lurperatzen zituztela frogatu dute, Berriak azaldu duenez. Zehazki, duela 41.000 urte inguru, 2 urteko haur baten gorpua lurperatu zuten, Asier Gomez UPV/EHUko eta Aranzadiko ikerlariaren taldearen arabera. Radiokarbono bidez ikusi dute hori, eta beraz, datazio zuzenik berriena duen neanderthala da.
Elhuyar aldizkariak eman du honen berri ere. Artikulu honetan azaltzen diren datuen arabera, haurraren eskeletoa mendebalderantz okertuta zegoen. Ikertzaileen esanetan, horrek esan nahi du neandertalek nahita prestatu zutela zuloa. Horretaz gain, ikusi dute hil eta berehala lurperatu zutela.
Koskobilo muinora (Olazti, Nafarroa) iritsi gara artikulu honen bidez. Bertan, azaltzen digutela hainbat arrasto fosil agertu zirela 1940an. Gutxienez 26 ornodun espeziez osatutako zerrenda bat lortu zuten; espezie horien artean, Iberiar Penintsulan aurkitutako lehenengo kastore aztarnak nabarmentzen ziren, baita errinozero eta hipopotamo arrastoak ere. 1984an, Barandiaranek eta Vallespík finkatu zuten aztarnategi horren ikuspegia.
KimikaPsilozibina konposatu haluzinogenoari buruz hitz egin digu Josu Lopez-Gazpiok. Badirudi pentsatzeko modua alda dezakeela. Artikuluan azaltzen digun moduan, droga psikodeliko sendoa da eta efektu psikoaktibo garrantzitsua du. Bitxia benetan kontatzen diguna hemen. Ez galdu.
GenetikaEdonola blogeko bi artikulu irakurgai dituzue asteon. Lehenengoan, Koldo Garcia ikerketa berri baten inguruan aritu da, zehazki kontatu digu ikerketa talde batek norberaren genoma sekuentziatzerako orduan erabiltzen diren prozedura konputazional ezberdinek duten eragina aztertu duela.
Bigarren artikuluan, hiru dimentsiotako egiturei buruz hausnartu du. Genetikan, azken batean, hiru dimentsiotako egiturak aldatzen dituzten gene-aldaerak ezagutzeak gene-aldaeren ondorioak hobeto ulertzea dakar.
BiologiaAloe verari eskainitako artikulua dugu hauxe: jatorriaz hitz egiteaz gain, bere erabilerak irakurtzeko aukera dugu. Aitziber Etxeberria farmazialariaren hitzak bildu dituzte Berriako testu honetan, eta landarearen nondik norakoak azaldu dizkigu.
IngurumenaAranzadi Zientzia Elkarteak urrian Anfibioen Kontserbaziorako III. Jardunaldia antolatu zuen anfibioen mehatxuak identifikatu eta populazioaren jarraipenak egiteko asmoz. Neurri orokor batzuk proposatu dituzte eta artikulu honetan horiek irakurtzeko aukera izan dugu, adibidez, anfibio-espezie exotikoen salmenta kontrolatzea. Elhuyar aldizkarian irakurgai honen ingurukoak.
2020an, giza jatorriko material artifizialek planetako biomasa osoa gaindituko dute, Elhuyar aldizkariak azaldu digunez. Arrazoi nagusiak bi direla aipatu dute: alde batetik, masa antropogenikoa hogei urtetik behin bikoizten ari dela XX. mendearen hasieratik, eta bestetik, lehenengo nekazal-iraultzatik, landareen biomasa erdira murriztu dugula.
FisikaGrafenoa eta laser izpi bat erabilita, laborategian deskarga elektriko baten ibilbidea bideratzea lortu du ikertzaile talde batek. Artikuluaren arabera, honi esker tximisten norabidea eta jomuga aldez aurretik erabakitzeko baliagarria izan daiteke.
DibulgazioaEuskarazko produkzio zientifikoa biltzen duen tresna da Inguma, eta aurten hogei urte bete ditu. Datu base honen inguruan aritu dira Uxune Martinez, Ingumaren arduradun ohia, eta Iñaki Alegria horren sortzailea Berrian, Jakes Goikoetxeak egindako elkarrizketa honetan.
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
Egileaz:Uxue Razkin (@UxueRazkin) kazetaria da.
The post Asteon zientzia begi-bistan #328 appeared first on Zientzia Kaiera.
Aran Garcia-Leuke – Naukas Pro 2019: Intro a la nanoelectrónica
Aran Garcia-Leuke es doctora en física y trabajó en la universidad de Liverpool y el Lawrence Berkeley National Laboratory antes de incorporarse al DIPC como investigadora Ikerbasque. Su especialidad es la nanoelectrónica y en 20 minutos consigue hacer una presentación de este campo multidisciplinar para todos los públicos.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Aran Garcia-Leuke – Naukas Pro 2019: Intro a la nanoelectrónica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ezjakintasunaren kartografia #331
Jesús Zamora idazten dabilen zientziaren filosofiaren historiaurrean Platon alde batera utzi eta Aristotelesekin hasten gara. Jakintza maila ezberdinek bere horretan jarraitzen dute. The ‘prehistory’ of philosophy of science (6): Plato’s best student.
Atlantikoa ez da beti gaur bezalakoa izan. Laku erraldoia izan zen garai batean. Ozeano honen historia Suzanne OConnellen eta Pascal Le Floc’hen eskutik. The Atlantic: The driving force behind ocean circulation and our taste for cod
Espintronikarako interesgarriak diren porfirinak geruza itxiak dituztela eta ez dutela balio? DIPCkoek irekitzen dituzte. On-surface synthesis of open-shell porphyrins
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #331 appeared first on Zientzia Kaiera.
Procesamiento lingüístico de los sensores en las casas inteligentes
El objetivo de las casas inteligentes es servir de ayuda a las personas que viven en ellas. Las aplicaciones para la vida diaria asistidas por el entorno pueden tener un gran impacto a nivel social, en el envejecimiento activo y en el modo de vida independiente de las personas mayores. De ahí que una de las claves de las casas inteligentes sea la deducción de la actividad humana en ellas. Para ello que se colocan diversos tipos de sensores que detectan los cambios que producen los habitantes de la casa en ese entorno (encender/apagar la luz, abrir/cerrar una puerta, etc.).
Normalmente, la información que generan estos sensores se procesa mediante técnicas de análisis de datos, y los sistemas más exitosos se basan en técnicas de aprendizaje supervisado, es decir, una persona supervisa los datos y un algoritmo aprende automáticamente el significado de todo ello. No obstante, uno de los principales problemas de las casas inteligentes es que un sistema entrenado en un entorno no es válido en otro diferente: “Los algoritmos normalmente están muy vinculados a un entorno inteligente determinado, a los tipos de sensores existentes en el entorno y a su configuración, así como a los hábitos concretos de una persona. El algoritmo aprende todo esto fácilmente, pero luego no es capaz de trasladarlo a otro entorno diferente”, explica Gorka Azkune, del grupo de investigación IXA de la UPV/EHU.
Hasta ahora los sensores se han identificado mediante números, y como consecuencia “se perdía el significado que tenían —explica el doctor Azkune—. Nosotros proponemos utilizar los nombres de los sensores en lugar de identificadores, de manera que se pueda aprovechar su significado, su semántica, para saber con qué actividad están vinculados. Así, lo que el algoritmo aprende en un entorno puede ser válido en otro entorno, aunque los sensores no sean iguales, porque su semántica es similar. Es por eso que utilizamos técnicas de procesamiento del lenguaje natural.
Se utilizan técnicas totalmente automáticas, aclara el investogador: “Al final, el propio algoritmo aprende primero de las palabras y luego de la representación que nosotros hacemos utilizando esas palabras. No hay ninguna intervención humana. Y eso es importante desde el punto de vista de la escalabilidad, pues ha quedado probado que sirve para superar el problema señalado”. De hecho, con esta nueva propuesta han conseguido resultados similares a los logrados mediante las técnica basadas en el conocimiento.
Referencia:
Gorka Azkune, Aitor Almeida, Eneko Agirre (2020) Cross-environment activity recognition using word embeddings for sensor and activity representation Neurocomputing doi: 10.1016/j.neucom.2020.08.044
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Procesamiento lingüístico de los sensores en las casas inteligentes se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Erlantz Lizundia: “Polimero naturalak, orokorrean, merkeak, berriztagarriak, ugariak eta degradagarriak dira ” #Zientzialari (143)
Polimero naturalak ekonomia zirkularra bultzatzeko tresna bikainak dira, merkeagoak eta ekologikoagoak baitira. Gaur egun, petroliotik datozen aplikazioak ordezkatzeko erabiltzen ditugu material hauek, edo, esaterako, litioa eta kobaltoa bezalako elementu urrien ordez erabiltzeko.
Zelulosa biosferan daukagun polimero natural ugariena da eta, besteak beste, zuhaitzetan edo kotoian aurki daiteke. Zelulosak propietate mekaniko oso bereziak ematen dizkie landareei, mekanikoki malguak egiten ditu eta aldi berean sendoak. Materialen zientzian oso zaila da hau lortzea, baina zelulosari esker, ugaria eta maneiatzeko erraza izanda, hainbat arazo bideratu daitezke.
UPV/EHUko Adierazpen Grafikoa eta Ingeniaritzako Proiektuak saileko irakaslea eta BCMaterials zentroko ikertzailea da Erlantz Lizundia. Berarekin batu gara zelulosari eta honen aplikazioei buruz sakontzeko.
“Zientzialari” izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.
The post Erlantz Lizundia: “Polimero naturalak, orokorrean, merkeak, berriztagarriak, ugariak eta degradagarriak dira ” #Zientzialari (143) appeared first on Zientzia Kaiera.
El sentido de la vida
Salud es la ausencia de enfermedad, según una definición más bien negativa, pero Patricia Boyle, del Centro Rush para la Enfermedad de Alzheimer de Chicago, planteó la hipótesis, más positiva, de que, además, para una buena salud es importante tener algo que hacer en la vida, es decir, encontrar un sentido a la vida. Es la propuesta psicológica que da significado a las experiencias vividas e intencionalidad y objetivos que guían las conductas de las personas. La autora menciona a Viktor Frankl como autor del origen del sentido de la vida tal como ella lo entiende.
Viktor Frankl era un neurólogo y psiquiatra, nacido en Viena, que, en la Segunda Guerra Mundial, fue internado en varios campos de concentración nazis, entre ellos Auschwitz y Dachau. Sobrevivió y, en su libro El hombre en busca del sentido último, cuenta que se puede encontrar ese propósito de vida incluso en las condiciones más difíciles. Tener ese sentido de la vida es esencial para mantener la salud y el bienestar mentales. La vida tiene sentido y las metas fijadas, con el potencial de cada persona, se pueden lograr. Además, como apoya Boyle, el propósito vital también es una condición importante de la salud física y de la vitalidad.
En 2009, Patricia Boyle publicó un estudio con 1238 voluntarios con buena salud mental, una edad media de 78 años y el 73% mujeres. La toma de datos comenzó en 2004 y se prolongó durante cinco años.
En ese tiempo murieron 151 voluntarios, un 12%. El tener un propósito de vida supone un 57% menos de mortalidad en comparación con los voluntarios que, aunque declaran tener también un propósito, no se sienten muy comprometidos con él. No hay diferencias entre hombres y mujeres.
En conclusión, un sentido de vida comprometido se asocia a un riesgo de mortalidad menor por cualquier causa.
Al año siguiente, 2010, Patricia Boyle publicó los resultados de un estudio similar que relacionaba el sentido de la vida con el Alzheimer y el déficit cognitivo leve que puede ser una etapa temprana de la enfermedad. Participaron 951 voluntarios, sin diagnóstico de demencia, y son evaluados durante siete años. Tienen una edad media de 80.4 años, y el 80% son mujeres. A los siete años de seguimiento, 155, o sea, el 16% ha desarrollado Alzheimer. El análisis estadístico de las encuestas que responden indica que, quienes presentan un propósito de vida fuerte, tienen 2.4 veces menos riesgo de desarrollar la enfermedad que los que declaran un propósito de vida con escaso compromiso. También el déficit cognitivo leve aparece 1.5 veces menos en quienes tienen un propósito fuerte.
Un estudio con un enfoque más amplio es el de Joanna McHugh Power y sus colegas, de la Universidad de la Reina de Belfast, que relaciona varias actividades sociales y deportivas con la función cognitiva en personas mayores de Irlanda. Toman datos de 8163 voluntarios mayores de 50 años, con edad media de 63.5 años, el 54% son mujeres, les piden datos desde 2009, con nuevas entrevistas a los dos años, en 2011.
Las actividades sociales y deportivas ayudan al mantenimiento de la función cognitiva. Destacan los hobbies, las actividades creativas, el trabajo voluntario en ONGs, asistir a clase, ir al cine, al teatro o a conciertos.
Estamos en la era de la informática y de las redes sociales y una de las actividades que mencionaba Joanna McHugh Power podía ser internet y las redes sociales. Thomas Morton y su grupo, de la Universidad de Exeter, organizaron un estudio de los efectos del uso de internet en las personas de edad. Participaron 76 voluntarios, con 50 mujeres, una edad media de 80 años y, de ellos, 32 actúan de control. Reciben, durante tres meses, un cursillo de uso del ordenador y utilización de internet.
Los resultados muestran una mejora cognitiva en los que siguen el cursillo. Implica una mayor actividad social, más competencia y habilidad, y un refuerzo del sentido de la propia identidad. En general, mejora la salud mental y la sensación de bienestar.
Otro estudio que nos ayuda a entender cómo se consigue un buen envejecimiento se hizo en Italia. Anna Scelzo y sus colegas, del centro ASL4 de Chavarese, en el sur de la Italia rural, trabajaron con 29 voluntarios de más de 90 años. Encontraron que la longevidad excepcional se consigue con un equilibrio entre aceptación y valor para superar adversidades, siempre con una actitud positiva, y con relaciones estrechas con la familia, la religión, su tierra y un fuerte propósito de vida.
Y en un estudio en Alemania, liderado por Suzanne Wurm y su equipo, del Centro Alemán para la Edad de Berlín, trabajan con 4034 voluntarios, de 40 a 85 años, en 1996, y buscan su enfoque positivo del envejecimiento. Encuentran que los voluntarios con una imagen propia negativa hacen menos ejercicio físico que los que tienen una autoimagen positiva, todos ellos con salud comparable. Con la imagen negativa, como mucho, se intenta mantener la salud física o no se trabaja activamente para mejorarla, por ejemplo, caminando de manera regular e, incluso, aumentando el tiempo de paseo.
En España, el envejecimiento tiene éxito en las personas de edad. Cristina Dumitrache y su grupo, de la Universidad de Granada, entrevistaron a 406 voluntarios, con una edad media de casi 75 años, un rango de edad de 65 a 99 años, con el 62% de mujeres, y todos ellos viviendo en residencias.
Los resultados muestran que el 50% de la satisfacción vital de los voluntarios lo explican las relaciones sociales y la personalidad, sobre todo el optimismo, mientras que la salud y la edad, el género y la educación cuentan menos.
Pero Sara Marone y su grupo, de la Universidad de Boston, se preguntan si el propósito de vida y la salud y el bienestar mentales crean un entorno saludable para el grupo. Buscan a personas centenarias, lo que supone buena salud, menor mortalidad, riesgo reducido de enfermedades y con poca pérdida cognitiva, y averiguan qué ocurre con su descendencia. Encuentran 361 voluntarios, con edad media de 82 años, y el 64% de mujeres. Pertenecen a tres grupos: parejas de los descendientes de los que cumplieron 100 años, los propios descendientes de los centenarios, y un tercer grupo de control con personas de parecida edad.
Los resultados de las encuestas muestran que los descendientes de los centenarios tienen un propósito de vida mucho más fuerte que los voluntarios de los otros grupos. Los porcentajes indican que el propósito de vida aparece en un 30% de los descendientes de los centenarios, en un 21% de las parejas de los centenarios y en un 14% de los voluntarios control.
En conclusión, el buen propósito de vida, que presumimos tienen los centenarios, puede ayudar, en sus descendientes, a retrasar enfermedades y otros deterioros relacionados con la edad. El propósito de vida fuerte no se hereda, pero el ambiente en que crecen y se educan los descendientes ayudan a adoptarlo en la vida adulta.
Hemos visto la importancia de las relaciones sociales y, por el contrario, de la soledad. El entorno es importante y la soledad y el aislamiento social, según Julianne Holt-Lundstat y su grupo, de la Universidad Brigham Young de Provo, en Estados Unidos, y en su estudio encuentran, después de un meta-análisis de las investigaciones publicadas entre 1980 y 2014, que el aislamiento social aumenta la mortalidad por cualquier causa en un 29%, la soledad lo hace en el 26%, y vivir solo en el 32%. Pero, también, y según el análisis de una encuesta nacional hecha en Suecia, publicado por Lena Dahlberg y su equipo, del Instituto Karolinska, con más de 2500 voluntarios, y en oposición a lo que se sospecha, la soledad no aumenta con la edad en las personas mayores. Solo aparece un cierto estrés psicológico en la soledad que sigue a la pérdida del compañero pero que, en general, no implica aislamiento social.
Otro meta-análisis, publicado en 2018, por el grupo de Laura Rico Uribe, de la Universidad Autónoma de Madrid, revisa 35 artículos, con más de 770000 participantes, y llega a parecidas conclusiones: la soledad es un riesgo de mortalidad y, como dato nuevo, un riesgo mayor para los hombres que para las mujeres.
Referencias:
Boyle, P.A. et al. 2009. Purpose in life is associated with mortality among community-dwelling older persons. Psychosomatic Medicine 71: 574-579.
Boyle, P.A. et al. 2010. Effect of a purpose of life on risk of incident Alzheimer disease and mild cognitive impairment in community-dwelling older persons. Archives of General Psychiatry 67: 304-310.
Dahlberg, L. et al. 2018. Lonelier than ever? Loneliness of older people over two decades. Archives of Gerontology and Geriatrics 75: 96-103.
Dumitrache, C.G. et al. 2019. Successful aging in Spanish older adults: the role of psychosocial resources. International Psychogeriatrics 31: 181-191.
Frankl, V. 2012. El hombre en busca del sentido último: el análisis existencial y la conciencia espiritual del ser humano. Eds. Paidós. Barcelona. 240 pp.
Haupt, M. 2019. Improving images of aging. International Psychogeriatrics 31: 159-161.
Marone, S. et al. 2018. Purpose in life among centenarian offspring. Journal of Gerontology: Psychological Sciences doi: 10.1093/geronb/gby023
McHugh Power, J. et al. 2016. Mediators of the relationship between social activities and cognitive function among older Irish adults: results from the Irish longitudinal study on ageing. Aging & Mental Health doi: 10.1080/13607863.2016.1233935
Morton, T.A. et al. 2016. Activating and guiding the engagement of seniors with online social networking: Experimental findings from the AGES 2.0 Project. Journal of Aging and Health DOI: 10.1177/0898264316664440
Rico, L.A. et al. 2018. Association of loneliness with all-cause mortality: A meta-analysis. PLOS One 13: e0190033
Scelzo, A. et al. 2017. Mixed-methods quantitative-qualitative study of 29 nonagenarians and centenarians in rural Southern Italy: focus on positive psychological traits. International Psychogeriatrics 30: 31-38.
Wurm, S. et al. 2010. On the importance of a positive view on ageing for physical exercise among middle-aged and older adults: Cross-sectional and longitudinal findings. Psychology and Health 25: 25-42.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo El sentido de la vida se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: