Giza gibelak astebetez kontserbatzeko teknologia garatu dute

Zientzia Kaiera - Wed, 2020/01/29 - 09:00
Juanma Gallego Ikertzaile talde batek giza gibelak zazpi egunez gorputzetik kanpo kontserbatzeko gai den makina eraiki du. Aurrerapenak transplanteen alorrean erabilgarria izatea espero dute.

“Jainkoetara jolasten ari gara”. Zeinek ez du entzun argudio hori, aurrerapen berrien aurrean erabateko ezetza adierazteko. Eskerrak jolasten garen. Denbora askoan osasuna jainkoen kapritxoen esku utzi zen. Noah Gordon idazlearen Medikua eleberrian ederki adierazten da ideia hori. Sendatzeko bazen ere, Erdi Aroan gorputza urratzea bekatua zen, Jainkoaren esku baitzeuden giza gorputza eta arima. Hala, apendizitis ziztrin batek jendea akabatzen zuen. Gaur egun milioika lagun dira (gara), zirujau bati esker bizitza gozatzen ari direnak (garenok).

1. irudia: Perfusio artifiziala eragiten du gailuak, gibelak behar dituen oxigenoa eta nutrienteak emanez. Horrela, hainbat egunez organoa “erabilgarri” mantentzea lortzen dute. (Argazkia: Liver4life proiektua)

Erdi Aroko argudio hori erabili ohi da duela gutxira arte imajinaezinak zitzaizkigun aukera berriak zabaltzen diren aldiro. Hala gertatzen da organoen transplanteetan erabiltzeko moduko kimerak sortzeko ikerketetan. Organo “artifizialak” ereitea biziak salbatzeko jorratzen den lerroetako bat izanda ere, ohiko bideak hobetzeko estrategiak lantzen ari dira. Adibidez, organo berrien errefusa immuneari aurre egiteko edota emailearengandik hartzailearentzako tartea ahalik eta laburrena izan dadin. Horretarako, eta Euskal Herrian bertan, droneen erabilera ere aztertzen hasiak dira zenbait proiektutan.

Norabide horretan, beste aurrerapen itxaropentsua aurkeztu dute asteotan. Nature Biotechnology aldizkarian argitaratutako zientzia artikulu batean Suitzako ikertzaile talde batek giza gibelak astebetez kontserbatzeko gai den makina baten garapena azaldu du. Gibelak baldintza onetan mantentzeko ez ezik, baldintza horiek hobetzeko gai omen da makina hori. Ikerketa artikuluan zehaztu dutenez, ospitaleetan transplanteetan erabiltzeko gai ez zirelakoan atzera botatako hamar gibeletatik seitan lortu dute horiek erabilgarri izatea, perfusio-gailuan astebete eman ondoren.

Suitzako hainbat zientzia erakundetako ikertzaileek Liver4Life izeneko egitasmoaren barruan garatutako gailua da. Wyss Zurich institutua, Zuricheko Unibertsitate Ospitalea, ETH Zurich eta UZH Zuricheko Unibertsitatea dira erakunde horiek. 2015ean abiatu zuen egitasmoa, eta, hasieran, gibelek 12 orduz besterik ez zuten irauten makinaren barruan, baldintza egokietan. Orain, iragarri dutenez, zazpi egunera luzatu dute tarte hori.

Transplanteak egiteko baldintzak erraztea da proiektuaren helburua. Ezaguna da transplanteen alorrean dagoen muga etsigarria: hil berri den emaile baten organo baten zain dago gaixoa, eta berehalakoan egin behar da transplantea. Izan ere, gaur egun hildako emailearengandik jasotako organoa ordu batzuetan besterik ezin daiteke kontserbatu. Teknikarik hoberenak erabilita ere, gehienez 24 orduz kontserba daiteke organo hori gorputzetik kanpo. Horrelako makinen garapenarekin, ordea, transplantea egiteko orduan denbora gehiagorekin jokatzeko aukera izango lukete ospitaleetako profesionalek. Modu horretan, sinetsita daude bizitzak salbatzeko aukerak handituko direla.

2. irudia: Momentuz laborategiko probetan besterik ez dute erabili makina, baina azken helburua da transplanteetan erabili ahal izatea, duela hainbat egun hildakoen lagunen organoei ere probetxua ateratzeko. (Argazkia: Liver4life proiektua)

Transplantea burutzeko dagoen denbora tartea luzatzeaz gain, espero dute eskuragarri dauden gibelen kopurua handitzea. Bada, zenbait kasutan kaltetuta dauden gibelen kalitatea hobetzeko gai da gailua. Makinak perfusio teknologia erabiltzen du, eta, horri esker, hasiera batean transplanteetan erabiltzeko modukoak ez diren gibelak nolabait berreskura daitezke, ikertzaile hauen esanetan. Ez da kanpotik egindako sendaketa, behin gaixo dagoen gorputz batetik “askatuta” gibelak berak leheneratzeko duen ahalmenari probetxu ateratzea baizik. Hobekuntza hori erakusteko, kalteari eta hanturari lotutako zenbait konposaturen beherakada neurtu dituzte. Modu berean, bertako zelulek lanean jarraitu dutela egiaztatzeko moduan egon dira, energiari lotutako prozesuak mantenduz eta proteinak sortuz.

Perfusioaren bitartez, oxigenoa eta nutrienteak helarazten zaizkio gibelari, gorputzak eguneroko funtzionamenduan egiten duen prozesua errepikatuz. Funtsean, makina saiatzen da prozesu metabolikoak ordezkatzen, organoa osasuntsu mantendu aldera. Gorputzaren barruan dagoen presio berdina ere ezartzen zaio organoari. Modu berean, prozesu horietan hondakin gisa sortzen diren karbono dioxidoa eta beste hainbat konposatu kanporatzen ditu.

Orain, berriz, beste hainbat aukera irekitzen dira, eta horietan sakondu nahi dute datozen urteotan. Adibidez, aurretik organoetan zeuden lesioen konponketa, gibeletan egon daitezkeen gantz deposituen garbiketa edota gibelen leheneratzeak dira aukera horietako batzuk. Oraindik ikerketa fasean dauden arren, helburu nagusia logikoa da: makinan sartutako gibel horiek transplanteetan erabiltzea. Jainkoetara jolastea, hain justu, zerua iritsi bitartean, giza bizitzen salbazioan sakontzeko.

Erreferentzia bibliografikoa:

Eshmuminov, D., Becker, D., Bautista Borrego, L. et al., (2020). An integrated perfusion machine preserves injured human livers for 1 week. Nature Biotechnology, (2020). DOI: https://doi.org/10.1038/s41587-019-0374-x.

———————————————————————————-

Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.

———————————————————————————-

The post Giza gibelak astebetez kontserbatzeko teknologia garatu dute appeared first on Zientzia Kaiera.

Categories: Zientzia

El carácter fundamental de las relaciones de incertidumbre

Cuaderno de Cultura Científica - Tue, 2020/01/28 - 11:59
Foto: Franck V / Unsplash

El principio de incertidumbre y las relaciones de incertidumbre resultantes son válidas para cualquier objeto, incluso para un automóvil. Pero las limitaciones que impone el principio de incertidumbre no tienen consecuencias prácticas para objetos tan con tanta masa como coches o pelotas de béisbol que se mueven a velocidades normales para nuestra experiencia humana diaria. Esto se debe a que los valores de incertidumbre involucrados son demasiado pequeños como para ser percibidos. Las limitaciones se hacen evidentes e importantes solo a escala atómica.

Debido a esta discrepancia entre lo que ocurre en el día a día humano y lo atómico es muy importante comprender que las incertidumbres que establece el principio de Heisenberg no son debidas a un defecto del experimentador ni de los instrumentos que usa. Esto debe quedar diáfanamente claro [1]: Nunca, jamás, podremos construir instrumentos para sortear las incertidumbres recíprocas en las mediciones impuestas por las relaciones de incertidumbre.

Esto se debe a que las relaciones de incertidumbre de Heisenberg son una consecuencia directa de la mecánica cuántica y la dualidad onda-partícula. Pero su validez no está completamente ligada a la de la mecánica cuántica. Efectivamente, la mecánica cuántica podría ser sustituida por otro modelo para describir la realidad cuántica [2] y las relaciones de incertidumbre, que emanan de la existencia misma de los cuantos, son más fundamentales que la propia mecánica cuántica.

Desarrollemos esto mínimamente.

Hemos visto el papel que juega la constante h de Planck en la definición del cuanto de luz y en la descripción de los estados estacionarios en el átomo de Bohr. Además, la constante h aparece en las dos ecuaciones básicas para la energía y el momento lineal del fotón, E = hf y p = h/λ, y también en muchas otras ecuaciones cuánticas. También aparece en las relaciones de incertidumbre. Si h fuera 0, eso significaría que la cantidad de energía sería cero, por lo que no habría cuantos de luz, solo ondas continuas.

El momento lineal del fotón también sería cero, y las relaciones de incertidumbre serían Δx·Δpx = 0 o Δt· ΔE = 0 [3]. Por tanto no habría incertidumbres recíprocas en posición y momento, tiempo y energía, y podríamos medir simultáneamente las características de onda y corpúsculo de los objetos cuánticos sin ningún problema.

Pero aunque sea muy pequeña, la constante de Planck no es cero [4], el cuanto existe, nos enfrentamos a la dualidad onda-partícula, la mecánica cuántica sigue siendo un modelo aceptado, y la naturaleza es tal que limita la precisión de nuestras mediciones a escala atómica al nivel más fundamental.

Notas:

[1] Lo que sigue es el tipo de afirmación categórica que los relativistas y postmodernistas varios que en el mundo son prejuzgan como prepotencia de la ciencia. Su postura, como decimos prejuiciosa, se basa en supuestos y asunciones filosóficas, sin contraste con la realidad física. Es este contraste continuo con la realidad el que permite a la ciencia afirmar cosas como esta en estos términos. Los posmodernos optan por la ignorancia. Son indiscernibles de una persona religiosa, a saber, tratan sus afirmaciones como no falsables.

[2] Recordemos: la mecánica cuántica es un modelo teórico para describir los resultados de los experimentos. La realidad de los cuantos es experimental. Podrá cambiar la teoría, pero los hechos son tozudos.

[3] Hay muchísimas relaciones de incertidumbre. Nosotros, para lo que nos interesa, con estas dos para ilustrarlas nos basta y nos sobra.

[4] Su valor está fijado, por ser una de las constantes fundamentales de la naturaleza, desde 2019: 6,62607015·10−34 J·s. El kilogramo se define en función de este valor de h.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El carácter fundamental de las relaciones de incertidumbre se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de incertidumbre, cuantitativamente
  2. El principio de incertidumbre, cualitativamente
  3. Construyendo la mecánica cuántica
Categories: Zientzia

Txinako koronabirusa, aurtengo lehenengo birus berria

Zientzia Kaiera - Tue, 2020/01/28 - 09:00
Miren Basaras Pasa den urteko azken egunetan Txina ekialdeko Wuhan herriko merkatuan hainbat pertsona aldi berean kutsatu omen ziren. Denek antzeko sintomak izan zituzten, arnasbidekoak, pneumonia bat printzipalki. Gaixotasuna aztertu ondoren, aste baten bueltan, urtarrilaren 7an, birus berri baten informazioa kaleratu zuten. Birus horri koronabirus berria deitu diote momentuz, 2019-nCoV laburduraz.

1. irudia: Koronabirusaren agerraldia dagoen lurraldeetan maskarak edo mozorroak jarri behar dira, aire tanta kutsatua ekiteko. (Argazkia: pics_pd – domeinu publikoko argazkia. Iturria: Pixnio.com)

Baina koronabirusak zer dira?

Aspalditik ezagutzen den birus mota da, 1960 hamarkadaren erdialdean isolatuak. Izena bere itxuragatik dator, koroa itxura dute mikroskopioz behatzen direnean. Gai dira gizakiak eta animalia ezberdinak (hegaztiak eta ugaztunak batez ere) kutsatzeko.

2. irudia: MERS-CoV koronabirusa Ekialde Hurbileko arnas sindromea sortzen du. (Argazkia: Estatu Batuetako Gaixotasunak Kontrolatzeko eta Prebenitzeko Zentroa – domeinu publikoko argazkia. Iturria: Wikimedia Commons)

Ezagunak diren koronabirus ezberdin guztietatik bakarrik gutxi batzuk gai dira gizakia kutsatzeko, beste guztiak animalia ezberdinetan daude (saguzarrak, untxiak, oilaskoak, ahateak,…). Gizakia kutsatzeko gai diren koronabirus ezagun hauek dira urtero gure artean mugitzen direnak eta, gehienetan, hotzeria arrunta sorraraziz, sarritan infekzio arina edo sintomarik gabekoa izanik. Batzuetan, eta bereziki, paziente immunogutxituetan, umeetan edo adinekotan pneumoniekin ere erlazionatu dira.

Mende honetan, beste bi koronabirus berri aurkitu egin dira: 2002an SARS-CoV eta 2012an MERS-CoV deiturikoak. Lehenengoa Txinan sortu zen eta arazo larria eman zuen 2003-2004an, munduan 8.000 pertsona baino gehiago kaltetuz eta ia 800 hildako sorraraziz, bere heriotza-tasa % 10koa izan zelarik. Sorrarazitako gaixotasunari arnas sindrome akutu larria deitu zioten (pneumonia larria bat). Iturburua saguzarrak izan ziren eta ondoren zibetaren bidez hedatu zen. Animalia exotiko hauek jan zituzten pertsonek kutsatu omen ziren eta, ondoren, pertsonaz pertsona transmititzeko gai izan zen birusa.

Bigarrenaren kasuan, MERS-CoV, Saudi Arabian identifikatu zen. Gameluak dira gordeleku garrantzitsu bat eta horietatik gizakira transmititzen da, ondoren pertsonen arteko transmisioa emanez. Birus honen heriotza-tasa % 35a omen da. Kasu honetan ere sorrarazitako gaixotasuna pneumonia larria da (Ekialde Hurbileko arnas sindromea ere deitzen zaio).

Koronabirus berriaren (2019-nCoV) berezitasunak

Birus honen azterketa genetikoak dio SARS-CoV birusarekiko antzekotasun handia duela baina birus berria dela.

Egun 2.000 gaixo baino gehiago daude eta ia 60 hildako. Agerraldiaren epizentroa Wuhan hiria da eta, bertatik, Txinako hainbat lurraldeetara hedatu da eta beste herrialde batzuetara ere (Japonia, Hego Korea, Thailandia, Singapur, Vietnam, Estatu Batuak, Australia). Europan ere lehenengo kasuak antzeman dira Frantzian. Hala eta guztiz, herrialde hauetan guztietan momentuz bakankako kasuak agertzen ari dira eta denek komuna dutena da Txinatik etorriko pertsonak direla (3. irudia).

3. irudia: 2019-nCoV birus berriak sorrarazitako gaixo-kopurua (Munduko Osasun Erakundetik hartua, 2020ko urtarrilaren 25eko datuak). (Argazkia: Miren Basaras)

Hedapena mozteko asmoz, Txinako gobernuak Wuhan eta inguruko hainbat lurralde berrogeialdian jartzea erabaki du. Neurria zorrotza iruditu arren, SARS koronabirusen epidemian ikasitakoa baliozkoa izan behar du egungo agerraldi hori ahalik eta arinen kontrolatzeko.

Birus berri honen azterketa genetikoak dio parekotasun altua duela saguzarrek duten koronabirus batekin eta, hori dela eta, animalia horiek direla birus berri honen gordelekuaren susmoa dago. Wuhan hiriko merkatuan ere inguruneko laginak aztertu direnean antzeman da birusa. Honek baieztatzen du merkatu horretako beste animalia exotiko batzuk ere egon daitezkela inplikatuak transmisioan, nahiz eta momentuz ez den guztiz zehaztu zeintzuk izan daitezkeen.

Argi dagoena da birus berri honek espezieen arteko saltoa egin duela (animalietatik gizakira) eta, ondoren, mutazioren bat pairatuz gai izan dela pertsonen arteko transmisio ahalbidetzeko

Pneumonia: gaixotasun larria

Behin birusa gizakiaren barnean sartzen denean, bere inkubazio-aldia 2-14 egunekoa da. Ondoren arnasbideko infekzioak sorrarazten ditu: sukarra, eztarriko mina, buruko mina,… baina koadro kliniko larriena da birusa biriketara ailegatzen denean ematen duen pneumonia. Horren ondorioz, hainbat gaixo hil egin dira. Printzipalki immunologikoki ahulduta dauden pertsonak (adinekoak, beste gaixotasun bat dutenak,…). Beraien sistema immunea ez da gai gaixotasun honi aurre egiteko.

Nola saihestu birusa?

Birus berria izanik egun ez daude botika edo txerto espezifiko eta eraginkorrik bere kontra. Herrialde batzuk, Txina printzipalki, hasi dira txerto eraginkor baten bila.

Egun, prebentzio-neurriak dira birusaren hedapena mozteko mekanismo eraginkorrenak. Alde batetik, higiene-neurrietara bideratuta daude. Horien barnean, eskuen garbiketa, eztula egiterakoan listu zipriztinak ez hedatzeko ukondoa jartzea, paperezko mukizapiak erabiltzea, eta abar izango dira hartu beharreko neurriak.

Bestetik, agerraldia dagoen lurraldeetan maskarak edo mozorroak jarri behar dira, aire tanta kutsatua ekiteko. Lurralde hauetan ere animalien merkatuak debekatu dira, animalia basatiekin kontaktua ekiditeko.

Azkenik, birusaren hedapena kontrolatzeko beste neurri bat isolamendua da. Txinatik irtendako eta beste herrialdeetara ailegatutako gaixoak, infekzio berri honen susmoa dagoen bitartean, pazienteak ospitaletako gelatan isolatu egin behar dira, beste pertsona osasuntsuak ez kutsatzeko. Txina bertan, agerraldiaren epizentroan dagoen populazioa berrogeialdian jarri da; neurri honen helburua hedapen globala saihestea da edo, alden neurrian, gutxitzea.

Une honetan eta birusa aurkitu zenetik hilabetea pasatu ez denean, gauza asko ezezagunak dira: zein den benetako gordelekua, zeintzuk animaliak parte hartzen duten transmisioan, kutsakortasun-maila, heriotza-tasa, eta abar. Baina argi dagoena da horrelako arazoak agertzen direnean derrigorrezkoa dela nazioarteko kolaborazioa. Munduko edozein lekutan gertatzen denean osasun arazo bat, denbora laburrean munduko beste paraje batean ager daiteke eta.

Iturriak:

———————————————————————————-

Egileaz: Miren Basaras Ibarzabal, UPV/EHUko Medikuntza eta Erizaintza Fakultateko, Immunologia, Mikrobiologia eta Parasitologia Saileko ikertzailea eta irakaslea da.

———————————————————————————-

The post Txinako koronabirusa, aurtengo lehenengo birus berria appeared first on Zientzia Kaiera.

Categories: Zientzia

El fraude y las malas prácticas en ciencia

Cuaderno de Cultura Científica - Mon, 2020/01/27 - 11:59

Fraude y malas prácticas ha habido desde hace mucho tiempo. Hay documentados multitud de casos, incluso entre los científicos más famosos. Hay fundadas sospechas de que Ptolomeo hizo pasar por suyos datos astronómicos que en realidad eran de Aristarco de Samos. Recientemente ha ingresado en prisión Dong-Pyou Han, un investigador en vacunas, condenado por inventar datos en experimentos sobre la vacuna contra el VIH. Los casi 2000 años que separan estos sucesos han estado salpicados de otros muchos casos. Parece ser que Millikan eliminaba de su cuaderno de laboratorio las observaciones que no le interesaban, Mendel y sus guisantes también han resultado polémicos, incluso hay dudas sobre si Galileo realizó realmente los experimentos que relata en sus textos. Hay casos clásicos, como el del hombre de Pitdown, un fósil que se hizo pasar por el eslabón perdido en la evolución entre el hombre y el mono cuando realmente era un engendro creado con trozos de cráneo humano y de chimpancé. Hay multitud de casos bien documentados y diversas compilaciones, como la recientemente publicada por Ángel Abril-Ruiz que, además, se puede consultar en línea.

Resulta especialmente escandaloso oír hablar de fraude en una profesión dedicada fundamentalmente a la búsqueda de la verdad. Ese escándalo ayuda a hacerse un modelo mental de la situación en el que la inmensa mayoría de los científicos son “normales” (totalmente honrados) y una pequeña fracción son “manzanas podridas” (totalmente deshonestos). Sin embargo la realidad dista bastante de este modelo. Según algunos estudios (Fanelli (2009) y resumidas también por uno de nosotros en 2015, aquí), más de dos tercios de los científicos admite realizar algún tipo de malas prácticas y uno de cada 50 admite falsificar o inventar resultados, una de las peores prácticas imaginables. Es interesante notar que cuando se pregunta por las malas prácticas que uno conoce de los compañeros los números salen bastante más altos que cuando se pregunta por las propias.

Fischer y Zigmond (2002) incluyen entre las prácticas abiertamente fraudulentas la fabricación o falsificación de datos, el plagio, y lo que podríamos denominar el cocinado de datos (selección, manipulación y manejo). Pero también consideran como malas prácticas otras formas de proceder entre las que se encuentran lo que denominan –un tanto eufemísticamente- autoría honoraria, el no reconocimiento expreso de las fuentes, la opacidad en la metodología, la publicación fragmentada y la publicación duplicada de los mismos resultados en diferentes artículos. E incluyen malos comportamientos no solo de los autores de los trabajos, sino también de los revisores; entre estas están las revisiones sesgadas de los originales remitidos para su publicación y el uso de información privilegiada tomada de esos originales, entre otros.

De mala práctica debe ser calificada también la pesca de datos o p-hacking. Consiste en ir seleccionando datos o combinaciones de datos hasta que se acaba consiguiendo que los análisis estadísticos arrojen el resultado buscado porque los efectos que interesa destacar alcanzan el nivel de significación estadístico preestablecido. La significación estadística de un efecto se establece sobre la base del valor de p, que normalmente se establece en 0.05. En otras palabras, se considera que se produce un determinado efecto si, asumiendo la hipótesis nula, la probabilidad de obtener los datos que se tienen es inferior al 5%.  Las malas prácticas consisten en descartar valores extremos por ser considerados anómalos; también se pueden agrupar de formas diferentes; o modificar el tipo de tratamiento estadístico. Una vez se alcanza el resultado “deseado”, ese es el que se publica. Judith Rich Harris, en su libro The Nurture Hypothesis ha diseccionado de forma brillante un buen número de estas prácticas que han servido para “demostrar” que la educación que proporcionan los padres a sus hijos en el hogar ejerce efectos duraderos sobre el comportamiento de estos en la vida adulta.

Podríamos ordenar un listado de prácticas cuestionables de las más graves a las que apenas suponen un problema. Entre estas últimas tendríamos cuestiones como la autoría honoraria, la opacidad metodológica o el plagio de una frase. Es a la luz de una escala de gravedad de las malas prácticas como pueden entenderse los datos de los estudios antes citados sobre la prevalencia del fraude. Muchos científicos, si no todos, podemos incurrir en malas prácticas de bajo nivel, siendo mucho menos frecuentes las prácticas moralmente más reprobables. En todo caso, cada científico deberá situar sobre una escala de prácticas cuestionables el nivel con el que se siente cómodo, el umbral de lo aceptable. Mientras ese umbral se mantenga dentro de unos márgenes socialmente aceptables, no denominamos propiamente fraude a esas prácticas. Lo que se considera opacidad metodológica, el nivel de lo estadísticamente significativo o el tamaño mínimo de una muestra, por poner algunos ejemplos concretos, son elementos convencionales que pueden variar con el tiempo, y lo que se considerarían niveles intolerables en el pasado pueden ser normales hoy (o viceversa).

Federico di Trochio (1993) estableció dos categorías de fraude, dos motivaciones muy diferentes para que un científico incurra en comportamientos mucho más allá del umbral de lo socialmente aceptable. Curiosamente, se trata de dos categorías provocadas por motivaciones que casi se podrían calificar de opuestas pero que no es extraño que concurran en los miembros de una misma comunidad. Como se ha señalado antes, a quienes nos dedicamos a la ciencia nos mueve el ánimo de ensanchar los límites del conocimiento, de descubrir nuevos hechos y de asignar a esas hechos explicaciones que les otorguen algún sentido; nos hacemos preguntas y aspiramos a responderlas, de una forma tal que las respuestas son el origen de nuevas preguntas. Pues bien, inmersos en esa dialéctica no es difícil anteponer el hallazgo de una “buena” respuesta, de una “buena” explicación o “buena” teoría al cumplimiento de los necesarios estándares de rigor. Cuando eso ocurre se abre una vía por la que no es difícil llegar cada vez más lejos, pues la tolerancia para con las trampas que hace uno mismo es mayor cuantas más hace. Es pues la obnubilación por lo que se cree una buena teoría lo que causa en última instancia esta categoría de fraude. Otro posible resultado de esa obnubilación por el propio resultado es la perseveración empecinada en el mismo incluso cuando las pruebas en su contra son ya clamorosas. A esto se le ha llamado “ciencia patológica” y se describirá en detalle más adelante.

La segunda modalidad se refiere al hecho de que la de científico es una profesión, y como tal dispone de los correspondientes sistemas de acceso, estabilización laboral y promoción. Se trata, además, de una profesión muy exigente en muchos casos, pues la necesidad de obtener resultados y de publicarlos puede llegar a ser muy acuciante. A esa necesidad obedece la expresión “publicar o perecer”, y ante esa perspectiva se puede flaquear y relajar los estándares éticos llegando al fraude en toda regla.

En resumen, en vez de asumir un modelo de manzanas podridas para el fraude, la idea de una gradación de comportamientos cuestionables y un umbral de lo aceptable (socialmente establecido) resulta más adecuada y ayuda a entender los datos sobre incidencia de malas prácticas que muestran los diferentes estudios.

Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.

Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.

El artículo El fraude y las malas prácticas en ciencia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Fraude científico (III). Profundizando en los dos tipos de fraude
  2. Fraude científico (II). La difusa frontera de la deshonestidad
  3. #Naukas13 Malas gráficas
Categories: Zientzia

Estres-maila detektatzen lagun dezakeen algoritmoa

Zientzia Kaiera - Mon, 2020/01/27 - 09:00
Kostu baxuko plataforma eramangarrien bidez, seinale elektrokardiografikoak argi eta garbi detektatzeko algoritmo bat garatu dute UPV/EHUko Kontrol Adimentsua ikertaldean. Lanaren helburua izan da patologia fisiologiko, arazo disfuntzionala edo ezgaitasun kognitiboren bat duten pertsonen estres-maila identifikatzeko tresna bat lortzea.

Besteak beste, sistema biomedikoak eta laguntza pertsonalerako laguntza-sistemak ikertzen dituzte EHUko Kontrol Adimentsua Ikerketa Taldean (GICI). Ikerketa lerro honen helburua da medikuntzaren edo laguntza pertsonalaren sektorera zuzendutako aplikazioetan soluzioak garatzea, pertsonen bizi-kalitatea hobetzeko. Bide horretan, esaterako, seinale fisiologiko ez-inbaditzaileen bidez, pertsonengan eragina duten gertaera estresagarriak identifikatu eta sailkatzeko lanetan dihardute.

Irudia: UPV/EHUko Kontrol Adimentsua Ikerketa Taldeak, plataforma eramangarrietarako seinale elektrokardiografikoak aztertzeko soluzio bat garatu du. (Argazkia: Clker-Free-Vector-Images – Pixabay lizentziapean. Iturria: pixabay.com)

GICI taldeko Eloy Irigoyen ikertzaileak azaltzen duenez, konputazio adimendunaren esparruko teknikak erabiltzen dituzte, eta laguntza-arlo zein mediku-arloetan aplikatzen dituzte. Bi esparru horietara zuzendutako aplikazioetan soluzioak garatzera bideratuta dago euren lana, xede zehatz bat dutelarik: pertsonen bizi-kalitatea hobetzea.“ Desgaitasun jakin batzuk dituzten pertsonentzako laguntza-tresnak diseinatzen eta garatzen urte asko eman ondoren, “pertsona hauek estresaren eraginpean dauden edo ez antzeman lezakeen elementuren bat lortzea pentsatu genuen”, azaldu du Irigoyenek. Horrenbestez, “pertsona baten estres-maila eta zenbat denbora irauten dion zehazten saiatzen gara, elektrokardiograma-seinaleen analisian oinarrituta”, erantsi du.

Algoritmo bat estres-mailaren aldagaiak neurtzeko

Talde bereko Unai Zalabarria ikertzaileak, estres-maila neurtzeko baliabidea garatu du: azkar samar exekutatzen den algoritmo bat lortu du. Algoritmo honek analizatutako elektrokardiograma-seinale bat eskaintzen du. Hau da, “algoritmoak bihotz-maiztasuna eta beste zenbait balio edo aldagaiak zehazteko aukera ematen duten seinale errealak aurkitzeko soluzioa eskaintzen du” azaldu du Irigoyenek eta azpimarratu du, proposatutako algoritmoak oso emaitza onak ematen dituela, gaur egun dauden algoritmo onenekin alderatuta. Ikertzaileak egindako lanaren ondorioz, elektrokardiograma-seinalea hobetu egin da kostu txikiko gailu eramangarrietan.

Algoritmoa baliozkotzeko, erraz integra daitezkeen kostu txikiko plataformekin proba pilotuak egin dituzte. Besteak beste, Arduino eta Raspberry Pi plataformekin egin dituzte probak, ingurune kontrolatu batean, boluntarioekin egindako esperimentuetan.

Hala ere, ikertzailearen ustez, hurrengo fase batean seinale hori konputazio adimendunaren esparrutik datozen teknikekin prozesatu beharko da. Argitu duenez, “oraindik ez dugu jauzirik egin patologia fisiologiko, disfuntzionaltasun edo ezgaitasun kognitibo jakin batzuk dituzten pertsonetara, ikusi behar baita nola agertzen diren estres-uneetan haien aldagai fisiologikoen aldaketak”.

Erreferentzia bibliografikoa:

Zalabarria, U., Irigoyen, E., Martinez, R., Lowe, A., (2011). Online robust R-peaks detection in noisy electrocardiograms using a novel iterative smart processing algorithm. Applied Mathematics and Computation, 369, 124839. DOI: https://doi.org/10.1016/j.amc.2019.124839.

Iturria:

UPV/EHUko komunikazio bulegoa: Seinale elektrokardiografikoak analizatzeko soluzio bat, plataforma eramangarrietarako.

The post Estres-maila detektatzen lagun dezakeen algoritmoa appeared first on Zientzia Kaiera.

Categories: Zientzia

Genocidio

Cuaderno de Cultura Científica - Sun, 2020/01/26 - 11:59

Genocidio: “Exterminio o eliminación sistemática de un grupo por motivos de raza, etnia, religión, política o cionalidad».

Diccionario de la lengua española / RAE.

“El Nacionalsocialismo no es otra cosa que Biología Aplicada”.

Rudolf Franz Ferdinand Höss, comandante de Auschwitz.

Fotos de las fichas de niños judíos en Auschwitz. Fuente: DeAgostini / Getty Images vía history.com

El genocidio, como concepto, definición y delito, es una creación moderna, aunque los antecedentes han acompañado a nuestra especie en toda su historia evolutiva. El término lo utilizó por primera vez el jurista polaco Rafael Lemkin, y lo describió como un crimen de extermino. Tomó carácter oficial en los procesos de Nuremberg a los dirigentes nazis al terminar la Segunda Guerra Mundial. Aparece entre los delitos del acta de acusación de Nuremberg el 8 de octubre de 1945. Cuenta Manuel Ollé Sesé, de la Universidad Complutense, que el Convenio para la Prevención y Sanción del Delito de Genocidio se aprobó en la Asamblea General de las Naciones Unidas con fecha de 9 de diciembre de 1948, y entró en vigor el 12 de enero de 1951. El artículo 607 del Código Penal español establece que los delitos de genocidio tienen “el propósito de destruir total o parcialmente un grupo nacional, étnico, racial, religioso o determinado por la discapacidad de sus integrantes”, según Ley Orgánica aprobada el 23 de noviembre de 1995. Hay que recordar que un grupo, sean cuales sean las razones para que sea un grupo, tiene derecho a existir como una colectividad.

E s más, tal como escribió Hannah Arendt en su crónica sobre el juicio a Eichmann, “el genocidio es un ataque a la diversidad humana como tal, es decir, a una de las características de la “condición humana”, sin la cual los términos “humanidad” y “género humano” carecerían de sentido”. Llega a proponer, como término más adecuado que genocidio, que se denomine “matanza administrativa”.

El concepto de genocidio lo amplió el profesor Baruk, en 1967, cuando añadió que es la destrucción de “todo gen, de toda posibilidad de reproducción, de persistencia, de un pueblo”.

Según solicita Xaimán Aizenstadt, de la Universidad Francisco Marroquín de Guatemala, la definición de genocidio no se debe considerar cerrada sino que debe ser tan flexible e imaginativa como la capacidad humana para el mal.

Aunque el concepto, la definición y la jurisprudencia sobre genocidio comenzó después de la Segunda Guerra Mundial, la historia de nuestra especie está llena de genocidios. Sin entrar en detalles, centraremos el texto en el genocidio nazi, pero hay que recordar la destrucción de Cartago, los anasazi del suroeste del actual Estados Unidos, la cruzada albigense en la Francia del siglo XIII, el exterminio de los armenios al principio del siglo XX, las matanzas de Ruanda o Bosnia … Y, además, aún sin nombre ni concepto, la idea del genocidio viene de lejos en el tiempo y acompaña desde siempre nuestra historia. Y, también, la historia de la evolución biológica. Solo hay que recordar el título completo del libro de Charles Darwin: “Sobre el origen de la especies por medio de la selección natural, o la preservación de razas favorecidas en la lucha por la vida”.

La violación se reconoció como delito de genocidio en el Tribunal Internacional de Ruanda para hechos ocurridos en 1993 y 1994 contra refugiados tutsis. Todo acto de violencia sexual, incluyendo embarazos forzosos, pueden constituir genocidio cuando son cometidos con la intención de destruir un grupo nacional, étnico, racial o religioso.

El Tercer Reich fue un periodo en el que la violencia masiva organizada, a una escala inigualada en la historia moderna, se canalizó contra millones de seres humanos que, según la sociobiología nazi, eran política, racial, étnica y económicamente inferiores. Escribió Zygmunt Bauman que el genocidio nazi no fue un proceso bárbaro sino moderno y civilizado. Los nazis utilizaron muchos de los logros y herramientas de la era industrial –la fábrica, el tren, los productos químicos sintéticos y la organización administrativa de todo el proceso- con efectos letales, confiando en la ciencia moderna y la planificación racional, en la que todo se subordina a un único objetivo limitado y definido. Pelagia Lewinska, comunista polaca que estuvo internada en Auschwitz y sobrevivió, declaró años después que “no me queda otro remedio que admirar la habilidad con que los alemanes habían introducida en la organización de la vida del campo de Auschwitz la ciencia moderna. Habían aplicado no solo un sistema de condiciones materiales que aniquilaba a la gente, sino que empleaban también con precisión la psicología para desorganizar el alma humana, para destruir moralmente al ser racional”.

Los hombres corrientes de la Alemania nazi participaron en el genocidio porque creían que los judíos debían morir, que su aniquilación era socialmente deseable, que eran una raza inferior de infrahumanos. Para los ciudadanos corrientes, el exterminio de los judíos no era un crimen. Era la culminación del antisemitismo que existía desde hace siglos en Europa central.

Kurt Gerstein: El Espía de Dios

Kurt Gerstein. Fuente: history.com

Nació en 1905 en Munster y murió en París en 1945. Ingeniero de minas, se afilió al Partido Nazi el 12 de mayo de 1933, y a las SS y fue destinado al Instituto de Higiene de las SS.

Por su preparación técnica fue destinado a la unidad encargada de la Solución Final y presenció las primeras ejecuciones con gas en agosto de 1942. Fue testigo del exterminio judío en los campos de Sobibor, Belzec y Treblinka y decidió transmitir la información de lo que ocurría a los aliados y a la Iglesia Católica. En Belzec, Gerstein vio morir a 5000 judíos en 1942. El texto que redactó, conocido como Informe Gerstein, fue utilizado en los juicios de Nuremberg. Por su profunda fe religiosa fue conocido como El Espía de Dios. Toda su vida, desde su afiliación al partido, fue una constante lucha entre su fe religiosa y su ideología nazi.

Protestó por la absorción de los movimientos juveniles protestantes en las Juventudes Hitlerianas. Lo hizo ante Baldur von Schirach, líder de las Juventudes, y Monseñor Müller, obispo protestante. En otra ocasión, en 1935, durante el estreno de una obra de teatro pronazi, y con un explícito mensaje anticristiano, protestó en el teatro y recibió una paliza que le costó tres dientes.

También tuvo algún enfrentamiento con las Gestapo por la organización de campamentos juveniles que mezclaban religión y nazismo. Por todo ello, en 1936 fue detenido y expulsado del Partido. Al comenzar la guerra, en 1940, se alistó voluntario en las SS.

Pasó información a diplomáticos a Suecia y Suiza, a la resistencia holandesa, autoridades religiosas e, incluso, intentó una entrevista con el Nuncio de la Santa Sede en Berlín y no lo consiguió. Nadie le creía por lo terrible de lo que contaba. Apuntaba todo lo que veía y sus notas fueron la base del Informe Gerstein.

Fue uno de los encargados de transportar el Zyklon B utilizado en las cámaras de gas. El Zyklon B lo suministraban a los campos de exterminio las empresas Degesch y Testa de I.G. Farben Konzern, y contenía ácido prúsico o ácido cianhídrico, componente esencial de insecticidas que fabricaba desde 1924. Para envenenar a una persona bastaban 0.12 miligramos por litro de aire. La muerte es casi instantánea.

En 1943, las empresas suministraron 12174,09 kilogramos y obtuvieron un beneficio de 127985,79 marcos. Se ha calculado que Gerstein, por su trabajo en el Servicio de Higiene, que incluía los gases tóxicos, suministró 3790 kilogramos de Zyklon B a los campos de Auschwitz y Oranienburg. Bastaban para matar a 450000 personas solo en Auschwitz.

Los crematorios de los campos de concentración los suministró la empresa J.A. Topf & Sohne, de Wiesbaden, que años después, el 5 de enero de 1953, obtuvo en la República Federal Alemana la patente nº 861731 para un “Procedimiento y dispositivo para la incineración de cuerpos, cadáveres y partes de los mismos”.

Desertó al final de la guerra y se entregó a los aliados el 22 de abril de 1945. Ingresó en la prisión de Cherche-Midi, en París, acusado del delito de genocidio. Apareció ahorcado en su celda el 25 de julio de 1945. En 1965 fue rehabilitado en Alemania como resistente por el Canciller Kurt Georg Kiesinger.

Y todo el esfuerzo, por lo menos en los primeros años del régimen nazi, fue contra judíos y gitanos. Ya en enero de 1939, meses antes del inicio de la Segunda Guerra Mundial, Hitler mencionó como objetivo “la destrucción de la raza judía en Europa”.

Más adelante, con la invasión de Rusia, se extendió a los eslavos. Las órdenes incluían ejecutar a los comisarios soviéticos.

De nuevo Pelagia Lewinska nos ofrece sus reflexiones cuando explica que, en Auschwitz, los alemanes “internaban a todos: a los que les parecían inútiles; a los que consideraban como un peso muerto en la obra creadora de la gran Alemania; a los que juzgaban peligrosos; a los que podían constituir una amenaza para el Estado hitleriano; o cuya muerte se hacía necesaria para proveer de oro al Tesoro alemán y procurar a los alemanes bienes y comodidades como era el caso de los judíos … Al lado de los detenidos políticos estaban gentes recogidas en la calle, en los cines, en las iglesias, en los cafés, en los trenes, en el mercado negro y en los lugares de placer. Los había que no eran culpables de actividades políticas conscientes ni contrarios al hitlerismo”.

Para Stephen Chorover, profesor del MIT y judío que perdió a gran parte de su familia en el genocidio nazi, las ideas sociobiológicas ya existentes desempeñaron una función doblemente influyente en el proceso de exterminio. En primer lugar, suministraron el aparato conceptual que médicos y científicos necesitaban para concebir, planificar y realizar la “destrucción de las vidas carentes de valor” o, si se quiere, para la eutanasia de degenerados, desviados, enfermos, … En segundo lugar, ayudaron a construir y ratificar la tesis nazi según la cual la calidad racial es el criterio para juzgar el valor de individuos y países.

Esas ideas habían comenzado con Charles Darwin y su “Origen de las especies”, Herbert Spencer y su naturaleza de “dientes y garras”, Francis Galton y la eugenesia, y tantos otros en Europa y Estados Unidos. Y, no hay que olvidar, que, desde la biología, el genocidio es siempre agresión intraespecífica, o sea, entre individuos de la misma especie.

Konrad Lorenz: El pasado del Premio Nobel

Konrad Lorenz. Fuente: nobelprize.org

Nació en Viena en 1903 y murió en Alterberg, Austria, en 1989. Estudió medicina en la Universidad Columbia de Nueva York, y se doctoró en la Universidad de Viena. La lectura de las aventuras de Nils Holgerson, de la autora sueca Selma Lagerlof, le llevó, como a tantos otros, al interés por los animales, las aves en concreto, y al estudio de la zoología. Acepta estudiar medicina para contentar a su padre, y el contacto con los profesores Ferdinand Hochstetter, de anatomía, y Karl Buhler, de psicología, le llevan a utilizar el método comparativo para estudiar el comportamiento. Una vez graduado, en 1939, fue nombrado profesor de psicología con orientación biológica en la Universidad de Konigsberg, en Alemania.

En 1938 se afilió al Partido Nazi, Escribió, en su petición de afiliación, que “puedo decir que todo mi trabajo científico está dedicado a las ideas de los nacionalsocialistas”. Sus escritos de la época apoyaban la ideología nazi de la higiene racial con el apoyo de la terminología científica. Por ejemplo, en junio de 1940, apareció un artículo de Lorenz titulado, en traducción “Alteraciones del comportamiento propio de la raza causadas por la domesticación”. Escribe que “de la amplia analogía biológica de la relación entre el cuerpo y la úlcera cancerosa por una parte, y de un pueblo y sus miembros convertidos en asociales por deficientes por otra, se deducen grandes paralelismos, salvando las naturales diferencias … Todo intento de reconstrucción de los elementos destruidos en relación con la totalidad es, por tanto, desesperado. Por suerte, su extirpación es más fácil para el médico del cuerpo social, y para el organismo supraindividual menos peligrosa que la operación del cirujano en el cuerpo individual”. Terminaba con “la idea racial como base de nuestro estado ya ha logrado mucho en este sentido”. Lorenz jamás escondió esta publicación y repitió las ideas que escribió en muchos de sus libros.

Loren Eisenberg, de la Universidad de Harvard, añade que Lorenz fue explícito en la defensa de los conceptos nazis de pureza racial y, por ejemplo, justificó las restricciones legales al matrimonio con no-arios como medida social para corregir “la degeneración inducida por la domesticación”. Algo similar escribía Lorenz en su libro, publicado en 1975, y titulado “Los ocho pecados mortales de la Humanidad” y, sobre todo, en el capítulo titulado “Decadencia genética”, uno de los “pecados mortales” del título. Menciona que, en un péndulo de ideologías y conductas, en un extremo está que todos los hombres son iguales desde su nacimiento y, en el otro extremo, coloca, literalmente, a ”Eichmann, Auschwitz, la eutanasia y el odio racista”. Para Lorenz, en este péndulo en medio está la virtud o, si se quiere, todos los hombres no son iguales pero ello no nos debe llevar a Eichmann o Auschwitz.

En 1941, una vez comenzó la guerra, fue movilizado como médico militar destinado en Poznan, en Polonia, como neurólogo y psiquiatra, y, en 1944, enviado al frente oriental. Capturado por los rusos, fue su prisionero durante seis años. Allí conoció de primera mano el adoctrinamiento marxista y lo comparó con el nazismo, que conocía en detalle.

Hasta febrero de 1948 no pudo regresar a Austria y declaró su arrepentimiento por su afiliación al Partido Nazi. En principio, negó haber pertenecido al Partido, hasta que se demostró que era cierto. También negó haber conocido el alcance del genocidio, a pesar de su puesto como psicólogo en la Oficina de Política Racial.

Con una financiación escasa y muchos problemas, organizó, en 1949, la estación de investigación de Altenberg. Marchó a Alemania, a la estación de Buldeon, donde fundó el Instituto Max Planck de Fisiología del Comportamiento. En este centro, a comienzos de los sesenta, desarrolló su teoría del comportamiento que unía la evolución, lo innato y lo aprendido. Por todo ello, en 1973 recibió el Premio Nobel.

En su autobiografía, publicada en 1988, Lorenz recordó que, en aquellos años, “estaba asustado, como todavía lo estoy, por la idea de que procesos genéticos de deterioro puedan estar funcionando en la humanidad civilizada. Movido por este miedo, hice algo muy poco aconsejable poco después de que los alemanes invadieran Austria: escribí sobre los peligros de la domesticación y, para ser entendido, expresé mis escritos en la peor terminología nazi. No quiero presentar atenuantes de estos escritos. En realidad, creía que algo bueno vendría del nuevo gobierno … Ninguno sospechaba que la palabra “selección”, utilizada por estos gobernantes, significaba asesinato”.

La Universidad de Salzburgo le retiró, en 2015, el título de Doctor Honoris Causa, concedido en 1983. La universidad argumentó que fue la difusión, por Lorenz, de las ideas nacionalsocialista y, por declarar en aquellos años, que era “siempre un nacionalista”, y utilizar su trabajo para difundir “elementos básicos de la ideología racista del nacionasocialismo”.

Lo había definido Adolf Hitler años antes: “Hemos de crear una técnica de despoblación. Si me pregunta usted lo que entiendo yo por despoblación, le diré a usted que veo la liquidación de unidades raciales, y lo haré, puesto que veo en ella, a grandes rasgos, mi misión fundamental. La Naturaleza es cruel y, por este motivo, también nosotros podemos ser crueles. Si mando a lo mejor del pueblo alemán a la guerra sin lamentos, en ningún momento, el derramamiento de la valiosa sangre alemana en el infierno de la guerra, también tengo el derecho de destruir millones de hombres de razas inferiores, que se multiplican como los parásitos”. Detrás de estas declaraciones está la biología de la época, está el genocidio. Ya lo había expuesto Hitler en 1925 en su libro Mi lucha. Hitler trataba de crear, en el este de Europa, un “espacio vacío”, que era el lugar donde viviría la raza de señores que debía ser creada y organizada por Himmler. Es lo que afirmaba Erich Koch, comisario del Reich y responsable de la administración nazi en Ucrania: “Somos un pueblo de señores que ha de tener en cuenta que el obrero alemán más bajo es mil veces mejor, desde el punto de vista racial y biológico, que cualquier exponente de la población local”.

Detrás de esta ideología supremacista estaba lo que Alfred Rosenberg, ideólogo del Partido Nazi, declaró en el juicio de Nuremberg que “… y finalmente en Munich me especialicé en los estudios de la nueva investigación biológica”. Afirmó que el sentimiento de humanidad iba “contra el proceso de selección natural”. Por ello, consigue que el genocidio se base en la evolución. El mismo Rosenberg escribió que la humanidad trata del individuo y olvida al Estado y al pueblo. Es un concepto que niega las diferencias nacionales y raciales y considera la Humanidad sin diferencias.

Como explicó Heinrich Himmler en una conferencia en enero de 1937, la biología, según los nazis, estaba en el centro de su limpieza étnica, y “no hay mejor ilustración de las leyes de la herencia y de la raza … que un campo de concentración. En el se encuentran hidrocéfalos, bizcos, contrahechos, semijudíos y un número incalculable de productos de razas inferiores”. O, más en extenso y en un lenguaje científico y proponiendo los campos de trabajo, Hans Reiter, médico nazi con cargos en la administración y en el campo de concentración de Buchenwald, declaró en 1941 que “la legislación biológica-hereditaria se preocupa de suprimir, poco a poco, la creación de nuevas generaciones de individuos asociales … El estudio biológico del rendimiento humano debe conducir y reconducir, sin duda, a disponer en la medida de lo posible de esa mano de obra, de manera a desarraigar de una ocupación estéril o de la ociosidad para conducirla por la fuerza a un trabajo real y enteramente provechoso al pueblo y al Estado”. Antes de comenzar la guerra ya se habían esterilizado entre 350000 y 400000 personas.

Para organizar la solución final y eliminar a los judíos de Europa, Reinhard Heydrich, jefe de la Oficina Central de Seguridad del Reich, convocó a los jefes de servicio de las SS y a algunos cargos del Gobierno a una conferencia en el Lago Wannsee. Se celebró el 20 de enero de 1942. Asistieron 14 altos cargos y la presidió Heydrich. Allí se decidió la deportación al este, los trabajos forzados y el exterminio. Una de las conclusiones de Heydrich fue que “sin dudarlo, una gran parte perecerá a consecuencia de la natural disminución. Los que queden y que al final puedan resistir todo esto, que serán los más resistentes, deben ser tratados convenientemente ya que estas personas, resultado de la selección natural, son el embrión básico de un nuevo desarrollo judío”.

Adolf Eichmann: Funcionario leal

Adolf Eichman. Fuente: Wikimedia Commons

Cuando ya estaba en la cárcel israelí, en 1960, escribió:

Me llamo Karl Adolf Eichmann, nací en Solingen el 19 de marzo de 1906, pertenezco a la raza aria y al gran Reich alemán.

No hay acontecimientos importantes en mi niñez, ni en mi primera juventud; mi verdadera vida empezó cuando, en 1931, entré a formar parte del gran Partido Nazi, para la salvación de Alemania, con el número de inscripción 899895, y más adelante ingresé en el cuerpo escogido de las SS …”.

Entró en el Partido Nazi por la amistad de su padre con Ernst Kaltebrunner, jefe del Servicio de Seguridad del Reich a partir de 1942, juzgado en Nuremberg, condenado a muerte y ahorcado en 1946. Eichmann se afilió el 1 de abril de 1932 y el mismo día entró en las SS.

Casado en 1932, tuvo cuatro hijos, el último de ellos en Argentina.

Después de su traslado a Berlín en 1934, comenzó su carrera de buen funcionario cuando le encargaron, en 1937, organizar el éxodo de los judíos de Austria, con la ayuda de organizaciones sionistas, hacia Palestina. En Solingen, en casa de un amigo judío, había aprendido yidish y hebreo, y estaba preparado para cumplir las órdenes. Consiguió el traslado de hasta 100000 judíos al mes hacia el extranjero. Para conseguirlo viajó como periodista a Palestina, desde Austria, en 1937, y conoció al Gran Mufti de Jerusalén y se convirtió en su gran amigo personal, aunque Hannah Arendt no da crédito a esta historia.

Al comenzar la guerra, en 1939, los órdenes fueron concentrar los judíos europeos en guetos en Polonia, para crear un estado judío en Europa oriental y, más adelante, llevarlos a la isla de Madagascar. Pero en septiembre de 1940 cambió el plan y comenzó el exterminio. Fue la Sección B4 de la Gestapo, dirigida por Eichmann, la que organizó las deportaciones masivas y el traslado de judíos a los campos de exterminio. En la conferencia de Wannsee, en 1942, estaba Eichmann como encargado de los transportes.

Eichmann era un hombre ordenado y, en medio de una de las tareas más terribles, siempre conservó su espíritu burocrático. Tenaz y organizado, Eichmann cumplía su deber, según las órdenes recibidas. Según declaró, era un ejecutor de órdenes superiores. Alcanzó el rango de teniente coronel de la SS. En 1944, en Budapest, comentó a un colega de las SS que “el número de judíos muertos alcanza casi los seis millones; pero esto es un secreto de Estado”.

Al terminar la guerra, Eichmann fue capturado con una identidad falsa y consiguió huir. Pasó por Austria, Suiza e Italia, y consiguió un pasaporte falso que le permitió viajar a Argentina. Llegó el 14 de julio de 1950. Su familia llegó en 1952 y, después de pasar por varias ciudades, se instalaron en Buenos Aires. Trabajó en una fábrica de Mercedes Benz.

Pero el 11 de mayo de 1960 fue capturado por el servicio secreto israelí en Buenos Aires. Fue descubierto por un judío alemán ciego, Lothar Hermann, emigrado desde 1938, y cuya hija era amiga del hijo menor de Eichmann. El Mossad, servicio secreto israelí, no dio crédito a que un ciego hubiera descubierto a Eichmann. Confirmaron la noticia y planearon su captura y transporte inmediato a Israel. Uno de los miembros del Mossad que lo capturó, lo describió como “un hombrecito suave y pequeño, algo patético, y normal, no tenía la apariencia de haber matado a millones de los nuestros … pero él organizó la matanza”. El 20 de mayo lo trasladaron a Israel.

En el juicio, Eichmann alegó, en su defensa, que actuó por obediencia debida a sus superiores. Declaró que “no perseguí a los judíos con avidez ni placer. Fue el gobierno quien lo hizo. La persecución, por otra parte, solo podía decidirla un gobierno, pero en ningún caso yo. Acuso a los gobernantes de haber abusado de mi obediencia. En aquella época era exigida la obediencia …”.

Hannah Arendt escribió que Eichmann no era un supervillano y, para ella, lo más impactante fue que, cualquier persona, en determinadas circunstancias y en el entorno adecuado, puede ser tremendamente malvado porque crea que es su obligación o, si se quiere, su trabajo a cumplir.

Fue condenado a muerte por genocidio y ejecutado, en la prisión de Ramla, en la madrugada del 1 de junio de 1962.

Sus últimas palabras fueron “Larga vida a Alemania. Larga vida a Austria. Larga vida a Argentina. Estos son los países con los que más me identifico y nunca los voy a olvidar. Tuve que obedecer las reglas de la guerra y las de mi bandera. Estoy listo”.

Más adelante, además de judíos y gitanos, otros muchos entraron en la lista de exterminio de los nazis. Himmler declaró que “lo que le suceda a un ruso o a un checo no me importa lo más mínimo. Lo que las naciones puedan ofrecernos en forma de buena sangre de nuestro tipo lo tomaremos, si es necesario secuestrando a sus hijos y educándolos con nosotros”.

En la primavera de 1942, del 75% al 80% de las que serían víctimas del genocidio nazi estaban vivas, pero menos de un año después, en la primavera de 1943, la mayoría habían muerto. Después de la Conferencia de Wansee, el genocidio tuvo una primera ola de crímenes corta e intensiva.

Pelagia Lewinska: Veinte meses en Auschwitz

Mujeres supervivientes de Auschwitz. Fuente: Holocaust Encyclopedia

Nació en 1907 y murió en 2004. Fue activista del Partido Comunista polaco en el que alcanzó cargos importantes en el área de Educación y en el movimiento scout de Polonia.

Durante le guerra pertenecía a la resistencia y fue capturada y encerrada en el campo de Auschwitz. Estuvo en un barracón con otras mujeres, gitanas, polacas, checas, rusas, francesas, incluso algunas alemanas, todas en la suciedad y la mugre del campo de exterminio.

El 23 de enero de 1943, un grupo de mujeres de la prisión de Cracovia fue trasladado a Auschwitz “después del suplicio y la tortura de los interrogatorios en las oficinas de la Gestapo”. Eran 16 mujeres del grupo de Pelagia Lewinska y 160 mujeres en total. Además, en los vagones de ganado en que las llevarían al campo montaron casi 500 hombres, sobre todo judíos. En su recuerdo está que llegaron a Auschwitz. Se detuvo el tren. Los hombres de la Gestapo las bajaron a culatazos. Orden de marcha en filas de a cinco. A lo lejos, las luces del campo sobre alambradas y torres de vigilancia. Un olor terrible sobre el paisaje. Las frauen de las SS les robaron las joyas. Y el tatuaje del número en el antebrazo sería la identidad de cada una en el campo. El de Pelagia Lewinska era 32292.

El 28 de enero fue la primera noche en el campo. Frío y oscuridad. Como literas, andamios de madera de tres alturas. Arriba, el tejado; abajo, tierra apisonada. En el bloque 26, todas mujeres judías, murieron 1800 en tres meses. Prohibido poseer cualquier cosa. Antes del amanecer, la llamada.

El bloque 25 era el de la muerte. Se cargaban camiones con mujeres. Iban y venían desde los hornos crematorios. Una y otra vez.

En Auschwitz murieron tres millones de personas. Entre las mujeres, en enero de 1943, el promedio de defunciones era de 100 mujeres al día. En febrero y marzo de 1944, un año después, el promedio llegaba a las 800, sobre una población total casi idéntica de unas 15000 detenidas. Era imposible evacuar el enorme número de cadáveres. De las 100000 mujeres tatuadas hasta agosto de 1944, solo vivían unas 11000.

La más veterana de las internadas recorría la formación distribuyendo golpes con una porra. Los cráneos crujían, ensordecían los oídos y se hinchaban los ojos. Pero nadie podía moverse. Era indispensable permanecer inmóvil. El procedimiento de la lista no había terminado”.

En la tercera noche desde la salida de Cracovia, una gitana se puso de parto en el barracón. Una médico checa le atendió. Extrañó a las nuevas que no llegara ayuda de la enfermería del campo. Una veterana comentó que “eso no tiene importancia”.

La comida era unas patatas mal cocidas y una sopa con tronchos de berza como una piedra. Comprendieron que estaba permitido morir de hambre. Las veteranas explicaban que “esto es la tumba”.

Los médicos del campo designaban a quien debía morir.

Todas las enfermas, verdaderos esqueletos ambulantes, desfilaban dormidas ante el, para que escogiese y designase a aquellas para quienes no había ni tiempo ni sitio adecuado para una lenta agonía. Convenía que muriesen enseguida…

Las alambradas eléctricas fueron la liberación para muchas prisioneras. Cada mañana, un grupo de detenidas recogía cadáveres de las alambradas o, como decían, “cosechaban liberadas”.

La verdad es que Auschwitz fue un lugar de exterminio en masa de seres humanos. Cinco trenes diarios llegaban e iban a la cámara de gas. La tierra de Auschwitz se abonaba con las cenizas de los gentes de toda Europa y daba magníficas cosechas”.

En un discurso del 4 de octubre de 1943 a altos cargos de las SS, Himmler declaró:

La mayoría de vosotros sabéis lo que significa ver cien cadáveres yaciendo juntos, quinientos cadáveres, o mil. Habéis pasado por esto y … salvo algunas excepciones, ejemplo de debilidad humana … seguir siendo decentes, esto es lo que nos ha curtido. Esta es una página gloriosa de nuestra historia que nunca se ha escrito y nunca se escribirá”.

La evolución trata de nosotros y los otros, de altruismo y de xenofobia. Pero, además, está la cultura y la educación para modular lo que la evolución selecciona y, también, la propia evolución selecciona la cultura y la educación como bases de la flexibilidad de la especie humana. Su falta provoca rigidez en las conductas que deben ser flexibles para la adaptación a entornos nuevos y cambiantes.

Para terminar con cierta esperanza, identificar las raíces evolutivas que llevan al genocidio permitirá no tomarlo como un destino inevitable de la especie humana, sea cual sea su base cultural y sociobiológica.

Y, recordar que Jerry Fowler publicó en 2004 que el primer genocidio del siglo XXI está documentado en Darfur, en el Sudán.

Referencias:

Abad, J.J. 1976. La selección de la raza aria (Lebensborn). Círculo de Amigos de la Historia. Madrid. 286 pp.

Abos, A. 2012. Eichmann en la horca. El País 31 mayo.

Aizenstadt Leistenschneider, X.A. 2007. Origen y evolución del concepto de genocidio. Revista de Derecho Universidad Francisco Marroquín 25: 11-22.

Arendt, H. 2018. Eichmann en Jerusalén. Un estudio acerca de la banalidad del mal. Penguin Random House. Barcelona. 440 pp.

Armstrong, K. 2015. Campos de sangre. La religión y la historia de la violencia. Paidós. Barcelona. 575 pp.

Bauman, Z. 2010. Modernidad y holocausto. Ed. Sequitur. Madrid. 272 pp.

Brannigan, A. 1998. Criminology and the Holocaust: Xenophobia, evolution, and genocide. Crime & Delinquency 44: 257-276.

Brayard, F. 2002. L’humanité versus Zyklon B. L’ambiguité du choix de Kurt Gerstein. Vingtième Siècle. Revue d’Histoire 73: 15-25.

Chorover, S.L: 1985. Del Génesis al genocidio. La sociobiología en cuestión. Ed. Orbis. Barcelona. 280 pp.

Deschmann, U., 1996. Biologists under Hitler. Harvard University Press. Cambridge and London. 468 pp.

Eisenberg, L. 1972. The human nature of human nature. Science 176: 123-128.

Eisenberg, L. 2005. Which image for Lorenz? American Journal of Psychiatry 162: 1760.

Friedman, T.L. 1995. Foreign Affairs; Allies. New York Times June 7.

Fowler, J. 2004. Beyond humanitarian bandages – confronting genocide in Sudan. New England Journal of Medicine 351: 2574-2576.

Hébert, V. 2006. Disguised resistance? The story of Kurt Gerstein. Holocaust and Genocide Studies 20: 1-33.

Heydecker, J.J. & J. Leeb. 1962. El proceso de Nuremberg. Ed. Bruguera. Barcelona. 512 pp.

Jiménez Lozano, J. 2005. La historia de un espía. ABC 21 mayo.

Klopfer, P. 1994. Konrad Lorenz and the National Socialists: On the politics of Ethology. International Journal of Comparative Psychology 7: 202-208.

Lorenz, K. 1975. Los ocho pecados mortales de la humanidad. Plaza & Janés. Nabrcelona. 128 pp.

Manvell, R. 1975. SS Gestapo. Dominación por terror. Ed. San Martín. Madrid. 160 pp.

Mulisch, H. 1961. El juicio a Eichmann. Causa Penal 40/61. Titivillus. ePub base r1.2. 141 pp.

Müller-Hill, B. 1985. Ciencia mortífera. La segregación de judíos, gitanos y enfermos mentales (1933-1945). Ed. Labor. Barcelona. 272 pp.

Ollé Sesé, M. 2015. El crimen de genocidio (1): Génesis y evolución legislativa nacional e internacional. Serie Working Papers 01/2015. Fundación Internacional Baltasar Garzón. 14 pp.

Sax, B. 2007. Konrad Lorenz and the mythology of science. En “What are animals to us: Approaches from science, religión, folklore, literatura and art”, p. 269-276. Ed. por D. Aftandilian et al. University of Tennessee. Knoxville.

Staub, E. & D. Bar-Tal. 2003. Genocide, mass killing, and intractable conflicto. En “Oxford handbook of political psychology”, p. 710-751. Ed. por D.O. Sears et al. Oxford University Press. Oxford.

Stern, B. & P. Lewinska. 1960. Eichmann. Su vida. Sus víctimas. Fomento Internacional de Cultura. Barcelona. 286 pp.

Ternon, Y. & S. Helman. 1971. Historia de la Medicina SS o El mito del racismo biológico. Fomento de Cultura Ed. Valencia. 408 pp.

Wiesenthal, S. 1989. Justicia, no venganza. Ed. B. Barcelona. 441 pp.

Wikipedia. 2017. Kurt Gerstein. 20 diciembre.

Wikipedia. 2018. Pelagia Lewinska. 16 agosto.

Wikipedia. 2018. Genocidios en la historia. 29 septiembre.

Wikipedia. 2018. Konrad Lorenz. 1 octubre.

Wikipedia. 2018. Adolf Eichmann. 4 October.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Genocidio se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Desmitificando: Las rubias son “tontas”
  2. Historias de la malaria: El charlatán y caballero Sir Robert Talbor
  3. Ingredientes para la receta: El kiwi
Categories: Zientzia

Asteon zientzia begi-bistan #287

Zientzia Kaiera - Sun, 2020/01/26 - 09:00
Uxue Razkin

Mikrobiologia

Asteon, koronabirus hitza askotan agertu da egunkarietan, baita sare sozialetan ere. Hasieran, Wuhanen (Txina) gaixotutako pazienteen birusak aztertu zituzten, eta haren kode genetikoa argituta, jakin zuten koronabirus bat zela. Orain birus horren jatorria zehazten aritu dira. Hasiera batean ostalaria saguzarrak izan zitezkeela uste zuten, baina Pekingo ikertzaile batzuek erakutsi dute sugeak izan direla. Munduko Osasun Erakundea egunotan ari da erabakitzen larrialdi-maila eta hartu beharreko neurriak, Elhuyar aldizkarian irakur daitekeenez.

2019 Novel Coronavirus (2019-nCoV) izendatu duten birusari buruz ere hitz egin dute Berrian. Asteon jakin izan dugunez, zientzialari batzuk ahaleginak egiten ari dira birusak eragiten duen pneumonia ezohikoa gelditzeko —dagoeneko hemezortzi pertsona hil baititu eta 630 baino gehiago kutsatu sei herrialdetan—. Dakigunez, birusa animalia batetik gizaki batengana pasatu zen animalia-merkatu batean. Gerora jakin zuten gizakien artean ere zabaldu zela. Horrek alarma piztu du epidemia bat sor dezakeelako. Birus honi buruzko informazio gehiago artikulu honetan duzue irakurgai.

Genetika

Genetikaz ari garenean, beti atentzioa ematen digun elementua genea da. Baina mundu horretan, badira beste osagai batzuk garrantzitsuak direnak. Ildo honi jarraiki, berriki egin den ikerketa batek arrozean aztertu ditu gene-materia ilun honen parte diren osagai batzuk, proteinarik sortzen ez duten RNA luzeak, hain zuzen. Gene-osagai horiek geneen funtzioa modulatzen dute, geneen adierazpena kontrolatzen baitute; hau da, geneen aktibitate-maila doitzen dute. Ez galdu Koldo Garciaren azalpen interesgarria!

Biologia

Ricardo Mutuberria biologoari egin diote elkarrizketa Berrian. Bertan, ikertzaileak dio beharrezkoa dela zientzia jende amateurrengana gerturatzea eta horretarako joko biotikoak (biologia eta bideo jokoak biltzen dituen hitza) aipatzen ditu, horiek gazteak animatzeko tresna egokiak direla gehituz. Bada, nola eratzen dira joko horiek? Mutuberriak azaltzen du: “Web kamera bat egitura batean jartzen da, eta horren gainean mikroorganismoak jartzen dira porta batean. Paramezioak eta euglenak izaten dira mikroorganismorik ohikoenak. Horiek pultsu elektrikoen edo argiaren bidez mugitzen dira, eta mikroskopioa ordenagailura konektatzean, irudia pantailan ikusten da”.

Badakizue zer diren tardigradoak? Muturreko egoeretan bizirik irauteko gai diren animalia txikiak dira. Orain arte egin diren probetan ikusi da egoera berezitan daudenean tardigradoek -200 ºC eta 150 ºC arteko tenperaturak jasateko gai direla. Bada, badituzte ere puntu ahulak: ikerketa batek frogatu duenez, tenperatura altuak luzatu eginez gero, tardigradoak askoz zaurgarriagoak dira. Informazio guztia Juanma Gallegoren artikuluan.

Betidanik entzun dugu ariketa fisikoa egitea lagungarria dela argaltzeko. Baina, badirudi, osasungarria den arren, oso laguntza txikia dela. Pisua kontrolatu nahi bada, hobe da gutxiago jatea, hori omen da modurik eraginkorrena. Testuan azaltzen digutenez, jarduera metabolikoa murriztu egiten da, eta energia gastuak behera egiten du. Gorputzeko tenperaturan ere badu eragina: hotzak egongo gara gehiagotan.

Adimen artifiziala

Lehenengo robot biologikoak sortu dituzte: zelula amez osatuta daude baina ordenagailu batek diseinatu ditu. Txikiak dira (0,1 cm-koak gutxi gorabehera), giza gorputzean bidaiatu ahal izateko. Zertarako balio dezakete? Ba, gorputzean botikak garraiatzeko eta modu adimentsuan entregatzeko, arterietako plakak kentzeko, edota kaltetutako ehunak bere onera ekartzeko… Nola egin zituzten jakiteko, jo ezazue Elhuyar aldizkariak argitaratu duen artikulura!

Ingurumena

Berriki argitaratu den ikerketa baten arabera, palma-olioa ekoizteak gero eta kalte handiagoa eragiten du ingurumenean, hau da, baso zingiratsuetan palma-olioa ekoizteko lurra prestatzeak eta palmondo gazteak hazteak landaketa helduek baino kalte askoz handiagoa eragiten diote. Munduan gehien kontsumitzen den landare-olioa da; azken hemezortzi urteetan eskaera hirukoiztu egin da, gainera. Elhuyar aldizkarian aurkituko dituzue xehetasunak.

Kimika

Egun, ahalik eta informazio gehien ahalik eta espazio murritzenean gordetzea da gizartearen nahia eta beharra. Ildo honi jarraiki, 1993. urtean Mn12-ac koordinazio konposatua aurkitu zen eta aurrerapauso handi eman zen horri esker. Iman Molekular (SMM, Single Molecule Magnet) deituriko konposatu hauek informazio unitatea molekula bakar batera murriztea ahalbidetzen dute. Artikulu honetan, 1993. urtetik gaur egun arte emandako aurrerapauso garrantzitsuenak daude irakurgai.

Teknologia

Gailu elektronikoetan ahots sintetiko pertsonalizatuak erabiltzeko aukera eskaintzen du UPV/EHUko Aholab ikerketa taldeak. Taldearen ikertzaile nagusia Inma Hernaez dugu, Bilboko Ingeniaritza Eskolako katedraduna eta ahotsaren prozesamendu teknologietan aditua. Proiektua abian jarri zuen ahots sintetiko pertsonalizatua eskaintzeko, bai hitz egiteko arazoak dituztenei, bai ahotsa galdu dutenei eta baita hitz egiteko arazorik ez dutenei ere. Gainera, ahotsen banku bat ere sortu dute, Berrian argitaratutako artikuluaren arabera.¡

–——————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.

———————————————————————————-

Egileaz: Uxue Razkin (@UxueRazkin) kazetaria da.

———————————————————————————-

The post Asteon zientzia begi-bistan #287 appeared first on Zientzia Kaiera.

Categories: Zientzia

Neandertales y Cro-mañones: dos humanidades, dos destinos

Cuaderno de Cultura Científica - Sat, 2020/01/25 - 11:59

Vivimos un momento inaudito en el curso de la evolución humana. Durante cientos de miles de años han sido varias las especies humanas que han habitado la Tierra. Sin embargo, actualmente es nuestra especie (Homo sapiens) la única del linaje humano que vive en la superficie terrestre.

Los Neandertales habitaron el viejo continente durante casi medio millón de años, para después dejar paso a nuestra especie, que llegó hace apenas 45.000 años a Europa. Estas dos especies se cruzaron en Oriente Medio, durante miles de años tuvieron tecnologías semejantes y presentaron rasgos culturales similares. Ambas dejaron su huella en el País Vasco. En una época de retos como la actual, con problemas de la envergadura del cambio climático, no está de más recordar que la extinción no es algo ajeno al linaje humano.

Asier Gómez Olivencia aborda las diferencias y similitudes de estas dos especies en esta conferencia, pronunciada en el marco del ciclo “Bidebarrieta Científica”, una iniciativa que organiza todos los meses la Cátedra de Cultura Científica de la UPV/EHU y la Biblioteca Bidebarrieta para divulgar asuntos científicos de actualidad. Esta conferencia, en concreto, fue la primera sesión de “Bidebarrieta Científica” del 2020, año en el que además la Cátedra de Cultura Científica celebra su décimo aniversario.

Asier Gómez Olivencia es doctor en Paleontología Humana. Ha investigado en la Universidad de Cambridge y en el Museo Nacional de Historia Natural de Francia. Es investigador del programa Ramón y Cajal y en 2014 se incorporó al Departamento de Estratigrafía y Paleontología de la UPV/EHU como investigador Ikerbasque. Ha participado en grupos de investigación internacionales como investigador y como director de grupo. Entre las investigaciones que ha dirigido destaca la realizada para investigar la presencia de renos durante el Pleistoceno en la Península Ibérica o la reconstrucción del tórax de un neandertal en 3D, con los restos fósiles del yacimiento de Kebara (Israel).

Edición realizada por César Tomé López

El artículo Neandertales y Cro-mañones: dos humanidades, dos destinos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Neandertales ¿crónica de una muerte anunciada?, por María Martinón-Torres
  2. Los neandertales respiraban de otra manera
  3. Prevenir y tratar la enfermedad de Alzheimer: Una visión moderna
Categories: Zientzia

Ezjakintasunaren kartografia #292

Zientzia Kaiera - Sat, 2020/01/25 - 09:00

Oso logika erraza da. Landareek eguzki energia baliatzen badute konposatu organikoak sintetizatzeko, zergatik guk ez? Sinplea da ideia, martxan jartzea ez horrenbeste. Aurrerapausuak badaude ere: Daniel González-Muñozen Leaf-based microreactors for organic synthesis

Trenen abiadura handiak limite fisiko eta teknologikoak ditu. Iván Riverak berrikusten ditu The limits of high speed rail artikuluan.

Teknologikoki kontrolpean ez dugun espektruaren eskualdea ez dela existitzen pentsa genezake. X izpiak, ultramorea, infragorria, mikrouhin, argi ikuskorra, besteren artean, entzutean dena kontrolpean dagoela pentsa daiteke. Ezta urrik eman ere. Espektruaren eskualde batek ihes egiten digu: terahertzioena edo submilimetrikoa. DIPCren aportazioa: Matter manipulation with terahertz radiation

–—–

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #292 appeared first on Zientzia Kaiera.

Categories: Zientzia

Biomimética cuántica: átomos y fotones como seres vivos

Cuaderno de Cultura Científica - Fri, 2020/01/24 - 11:59

Mikel Sanz

El ecólogo Thomas S. Ray decidió dejar funcionando toda la noche el programa que acababa de desarrollar. Era finales de 1989 y los ordenadores tenían una capacidad muy limitada. Ray había escrito una serie de pequeños programas muy sencillos que trataban de competir por la memoria y el tiempo de procesado.

El científico encontró a la mañana siguiente algo totalmente inesperado. Sus sencillos programas se habían replicado, mutado y recombinado sucesivamente hasta formar estructuras complejas y evolucionadas.

Este sencillo juego, que Ray denominó Tierra, dio a luz una rama fundamental de la biología computacional denominada dinámica ecológica y de evolución.

Las posibilidades de la tecnología cuántica

Los ordenadores cuánticos, que usan propiedades únicas como la superposición y el entrelazamiento para incrementar la potencia computacional, podrán realizar en el futuro cálculos fuera del alcance de los ordenadores actuales o clásicos.

Sin embargo, los recursos computacionales con los que cuentan actualmente los chips cuánticos son escasos, con solo unos pocos bits cuánticos disponibles que son poco fiables.

En los últimos años hemos trabajado en una línea de investigación pionera en vida artificial cuántica que denominamos biomimética cuántica. Tratamos de conseguir que los átomos y fotones muestren características propias de los sistemas biológicos.

El primer paso fue desentrañar el mecanismo de reproducción de la información, un proceso muy sutil, ya que la clonación cuántica está prohibida por los fundamentos de la mecánica cuántica.

Después, atacamos el problema del número mínimo de componentes con los que debe contar un individuo cuántico para llevar a cabo las funciones más básicas, como la reproducción o la mutación.

La conclusión es que dos átomos o fotones son suficientes: uno que codifica la información del genotipo y el otro que juega el papel de fenotipo y envejece por interacción con el ambiente. Este resultado es sorprendente porque tendemos a asociar comportamientos biológicos con la emergencia de la complejidad en sistemas macroscópicos.

Seres artificiales en la nube

Posteriormente, hemos comprobado los modelos desarrollados para estas dinámicas en la nube en un ordenador cuántico de IBM que constaba de cinco bits cuánticos. Este trabajo supuso la primera implementación de vida artificial cuántica en un ordenador cuántico, es decir, que simulamos vida cuántica en un sistema físico inerte.

Actualmente estamos investigando la introducción de factores más complejos como, por ejemplo, reemplazar la reproducción asexual por la sexual, mediante el uso de diferentes géneros, que ayude a aumentar la complejidad del sistema.

También estamos considerando estudiar las características de los depredadores y las presas para simular las dinámicas de interacción entre ambos que se dan en la naturaleza, descritas por las ecuaciones de Lotka-Volterra. En definitiva, tenemos la versión cuántica del juego Tierra de Thomas S. Ray al alcance de la mano.

En esta situación, el acceso a ordenadores cuánticos nos permite contar con nuevas reglas de juego (las de la física cuántica) que producirán sin duda resultados incluso más sorprendentes que los de su versión clásica gracias a la existencia de superposición y entrelazamiento cuánticos.

Afortunadamente para nosotros, como mentes científicas curiosas, estos trabajos sugieren preguntas profundas sobre el surgimiento de la complejidad biológica, la conservación de la información y las consecuencias de la interacción entre entes biológicos.

Sobre el autor: Mikel Sanz es investigador del grupo Quantum Technologies for Information Science (QUTIS) de la Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The ConversationArtículo original.

El artículo Biomimética cuántica: átomos y fotones como seres vivos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cómo de cuánticos son los fenómenos cuánticos en los seres vivos
  2. Una puerta cuántica robusta y ultrarrápida
  3. Cómo acabar con el desprecio a los fotones
Categories: Zientzia

Aitziber Mendiguren: “Minaren maneiu ona egitea eta pazienteen bizi kalitatea hobetzea da gure helburua” #Zientzialari (130)

Zientzia Kaiera - Fri, 2020/01/24 - 09:00

Azken urteetan mina eragiten duten sindromeen intzidentzia asko igo da eta mina arintzeko opiazeoak eta kannabinoideak dira gaur egun gehien erabiltzen diren farmakoak.

Substantzia horiek, ordea, tolerantzia eta mendekotasuna sortzen dute epe luzera. Bi fenomeno horiek arintzeko, farmako berriak aztertzeko teknika elektrofisiologikoak eta portaerazko teknikak aztertzen ditu, UPV/EHUko Aitziber Mendiguren irakasle agregatuaren ikerketa-taldeak.

Teknika elektrofisiologikoen bidez neuronen jarduera elektrikoa neurtzen dute lokus zeruleoa gunean, oso egokia baita mina arintzen duten opiazeoen eraginak aztertzeko. Portaerazko tekniken bidez, aldiz, animalietan duen eragin analgesikoa neurtzen dute.

Aitziber Mendigurenekin elkartu gara, UPV/EHUko Farmakologia saileko irakasle agregatua, haren ikerketa esparruaren nondik norakoak ezagutzeko.

Zientzialari” izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.

The post Aitziber Mendiguren: “Minaren maneiu ona egitea eta pazienteen bizi kalitatea hobetzea da gure helburua” #Zientzialari (130) appeared first on Zientzia Kaiera.

Categories: Zientzia

Vidas salvadas por la cloración del agua

Cuaderno de Cultura Científica - Thu, 2020/01/23 - 11:59
Foto: Mukesh Sharma / Unsplash

«El empleo de cloro en la potabilización del agua es probablemente el avance en salud pública más significativo del milenio». Esto lo publicó la revista Life en 1997. Se calcula que, desde 1919 se han salvado 177 millones de vidas gracias a la cloración del agua.

A lo largo de la historia hemos ido desarrollando métodos cada vez más eficaces para garantizar la seguridad del agua que consumimos. Algunos tienen más de 4000 años de antigüedad, empezando por la decantación y la filtración, y terminando por la cloración, que nos permitió minimizar el riesgo de contagio de cólera, tifus, disentería y polio.

  • Empezamos a filtrar y decantar el agua

Hay registrados métodos para mejorar el sabor y el olor del agua 4.000 años antes de Cristo. Se han encontrado escritos griegos en los que se hablaba de métodos de tratamiento de aguas por filtración a través de carbón, exposición a los rayos solares y ebullición.

En el antiguo Egipto el agua se decantaba. Se dejaba reposar en vasijas de barro hasta que precipitasen las impurezas, quedándose con la parte superior del agua. También añadían alumbre para favorecer la precipitación de las partículas suspendidas en el agua. A este proceso se le llama coagulación y es el origen de las técnicas que se emplean en las potabilizadoras modernas.

Funcionamiento de las cisternas filtradoras de Venecia. Imagen: playandtour.com

Uno de los primeros ejemplos de potabilización de agua a gran escala lo encontramos en Venecia. Allí se recogía y almacenaba el agua de lluvia. Para ello se construyeron cisternas bajo las plazas y otros espacios públicos, donde el agua llegaba a través de desagües en los que se colocaron filtros de arena de mayor a menor gradación. El acceso al agua potable se hacía hasta finales del XIX a través de pozos instalados en las plazas. Hoy en día son visibles, aunque están clausurados con tapas de metal.

Pozo clausurado de Venecia. Imagen: playandtour.com

En Italia, el médico Luca Antonio Porzio es considerado el artífice de los primeros sistemas de filtrado de agua a través de arena y posterior decantación. En Francia Joseph Amy por su parte diseñó filtros para el agua a pequeña y gran escala con esponjas, lana y carbón.

Poco después de que Joseph Amy consiguiera en 1749 la primera patente para un filtro de agua emitida en el mundo, el londinense James Peacock obtuvo la primera patente británica. La filtración se realizaba a través de arena dispuesta por tamaño creciente y por ascenso en lugar de por descenso. El filtro de Peacock fue un fracaso, no obstante, marcó el comienzo de un período de experimentación que dio como resultado los filtros lentos de arena que se usan en la actualidad.

Imagen: thisdayinwaterhistory.wordpress.com
  • Descubrimos los microbios

A finales del siglo XIX, a medida que se realizaban mejoras en los sistemas de filtración, también se estableció la Teoría microbiana de la enfermedad. Es una teoría científica que propone que los microorganismos son la causa de una amplia gama de enfermedades. Antes de aquello no sabíamos de la existencia de microorganismos. Resultaba impensable que unos pequeños seres vivos conviviesen con nosotros, estuviesen por todas partes y fuesen el germen de muchas enfermedades.

La teoría microbiana fue un descubrimiento científico realizado por Louis Pasteur y posteriormente probado por Robert Koch. Consiguió reemplazar antiguas creencias como la teoría miasmática o la teoría de los humores, por las que se pensaba que las enfermedades las causaban una suerte de efluvios malignos. Aunque la teoría microbiana fue muy controvertida cuando se propuso, obviamente fue fundamental para entender y combatir la propagación de enfermedades.

  • Cloro para acabar con los microorganismos patógenos

Aunque los suministros municipales de agua se multiplicasen a lo largo del siglo XIX, las condiciones sanitarias y de salud no comenzaron a mejorar radicalmente hasta la introducción de la desinfección con cloro a principios del siglo XX.

Por ejemplo, en 1900 había más de 3.000 sistemas de suministro municipal de agua en los Estados Unidos, pero en ocasiones, en lugar de mejorar la salud y la seguridad, contribuyeron a expandir enfermedades. Este fue el caso de la epidemia de cólera de 1854 en el barrio del Soho en Londres, en el que murieron más de 700 personas en una semana en un área de apenas medio kilómetro de diámetro. El médico John Snow, precursor de la epidemiologia moderna, relacionó el brote con una bomba que suministraba agua proveniente de un pozo contaminado con heces.

Para tratar de erradicar la desinfección, Snow optó por utilizar cloro. A principios del siglo XX, el uso de cloro empezó a popularizarse como técnica de desinfección también en Europa.

El ejemplo más antiguo que se conoce es el de Middelkerke, Bélgica, donde en 1902 se puso en marcha la primera planta de cloración. Antes de la filtración se añadía cloruro de calcio y percloruro de hierro. En Reino Unido se implantó en 1905, cuando un filtro de arena lento y defectuoso y un suministro de agua contaminado causaron una grave epidemia de tifus en Lincoln. Alexander Cruickshank Houston utilizó la cloración del agua para detener la epidemia. Emplearon hipoclorito de calcio.

En Estados Unidos comenzaron a desinfectar el agua con agentes clorados en 1908, en Boonton Reservoir, que sirvió de suministro para Nueva Jersey. El proceso de tratamiento con hipoclorito de calcio fue concebido por John L. Leal, y la planta de cloración fue diseñada por George Warren Fuller. En los años siguientes, la desinfección con cloro utilizando cloruro de cal (hipoclorito de calcio) se instaló rápidamente en los sistemas de agua potable de todo el mundo. En 1914, más de 21 millones de personas recibían agua tratada con cloro en los Estados Unidos, y en 1918, más de 1.000 ciudades de América del Norte ya estaban usando cloro para desinfectar su suministro de agua, que llegaba aproximadamente a 33 millones de personas.

En España la cloración llegó a la mayor parte de las ciudades en 1925 mediante el uso de hipoclorito. Uno de los episodios más graves sucedidos antes de la cloración ocurrió en la ciudad de A Coruña. En 1854 una epidemia de cólera provocó la muerte de 2026 personas en tan solo 20 días. El 20% de la población coruñesa falleció.

Las redes de abastecimiento de agua a domicilio llegarían a Coruña en 1908. En 1915 se implantaron los primeros sistemas de saneamiento mediante filtrado con arena, y en 1918 se implantó la cloración.

Capilla de San Amaro, A Coruña. Imagen: César Quián en La Voz de Galicia.

 

En el cementerio coruñés de San Amaro existe una capilla bajo la que se encuentra la fosa común en la que fueron enterrados los fallecidos por aquella epidemia de cólera.

  • Así funciona la cloración

La cloración es un método de desinfección y potabilización del agua. Su papel no es eliminar contaminantes —esto se hace por otras vías en las plantas de tratamiento de aguas—, sino destruir microorganismos patógenos.

Para ello se añade cloro al agua a tratar. El cloro puede suministrarse de varias maneras. Si se añade cloro gas (Cl2), el cloro reacciona con el agua formando diferentes especies según el pH del agua: perclorato, hipoclorito, ácido clorhídrico, ácido hipocloroso… También pueden utilizarse directamente compuestos clorados como dióxido de cloro o hipoclorito. Todos ellos son sustancias oxidantes

La cloración causa alteraciones en la pared celular de las células bacterianas. Con cloro suficiente, se destruyen proteínas y ADN de las células. Ese es el mecanismo por el que el cloro acaba con los microorganismos, afectando a sus funciones vitales hasta llevarlos a la muerte, por lo que son incapaces de producir enfermedades. Estos compuestos clorados son oxidantes. Esto hace que además sean germicidas, eliminando mohos, algas y otros microorganismos además de bacterias.

Actualmente conocemos otros muchos oxidantes con cualidades similares, como otros halógenos, el permanganato o el ozono. Pero el más empleado sigue siendo el cloro. La razón es que, aunque haya otros métodos de desinfección, cuando el agua sale de la planta de tratamiento circulará por tuberías donde sigue habiendo riesgo de contaminación. Por eso se aplica una post-cloración, es decir, se añade una cierta cantidad extra de cloro que garantiza el viaje seguro del agua potable por las tuberías hasta el grifo de nuestra casa.

Imagen: compoundchem.com

Hoy en día, en las estaciones de tratamiento de agua potable (ETAP) se realizan los procesos necesarios para que el agua natural procedente de embalses y otras captaciones se transforme en agua potable. En ellas se llevan a cabo procesos físicos, químicos y biológicos complejos capaces de lograr un agua segura, con buen olor y sabor. Además de tratar el agua, ésta se analiza periódicamente, es decir, se mide su calidad y su composición química y biológica.

  • Subproductos de la cloración

El cloro puede reaccionar con compuestos orgánicos que se encuentran naturalmente en el suministro de agua para producir compuestos conocidos como subproductos de desinfección (DBP). Los DBP más comunes son los trihalometanos (THM).

Químicamente los trihalometanos son moléculas de metano (CH4) en las que tres de sus hidrógenos han sido sustituidos por halógenos (flúor, cloro, bromo o yodo). Se forman al reaccionar compuestos oxidantes de cloro con moléculas orgánicas pequeñas fruto de la descomposición de materia orgánica. La materia orgánica que el agua arrastra de forma natural, como restos vegetales, se descompone en el agua dando lugar a moléculas orgánicas sencillas como aminoácidos y azúcares. Estas moléculas simples son las que pueden llegar a transformarse en trihalometanos tras los procesos de cloración.

Según varios estudios, la exposición a trihalometanos a largo plazo podría aumentar las probabilidades de desarrollar cáncer de vejiga. Esto se ha extrapolado de experimentos en animales. Es una de las razones por la que el reglamento europeo establece un límite máximo de trihalometanos en 100 microgramos por litro de agua. Según el Sistema de Información Nacional de Aguas de Consumo, en España tenemos un promedio de 27,35 microgramos de trihalometanos por litro, casi cuatro veces inferior a los niveles estimados como seguros por la Organización Mundial de la Salud. Con lo cual, a pesar del alarmismo promovido por algunos medios de comunicación, los trihalometanos no son un motivo de preocupación.

  • Así eliminamos los subproductos de la cloración

Periódicamente se hace un control de presencia de trihalometanos en aguas de consumo para garantizar que nunca se haya sobrepasado el límite marcado por la normativa.

Además, conocemos varios mecanismos que nos permiten minimizar la presencia de trihalometanos. En algunas plantas de tratamiento de aguas se utilizan otros oxidantes diferentes al cloro como tratamiento previo a la cloración, reduciendo la formación de trihalometanos. Las aguas también se someten a procesos de filtración y separación previos usando membranas, arena y carbón activo que eliminan gran parte de la materia orgánica antes de que el agua llegue a la fase de cloración. También se usan cloraminas que previenen la formación de trihalometanos. No obstante, hay técnicas más económicas y eficientes fundamentadas en la naturaleza química de los trihalometanos.

Los trihalometanos son compuestos volátiles. Esto quiere decir que tienen tendencia a pasar a fase gas y evaporarse del agua. Así, a medida que el agua avanza por las tuberías, la cantidad de trihalometanos va disminuyendo. La solubilidad también se ve afectada por la temperatura, así que habrá menos trihalometanos en aguas cálidas que en aguas frías.

Por tanto, se trata de establecer un balance entre materia orgánica, cloro añadido y tiempo de aireación del agua antes de destinarla a consumo.

  • Reflexión final

La cloración del agua ha sido uno de los aportes de la química más importantes de la historia de la humanidad. Un hito en materia de salud pública. Gracias a la cloración del agua hemos evitado epidemias de cólera, tifus o polio que se habrían llevado por delante millones de vidas.

Imagen: Unicef

A pesar de llevar más de un siglo clorando el agua, no hemos conseguido que esta solución tan eficaz, fácil de aplicar y económica, llegue a todo el mundo. La escasez de agua potable es la causa principal de enfermedades en el mundo. Una de cada seis personas no tiene acceso a agua potable. La mortandad en la población infantil es especialmente elevada. Unos 4.500 niños mueren a diario por carecer de agua potable y de instalaciones básicas de saneamiento. En los países en vías de desarrollo, más del 90% de las muertes por diarrea a causa de agua no potable se producen en niños menores de cinco años.

La cloración del agua salva miles de vidas al año, y lo hemos logrado recorriendo un largo camino de desarrollo e investigación científica. Pero para que la cloración salve vidas en todo el mundo, además de ciencia, hace falta mucho más.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Vidas salvadas por la cloración del agua se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Agua cruda, la nueva moda antiprogreso del primer mundo
  2. Sal de la piscina si te pican los ojos y no mezcles lejía con amoniaco
  3. La importancia del agua en un biomarcador contra el cáncer
Categories: Zientzia

Iman Molekularrak: Informazio unitate txikienaren bila

Zientzia Kaiera - Thu, 2020/01/23 - 09:00
Andoni Zabala-Lekuona

Gaur egungo gizarteak gero eta informazio gehiago gordetzeko beharra eta nahia du. Paperean inprimatutako liburuak, musika, posta, argazkiak, egunkariko artikuluak eta abar luze bat ordenagailuan egotera pasa dira orain, baina horretarako memoria, edo beste hitzetan, gigabyteak (GB) behar dira. Honen inguruan teknologia aurrera azkar baldin badoa ere (CDak, DVDak, pendriveak eta disko gogorrak sortu dira azken urteetan), 1993. urtean aurkikuntza esanguratsua eman zen Mn12-ac (manganesoan oinarritutako konposatua) molekula sortutakoan. Ikertzaileek ondorioztatu zuten informazio unitate primarioa (bit-a, hizkuntza bitarrean 1 edo 0-a) molekula bakar batean gorde zitekeela. Ondorioz, egungo informazio gordailuek duten potentziala izugarri areagotu litekeela ondorioztatu zen.

1. irudia: Mn12-ac konposatua, lehenengo iman molekularra. Biribil berde eta moreak manganeso (Mn) ioiak dira, gainontzekoak ozpinean dagoen azido azetikoaren deribatuak (azetatoak).

Mota honetako konposatuak Iman Molekularrak deitutako (SMM, Single Molecule Magnet) koordinazio konposatuak dira. Zentro metaliko bat edo gehiago dituzte eta hauei lotuta estekatzaile organikoak (adibidez, Mn12-ac molekulan azetatoa da estekatzailea, ozpinean dagoen azido azetikoaren deribatua). Material bereziak dira metalean dauden elektroiek informazioa gorde dezaketelako. Eremu magnetiko baten bidez elektroiak noranzko batean orientatuz hizkuntza bitarreko 1 zenbakiari dagokion informazioa gordetzen dute, kontrako noranzkoan orientatuz, ordea, 0 zenbakiari dagokiona. Gainerako material gehienek ez bezala, behin eremu magnetikoa kendu ostean elektroiek aurrez finkatutako noranzkoan orientatuta jarraitzen dute, berezitasun hori da informazioa gordetzeko ahalmena ematen duen ezaugarria.

Ikertzaileen lehenengo joera Mn12-ac itxurako kluster metalikoak ikertzea izan zen, hots, hainbat zentro metaliko dituzten molekulak. Horretarako, trantsizio metaletan oinarritutako konposatuak diseinatu ziren, besteak beste, manganeso eta burdin ioienak. Hala ere, emaitzak ez ziren espero bezain onak izan. Horren harira, 2003. urtean Ishikawaren ikerkuntza taldeak guztiz aldatu zuen ordu-arteko ikuspuntua, izan ere, lantanidoekin edo lur-arraroekin lan eginez propietate hobeak lor zitezkeela frogatu zuen. Horretaz gain, ikusi zen ez zela beharrezkoa klusterrak sortzea, zentro metaliko bakar bateko molekulak eraginkorrak izan baitaitezke.

Horrela, ikerkuntza talde asko lantanidoekin hasi ziren lanean. Pixkanaka materialen diseinurako bete beharreko pautak argitzen joan ziren, horretan Rinehart eta Longek zeresan handia izan zuten. Modelo sinple bat definitu zuten, non, disprosioaren (Dy) edo erbioaren (Er) antzeko lur-arraro bakoitzarentzat diseinu eraginkor bat proposatzen zuten. Disprosio edo antzekoak diren ioientzat, komenigarriena estekatzaileak Z ardatzean lotzea da, modu axialean. Erbioa bezalakoentzat, ordea, justu kontrakoa gertatzen da. Materialak portaera eraginkorra erakutsi dezan, estekatzaileek modu ekuatorialean edo XY planoan egon behar dute kokatuta.

2. irudia: Disprosiozko (Dy) eta erbiozko (Er) iman molekular eraginkorrak sintetizatzeko diseinu egokiak. Biribil handienak zentro metalikoak dira, gainontzekoak estekatzaile organikoak.

Urteen poderioz gero eta material eraginkorragoak ari dira agertzen, baina oraindik merkaturatze prozesutik urrun dago teknologia mota hau. Izan ere, informazioa gordetzeko ahalmena azaltzen badute ere, eraginkorrak izan daitezen erabili beharreko tenperaturak oso baxuak dira, -210°C inguru. Hala eta guztiz ere, Donostiako Kimika Fakultatetik hasita, mundu guztiko ikertzaileak dabiltza zientzia honen garapenean eta urte batzuen buruan izango dira oihartzuna izango duten aurrerapausoak.

Artikuluaren fitxa:
  • Aldizkaria: Ekaia
  • Zenbakia: Ekaia 35
  • Artikuluaren izena: Iman Molekularrak: Informazio unitate txikienaren bila.
  • Laburpena: Ahalik eta informazio gehien ahalik eta espazio murritzenean gordetzea gizartearen gaur egungo beharra eta nahia da, aldi berean. Zentzu honetan teknologia dezente aurreratua badago ere, 1993. urtean Mn12-ac koordinazio konposatua aurkitu zenean sekulako aurrerapausoa eman zen. Izan ere, Iman Molekular (SMM, Single Molecule Magnet) deituriko konposatu hauek informazio unitatea molekula bakar batera murriztea ahalbidetzen dute. Ondorioz, material hauekin sortutako gailuek askoz ere potentzial handiagoa izango lukete. Lan honetan 1993. urtetik gaur arte emandako aurrerapauso garrantzitsuenak laburbiltzen dira.
  • Egileak: Andoni Zabala-Lekuona.
  • Argitaletxea: UPV/EHUko argitalpen zerbitzua.
  • ISSN: 0214-9001
  • Orrialdeak: 85-99
  • DOI: 10.1387/ekaia.19692

————————————————–
Egileez:

Andoni Zabala-Lekuona UPV/EHUko Donostiako Kimika Zientzien Fakultateko Kimika Ez-organikoa sailekoa da.

———————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.

The post Iman Molekularrak: Informazio unitate txikienaren bila appeared first on Zientzia Kaiera.

Categories: Zientzia

El gato de Arnold

Cuaderno de Cultura Científica - Wed, 2020/01/22 - 11:59

 

Las matemáticas son parte de la física. La física es una ciencia experimental, una de las ciencias naturales. Las matemáticas son la parte de la física en la que los experimentos son baratos.

Vladimir I. Arnold, en [1].

Vladímir Ígorevich Arnold. Imagen: Wikimedia Commons.

 

Con esta contundente afirmación sobre la educación matemática comenzaba su artículo el prolífico matemático ruso Vladímir Ígorevich Arnold (1937-2010). El científico era muy crítico con la manera de enseñar matemáticas debido al nivel de abstracción que estaban alcanzando en aquella época. El grupo Bourbaki impulsó en Francia esta alta conceptualización de las matemáticas que fue posteriormente adoptada en otros países. Arnold opinaba que esta elección tenía un impacto negativo en la educación matemática, que había otra manera más natural y satisfactoria de introducir conceptos y problemas. Lamentaba que, en este intento por construir una “matemática pura” siguiendo el método axiomático-deductivo, se había llegado a rechazar el esquema clásico en física («experiencia – modelo – estudio del modelo – conclusiones – verificación por la experiencia») para reemplazarlo por el esquema «definición – teorema – demostración».

En [1], Arnold comentaba con sorna:

A la pregunta «¿Cuánto son 2+3?» un alumno de escuela francés ha contestado «3+2 porque la suma es conmutativa.». ¡Ni siquiera sabía a qué era igual esta suma, ni siquiera entendía lo que le estaban preguntando!

¿Exageraba Arnold o tenía razón en sus contundentes afirmaciones? Supongo que habrá opiniones variadas. Así que dejamos aparte las opiniones de Arnold para centrarnos en su gato…

En la teoría de sistemas dinámicos, la «aplicación gato de Arnold» es un ejemplo de difeomorfismo de Anosov sobre el toro. Para aquellas personas que deseen conocer la definición y propiedades de esta aplicación, dejamos algunas referencias al final de esta anotación. Dicho de manera sencilla, la «aplicación gato de Arnold» es una transformación del toro en sí mismo inducida por una aplicación lineal sobre el plano.

Recordemos, antes de seguir, que el toro puede obtenerse como el cociente de un cuadrado con las identificaciones mostradas en la figura:

El toro como cociente de un cuadrado. Imagen: Marta Macho Stadler.

 

Siguiendo su máxima de experimentar, Arnold mostró los efectos de esta aplicación usando la imagen de un gato dibujada sobre un toro, de allí el nombre de esta aplicación. ¿Y cómo lo hizo? Colocó la imagen de un gato sobre un cuadrado –teniendo en cuenta las identificaciones indicadas anteriormente, la imagen puede pensarse sobre un toro– la deformó siguiendo la definición de la «aplicación gato de Arnold» y recortó la imagen resultante en trozos para recomponerla de manera adecuada sobre el cuadrado –y por lo tanto sobre el toro, tras cocientar–.

Imagen de un gato transformado por la aplicación gato de Arnold. Imagen: Wikimedia Commons.

 

Este proceso se puede repetir. Es decir, a la imagen obtenida se le puede volver a aplicar la «aplicación gato de Arnold» y observar cómo evoluciona este sistema.

Existe un análogo discreto de la «aplicación gato de Arnold». Al tratarse de una transformación biyectiva de una imageni, sabemos que existe un menor número entero, k, de manera que realizando k veces la transformación se vuelve a obtener la imagen original.

La imagen de debajo –de 150 por 150 píxeles– representa a un gato –no pertenece a Arnold; es del autor de la imagen, Claudio Rocchini–. Podemos observar el efecto de la transformación tras 1, 3, 132, 155, 157, 200, 211, 240, 275, 299 y 300 iteraciones, momento en el que la imagen original reaparece. Es decir, el número entero k aludido antes es de 300 para una imagen de 150 por 150 píxeles.

Imagen de un gato transformado por la aplicación gato de Arnold. Imagen: Wikimedia Commons.

 

A continuación puede verse una simulación de cómo evoluciona la «aplicación gato de Arnold» discreta sobre una imagen de 74 por 74 píxeles. En este caso el número entero k es 114, es decir, se recupera la imagen original tras 114 iteraciones. Observar, además que en la iteración 57 aparece la imagen original, pero girada 180 grados.

Imagen: Wikimedia Commons

 

Sin duda sorprende recuperar la imagen de partida tras este aparente comportamiento caótico. Estas sorpresas forman parte de la belleza de las matemáticas.

Por cierto, si te apetece experimentar con tus propias imágenes, en las referencias [4] y [5] puedes hacerlo online.

Referencias

[1] Vladimir I. Arnold, «Sur l’éducation mathématique», Gazette de Mathématiciens 78 (1998), 19-29 (traducido del ruso por J.- M. Kantor)

[2] Arnold’s cat map, Wikipedia (consultado el 18 de enero de 2020)

[3] David D. Nolte, Vladimir Arnold’s Cat Map, Galileo Unbound, 16 junio 2019

[4] Arnold’s Cat Mapplet

[5] Jason Davies, Arnold’s Cat Map, 2012

Nota:

i Una transformación biyectiva de una imagen de n por m píxeles es una modificación de esta imagen sobre sí misma: cada pixel se desplaza de su lugar a otro –y el que ocupa ese lugar se mueve a otro sitio–. Ningún pixel desaparece, sólo cambia de posición. En matemáticas se habla de una permutación de los estos píxeles. El conjunto P de las permutaciones sobre un conjunto finito forma un grupo –el grupo simétrico, que en este caso, además, es un grupo finito–. Puede demostrarse que si P es una permutación de este tipo, existe un número entero k tal que si P se aplica k veces se recupera la transformación identidad –la permutación que no cambia nada–.

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo El gato de Arnold se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Tales de Mileto y el caso del gato que venía del cielo
  2. Visualizando la hiperesfera a través de la fibración de Hopf
  3. Un gato de Cheshire cuántico
Categories: Zientzia

Superheroi guztiek dituzte puntu ahulak, baita tardigradoek ere

Zientzia Kaiera - Wed, 2020/01/22 - 09:00
Juanma Gallego Muturreko egoeretan bizirik irauteko gai diren animalia ñimiñoak dira tardigradoak, baina denboran zehar mantendutako tenperatura altuek horiek hil ditzaketela erakutsi dute orain.

Iazko apirilean, Ilargian aurrenekoz zunda pribatu bat ilargiratzeko lehen saiakera egin zuen israeldar misio batek, baina huts egin zuen. Beresheet espazio-ontziak Mare Serenitatis eremuaren kontra jo zuen. Talka gertatu zen arren, une hori mugarri bat izan zen, enpresa pribatu batek aurrenekoz beste mundu batean objektu bat jartzeko egindako lehen saiakera izan zelako.

Handik denbora batera, baina, polemika piztu zen, misio horretan aitortu gabeko zama bat ere zihoala jakin zenean. Ezaguna zen The Arch Mission Foundation elkarteak liburu klasikoen bereizmen handiko 60.000 orrialderen irudiak, ingelesezko Wikipediaren eduki gehienak eta David Copperfield magoaren magia trukoak sartuak zituela israeldarrek gidatutako kapsulan. Fundazioak eguzki-sisteman zehar giza ezagutzaren kopiak utzi nahi ditu, egunen batean gure zibilizazioak huts eginez gero, espazio-aldirietan babeskopiak eduki aldera.

1. irudia: Tardigradoak uraren inguruko habitatetan bizi dira, bereziki goroldioetan eta bestelako landareetan, horien inguruan sortzen diren ur xafla meheetan. (Argazkia: Kazuharu Arakawa / Hiroki Higashiyama)

Baina, horiez gain, 24 lagunen DNA sekuentziak eta hainbat tardigrado sartu zituzten Ilargira eraman beharreko zaman, teorian misioaren arduradunen horren berri ez zuten arren. Espero zena baino eztabaida gutxiago piztu zuen auziak, eta agerian jarri zuen espazioari buruz gaur egun dagoen araudiak gabezia nabarmenak dituela.

Eztabaida horretan sartu gabe, kontua da Ilargian dauden lehen biztanle potentzialak tardigradoak direla. Ez da espero talka horretatik bizirik atera izana, baina, berez, inork ez daki oraindik bizirik mantentzen ote diren. Izan ere, bizirik irauteko duen ahalmen izugarria egon zen animalia txiki horiek Ilargira eramateko erabakiaren atzean.

Ibiltzeko duten moduagatik jaso zuten ur-hartzaren ezizena. Tardigrado terminoa ere haien mugimenduengatik jarri zieten, hau da, “mantso ibiltzen direnak”. Gehienak idorrean bizi badira ere, haien habitatak urari lotuta daude, bereziki goroldioetan, likenetan edota landareetan sortzen diren ur-xafla meheetan aurki d. Gehienetan milimetro erdira ere iristen ez diren organismo hauek mundu osoan zehar barreiatuta daude. Elikatzeko, besteak beste, barailak erabiltzen dituzte landareetako zelulak apurtu eta horien izerdia xurgatzeko. Mila bat espezie daude, eta horietako asko emeez besterik ez daude osatuta: ernaldu gabeko arrautzen bitartez ugaltzen dira; modu asexualean, alegia.

Lehortea agertu eta ura falta bada, tardigradoek kriptobiosi izeneko estrategia abiatzen dute: euren prozesu metabolikoak bertan behera uzten dituzte, garai egokiagoak iritsi bitartean. Hori egin ahal izateko, animaliaren fisiologian zenbait aldaketa gertatu behar dira. Hala, tardigradoak gorputza uzkurtu egiten du, eta barneko organoak berrantolatzen ditu, lehortu ahal izateko. Hankak ere barneratzen ditu. Azkenean, eta kanpotik ikusita, animaliak kupel baten antza hartzen du.

Egoera horretan egonda, muturreko baldintzetan bizirik iruteko gai dira: oxigenorik gabeko inguruak, toxikotasun handikoak, gatz maila handikoak edota muturreko tenperaturak dituzten egoerak dira horietako batzuk. Aitortu beharra dago tardigradoak ez direla ahalmen horiek dituzten bizidun bakarrak; baina hau egiteko aukera duten organismo gehienak bakterioak dira, hau da, askoz sinpleagoak diren bizidunak.

Orain arte egin diren probetan ikusi da egoera berezi horretan daudenean tardigradoek -200 ºC eta 150 ºC arteko tenperaturak jasateko gai direla, baina orain argitaratu den ikerketa batek ñabardura garrantzitsua egin du: tenperatura altuak luzatu eginez gero, tardigradoak askoz zaurgarriagoak dira. Kirolariek ondo dakitenez, gauza da marka puntual bat egitea eta oso bestelakoa da marka hori denboran zehar mantentzea.

2. irudia: Egoera zailak datozenean, tardigradoek deshidratatzeko ahalmena dute, egoera latente batean urte luzez mantentzeko gai direlarik. (Argazkia: T.C. Boothby)

Scientific Reports aldizkarian eman dituzte ikerketaren gaineko xehetasunak. Bertan argitu nahi izan dute klima aldaketak animalia hauengan izango duen eragina, eta egiaztatu ahal izan dute epe luzerako beroari dagokienez tardigradoak ere tenperaturen menpekoak direla.

Ikerketa burutzeko, Ramazzottius varieornatus espeziean jarri dute arreta. Ohiko espeziea da hori. Are gehiago, laginak Danimarkako etxe baten teilatuko isurbideetan bildu dituzte. Lagin horiekin hainbat esperimentu egin dituzte, bai animalia aktiboekin zein lehortutako animaliekin.

Animaliak hainbat tenperaturatara jarri dituzte, eta, animalia aktiboen kasuan, horiek egoera berrietara egokitzeko izandako bilakaeran ere arreta berezia jarri dute. Aklimatazio prozesu labur bat egin zuten tardigradoen kasuan, batez bestean 37,6 °C-ra iristean hil egin dira. Aklimataziorik egin ezean, batez besteko mugako tenperatura 37,1 °C-koa izan da. Lehortutako animalien kasuan, horien erdia 82,7 °C-ra iritsita hil dira, tenperaturaren gorakada hasi eta ordubetera. Esposizioa 24 ordutara luzatu dutenean, tenperatura hilgarria 63,1 °C-koa izan da.

Hilkortasunaren arrazoi zehatzetan sartu ez badira ere, lehortuta dauden animalien kasuan, eta ikertzaileek esku artean duten hipotesiaren arabera, tardigradoei biziraupena bermatzeko gako diren proteinen ezegonkortzea legoke hilkortasunaren atzean.

“Ikerketa honetatik, ondorioztatu ahal dugu tardigrado aktiboak zaurgarriak direla tenperatura handien aurrean, baina badirudi ere haien habitat naturaletan izaki hauek gai izango direla gorantza doazen tenperaturetara aklimatatzeko”, laburbildu du prentsa ohar batean Ricardo Neves biologoak. “Lehortutako tardigradoak askoz erresilienteagoak dira, eta tardigrado aktiboek jasan ditzaketen tenperaturak baino altuagoak jasateko gai dira”. Halere, eta tenperatura handiei dagokienez, esposizio-denbora “faktore mugatzailea” dela ohartarazi dute.

Erreferentzia bibliografikoa:

Neves, R.C., Hvidepil, L.K.B., Sørensen-Hygum, T.L. et al., (2020). Thermotolerance experiments on active and desiccated states of Ramazzottius varieornatus emphasize that tardigrades are sensitive to high temperatures. Scientific Reports, 10, 94 (2020). doi:10.1038/s41598-019-56965-z.

———————————————————————————-

Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.

———————————————————————————-

The post Superheroi guztiek dituzte puntu ahulak, baita tardigradoek ere appeared first on Zientzia Kaiera.

Categories: Zientzia

El principio de incertidumbre, cuantitativamente

Cuaderno de Cultura Científica - Tue, 2020/01/21 - 11:59
Foto: Sailer / Unsplash

Nuestras consideraciones cualitativas del principio de incertidumbre pueden resumirse así:

Es imposible medir la posición y el momento lineal de un corpúsculo subatómico en el mismo instante con una precisión ilimitada. Cuanto más precisa es la medición del momento lineal, menos precisa es la medición de la posición en ese instante, y viceversa.

Esta conclusión se recoge formalmente en el principio de incertidumbre, establecido por Werner Heisenberg en 1927. El principio de incertidumbre se puede expresar cuantitativamente [1] en dos expresiones matemáticas simples, conocidas como relaciones de incertidumbre, que son conclusiones necesarias extraídas de experimentos sobre mediciones que involucran objetos cuánticos.

Vamos a llamar Δx a la incertidumbre en la medida de la posición del objeto y llamaremos Δpx a la incertidumbre en la medida del momento lineal del objeto en la dirección x en ese mismo instante. El principio de incertidumbre de Heisenberg dice que el producto de estas dos incertidumbres debe ser igual o mayor que la constante de Planck dividida por 4π. O sea, Δx·Δpxh/4π. Existen relaciones similares para las coordenadas y y z. Veamos qué quiere decir.

Esta relación de incertidumbre dice que si usamos un fotón de longitud de onda corta en un intento de medir la posición de un electrón con una precisión muy alta, de modo que Δx sea muy pequeña, entonces la incertidumbre en la medición del momentoΔpx debe ser al menos h/(4π· Δx) . Esto significa que a medida que Δx se hace más pequeña, Δpx tiene que hacerse más grande. El efecto Compton nos sirve para entender qué ocurre: el electrón rebota con más velocidad (con mayor momento lineal) cuanto más corta sea la longitud de onda (mayor energía, por tanto) del fotón de medición.

De hecho, si medimos la posición con tanta precisión que no hay incertidumbre en absoluto en la posición, entonces Δx sería cero.Pero para hacer esto nos hubiéramos visto obligados a usar un fotón cuya longitud de onda fuese cero. Y un fotón así tendría una energía infinita. En este caso, la incertidumbre en el momento lineal del electrón sería infinita o, mejor, indefinida.

Por otro lado, si permitimos que la incertidumbre en la medición de la posición sea muy grande, entonces la incertidumbre en la medición del momento se volvería muy pequeña, ya que el fotón tendría una longitud de onda larga (momento lineal bajo). Si Δx se hace tan grande que fuese infinita, o indefinida, entonces Δpx se convertiría en cero. Podríamos medir el momento lineal en ese instante con absoluta precisión. Pero no podemos medir tanto la posición como el impulso con absoluta precisión al mismo tiempo. La relación de incertidumbre nos obliga a una compensación. Cuando la precisión de una variable aumenta, la otra debe disminuir, y viceversa.

De igual manera que esta relación de incertidumbre afecta al par de variables posición y momento lineal, existe otra análoga [2] que afecta al par energía y tiempo. Si llamamos Δt a la incertidumbre en la medición del tiempo y ΔE a la incertidumbre en la medición de la energía de un objeto cuántico en un instante dado, entonces el principio de incertidumbre de Heisenberg dice que Δt· ΔEh/4π.

Como hemos visto, esta relación se puede resumir en:

Es imposible medir el tiempo y la energía de un objeto cuántico en el mismo instante con una precisión ilimitada. Cuanto más precisa es la medición del tiempo, menos precisa es la medición de la energía en ese instante, y viceversa.

Nota:

[1] Si no es cuantitativo no es física, sino filosofía.

[2] Aunque mucho menos popular.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El principio de incertidumbre, cuantitativamente se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de incertidumbre, cualitativamente
  2. Se establece el principio de conservación de la energía
  3. Las ondas electrónicas y la estructura atómica
Categories: Zientzia

Arrozaren genomaren materia iluna, arroz-etxekotzearen argibide

Zientzia Kaiera - Tue, 2020/01/21 - 09:00
Koldo Garcia Genetikaz aritzen garenean geneak dira erabateko izarrak. Genomen osagai hauek eramaten dituzte arreta, ikerkuntza eta lerroburu gehienak. Baina bizidun askoren kasuan geneak genomen zati txiki bat besterik ez dira. Genomen gainontzeko osagaiek, askoz gehiago izanda ere, ez dute geneek duten distira. Askotan materia ilun edo DNA zabor deitu izan zaie, urte luzez uste izan baita ez zutela ezertarako balio. Baina esaera zaharrak esaten duen bezala, usteak erdi ustel, denboran mantentzen badira ere. Gutxietsitako gene-osagai horiek erantzukizun nabarmena dute genomen funtzioan eta eboluzioan. Horren adibide berri bat dugu arrozaren etxekotzea.

1. irudia: Arroz-landa. (Argazkia: Sasin Tipchai – Pixabay lizentziapean. Iturria: pixabay.com)

Geneak, proteinarik sortzen ez duten RNA luzeak eta laburrak, salto egiten duten gene-osagaiak, sekuentzia errepikatua… Unibertso oso bat dago bizidunen genometan. Baina geneei bakarrik erreparatzen diegu, proteinak sortzen dituztenez, zerbait egiten duten gene-osagai bakarrak direla ematen duelako. Gainontzeko osagaiak DNA zabortzat jo badira ere, gero eta argiagoa da askotariko funtzioak dituztela eta, horregatik, zuzenagoa litzateke DNA txatar deitzea. Bizidun guztien genometan handia da gene-materia ilun honen presentzia, genomaren zatirik handiena hartzen baitu; eta landareetan are nabarmenagoa da presentzia hori.

Ikerketa berri batek arrozean aztertu ditu gene-materia ilun honen parte diren osagai batzuk, proteinarik sortzen ez duten RNA luzeak (lncRNA eran laburtzen direnak) hain zuzen ere. Gene-osagai horiek geneen funtzioa modulatzen dute, geneen adierazpena kontrolatzen baitute; hau da, geneen aktibitate-maila doitzen dute. lncRNAk aztertu dituzte etxekotutako 638 arroz aletan (O. sativa ssp. japonica) eta bere ahaide basatiaren (Oryza rufipogon) 220 aletan, lncRNA-ek arroza etxekotzean izan duten balizko eragina ikertzeko.

Lehenengo lana izan zen gene-osagai horiek bilatzea eta identifikatzea. Horretarako, arrozaren panikulako ehuna hartu zuten –ehun horrek zehazten baititu garauen tamaina, kopurua eta kalitatea– eta ehun horretan zegoen RNA guztia sekuentziatu zuten. Gene-informazio hori erabili zuten RNA guzti horretatik lncRNAk identifikatzeko eta ondorioztatu zuten halako 3300 gene-osagaitik gora zeudela arrozaren genoman.

2. irudia: Arroza era askotara kozinatzen den zereala da. (Argazkia: Free-Photos – Pixabay lizentziapean. Iturria: pixabay.com)

Hurrengo lana izan zen aztertzea gene-osagai horien adierazpena –aktibitate-maila–eta adierazpena konparatzea etxekotutako arrozaren eta arroz basatiaren artean, RNA sekuentziatzeak ahalbidetzen duen analisia, hain zuzen ere. Hala, ikusi zuten 300 IncRNAk baino gehiagok adierazpen ezberdina izan zutela etxekotutako arrozaren eta arroz basatiaren artean; eta horietako gehienek adierazpen gutxiago izan zutela; hau da, arroza etxekotzean beren aktibitate-maila murriztu dute. Gainera, adierazpen ezberdina izan zuten gene-osagai horietatik laurden bat kokatuta zeuden bederatzi gene-eskualdetan; eta jakina zen horietako sei gene-eskualdek jasan zutela etxekotze-hautespena. Izan ere, ikertzaileek ondorioztatu dute adierazpen ezberdina izan zuten lncRNAen bi herenek zituztela hautespenaren zantzuak. Horrela, lncRNA hauen aktibitatea aldatu duten gene-aldaerak mantendu dira etxekotutako arrozaren gene-materialean.

Azkenik, aztertu zuten, era berean, gene-osagai hauek zein genetan zuten eragina. Gene horiek, batez ere, karbohidratoen garraioan eta energia-erreserben kudeaketan parte hartzen dute. Gainera, hainbat esperimenturen bidez ikusi zuten, oro har, lncRNAen adierazpenaren aldaketek eragina zutela arroz-garauen kalitatean, garauek duten almidoi kantitatea areagotuta. Esperimentu horietan 3 lncRNA hartu zituzten eta beren adierazpena handitu zuten, hau da, etxekotzean gertatu den kontrako prozesua egin zen. Horrela ikusi zuten aldatzen zela garauaren almidoi kantitatea eta kolorea. Ikertzaileen ustez, lncRNA bakoitzak aldaketa xumeak eragiten ditu, baina aldaketa xume horien baturak sortzen ditu itxuran ikusten diren aldaketa nabarmenak.

3. irudia: Arrozaren genomaren materia ilunak eragina izan du etxekotze-prozesuan (Argazkia: ImageParty – Pixabay lizentziapean. Iturria: pixabay.com)

Arrozak duen garrantzi ekonomikoa dela eta, sakonki ikertu da nola areagotu desiragarriak diren agronomia-ezaugarriak. Geneak ikertu direnean ondorio gutxi atera dira, geneetan aldaketa nabarmenik ez baitago. Edota aurretik egindako ikerketek erakutsi zuten lotura zutela ezaugarri desiragarri horiek generik ez duten gene-eskualdeekin, eskualde ilun horietan kokatzen diren aldaerekin, hain zuzen ere. Ikerketa honek bide berri bat jorratu du: geneen funtzioa bera ikertu beharrean, gene horiek nola kontrolatzen diren ikertzea. Hau da, desiragarriak diren ezaugarriak hautatu direnean ez da geneen egitura aldatu, haien aktibitatea baizik. Horrela, ikertzaileek espero dute bide berri bat zabaltzea landareen hobekuntzan, lncRNAen manipulazioaren bidez desiragarriak diren agronomia-ezaugarriak lortuta.

Laburtuz, arrozaren etxekotze-prozesuaren ondorioz aldaketak gertatu dira genomaren materia ilunean. Aldaketa horiek eragina izan dute arrozaren ezaugarrietan, arrozaren landaketarako desiragarriak diren ezaugarrietan hain zuzen ere. Hortaz, bizidunen ezaugarri konplexuak eta eboluzioa aztertzeko, izarrak diren geneak aztertzearekin ez da nahikoa, ahaztuta gelditzen den materia ilunak gehiago argitzen baititu ezaugarri konplexuak eta eboluzioa.

Erreferentzia bibliografikoa:

Zheng, X. M. et al., (2019). Genome-wide analyses reveal the role of noncoding variation in complex traits during rice domestication. Science Advances, 5(12), eaax3619. DOI: 10.1126/sciadv.aax3619.

—————————————————–
Egileaz: Koldo Garcia (@koldotxu) Biodonostia OIIko ikertzailea da. Biologian lizentziatua eta genetikan doktorea da eta Edonola gunean genetika eta genomika jorratzen ditu.

—————————————————–

The post Arrozaren genomaren materia iluna, arroz-etxekotzearen argibide appeared first on Zientzia Kaiera.

Categories: Zientzia

No todas las personas tienen las mismas oportunidades de dedicarse a la actividad científica

Cuaderno de Cultura Científica - Mon, 2020/01/20 - 11:59
Foto: Sharon McCutcheon / Unsplash

Sería deseable que todas las personas con capacidad para ello pudiesen, si esa es su voluntad, participar en la empresa científica. Sin embargo, no ocurre eso; no todas las personas tienen las mismas oportunidades de dedicarse a la actividad científica. La participación en la ciencia es, por tanto, desigual, lo que va en contra o limita su deseable carácter universal.

Para empezar, hay grandes diferencias entre los ciudadanos de unos países y otros en las posibilidades de practicar ciencia. La mayor parte de los habitantes de regiones o países con menos recursos tienen prácticamente vedado el acceso a la actividad científica. Hay dos razones para ello. La más evidente es que los países pobres disponen de pocos recursos y, en teoría, suelen dedicarlos a satisfacer necesidades acuciantes o, al menos, la ciencia no se encuentra entre sus prioridades de gasto.

La segunda razón es que la práctica científica requiere de un adiestramiento muy prolongado, para lo que se necesitan largos periodos de formación. Pero en los países más pobres la escolarización es muy baja, y la permanencia en el sistema educativo es relativamente breve. Bajo esas circunstancias es realmente muy difícil iniciarse en la carrera científica. Esa es una de las razones por las que, según T. Ferris [Timothy Ferris (2010): The Science of Liberty: Democracy, Reason and the Laws of Nature. Harper Collins], existe un vínculo entre desarrollo científico y grado de libertad en un país, porque, según él, los países interesados en promover la ciencia se ven obligados a proporcionar educación al conjunto de la población y esa educación es también la base de una ciudadanía más crítica y exigente.

De un modo similar, las diferencias socioeconómicas en el seno de un mismo país también pueden representar una limitación para el acceso universal a la ciencia. Los chicos y chicas de extracción sociocultural más baja encuentran en la práctica más dificultades para acceder a altos niveles de formación y, por lo tanto, al desempeño de profesiones científicas.

Las posibilidades de participar en el desarrollo de la ciencia también se ven perjudicadas cuando el acceso a la financiación de proyectos no se rige de acuerdo con criterios meritocráticos. Por ejemplo, quienes forman parte de las comisiones que evalúan propuestas de financiación de proyectos de investigación o de concesión de becas o puestos de trabajo, no siempre deciden de acuerdo con criterios meritocráticos. En un estudio ya clásico, Wenneras y Wold (1997) encontraron que los miembros de comités en Suecia que asignaban puestos posdoctorales favorecían a las personas con las que tenían alguna relación. Diez años después Sandstrom y Hallsten (2008) hicieron un nuevo análisis con la misma metodología y vieron que el favoritismo hacia las amistades persistía. De estudios realizados en un único país no pueden extraerse conclusiones universales firmes, pero no se trata de asignar carácter universal al problema, sino de señalar que en algunos sistemas existe y que, por lo tanto, es un mal que puede afectar potencialmente al resto de sistemas científicos.

Por otra parte, en todos los países en que se ha estudiado, se han observado diferencias en el desarrollo de una carrera científica por parte de hombres y de mujeres. Se tiende a pensar que esas diferencias tienen su origen en las preferencias de chicos y chicas por diferentes tipos de estudios. Sin embargo, ese no es siempre el caso. Así, en nuestro entorno son similares los números de chicos y de chicas que cursan una carrera universitaria de ciencias. También son similares los porcentajes de quienes hacen un doctorado. Las diferencias se producen en las carreras de ingeniería (con muchos más chicos) y de ciencias de la salud (con muchas más chicas). Y dentro de las carreras científicas, la presencia femenina es menor en física y geología, y mayor en química y en ciencias de la vida. Leslie et al (2015) han puesto de manifiesto que, de hecho, las preferencias en función del género no obedecen a una hipotética divisoria que separaría las carreras científico-tecnológicas del resto de estudios, sino a las expectativas de brillantez considerada necesaria para cursar con éxito unos estudios y otros. Así, cuanto mayor es la brillantez que se supone necesaria (porque así se le atribuye) para cursar con éxito unos estudios, menor es el porcentaje de mujeres que los escogen. Se trata, por lo tanto, de un efecto de base cultural y, por ello, susceptible de ser corregido o atenuado.

Donde se producen la diferencia importante entre hombres y mujeres es en el progreso en la carrera científica. Y es a esa diferencia a la que obedece la escasa presencia femenina en los niveles más altos del escalafón. Este fenómeno se manifiesta de formas diversas y sus causas pueden ser también variadas.

En el estudio antes citado de Wenneras y Wold (1997), además del favoritismo para con las amistades, también encontraron que había un claro sesgo a favor de las solicitudes de financiación presentadas por hombres, aunque el estudio de Sandstrom y Hallsten (2008), hecho con la misma metodología, concluyó que había desparecido el sesgo sexista. Otros autores (Head et al, 2013) han confirmado (en el Reino Unido) que no hay sesgo antifemenino en la concesión de financiación para puestos de trabajo o proyectos del Wellcome Trust o el Medical Research Council. Sin embargo, las mujeres reciben menores cantidades para sus proyectos y la diferencia tiene que ver con el estatus científico (laboral) de quienes solicitan la financiación. Además, las diferencias no han variado en los 14 años que han sido analizados (Head, 2017).

Por otro lado, Van den Besselaar P & Sandstrom U (2016) han analizado cómo afectan las diferencias de género en el desempeño investigador y su impacto en las carreras científicas y han encontrado que parte de las diferencias en la contratación de investigadores e investigadoras pueden explicarse por diferencias en el grado de desempeño (medido a partir de los cv), pero que, además, también opera un sesgo antifemenino en las decisiones de contratación. Creen esos autores, por otro lado, que las diferencias en el desempeño pueden ser también, en última instancia, el resultado del efecto que decisiones igualmente sesgadas ejercen sobre la actitud de las mujeres ante su trabajo. El conocido como “estudio de Jennifer y John” ilustra bien a las claras de qué tipo de decisiones se trata: en los procesos de selección y promoción del personal científico opera un sesgo en virtud del cual a las mujeres se las valora menos y se les ofrecen peores condiciones en dichos procesos.

Al efecto de los sesgos citados se añaden las dificultades añadidas que experimentan las mujeres por la maternidad o en razón de su mayor implicación en la atención a la familia. Cech & Blair-Loy (2019) han encontrado que el 43% de las investigadoras norteamericanas de disciplinas STEM que tienen su primer hijo abandonan su empleo a tiempo completo; unas dejan la vida profesional por completo, otras cambian de actividad profesional y otras pasan a desempeñar trabajos a tiempo parcial. El porcentaje de hombres que hace lo propio es de un 23%.

A lo anterior habría que añadir que tal y como ocurre con ciertos ámbitos profesionales, la progresión en el mundo de la ciencia exige una actitud y una dedicación que, por comparación con los hombres, muchas mujeres no están dispuestas a asumir porque tienen otras prioridades personales. Los efectos conjuntos de los factores citados acaban provocando una menor presencia femenina en las autorías de artículos de investigación, de manera que se genera un círculo vicioso que tiende a mantener el status quo, neutralizando incluso las medidas que se toman para favorecer la progresión de las mujeres en el cursus honorus de la ciencia. Sin excluir la incidencia de sesgos similares a los comentados aquí, la menor presencia de mujeres en los puestos de alto nivel junto con su menor producción de literatura científica, explicaría también el minúsculo porcentaje de mujeres que han sido otorgado el premio Nobel u otros equivalentes.

Algunos de los factores citados comprometen el carácter universal de la empresa científica, pues limitan el acceso de las mujeres a los niveles profesionales más altos y a las posibilidades de logros profesionales que tales niveles brindan. Y aunque tampoco cabe descartar una cierta autoselección negativa (derivada de las diferentes prioridades y actitudes personales), habría que preguntarse si es beneficioso que las reglas del juego –las que propician el alto grado de competitividad del mundo científico- se mantengan tal y como están, porque en su actual configuración el sistema científico está prescindiendo de la aportación de muchas mujeres de talento.

Para cerrar este apartado, nos referiremos a quienes pertenecen a los colectivos identificados mediante las siglas LGTBQ. Son personas que han experimentado y experimentan exclusión y acoso también en el mundo de la ciencia, si bien es cierto que su situación ha mejorado en los últimos años, principalmente en Europa Occidental, América y Australia. Sin embargo, siguen siendo acosados y perseguidos en los países musulmanes, en Rusia y en parte de Asia (Waldrop, 2014), por lo que no tienen acceso a la práctica científica en igualdad de condiciones con el resto. Por otro lado, aunque en los países occidentales los científicos pertenecientes a los colectivos LGTBQ se sienten más aceptados en sus entornos de trabajo que quienes se dedican a otras profesiones (Broadfoot, 2015), también son peor tratados en sus centros que las demás personas (Gibney, 2016); a ese tipo de razones atribuye Guglielmi (2018) el hecho de que los estudiantes pertenecientes a las minorías citadas de carreras científicas abandonen sus estudios en una mayor proporción que el resto de estudiantes. Como señala Waldrop (2014), la aceptación de la condición LGTBQ –para la que su visibilización es imprescindible- es necesaria para que quienes pertenecen a esos colectivos puedan desempeñar su actividad con normalidad, lo cual es bueno para la propia empresa científica en sí. Y como señala Javier Armentia el “visibilizar la ciencia LGTBIQ sirve para ayudar a muchas personas. Y sirve para la misma ciencia (en general), para mostrar que la herramienta que está cambiando el mundo también trabaja para permitir un mundo inclusivo y más justo con la diversidad”. O sea, para conseguir un mundo mejor.

Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.

Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.

El artículo No todas las personas tienen las mismas oportunidades de dedicarse a la actividad científica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Actividad de la Cátedra de Cultura Científica (UPV/EHU) en 2010/2011
  2. Ageing-On: Promoviendo un envejecimiento saludable y estimulante para todas las personas
  3. Actividad de la Cátedra de Cultura Científica (UPV/EHU) en 2012
Categories: Zientzia

Ariketa egitea laguntza txikia da argaltzeko; hobe da gutxiago jatea

Zientzia Kaiera - Mon, 2020/01/20 - 09:00
Juan Ignacio Pérez Iglesias Gehiegizko pisua izateko joera dut eta, duela urte batzuetatik hona, odoleko glukosa kopurua diabetesaren muga-mugan dut. Atsegin dut jatea, eta nire konpromiso sozialak mahai baten bueltan izaten dira sarri. Gainera, tarteka‑marteka pintxoren bat ahoratzen dut, ardotxo bat edo bermuta larunbatetan. Huskeriak, baina nahikoak gluzemia eta pisua kontrolpean eduki behar izateko.

1. irudia: Ariketa fisikoa erregulartasunez egitea osasungarria den arren, antza jarduera horrek ez ditu pentsatzen ditugun argaltze-efektuak. (Argazkia: Александр Вальков – erabilera publikoko argazkia / Iturria: Pixabay.com)

Goizaldetan, saio luzeak egiten ditut bizikleta estatikoan. Ariketari ekin nionean, bai, pare bat kilo galdu nuen bizpahiru astean. Geroago, are saio luzeagoei ekin nien. Eta bi kilo gehiago galdu ere bai. Baina orduz geroztik –ia bi urte daramatzat– nire pisua aldatzeko trazarik batere gabe egonkortu da. Ariketa fisiko handiak eginda ere, apenas galtzen dut gramorik. Ezin ditut pedalkada saioak gehiago luzatu. Egunak ez du gehiagorako ematen, eta gauak ere ez.

Larrituta nauka kontu horrek bi arrazoirengatik. Batetik, efektuengatik, alegia, efektu ezarengatik. Etsigarria da edozein goizetan bizikletara igo, ordubete baino gehiagoan egurrean pedalei eragiten aritu eta lehengo berean jarraitzea. Gauza bakarra lortzen dut; asteburuan irabazitakoa lanegunetan galtzea.

Bestetik, gogaikarria suertatzen zait horren guztiaren itxurazko logika fisiologiko eza. Fisiologia irakasten dut, eta, energia orekaren atala lantzean, jarduera handitzean gastu metabolikoa handitzen dela azaldu ohi dut. Horrenbestez, elikagaien bidezko energia xurgapena konstantea bada, jarduera metabolikoa handitzeak hazkunderako energia erabilgarria murriztea ekarri behar luke. Are negatiboa izan arte.

Ez al du funtzionatzen energia orekak?

Kontua da organismoa egoera horretara egokitzen dela eta espero baino masa gutxiago galtzen duela. Hotzak egoten naiz, non eta ez den urteko egunik beroenetan. Eta hotz handiagoa izaten dut ariketa fisiko handia egin dudan goizetan. Susmoa dut metabolismoari ariketan ordainarazten diodana beroan kobratzen didala; alegia, hotzez edukitzen nauela.

Herman Pontzer antropologoaren arabera (Duke Unibertsitatea, AEB), ariketa fisikoa luzaroan handituta, eguneko energia gastua ere handitzen da, baina espero litekeena baino gutxiago. Gainera, jarduera maila handitu ahala eguneko gastua gero eta gutxiago handitzen da, harik eta konstantea izan arte. Alegia, gastu hori egonkor samarra bada, eta organismoak ariketa fisiko handiagoa egiten badu, beste gastu atal batzuk murriztu behar dira. Printzipioz, funtzio ez-funtsezkoetan gertatzen da murrizketa.

Pontzerren hipotesiaren arabera –medikuz eta fisiologoz ere osatutako taldetan lan egin du–, ariketa fisikoak gainerako jarduera fisiologikoak murriztea eragiten du, eta murrizketa horiek, gainera, onuragarriak dira osasunerako. Hori bai, ariketa oso bizia bada, efektuok negatiboak ere izan daitezke.

Ariketa neurrian eginez gero, bizitzeko funtsezkoak ez diren jarduera fisiologikoak murrizten dira. Kategoria horietakoak dira doikuntza termikoa, hazkunde somatikoa eta ugalketa funtzioak. Izan ere, ariketa fisiko handiak obario zikloa aldatzen du, espermatozoideen ekoizpena gutxiagotzen, sexu hormona gutxiago dago odolean eta libidoa behera dator.

2. irudia: Pisua kontrolatzeko, jaten duguna kontrolatzea eraginkorra omen da, nahiz eta ez da batere gauza erraza izaten. (Argazkia: Jan Vašek – erabilera publikoko irudia / Iturria: Pixabay.com)

Oso handia bada ariketa maila, ugalketa funtzioak are efektu handiagoak nozitzen ditu. Gainera, immunitate sistemaren funtzionamendua kaltetzen da, baita egitura kaltetuak konpontzeko funtzioak ere. Horiek dira osasunerako ondorio negatiboak.

Ondorioz, ariketa fisikoa neurrian eta erregulartasunez egitea osasungarria bada ere, ariketa maila horrek ez du egozten zaion flakatze gaitasunik. Pisua kontrolatu nahi bada, hobe da ahorakina kontrolatzea. Hori bai, ez da batere erraza, eta, dakigunaren arabera, emaitzak ez dira esperotakoak izaten.

Ariketa fisikora bezala, organismoa jaki eskasiara ere egokitzen da. Kasu horretan, bizi prozesuak geldotzen dira. Jarduera metabolikoa murriztu egiten da, eta energia gastuak behera egiten du. Gorputzeko tenperaturan ere badu eraginik: ahorakina murriztuta, hotzak egongo gara gehiagotan. Gutxiago jateak bizi fisiologiko geldoagoa dakar, eta, neurri batean, efizienteagoa.

Horri guztiorri egozten zaio kaloria murrizketak bizialdian duen efektu positibo ia ziurra. Hori, ordea, albiste txarra da gehiegizko pisuaren eta II. motako diabetesaren Damoklesen ezpata buru gainean dugunontzat.

Ez naiz nor nire ohiturak inori gomendatzeko, baina ez dit ardura nire hautuaren berri emateak:

  1. Lehen baino gutxiago jaten dut, eta jaten dudana lehen baino gehiago zainduta, baina, aitortzen dut, noiz edo noiz opariren bat egiten diot neure buruari.
  2. Ariketa fisiko neurritsua egiten dut, astean 150 km bizikleta estatikoan, eta oinez noa ahal dudan leku guztietara.

Bizitza, oraingoz, ez zait betiereko bihurtu.

———————————————————————————-

Egileaz: Juan Ignacio Pérez Iglesias (@Uhandrea) UPV/EHUko Fisiologiako katedraduna da eta Kultura Zientifikoko Katedraren arduraduna.

———————————————————————————

Oharra: Jatorrizko artikulua The Conversation webgunean argitaratu zen 2019ko ekainaren 9an: urriaren 10ean: El ejercicio ayuda poco a adelgazar: es más efectivo comer menos.

The post Ariketa egitea laguntza txikia da argaltzeko; hobe da gutxiago jatea appeared first on Zientzia Kaiera.

Categories: Zientzia

Todos los pasos que des

Cuaderno de Cultura Científica - Sun, 2020/01/19 - 11:59
Foto: Atanas Dzhingarov / Unsplash

Sabemos que muchas enfermedades crónicas y muertes prematuras están asociadas con la inactividad física. Y disponemos cada vez de más datos que sugieren que el sedentarismo puede provocar consecuencias similares. Hasta hace poco, las mismas personas cuyo estado de salud era objeto de estudio eran las que proporcionaban la información sobre el nivel de actividad física que se utilizaba en las investigaciones. Pero ese procedimiento se presta a errores. Porque así es fácil que se subestime la intensidad real de las asociaciones observadas, y es difícil determinar cómo cambia el estado de salud en respuesta a diferentes niveles de actividad física, sobre todo cuando esta es de baja intensidad.

Con objeto de superar esas limitaciones, un estudio reciente ha combinado información procedente de 8 investigaciones que, en conjunto, abarcaron 36 383 personas mayores de 40 años de edad y a las que, durante unos 6 años (de media), se les midió la actividad que desarrollaban. Así es; en esas investigaciones el nivel de actividad física no se había establecido a partir de la información de los participantes, sino que se había medido haciendo uso de acelerómetros; de esa forma se excluyó la subjetividad y los errores propios de los estudios anteriores. Del total de participantes, 2 149 (5,9%) murieron durante el estudio. Y fue precisamente la probabilidad de morir durante el periodo de seguimiento, la variable que se utilizó para establecer la influencia de la actividad física sobre el estado de salud general.

Los resultados de este metaanálisis –así se denominan los estudios que combinan datos procedentes de varias investigaciones para ganar seguridad en las conclusiones- confirmaron, en parte, lo que ya se sabía, pero aportaron información adicional valiosa.

Para empezar, la magnitud del efecto de la actividad física sobre el riesgo de muerte, tal y como se ha establecido en este estudio, duplica la que se había estimado antes con los estudios en los que se preguntaba a los participantes cuánta actividad recordaban haber desplegado.

En cuanto a los resultados, se comprobó que sea cual sea la intensidad de la actividad física, esta se asocia con una reducción sustancial del riesgo de morir. Ahora bien, también se observó que cuanto mayor es la actividad que se desarrolla, menor es el riesgo de muerte; en otras palabras: proporciona más beneficios hacer mucha actividad que hacer poca. Y la relación entre mortalidad y actividad es especialmente acusada cuando esta es de baja intensidad; por encima de un cierto tiempo e intensidad de desempeño físico, el riesgo de muerte se mantiene prácticamente constante. De hecho, la mayor reducción en el riesgo de muerte se produce hasta llegar a algo más de 6 horas diarias realizando una actividad física de muy baja intensidad, unas 5 horas si la intensidad es moderadamente baja, hora y media para una intensidad moderadamente alta, y media hora si la intensidad del ejercicio físico es muy alta.

Por último, hábitos de vida sedentarios también conllevan un mayor riesgo de muerte, y ese aumento del riesgo se produce con claridad cuando se pasa más de nueve horas y media diarias levantándose muy pocas veces del asiento.

Este estudio no ha buscado caracterizar las causas de muerte. Se ha limitado a constatar la existencia de un fuerte vínculo entre mortalidad e inactividad física. Y sus conclusiones son claras: es muy importante no pasar demasiado tiempo sentados, trabajando o viendo la televisión, y mantenerse lo más activos posible; pero si no podemos desarrollar mucha actividad, eso no debe ser motivo para no hacer ninguna, porque todos los pasos que demos, aunque sean unos pocos, reportan beneficios.

 

Fuente: U. Ekelund et al (2019): Dose-response associations between accelerometry measured physical activity and sedentary time and all cause mortality: systematic review and harmonised meta-analysis. British Medical Journal 366: I4570

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

 

El artículo Todos los pasos que des se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Pero dónde diablos están todos?
  2. Todos los rojos son chillones
  3. Cómo alertar del peligro de los pasos de cebra y patentarlo
Categories: Zientzia

Pages