Gizaki modernoen sorlekua eta abiapuntua dantzan

Zientzia Kaiera - Wed, 2017/06/14 - 09:00
Juanma Gallego Duela 300.000 urteko Homo sapiens espezieko arrastoak topatu dituzte Marokon. Aurkikuntzak 100.000 urte atzeratuko luke gure espeziearen jatorria.

Marokon dagoen Jebel Irhoud izeneko aztarnategia egin dute paleoantropologiaren mundua, beste behin ere, irauli duen aurkikuntza. Alemaniako Max Planck Institutuko ikertzaileek egindako ikerketaren arabera, bertan topatu diren bost homininoren arrastoak Homo sapiens espeziekoak dira, eta duela 300.000 – 350.000 urte bitartekoak omen dira. Nature aldizkarian argitaratu dituzte emaitzak.

Proposamen berriak 100.000 urte baino gehiago atzeratu ditu gure espeziearen existentziaren lehen frogak, eta jatorri geografikoa ere lekuz aldatu du. Izan ere, orain arte, gizaki modernoaren lehen ordezkariak Etiopian bizi izan zirela uste izan da. Egindako datazioen arabera, aztarna horiek 200.000 urte zituzten. Orain arteko teoriaren arabera, Afrikako ekialdean eta hegoaldean zeuden Homo sapiensak. Proposamen berriaren arabera, Afrikatik atera baino lehen, kontinente osoan zehar barreiatu ziren gizaki modernoaren lehen arbaso horiek.

1. irudia: Aurkitutako fosilen eskanerretan oinarrituta, arkeologoek egin duten simulazioa. (Argazkia: Nature)

1960ko hamarkadan ezagutu ziren Jebel Irhoud aztarnategiko fosilak, baina Afrikan zeuden Neandertalgo gizakien aldaeratzat jo ziren. Inguruan aurkitu ziren harrizko tresnek ere Europan neandertalei lotuta dagoen mousteriar aldiko kulturaren parekoak zirela zehaztu zen orduan. Hau guztia zela eta, topatu zituztenean, arrasto horiek duela 40.000 urtekoak zirela kalkulatu zuten ikerlatzaileek. Halere, orain egindako analisi berriek kolokan jarri dituzte lehen emaitza horiek. Indusketa berriek, gainera, fosil eta harrizko tresna berriak azaleratu dituzte. Besteak beste, garezur baten zatia eta beheko baraila bat. Horien azterketan abiatuta, Jean-Jacques Hublin paleoantropologoak gidatutako taldeak dio fosil horiek gizaki modernoaren eboluzioaren lehen fase bati dagokiela.

Beste lantalde batek harrizko tresnen analisiaren emaitzak aurkeztu ditu, Nature aldizkariaren ale berean. Europakoekin baino, Afrikako industriekin lotu dituzte material horiek. Era berean, termolumineszentziaren teknika baliatu dute aztarnategian topatutako suharrien data zehazteko. Horren arabera proposatu dute 300.000 eta 350.000 urte arteko tartea. Kuartzoa duten harrien data zehazteko tresna aproposa da termolumineszentzia. Sinplifikatuz, mineral hori asko berotzen denean, kristaletako barne egitura aldatzen da. Gerora, eta urtez urte material horrek jasotzen duen erradiazio kopurua jakinda, zientzialariak gai dira jakiteko material hori noiz erre zen.

“Data ondo zehaztuta duten aro honetako aztarnategiak oso urriak dira Afrikan, baina guk zortea izan dugu, Jebel Irhoud aztarnategian topatu ditugun suharrizko tresna asko iraganean berotuak izan zirelako”, esan du geokronologian aditua den Daniel Richter ikertzaileak Max Planck Institutuak zabaldutako ohar batean. Horrez gain, aurretik eginda zegoen giza baraila baten inguruko datazio bat aldatu dute. Lehen 160.000 urte zituela uste bazen ere, orain emaitza horiek doitu eta berrikusi dituzte, aztarnategiko sedimentuen erradiazioarekin alderatuz. Kasu honetan, erresonantzia elektronikoaren ekorketaren metodoa erabili dute.

2. irudia: Jean-Jacques Hublin paleoantropologoa, Marokoko Jebel Irhoud aztarnategian.

Fosilen azterketatik abiatuta, ikertzaileek diote aurpegiak, barailak eta hortzek lotura dutela gizaki modernoekin, baina garunaren morfologia, berriz, primitiboagoa omen dela. Horren arabera diote gure espezieko lehen ordezkaritzat jo daitezkeela Marokon aurkitutako arrastoak.

Afrikako teknologia

Naturek argitaratutako beste artikulu batean, Londresko Historia Naturalaren Museoan ikertzen duten Chris Stringer eta Julia Galway-Witham antropologoek aurkikuntzaren egileek diotena babestu dute. Analisi morfologikoaz gain, genetikaren argudioa mahai gainean jarri dute ere: “orain arte egin diren bizidunen eta fosilen DNA azterketen arabera, gure leinua gertueneko ahaideengandik -Eurasiako neandertalak era Denisovako gizakiak alegia- duela 500.000 urte baino lehenago aldendu zen. Data hori, ezagutzen den lehen Homo sapiens baino askoz zaharragoa da”. Funtsean, beste paleoantropologo askok pentsatzen duten modu berean, erregistro fosilean galdutako fosil horiek agertu behar direla argudiatzen dute. Gizaki modernoen eboluzioari dagokionez, Atapuercako (Burgos) Hezurren Osina neandertalen eboluzioa zehazteko izan duen garrantziarekin alderatu dute Marokoko aztarnategia.

Hala ere, eta analisi genetikotan oinarrituta, beste zientzialari askok uste dute gaur egungo giza espeziaren aniztasuna duela 200.000 urte inguru hasi zela, eta, hortaz, bat datorrela orain arte gizaki modernoaren abiapuntutzat jotzen den hasierako datarekin.

Ohi bezala, eta ikerketa berriak heldu bitartean, hedabideetan zalantzak agertu dituzte paleoantropologiari zein genetikari lotutako hainbat adituk. Finean, aztarna bat espezie batekin edo bestearekin lotzeak interpretazio anitzerako bidea ematen duelako, eta gizakiaren historia ebolutiboa zehaztea buruhauste galanta izan ohi delako zientzialarientzat. Halere, sapiens izan ala ez, argi dirudien bakarra da zuhaitzen babespetik atera eta mundu berrietara egokitzeko gai izan ziren hominidoek abentura epikoa abiatu zutela, eta, gaur egun, Marteko hautsetan oinatzak marrazteko bidean daudela.

Erreferentzia bibliografikoak:

Hublin et al. New fossils from Jebel Irhoud, Morocco, and the pan-African origin of Homo sapiens. Nature 546, 289–292. DOI: 10.1038/nature22336

Richter et al. The age of the hominin fossils from Jebel Irhoud, Morocco, and the origins of the Middle Stone Age. Nature 546, 293–296. DOI: 10.1038/nature22335

———————————————————————————-

Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.

———————————————————————————-

The post Gizaki modernoen sorlekua eta abiapuntua dantzan appeared first on Zientzia Kaiera.

Categories: Zientzia

Evolución de los sistemas nerviosos: anélidos y artrópodos

Cuaderno de Cultura Científica - Tue, 2017/06/13 - 17:00

Muchos invertebrados segmentados tienen sistemas nerviosos centrales “distribuidos”: están formados por los ganglios de cada segmento corporal. Cada ganglio se ocupa del control del segmento en el que se encuentra y además, quizás, de parte de los adyacentes. Los ganglios intercambian información a través de dos haces o troncos de axones, denominados conectivos. Esa disposición da lugar a un cordón nervioso ventral característico de anélidos y artrópodos. En el extremo anterior una o varias grandes agrupaciones de cuerpos celulares neuronales dan lugar a la formación de un cerebro. Ese cerebro recibe información de los sistemas sensoriales localizados en la cabeza y controla sus movimientos, pero los axones de varios somas neuronales del cerebro se extienden a lo largo del cordón ventral y ejercen un cierto control sobre sus ganglios; así coordina el cerebro los movimientos del conjunto del organismo.

Los anélidos fueron el primer gran grupo zoológico con un sistema nervioso central condensado de un modo significativo. En algunas especies los ganglios están fusionados. Merece la pena citar una curiosa excepción a la disposición general del sistema nervioso central en este grupo: las sanguijuelas tienen, además del cerebro anterior, un cerebro caudal, en el extremo posterior, que es de mayor tamaño que el anterior. En lo que se refiere al sistema nervioso periférico, muchos anélidos cuentan con un sistema somatogástrico muy desarrollado y en los gusanos de tierra hay además una extensa red subepidérmica de nervios finos.

Las formas de comportamiento mejor estudiadas en anélidos son las siguientes: (1) Las respuestas de huida, que son patrones de acción fijados en los que participan interneuronas y motoneuronas del sistema nervioso central con axones gigantes. (2) La regulación del latido cardiaco en los corazones tubulares de sanguijuelas, que constituyen un ejemplo de control nervioso de comportamiento rítmico. En éste participan motoneuronas del sistema periférico cuya actividad puede ser influenciada por inputs sensoriales directos o por interneuronas del sistema central que permiten ajustar el latido a las necesidades del animal. (3) Movimientos locomotores, que están bajo el control de una red del sistema central que recibe señales de receptores sensoriales periféricos (nociceptores, barorreceptores y receptores táctiles).

Los sistemas nerviosos de los artrópodos se asemejan a los de los anélidos. En las formas más primitivas consisten en una cadena de ganglios ventrales unidos por conexiones horizontales. En muchas especies, los ganglios de la cabeza y los del segmento abdominal terminal se forman por fusión de los ganglios de varios segmentos. Los artrópodos más evolucionados, como cangrejos y algunos insectos, presentan una única masa ganglionar torácica, además de la de la cabeza. Se trata de un sistema nervioso muy complejo, con numerosas neuronas y, por lo tanto, muchas conexiones sinápticas. Por ello, es capaz de desarrollar una gran variedad de comportamientos de gran complejidad.

Muchos movimientos de ajuste de la posición corporal y del movimiento de las extremidades están controlados por señales sensoriales que son sometidas a una integración considerable por parte del sistema central, aunque también hay circuitos de ámbito local.

En artrópodos hay comportamientos rítmicos motores y digestivos. Las actividades rítmicas correspondientes a la locomoción, la natación y el vuelo dependen de Generadores Centrales de Modelos formados por redes de neuronas del sistema nervioso central. En estos casos, la retroalimentación sensorial juega un papel importante. En las respuestas rítmicas de huida, como los rápidos movimientos abdominales de los cangrejos de río, participan dos neuronas gigantes motoras cuyos axones recorren toda la longitud del cuerpo y que establecen conexión sináptica mutua en el cerebro, además de otros tres pares de interneuronas con axones gigantes. El vuelo de las langostas es otra forma de comportamiento rítmico que está controlado por un Generador Central de Modelos. Se trata de un comportamiento controlado por el sistema nervioso central y dependiente de inputs sensoriales.

El sistema somatogástrico controla las actividades rítmicas implicadas en el procesamiento del alimento en el sistema digestivo. Estas actividades están reguladas por conjuntos de interneuronas y motoneuronas del ganglio somatogástrico. Su funcionamiento garantiza la correcta secuenciación de los movimientos implicados en la conducción y tratamiento mecánico del alimento.

Además de los rítmicos, los artrópodos tienen comportamientos que no lo son. Los movimientos de huida de las cucarachas constituyen el comportamiento no-rítmico mejor conocido en este filo. En él participan pares de neuronas con axones gigantes, cuyos cuerpos celulares radican en los últimos ganglios abdominales, pero cuyos axones terminan probablemente en los ganglios subesofágicos en la cabeza. Además de estos, la presencia de axones gigantes que participan en movimientos de huida está muy extendida en otros grupos de artrópodos.

Otro ejemplo de comportamiento no-rítmico es el de los movimientos de amartillamiento y salto en langostas y saltamontes. En éstos participan inputs sensoriales de diferentes tipos (visuales, auditivos y táctiles) a través del sistema nervioso central, a la vez que propioceptores y receptores cuticulares del sistema periférico. La red nerviosa implicada, en la que se producen fenómenos de inhibición cruzada, da lugar a la contracción alternativa de músculos flexores y extensores a cargo de sus correspondientes motoneuronas.

En la mayor parte de los comportamientos anteriores participan tan solo unos pocos ganglios. Sin embargo, en los artrópodos se producen comportamientos muy elaborados y se ha demostrado capacidad de aprendizaje. Todos aquellos aspectos del comportamiento que requieran una valoración del inicio, mantenimiento y duración o selección, precisan del concurso de la principal masa nerviosa del cerebro, que suele estar dividido en dos partes, el ganglio subesofágico y el superesofágico. Aunque se desconoce el funcionamiento preciso de estos órganos, se ha comprobado que el superesofágico inhibe la actividad del subesofágico, quien, a su vez, ejerce un efecto excitatorio en muchos comportamientos.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Evolución de los sistemas nerviosos: anélidos y artrópodos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Evolución de los sistemas nerviosos: cnidarios y gusanos no segmentados
  2. Evolución del tamaño animal
  3. Historia mínima de la complejidad animal
Categories: Zientzia

Carnot y los comienzos de la termodinámica (2)

Cuaderno de Cultura Científica - Tue, 2017/06/13 - 11:59

La máquina ideal de Carnot, tan sencilla como es, explica algunos aspectos fundamentales del funcionamiento de máquinas y motores de todo tipo y permite formular un principio fundamental de la naturaleza.

Las chimeneas anchas de la derecha en realidad son torres de refrigeración. las chimeneas auténticas por las que salen los gases de la combustión del carbón de esta planta de generación eléctrica son las altas y delgadas.

Cualquier máquina que derive su energía mecánica del calor se debe enfriar para eliminar el “desperdicio” de calor a una temperatura más baja. Si hay alguna fricción u otra ineficiencia en la máquina, agregarán más calor residual y reducirá la eficiencia por debajo del límite teórico de la máquina ideal.

Sin embargo, a pesar de las ineficiencias de todas las máquinas reales, es importante saber que nada de la energía total se destruye. Lo que ocurre con la parte de la energía de entrada que llamamos residual es que no se puede emplear para hacer trabajo útil. Así, el calor residual no puede ser reciclado como energía de entrada para hacer funcionar la máquina para producir más trabajo útil y así aumentar la eficiencia del motor a base de reducir la cantidad de energía residual, porque el depósito de calor de entrada está a una temperatura más alta que el de salida, y el calor no fluye por sí mismo de frío a caliente.

La observación de Carnot, que parece tan obvia, esa de que el calor no fluye por sí solo de un cuerpo frío a uno caliente, y que la necesidad de acondicionadores de aire y refrigeradores ilustra tan bien, no es más, si se generaliza, que una forma de expresar un principio fundamental de la naturaleza: la segunda ley de la termodinámica. Esta ley es una de las más potentes que conocemos, dada su capacidad para explicar cosas: desde cómo y en qué sentido ocurren los fenómenos naturales a los límites fundamentales de la tecnología. Volveremos a ella repetidamente en esta serie.

Un ejemplo paradójico del resultado de Carnot

Si quemamos gasóil para calefacción en una caldera en el sótano de nuestro edificio, sabemos que parte del calor se pierde por la chimenea en forma de gases calientes y otra como calor perdido porque el propio quemador no puede estar aislado por completo. Con todo, los recientes avances en tecnología de calderas han dado como resultado calderas con una eficiencia nominal de hasta 0,86, o 86%.

Ahora bien, si preferimos radiadores eléctricos, nos encontramos con que es probable que la compañía de energía eléctrica todavía tenga que quemar petróleo, carbón o gas natural en una caldera, Y después conseguir que esa electricidad generada llegue a nuestra casa. Debido a que los metales se funden por encima de una cierta temperatura (por lo que la sustancia caliente no puede superar la temperatura de fusión de su contenedor) y debido a que el agua de refrigeración nunca puede bajar por debajo del punto de congelación (porque entonces sería sólida y no fluiría, lo que pone un límite inferior de temperatura a nuestra sustancia fría), el hallazgo de Carnot hace imposible que la eficiencia de la generación eléctrica supere el 60%. Dado que la caldera de la compañía de energía también pierde parte de su energía por la chimenea, y dado que existen pérdidas de electricidad en el camino desde la planta que la genera, sólo alrededor de un cuarto a un tercio de la energía que había originalmente en el combustible llega realmente a tu casa. Una eficiencia, en el mejor de los casos, del 33 %. Paradójicamente, la calefacción eléctrica es mucho menos sostenible que una caldera de gasóil si las plantas que generan energía emplean combustibles fósiles.

Debido a los límites encontrados por Carnot para las máquinas térmicas, a veces es importante no sólo dar la eficiencia real de una máquina térmica, sino también especificar lo cerca que está del máximo posible. Los aparatos de calefacción domésticos y muchos aparatos eléctricos de gran potencia, como frigoríficos y acondicionadores de aire, vienen ahora con una etiqueta que indica la eficiencia relativa del aparato y el potencial de ahorro anual en coste de electricidad.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Carnot y los comienzos de la termodinámica (2) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Carnot y los comienzos de la termodinámica (1)
  2. Potencia y eficiencia de una máquina
  3. La máquina de vapor (1)
Categories: Zientzia

Jo eta ke minbiziaren aurka

Zientzia Kaiera - Tue, 2017/06/13 - 09:00
Juan Ignacio Pérez Iglesias Guztiok ezagutzen dugu Steve Jobs enpresari aberats amerikarra, pankreako minbiziak jota hil zen, ebakuntza garaiz ez egiteagatik. Gaixotasuna aurkitu ziotenean egin izan baliote ebakuntza, oso desberdin bukatuko zen kontua agian. Hala ere, Jobsek erabaki zuen terapia alternatiboetara jotzea, eta oso berandu egingo zuen bizitza salba ziezaiokeen ebakuntza. Hau ez da zoritxarrez kasu bakarra, bukaera izugarrietara iristen dira gaixoak, terapia eraginkorrei uko egiten dietenean.

Osatzeko ez ezik, gaixotasunak saihesteko ere jotzen dute zenbaitek horrelako baliabideetara. Dieta batzuk, tumoreak ekiditen dituztelakoan iragartzen dira ageri-agerian.

Azkenean, oso lotsagabeak eta gaiztoak dira batzuk, aldarrikatzen baitute gaixoak beraiek baitira beren gaixotasunaren eragile: ozen esaten dute arazo psikologikoren bat dutela gaixoek, eta ez direla behar bezala bizi.

Irudia: Minbizia gaixotasun hedatuenetariko bat da herrialde garatuetan. Denboraren poderioz, gure gorputzeko zelulak zahartuz joaten dira eta, halako batean, akatsen batengatik edo zahartu direlako, gaixotasunak ager daitezke. Beraz, minbizia, nolabait esan, norberaren zelulak gaiztotzea da.

Gero eta ugariagoak dira “minbiziaren aurkako” dietak. Dieta alkalinoa da ezagunenetakoa. Adibide gisa erabiliko dut hemen dieta hau, agerian utzi nahi dudalako jokabide hauen guztien zentzugabekeria. Gauza ondo ulertzeko, kontuan hartu behar da minbizi-zelulen ingurunea azidoa izaten dela, eta dieta hau bultzatu nahi dutenek aldarrikatzen dutela azidotasun hori dela minbiziaren eragile. Horrela ba, pentsatzen dute ezabatu egin behar dela azidotasun hori, dieta alkalino bat hartuta.

Izan ere, zelula osasuntsuek baino glukosa gehiago erabiltzen dute minbizi-zelulek, energia lortzeko. Glukolisi izeneko metabolismo-bidezidor bat erabiltzen dute horretarako. Berez, zelula hauetan ez dira gertatzen beste animali ehun batzuetan oxigenoaz baliatuta gauzatzen diren prozesuak, eta produktu azidoak ematen dituzte glukolisiaren ondorio modura; horretxegatik da azidoa zelula hauen ingurunea. Antzera gertatzen da gure muskuluetako zeluletan, ahalegin fisiko handia egiten dugunean: baldintzapen horietan ere glukosak hainbat aldaketa pairatzen ditu, eta azkenean azido laktiko bihurtzen da.

Warburg efektua” deritzo minbizi-zelulek lehentasunez glukosa erabiltzeari, Otto Warburgek deskribatu zuelako prozesua 1924.ean. Berak proposatu zuen azidotasunaren ondorio izan litekeela minbizia, baina ikusia dugu ordea alderantziz gertatzen dela eta minbizia dela azidotasuna eragiten duena. Edonola ere, argi esan behar da ingurunearen azidotasun maila ezin dela dietaren bidez aldatu. Fisiologikoki zorrotz erregulatua dagoelarik, dietak ez dio inola ere eragiten azidotasun mailari.

Egia da izugarri kostatzen zaiola jendeari minbizia duela onartzea, eta are gehiago kostatzen zaio kimioterapia bezalako tratamendu agresiboak eman behar direnean. Hori dela eta, ez da hain bitxia gaixoak terapia alternatiboetara jotzea, baldin eta ohiko medikuntzak ezarriko badio tratamendu gogorra, albo efektu oso ezatseginekoa eta zenbaitetan jarduteko ezintasuna. Gainera, gaixoen sufrimenduez baliatuz, batzuek tratamendu leunak eskaintzen dituzte, ohiko bide onkologikoetatik kanpo. Argi esan behar da ordea gure osasun-sistemako medikuak direla terapia eraginkorrena agintzeko gai diren bakarrak. Bidea gogorra denean, ulergarria da bide errazetara jotzeko gogoa, baina minbiziaren aurka bide errazik ez dago.

Adenda:

Testu hau Deia aldizkariaren Con ciencia atalean argitaratu zen urtarrilaren 29an. Aurkako kritikak gertatu ziren, argudiatu izan zutelako Jobsen pankrea-minbizia ohikoa baino arinagoa zela eta horretxegatik onartu behar zitzaiola bide alternatiboak hartu izana. Hau idazten ari dena ez da ez onkologoa, ez eta medikua ere. Horrela ba, ingelesetik itzuliko dut Wikipediak dioskuna, norberak bere ondorioak har ditzan:

“2003ko urrian, minbizia antzeman zitzaion Jobsi. 2004.aren erdialdean, bere langileei esan zien minbizi-tumorea zuela pankrean. Oro har, oso pronostiko txarra izaten dute tankera honetako minbiziek, baina Jobsek argitu zuen berak tumore bitxia zuela, arinagoa, pankreako uhartexketako karzinoma modura ezagutzen dena.

Jobsek ez zien jaramonik egin medikuei bederatzi hilabetean zehar eta ez zuen ebakuntza onartu nahi izan. Horren ordez, gezurrezko mediku-dieta batez fidatu zen, eta gaixotasunaren aurkako tratamendu natural bat hartu zuen. Harvard ikerlari den Ranzi Amrik uste du alferrik laburtu ziola bizitza tratamendu horrek. Minbizia ikertzen duen David Gorski ere, medikuntza alternatiboaren aurkakoa da baina berak pentsatzen du bakar-bakarrik apur bat laburtu zitzaiola bizitza. Barri R.Cassileth, bestalde, buru da Memorial Sloan Kettering Cancer Center izenekoaren Medikuntza Integratiboaren Sailean eta bere ustez, Jobsi bizitza kendu zion medikuntza alternatiboan zuen sinesmenak. Funtsean, bere buruaz beste egin zuen. Jobsen biografo den Walter Isaacsonen hitzetan “bederatzi hilabetean zehar uko egin zion pankrea-minbiziaren aurkako kirurgiari, eta gero damutu egin zen bere erabaki horretaz, bere osasunak txarrera egin zuenean. Kirurgiaren ordez, dieta beganoa hartu zuen, eta akupuntura eta belar batzuk erabili zituen, Interneten aurkituta. Igarle bati ere galde egin zion. Berak fede handia izan zuen klinika baten zuzendari zen batengan, eta hor enemak eta ganorarik gabeko zenbait kontu erabiltzen zituzten. Azkenean, 2004.ean egin zioten ebakuntza tumorea kentzeko. Jobsek ez zuen hartu ez erradioterapiarik, ez kimioterapiarik”.

———————————————————————————-

Egileaz: Juan Ignacio Pérez Iglesias (@Uhandrea) UPV/EHUko Fisiologiako katedraduna da eta Kultura Zientifikoko Katedraren arduraduna.

———————————————————————————

The post Jo eta ke minbiziaren aurka appeared first on Zientzia Kaiera.

Categories: Zientzia

Dudas sobre las vacunas: problemas y soluciones

Cuaderno de Cultura Científica - Mon, 2017/06/12 - 17:00

Ignacio López Goñi

Cada vez hay más padres que dudan de los beneficios de la vacunación. ¿Debería ser obligatoria? Los profesionales de la salud son la mejor herramienta contra los anti-vacunas.

Los programas de vacunación han contribuido a que el número de casos y de muertes por enfermedades infecciosas hayan disminuido de forma significativa en el último siglo. Las vacunas han salvado millones de vidas humas, son responsables de la erradicación de la viruela del planeta y de que la polio esté apunto de serlo. En general, las coberturas vacunales o tasas de vacunación infantil siguen creciendo a nivel mundial, lo que indica que la vacunación es una medida de salud pública ampliamente aceptada.

Sin embargo, un número cada vez más creciente de padres (*) perciben la vacunación como algo insano e innecesario. Como las vacunas se administran cuando el niño está sano, nuestro umbral del riesgo es muy bajo. Cualquier duda, aunque sea teórica, sobre la seguridad de las vacunas puede causar que los padres rechacen o retrasen la vacunación de sus hijos. Incluso algunos padres que vacunan a sus hijos suelen tener dudas y temores acerca de la vacunación. Los movimientos anti-vacunas han sido responsables de la disminución de las tasas de aceptación de las vacunas y del aumento de brotes de enfermedades infecciosas que se pueden prevenir con las vacunas. Entre los extremos de los movimientos anti-vacunas que rechazan totalmente la inmunización y los entusiastas pro-vacunas, cada vez hay más padres que dudan: padres que rechazan alguna de las vacunas pero que aceptan otras, que retrasan la vacunación de su hijo porque dudan del calendario vacunal recomendado, o que se sienten inseguros cuando vacunan a sus hijos.

En África entierran a los niños, en Europa enterramos a los ancianos

Por supuesto, la situación es diferente según el contexto y el país. En los países de altos ingresos donde los programas de vacunación están bien establecidos y en gran parte son gratuitos, las vacunas son víctimas de su propio éxito. Como gracias a las vacunas han disminuido radicalmente la frecuencia de enfermedades infecciosas, los padres no perciben el riesgo de esas enfermedades y no ven la necesidad de las vacunas: “¿para que voy a vacunar a mi hijo si ya no hay varicela?”. Se tiene más miedo a la vacuna que a la propia enfermedad. Sin embargo, en los países con ingresos medios o bajos, donde este tipo de enfermedades son todavía más frecuentes, la duda de la inmunización es menor. En países donde la mortalidad infantil es todavía muy alta debido a las enfermedades infecciosas, todavía da más miedo la enfermedad que la vacuna.

Anti-vacunas: desde Jenner hasta Twitter

Los movimientos anti-vacunas no son algo nuevo. Nada más empezar Edward Jenner, a principios de 1800, sus demostraciones de que la viruela de las vacas protegía contra la viruela humana, y a pesar de que más del 30% de los casos de viruela eran mortales, comenzaron las campañas contra la vacuna. Son famosos los dibujos satíricos publicados en 1802 en los que se ridiculizaba la vacunación de Jenner y se mostraban los bulos de sus opositores: que al vacunarte con la viruela de las vacas te salían por el cuerpo apéndices de vaca.

Caricatura publicada en 1802 en “The Punch” por James Gillray de una escena de la inoculación de la vacuna de Jenner en el Hospital de St. Pancras (Londres).

Durante el siglo XIX, en el Reino Unido primero, luego en el resto de Europa y en EE.UU. después, se crearon las primeras Ligas Anti-Vacunación y hubo varias campañas anti-vacunas que lucharon activamente contra las leyes que obligaban a la vacunación y en defensa de la libertad personal. Sin embargo, ya en pleno siglo XX, llegó la edad de oro de las vacunas en las décadas de los 50 y 60, durante las cuáles la aceptación de la inmunización fue máxima. En esos años se introdujeron las vacunas contra la poliomielitis, el sarampión, las paperas y la rubéola, con gran aceptación al comprobar cómo los casos de enfermedades y muertes se reducían de forma espectacular. En los años 70 se comenzó un gran esfuerzo internacional para expandir los programas de vacunación también a los países de bajos ingresos, con el objetivo de acabar con seis grandes asesinos: polio, difteria, tuberculosis, tosferina, sarampión y tétanos. Entonces menos del 5% de la población mundial infantil menor de un año estaba inmunizada contra estos patógenos. En los años 90 cerca del 75% de la población mundial infantil estaba vacunada contra la polio difteria, tétanos y tosferina. Sin embargo, ese periodo de aceptación entusiasta de las vacunas duraría poco tiempo.

A mediados de los 70 los movimientos anti-vacunas resurgieron con fuerza. La controversia comenzó en el Reino Unido con la vacuna contra la tosferina (pertussis en inglés, por estar causada por la bacteria Bordetella pertussis), al publicarse un trabajo que relacionada serios trastornos neurológicos en 36 niños después de haber sido vacunados con la tripe difteria-tétano-pertusis (vacuna DTP). Este trabajo tuvo una gran repercusión mediática e hizo que la cobertura vacunal en el Reino Unido bajara del 77 al 33%, con el consiguiente aumento de los casos de tosferina, algunos de ellos mortales. En EE.UU. la controversia comenzó en 1982 con la emisión de un emotivo documental periodístico “DTP: vaccination roulette” que acusaba al componente pertusis de la DTP de causar daños cerebrales severos y retraso mental. A raíz de tal escándalo se crearon grupos de presión anti-vacunas, se investigaron las empresas fabricantes de vacunas, aumentaron los precios y se redujeron las tasas de vacunación. A pesar de los estudios que se hicieron posteriormente que demostraban que no había relación alguna entre la vacuna DTP y los trastornos neurológicos, la preocupación sobre su seguridad fue un estimulo para el desarrollo de una nueva vacuna de pertusis acelular, menos reactiva y, por lo que se está viendo con el tiempo, con un menor poder protector contra la enfermedad. Quizá lo único bueno de todo aquello fue la creación del Vaccine Adverse Event Report System (VAERS), un programa nacional del CDC y la FDA para recoger, evaluar y publicar de forma transparente todo tipo de información sobre los efectos adversos que puedan ocurrir por la administración de las vacunas en EE.UU.

Unos 25 años después de la controversia sobre la vacuna DTP, el Reino Unido volvió a ser el origen de una de las mayores crisis sobre las vacunas, en esta ocasión relacionando la vacuna tripe vírica sarampión/rubeola/paperas (SRP) con el autismo. La revista The Lancet publicó en 1998 un artículo firmado por Andrew Wakefield y otros doce colegas en el que se sugería una posible asociación entre la vacuna y el autismo. Aunque en el artículo no se probaba una relación causal, las afirmaciones posteriores de Wakefield no dejaban lugar a duda de su opinión y pidió la retirada de la vacuna hasta que se hicieran más estudios. Años después se demostró que los datos de la publicación habían sido sesgados, y que Wakefiled recibió dinero para publicar estos datos contra las empresas farmacéuticas. En 2004, 10 de los 12 coautores del trabajo se retractaron de la publicación. En 2010 el Consejo General Médico inglés expulsó a Wakefield y le prohibió ejercer la medicina en el Reino Unido, y The Lancet tomó la decisión de retirar y retractarse de lo publicado en 1998. Pero habían pasado ya doce largos años. Se han evaluado y revisado más de 20.000 artículos relacionados con esta vacuna y más de 14 millones de casos de niños vacunados y no hay ningún indicio de que la vacuna SRP tenga alguna relación con el autismo infantil. A pesar de ello, la relación de las vacunas con el autismo sigue siendo una de las principales preocupaciones de muchos padres que dudan.

Como hemos comentado, en general las vacunas son mucho mejor recibidas en los países de bajos ingresos. Sin embargo, en los últimos años ha habido también algunas controversias que han hecho disminuir las coberturas vacunales y han supuesto un serio problema para las campañas mundiales de inmunización. En 1990 en Camerún se extendieron rumores de que el objetivo de las campañas de vacunación era la esterilización de las mujeres y en 2003 se boicoteó la vacuna de la polio en el norte de Nigeria también con rumores de que la vacuna era una estrategia para extender el VIH y reducir la fertilidad entre los musulmanes. A consecuencia de estos rumores, la polio resurgió en Nigeria y se extendió en 15 países africanos que ya habían sido declarados libres de la enfermedad.

Desde el año 2000, Internet ha supuesto un cambio de paradigma en la relación médico/paciente. Internet ha acelerado la velocidad de la información y ha roto barreras: la web proporciona información gratis, inmediata y disponible todo el tiempo y anónima. Internet es una oportunidad sin precedentes para los activistas anti-vacunas, para difundir su mensaje a una audiencia cada vez más amplia y reclutar nuevos miembros. Las personas que son contrarias a las vacunas, aunque sean minoría, generan una cantidad desproporcionada de contenidos anti-vacunas.

Cada mes son miles los contenidos que se vierten al ciberespacio sobre la vacunación, la inmensa mayoría subjetivos y de contenido emocional. Internet es una de las principales fuentes de información que emplean los padres para consultas sobre el tema de la vacunación. Desgraciadamente si se examinan los contenidos relacionados con la vacunación en la web o en las redes sociales sobresale la información inexacta e incorrecta. Esto hace que muchos padres pasen de dudar de las vacunas a ser resistentes a la vacunación o incluso claramente opuestos. Muy probablemente ver una web anti-vacunas aumenta los sentimientos negativos contra la inmunización, mientras que las webs pro-vacunas suelen tener un efecto mínimo.

En España no existen movimientos anti-vacunas como en EE.UU. pero el número de padres que dudan aumenta

En España no existen movimientos anti-vacunas bien organizados y beligerantes como los que hay en EE.UU. o en el Reino Unido, pero el número de padres que ponen en duda la efectividad y seguridad de las vacunas aumenta. Además, cada vez tienen más relevancia pública algunos claros anti-vacunas como Josep Pamiés o la monja Forcades, incluso sorprendentemente con la colaboración de grandes medios de comunicación y poderes públicos. También, en los últimos años se han publicado varios libros que claramente ponen en tela de juicio el valor de las vacunas: Vacunas, una reflexión crítica (Enric Costa), Los peligros de las vacunas (Xavier Uriarte), Vacunaciones sistemáticas en cuestión, ¿son realmente necesarias? (Manuel Marín Olmos), o Vacunas las justas (Miguel Jara).

La duda sobre las vacunas es ya un problema de salud pública

Los padres que mantiene una posición claramente anti-vacunas son una minoría, pero la proporción de los que dudan va en aumento. Esto es preocupante porque para el éxito de las campañas de vacunación se debe mantener una cobertura vacunal alta. Se debe conseguir que lo normal sea que un padre vacune a su hijo según el calendario que le corresponde. La vacunación es una medida individual pero que beneficia a la comunidad. A diferencia de otras intervenciones preventivas, si un padre rechaza las vacunas de su hijo no solo pone en riesgo la vida de su hijo sino también de los que le rodean, de los más débiles, otros niños, los enfermos y los ancianos. Luchar contra la oposición o la duda de las vacunas es un problema comunitario.

¿Qué impacto clínico tiene el fenómeno de los anti-vacunas? Quizá el de mayor actualidad sea el aumento de los casos de sarampión, una de las enfermedades infecciosas más contagiosas (ver El sarampión aumente en Europa, en microBIO). Las autoridades sanitarias han alertado que desde febrero de 2016 han aumentado los casos de sarampión en Europa, la mayoría en niños pequeños sin vacunar. La situación en este momento es que de los 53 países de toda la región europea solo han conseguido erradicar la enfermedad 15 países, y en 6 todavía sigue habiendo transmisión endémica. Desde enero de 2017 ya ha habido incluso algunos casos de muertes en Rumanía, Italia y Portugal. La ECDC alerta de que la probabilidad de que se extienda el sarampión a otros países es alta. Casos similares también han ocurrido en el continente americano, libre de sarampión desde el año 2002. En EE.UU. hubo tres grandes brotes en 2013 y lo mismo ocurrió en Canadá. De forma similar en los últimos años ha habido brotes de rubéola, paperas y pertusis en Polonia, Suecia, Holanda, Rumania, Bosnia EE.UU., etc. por la misma causa: personas que no habían sido vacunadas. En 2010, la OMS estimó el número de muertos por enfermedades infecciosas prevenibles por las vacunas (difteria, sarampión, tétanos, pertusis y polio) en unas 400.000. Estas muertes se podrían haber evitado con las vacunas. Es cierto, que más de la mitad ocurren en países donde los problemas de infraestructuras son responsables de la falta de vacunación, pero en otros casos es el rechazo a las vacunas la causa.

Entender las causas y el contexto del que duda

Los grupos anti-vacunas de hoy en día son en su mayoría gente de clase media (o media-alta) con estudios superiores que reclaman su derecho a una decisión informada acerca de las vacunas, prefieren soluciones “naturales”, no les gusta que les califiquen como anti-vacunas (el término “anti” es negativo) y prefieren términos neutros, como grupo pro vacunas seguras. Pero algunos de sus argumentos son los mismos que en 1800: las vacunas no son efectivas; causan enfermedades; son un negocio y se fabrican sólo para beneficio de las farmacéuticas; las vacunas contienen aditivos tóxicos peligrosos para la salud; los daños de las vacunas son ocultados por las autoridades (teorías conspiratorias); la vacunación obligatoria es contraria a la libertad y a los derechos civiles; la inmunidad natural es mucho mejor que la que inducen las vacunas; las vacunas son muchas y se dan demasiado pronto; los productos naturales y alternativos (vida “sana”, homeopatía, vitaminas) son mejores que las vacunas para prevenir las enfermedades; etc. En muchos casos se presentan datos incorrectos, hechos sacados de contexto, ambiguos o medias verdades. En muchas ocasiones apelan a las emociones y presentan historias muy duras del legitimo sufrimiento de padres que creen seriamente que sus hijos han padecidos enfermedades graves por culpa de las vacunas.

El contexto a veces no ayuda. En los últimos años ha aumentado el número de nuevas vacunas, lo que ha complicado los calendarios vacunales. El que no exista un mismo calendario vacunal en distintos países o, lo que es peor, en distintas comunidades autónomas de un mismo país genera percepciones negativas. La falta de transparencia de algunos gobiernos y empresas farmacéuticas y los errores en la forma de afrontar e informar sobre crisis sanitarias también provoca desconfianza y susceptibilidades: la crisis de las vacas locas, la pandemia de gripe aviar o el último brote de Ébola, por ejemplo. Hoy en día los pacientes quieren estar involucrados y participar en sus propias decisiones de salud.

¿Debería ser obligatoria la vacunación?

Esta es la pregunta que hace unos días lance desde mi cuenta de Twitter, y el 94% de las respuestas fue afirmativa. Es verdad que el resultado está sesgado y no es significativo: la mayoría de los seguidores de esa cuenta de Twitter son claramente pro-vacunas, pero algunos comentarios fueron muy sugerentes: “si la vacuna de la rabia es obligatoria para los perros, ¿por qué vacunar a los niños no lo es?”, “si llevar cinturón de seguridad en el coche es obligatorio, ¿por qué no las vacunas?”, “si fumar está prohibido en muchos lugares porque es malo para la salud, ¿por qué las vacunas no son obligatorias si son buenas para la salud?”, “si una persona no vacunada puede poner en riesgo la salud de mi hijo, ¿por qué no obligan a vacunarse en las guarderías?”

Resultado de la encuesta “¿Debería ser obligatoria la vacunación?” en Twitter.

Los recientes brotes de sarampión y de otras enfermedades evitables por las vacunas han hecho que algunos países cambien su legislación. En Italia ya es obligatoria la vacunación contra doce enfermedades infecciosas para poder matricular a tu hijo en el colegio. En Portugal no son obligatorias, pero sí gratuitas y están preparando una ley para exigir la vacunación. En Alemana, no son obligatorias, pero preparan también una ley para poder multar si no vacunas a tus hijos. En Francia son obligatorias las del tétanos, difteria y polio, y en Bélgica solo la de la polio. ¿Y en España? La vacunación es voluntaria, nuestro ordenamiento no incorpora explícitamente el deber de vacunación y nadie puede, en principio, ser obligado a vacunarse. Ahora bien, hay determinadas situaciones que permiten que los poderes públicos competentes impongan la vacunación forzosa, en caso de brotes o epidemias y de peligro para la salud pública. ¿Debería cambiarse la ley y que la vacunación fuera obligatoria?

Para controlar e incluso llegar a erradicar una enfermedad infecciosa, la OMS recomienda que la cobertura vacunal para esa enfermedad sea de al menos el 95%. Según datos oficiales, las tasas de vacunación en nuestro país en los últimos años son elevadas, superiores al 95%.

Coberturas vacunales en España desde 2006 hasta el 2015. Para más información consultar la web del MSSSI.

En España, a pesar de la no obligatoriedad, la tasa de vacunación es incluso superior a la de países en los que la vacunación es obligatoria. Por ello, el debate planteado podría ser útil si hubiera un descenso de las tasas de vacunación que pusieran en compromiso la protección del efecto rebaño y afectara a la salud pública. Adelantar cambios normativos que impusieran de forma coercitiva la vacunación, podría generar un efecto contrario al pretendido. Obligar quizá, de momento, no sea la solución.

¿Qué podemos hacer?

Para responder a los movimientos anti-vacunas o convencer a los que dudan, algunas estrategias se han basado en campañas de educación (folletos “oficiales” o similar) con información sobre la efectividad y seguridad de las vacunas. Si embargo, aunque necesaria, no parece que ésta sea la forma más efectiva. Educar a la gente tiene poco efecto o impacto en cambiar la actitud anti-vacunas. La información y educación no suelen cambiar por si solas las percepciones. Todos tenemos la tendencia de recibir mejor la información que confirma lo que pensamos y solemos rechazar lo que contradice nuestras creencias. Para muchas personas lo que convence no son los hechos, sino la credibilidad o autoridad de quién lo dice. En este sentido, la pieza fundamental para conseguir la aceptación y confianza pública de las vacunas son los profesionales de la salud (de la medicina y la enfermería). La gente cree y confía más en su médico o enfermera de lo que nos imaginamos. Muchas gente dice que la primera razón para vacunar a su hijo es la recomendación del profesional de la salud en la consulta de pediatria. Promover una buena relación con el paciente es fundamental.

Se han publicado algunas recomendaciones para estos profesiones de la salud, pero que nos pueden ayudar a todos cuando nos enfrentamos a una persona que duda: ¿cómo convencer a unos padres de que no vacunar supone un riesgo mayor?

1. Recuerda por qué nos vacunamos. Hay que explicar cómo las vacunas nos protegen de las infecciones y nos ayudan mantener la salud; reforzar la idea de que la vacunación es una norma social, porque la gente hace lo que cree que todo el mundo debe hacer. Da por hecho que va a vacunar a su hijo, ni si quiera ponlo en duda. Felicítale por vacunarlo (y concreta la fecha para la siguiente cita).

2. No intentes asustar a la gente con mensajes catastrofistas, ya que te puede salir el tiro por la culata. Explica cómo se controla de forma rigurosa la seguridad de las vacunas, algo que no se suele contar a la gente. Las vacunas son uno de los agentes farmacéuticos mejor estudiados y más seguros del mercado. Es frecuente confundir correlación con causalidad: que dos cosas ocurran al mismo tiempo no quiere decir que una sea la causa de la otra. Que el autismo se manifieste los primeros años de vida al mismo tiempo que el calendario vacunal, no demuestra que las vacunas sean la causa del autismo. Pero el sufrimiento de unos padres con un niño autista, … es tremendo.

3. Ten empatía. Evita ser despectivo. Hazte cargo de sus preocupaciones. Si tiene dudas, escucha, deja que hable, deja que acabe de hablar, reconoce el derecho que tiene para dudar y hacerse esas preguntas, sé positivo, responde de forma simple, sencilla, que se te entienda (“Hay más formaldehido en una pieza de fruta que en todas las vacunas que recibe tu niño”). Dedícale tiempo, con respeto, paciencia y confianza. Recuerda aquello de “siempre positivo, nunca negativo”.

4. La verdad es la piedra angular de la aceptación de las vacunas. Explica claramente las posibles reacciones adversas que pueda haber, que no le coja por sorpresa las reacciones locales de la vacuna. Su hijo ha ido a vacunarse estando sano, sin fiebre y las reacciones locales pueden alarmar si no se han explicado antes. La fiebre, el malestar general, un pequeño sarpullido o enrojecimiento local no significan que la vacuna no funcione sino todo lo contrario. Es señal de que la vacuna está activando las defensas. Y explica las posibles reacciones adversas graves muy raras que puede haber (menos de un caso por millón de dosis administradas). Se honesto y claro. Ningún medicamento es 100% seguro y todos tienen efectos secundarios. Reconoce los riesgos, también hay riesgo en tomar un paracetamol, pero distingue claramente las reacciones locales de los casos graves y muy raros. Hay que dar la información a medida, según las dudas y las preocupaciones de los padres.

5. Cuenta tu historia, tu propia experiencia, como profesional de la salud o como padre que vacuna a sus hijos: aquel viejo amigo del colegio que tuvo polio, o por qué tus hijos no han tenido rubéola. Y cuéntalo como una historia de ciencia. Explica que no hay nada más natural que las vacunas que inducen una inmunidad natural, al estimular a tu propio sistema inmune a producir su propia protección. Los anticuerpos que te protegen los produce tu propio cuerpo. La gente que está en riesgo es la que no hace nada.

6. Utiliza las redes sociales. Involúcrate de forma proactiva con los medios de comunicación y en las redes sociales. Proporcionarles información, comentarios independientes, ayuda a los periodistas a entender los datos. Da información, respuestas, historias, videos. Internet puede ser una herramienta muy útil para luchar contra la duda. Los algoritmos que usa Google no ayudan. Google puede darte una información sesgada. Las palabras “clave” que te sugiere y los contendidos web que te ofrece puede estar condicionados por tus propias preferencias y consultas previas. Así, Google puede contribuir a crear, mantener o aumentar tus dudas o a creer que lo que opina una minoría es mucho más frecuente que lo que realmente es. Por ejemplo, los contendidos negativos tienden a proliferar más en internet. ¿Por qué una madre que ha vacunado a su hijo y todo ha ido fenomenal y están los dos sanos y felices va a escribir su experiencia en un blog o va a dejar un comentario en Internet? Por el contario, si ha habido el menor problema, esa madre compartirá sus dudas en fórums o redes sociales y su testimonio se extenderá cómo la pólvora, generando una percepción errónea del problema. Como ya hemos dicho, los contenidos relacionados con la vacunación en la web y redes sociales son principalmente inexactos e incorrectos. Por eso, uno de los “campos de batalla” se libra en internet. Difundir mensajes en blogs, redes sociales, YouTube, … está muy bien, pero es complicado. El reto no solo es que los padres tengan acceso a la información, sino que esta se entienda y sea inteligible para cualquiera. Usa un lenguaje coloquial, muestra empatía y escucha al público.

Conclusión: En España no hay grandes movimientos anti-vacunas pero sí un aumento de padres que dudan de la seguridad y eficacia de las vacunas. De momento, las coberturas vacunales son altas y no se compromete el efecto rebaño. Por ello, imponer de forma coercitiva la vacunación, podría tener un efecto contrario al pretendido. No obstante, es necesaria una vigilancia estrecha del fenómeno anti-vacunas y su efecto en la salud pública. Los profesionales de la salud son la principal fuente de información para los padres que dudan y la forma más efectiva de convencerles de lo peligroso que es no vacunar a sus hijos.

Referencias y más información:

Las vacunas funcionan. Ignacio López-Goñi y Oihana Iturbide. 2015. Phylicom ediciones, Valencia. Colección Pequeñas Guías de Salud. ISBN: 978-84-943440-0-8

Vaccine hesitancy, vaccine refusal and the anti-vaccine movement: influence, impact and implications. Dubé, E., y col. (2015). Expert Rev Vaccines. 14(1):99-117. doi: 10.1586/14760584.2015.964212.

Identifying and addressing vaccine hesitancy. Kestenbaum, L.A., y col. (2015). Pediatr Ann. 44(4):e71-5. doi: 10.3928/00904481-20150410-07.

Promoting vaccine confidence. Smith, M.J. (2015). Infect Dis Clin North Am. 29(4):759-69. doi: 10.1016/j.idc.2015.07.004.

Vaccine hesitancy: A vade mecum v1.0. Thomson, A., y col. (2016). Vaccine. 34(17):1989-92. doi: 10.1016/j.vaccine.2015.12.049.

The impact of the web and social networks on vaccination. New challenges and opportunities offered to fight against vaccine hesitancy. Stahl, J.P., y col. (2016). Med Mal Infect. 46(3):117-22. doi: 10.1016/j.medmal.2016.02.002.

Vaccine Adverse Event Reporting System (VAERS)

El sarampión aumenta en Europa

Coberturas de vacunación en España (MSSSI)

Nota:

(*) Cuando me refiero a “padres” e “hijos” empleo los términos en plural que según el Diccionario de Lengua Española de la Real Academia significan “padre y madre de una persona” y “descendientes”, respectivamente.

Sobre el autor: Ignacio López Goñi es catedrático de microbiología de la Universidad de Navarra y autor del blog microBio.

El artículo Dudas sobre las vacunas: problemas y soluciones se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones
  2. Vacunas: El arte de salvar vidas    
  3. Sobre la predisposición genética a padecer enfermedades
Categories: Zientzia

Euskarazko denbora-informazioaren azterketa eta prozesamendua

Zientzia Kaiera - Mon, 2017/06/12 - 15:00
Begoña Altuna, Mª Jesús Aranzabe eta Arantza Díaz de Ilarraza Denborak ekintzak eta egoerak gertatzea eta horien ondorioz sortutako aldaketak edo aldaketa ezak antzematea ahalbidetzen du. Gainera, ekintza eta egoera horiek noiz jazo diren edo zenbat iraun duten jakiten ere laguntzen du. Gizaki guztiek, ordea, ez dute denbora berdin adierazten; nola ulertu denbora, hala adierazi. Hizkuntzaren prozesamenduan, denbora-informazioa interpretatzea oso garrantzitsua da testuak osotasunean ulertu nahi badira eta horretarako, hizkuntza bakoitzean denbora nola adierazten den aztertu behar da. Gu euskarazko denbora-informazioarekin ari gara lanean.

Irudia: Euskaraz, aztertutako beste hizkuntzetan bezala, denbora-informazioa adierazteko hiru elementu nagusi daude: gertaerak, denbora-adierazpenak eta denborazko erlazio-eraikuntzak. (Argazkia: Gabriel Aresti euskaltegia)

Bada, hiru denbora-egitura motak osatzen du denbora-informazioa:

  1. Gertaerak, hau da, gertatzen diren ekintzak eta egoerak (adibidez, galdetzea, leherketa, haurdun egotea)
  2. Denborako une eta iraupenak adierazten dituzten denbora-adierazpenak (adib., atzo, bost minutu, arratsaldeko lauretan
  3. Horien artean sortzen diren erlazioak (adib., hiruretan, lan egin ondoren bazkaldu dugu). Hau da, denborazko erlazio-eraikuntzak.

Hizkuntzaren prozesamendurako azterketa linguistikoa egitean, elementu horien ezaugarriak erauzi eta era normalizatuan antolatu behar dira, bestela esan, testuko denborek kronologiako zer une zehatzi egiten dioten erreferentzia azaleratu behar da, ekintzen ezaugarri gramatikalak eta semantikoak sailkatu behar dira eta loturetan elementu parte-hartzaileen segida erabaki behar da. Erabaki horiek guztiak EusTimeML markaketa lengoaian eta etiketatze-gidalerroetan adierazi ditugu. Esaterako, “bost minutu” iraupena bost minutu adieraziko da.

Behin denbora-egiturak nola sailkatu eta normalizatu erabaki ostean, corpus etiketatuak sortu ditugu. Corpusetan albisteak eta historia testuak batu eta testuko denbora-egiturak eskuz markatu ditugu eta beren ezaugarriak gehitu dizkiegu. Horrela denbora-informazioa duen corpusa sortu dugu. Corpus hau etiketatzaileen trebakuntzarako, etiketatze-irizpideen ebaluaziorako, ikasketa automatikorako eta tresna automatikoen ebaluaziorako urre patroi gisa erabili da.

Aurretik azaldutako guztia baliatuta, denbora-informazioan gertaeren, denbora-adierazpenen eta erlazioen inguruan ari gara lanean. Denbora-adierazpenei dagokienez, erregela bidezko EusHeidelTime tresna garatu dugu. EusHeidelTimek testuko denbora-adierazpenak identifikatu eta balio normalizatuak ematen dizkie. Horretarako testuetan aurki daitezkeen denbora-adierazpenen egiturak aztertu ditugu eta egitura bakoitzarentzat erregela bat sortu. Ez dugu, ordea, adierazpen bakoitzarentzat erregela bat sortu, egituraren zatiak (urteak, hilabeteak, asteko egunak, etab.) multzokatu ditugu eta multzo horiek idatzi ditugu erregeletan.

EusHeidelTimeren erregelak eta hizkuntza baliabideak—egitura zerrendak eta bakoitzaren balio normalizatuak—sortu ostean, denbora-informazioa lantzeko sortutako corpusaren lagin bat automatikoki etiketatu dugu eta lagin hori eskuz etiketatuarekin konparatu dugu. Denbora-adierazpenen % 90 inguru antzemateko gai izan gara; aurrera egitera animatzen gaituen emaitza. Hala ere, denbora-adierazpenak ez dira denbora-informazioa adierazten duten egitura bakarrak eta gertaerak eta erlazioak automatikoki prozesatzeko lanean jarraitu behar da.

Denbora-informazioa era zabalean tratatzeko gai garenean, informazio hori kronologien sorrera automatikoan, gertaeren aurreikuspenean edo etorkizunaren iragarpenean erabili ahal izango dugu. Ondorioz, euskarazko denbora-informazioaren prozesamendua oso erabilgarria izango da etorkizun hurbilean medikuntzan, ekonomian eta beste hainbat arlotan.

Artikuluaren fitxa:
  • Aldizkaria: Ekaia
  • Zenbakia: Ekaia 30
  • Artikuluaren izena: Euskarazko denbora-informazioaren tratamendu automatikoa TimeMLren eta HeidelTimeren bidez.
  • Laburpena: Hizkuntzaren prozesamenduan (HP), denbora-informazioa beharrezkoa da testuak ulertzeko, testuko gertaerak noiz jazotzen diren edo zenbat irauten duten adierazten baitu. Artikulu honetan, euskarazko denbora-informazioaren azterketa eta prozesamendua aurkezten dira. Lehenik, denbora-egituren deskribapena egin da. Bigarren, informazio egituratua emateko markaketa-lengoaia eta horren bidez etiketatutako corpusak azaldu dira. Ondoren, etiketatzeko tresna automatikoa ere deskribatzen da eta lehen etiketatze automatikoaren saiakera bat eta horren emaitzak ere ematen dira.
  • Egileak: Begoña Altuna, Mª Jesús Aranzabe eta Arantza Díaz de Ilarraza
  • Argitaletxea: UPV/EHUko argitalpen zerbitzua
  • ISSN: 0214-9001
  • Orrialdeak: 153-165
  • DOI: 10.1387/ekaia.16362

—————————————————–
Egileaz: Begoña Altuna eta Arantza Díaz de Ilarraza UPV/EHUko Hizkuntza eta Sistema Informatikoak saileko ikertzaileak dira eta Mª Jesús Aranzabe UPV/EHUko Euskal Hizkuntza eta Komunikazioa saileko ikertzailea da.
—————————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.

The post Euskarazko denbora-informazioaren azterketa eta prozesamendua appeared first on Zientzia Kaiera.

Categories: Zientzia

Un nuevo mecanismo de resistencia antifúngico

Cuaderno de Cultura Científica - Mon, 2017/06/12 - 11:59

El grupo de investigación de la UPV/EHU Fungal and Bacterial Biomics ha demostrado la existencia de un nuevo mecanismo de resistencia que se desconocía hasta el momento en el hongo Lomentospora prolificans (L. prolificans). Este microorganismo es multirresistente a los antifúngicos (antibióticos desarrollados frente a hongos) utilizados actualmente y provoca una mortalidad de entre el 80 y el 100% en pacientes con el sistema inmunológico debilitado. Gracias al estudio se podrán diseñar fármacos más efectivos para luchar contra este hongo.

El microorganismo L. prolificans (antes conocido como Scedosporium prolificans) es un hongo filamentoso que pertenece a un grupo conocido vulgarmente como mohos, algunos de los cuales podemos observar creciendo en la comida en mal estado (fruta, pan, etc.) y que se diferencian de las levaduras unicelulares, tales como Candida albicans o Saccharomyces cerevisiae, que son relevantes en práctica clínica o en la industria alimenticia, respectivamente. El hongo L. prolificans es también común y bastante habitual en suelos de ciudades o en zonas industriales. A pesar de estar en contacto con él, no suele producir dolencias en individuos sanos, gracias al sistema inmunológico.

Sin embargo, explica Andoni Ramirez, uno de los autores del artículo, produce “infecciones muy graves” en pacientes con alguna enfermedad subyacente, como la “fibrosis quística”, o con el “sistema inmunológico debilitado”, como es el caso de pacientes que están siendo tratados con quimioterapia debido a padecer algún tipo de cáncer, pacientes en los que se ha llevado a cabo algún trasplante de órgano, o que sufren el Síndrome de la Inmunodeficiencia Adquirida (SIDA) por VIH.

Este hongo, revela la investigación, muestra una gran resistencia a los antifúngicos más habituales como el voriconazol, que es uno de los “fármacos de elección para el tratamiento” de las infecciones causadas por hongos filamentosos. “Este trabajo es muy relevante porque demuestra la existencia de un nuevo mecanismo de resistencia que se desconocía hasta el momento en hongos. Así, observamos una gran modificación de la pared celular en respuesta al antifúngico voriconazol, que es el que se utiliza preferentemente frente a este hongo y frente a otras especies fúngicas. Estas modificaciones se producen tanto en el tamaño como en la composición de su pared celular”, explica.

Este trabajo supone la primera descripción de estas respuestas como mecanismo de defensa frente a un antifúngico, abriendo un nuevo campo de posibilidades de cara al diseño de nuevas moléculas que permitirán un mejor tratamiento de ésta y otras infecciones fúngicas. “A diferencia de lo que ocurre con los agentes antibacterianos, la variedad de los compuestos antifúngicos es muy escasa, y funcionan con pocos mecanismos de acción diferentes. Así, en caso de aparición de cepas o especies resistentes, las opciones que tienen en los hospitales pueden ser a veces muy limitadas. Por tanto, el hallazgo de nuevos mecanismos de resistencia podría, en primer lugar, aumentar el número de dianas frente a las que dirigir fármacos; y en segundo lugar, explicar la resistencia tanto intrínseca como adquirida en otras especies de hongos patógenos”, advierte.

Por el momento, la investigación que está llevando a cabo el grupo de la UPV/EHU Fungal and Bacterial Biomics es básica, es decir, están generando el conocimiento necesario para que en un futuro se puedan diseñar nuevas terapias. “En este sentido, el siguiente objetivo es el de identificar los enzimas necesarios para los cambios que produce el hongo L. prolificans en su pared en respuesta al antifúngico, para así estudiarlos y generar nuevas estrategias terapéuticas”.

Aunque, hay que tener en cuenta que como en cualquier área de la biomedicina, el camino desde el laboratorio hasta el paciente es largo (de varios años) y difícil debido a la cantidad de pruebas que deben hacerse. “Además, al igual que sucede con las denominadas enfermedades raras, las infecciones causadas por este tipo de hongos tienen una baja incidencia en la población y, por tanto, a pesar de la elevada mortalidad que presentan, resulta difícil que haya agentes interesados en invertir en su investigación. Por ello, el avance siempre resulta más dificultoso y lento”, señala Ramírez.

Referencia:

Aize Pellon, Andoni Ramirez-Garcia, Idoia Buldain, Aitziber Antoran, Aitor Rementeria, Fernando L. Hernando.. Molecular and cellular responses of the pathogenic fungus Lomentospora prolificans to the antifungal drug voriconazole. PLOS ONE 12(3): e0174885. DOI: 10.1371/journal.pone.0174885.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Un nuevo mecanismo de resistencia antifúngico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una nueva vía para la lucha contra la resistencia a los antibióticos
  2. La catálisis geométrica como mecanismo de fisión celular
  3. El mecanismo que bloquea receptores de membrana celular
Categories: Zientzia

Lehenengo aleazio superelastiko nanometrikoa

Zientzia Kaiera - Mon, 2017/06/12 - 09:00
Lehen aldiz, superelastikotasuna dimentsio mikrometriko eta nanometrikoan aztertu du UPV/EHUko ikerketa talde batek.

Deformatu ostean jatorrizko egoerara bueltatzeko gaitasuna da elastikotasuna; asko deformatzeko gaitasuna duten materialen propietate fisikoa da superelastikotasuna. Guztiz demostratuta dago superelastikotasuna material makroskopikoetan; lehen aldia da, baina, eskala mikrometriko eta nanometrikoan aztertzen dela.

Superelastikotasunaren froga nahiko sinplea da: haga zuzen bati tentsio bat aplikatzen zaio, U itxura har badezake eta, tentsioa kentzean, hagak erabat berreskuratzen badu hasierako forma positiboa da emaitza.

1. irudia: Superelastikotasunaren froga. (Ziortza Guezuragak egina Fongsen irudian oinarritua).

Superelastikotasunaren tentsio kritikoarekin lotutako propietateak nabarmen aldatzen direla mikrometro batetik beherako diametroetan jakin da ikerketari esker. Cu-14Al-4Ni aleazioa erabili dute, memoria-forma eta giro-tenperaturan superelastikotasuna ageri duen aleazioa da.

Aleazio zutabeak dimentsio nanometrikoetaraino zizelkatuta aztertu dituzte eskala nanometrikoan superelastikotasuna. Hala, mikrometro bateko diametrotik behera materialak portaera desberdina duela eta askoz ere tentsio handiagoa aplikatu behar zaiola deformatu ahal izateko baieztatu dute. Aleazioak superelastikotasuna izaten jarraitzen du, baina tentsio handiagoetan.

Metodologia

Focused Ion Beam izeneko ioi kanoia erabili dute materia eskala nanometrikoraino zizelkatzeko, aleazioaren mikro eta nanozutabeak (2 µm eta 260 nm bitartekoak) eraikitzeko. Zutabe horiei tentsioa aplikatu zaie indar txiki-txikiak aplikatzea baimentzen duen nanoindentazio (materialen gogortasuna neurtzeko teknika) bidez, horrela, materialaren portaera neurtu eta aztertu dute.

Aurkitutako portaera superelastikoak bide berriak zabaltzen dizkie elektronika malguko mikrosistemen eta giza gorputzean jar daitezkeen mikrosistemen aplikazioei. Elektronika malgua erabilia da jantzietan, kirol-oinetakoetan eta hainbat pantailatan, besteren artean. Gorputzean erabil daitezkeen mikrosistemei dagokienez, gailu adimendun mediko-sanitarioetan garrantzi handia izan dezake, Lab on a chip moduko gaileuetan. Mikroponpa edo mikroeragingailu txikiak eraiki ahal izango dira, askotariko tratamendu medikoetarako giza gorputzaren barnean substantzia bat askatu eta erregulatu ahal izateko.

Erreferentzia bibliografikoa

Jose F. Gómez-Cortés, Maria L. Nó, Iñaki López-Ferreño, Jesús Hernández-Saz, Sergio I. Molina, Andrey Chuvilin and Jose M. San Juan. Size effect and scaling power-law for superelasticity in shape-memory alloys at the nanoscale. Nature Nanotechnology. May 2017. DOI: 10.1038/nnano.2017.91.

Iturria: Dimentsio nanometrikoko lehenengo aleazio superelastikoa garatu du UPV/EHUk

The post Lehenengo aleazio superelastiko nanometrikoa appeared first on Zientzia Kaiera.

Categories: Zientzia

Migraciones

Cuaderno de Cultura Científica - Sun, 2017/06/11 - 11:59

Los seres humanos modernos aparecieron en el este de África hace unos 200.000 años. Hace 75.000 alcanzaron el Oeste del continente. Aunque hubo otros movimientos anteriores hacia Oriente Próximo, hasta hace unos 60.000 no salieron del continente africano para, poco a poco, extenderse hacia otras zonas del planeta. Hace 46.000 años llegaron a Australia y 2.000 después, a Europa. Hace 16.000 años llegaron al continente americano. Hace 11.000 los asentados en el continente europeo avanzaron hacia el Norte el retirarse los hielos de la última glaciación. Y 3.000 después llegaron a nuestro continente los primeros pueblos de agricultores y ganaderos. Hace 1.500 años los seres humanos empezaron a poblar la Polinesia. La mayor parte de esas expansiones eran, seguramente, de carácter “démico”; esto es, fueron ocupaciones graduales de territorios vecinos que iban siendo colonizados poco a poco.

Hace 6.000 años, en Sumeria, las ciudades se convirtieron en los primeros focos de atracción de emigrantes procedentes de localidades de menor tamaño o asentamientos rurales. Y ese proceso impulsó innovaciones culturales, incluidas las tecnológicas. Hace 4.500 años los pastores yamnaya invadieron Europa procedentes de las estepas de Eurasia, y los hunos hicieron lo propio hace unos 1.650, provocando el desplazamiento de pueblos germánicos hacia el interior del Imperio Romano.

Hace unos 1.570 años, anglos y sajones procedentes del norte de Europa colonizaron Gran Bretaña. Los vikingos, 350 años después, siguieron el mismo camino, y en el 980 de nuestra era, viajaron a Islandia, Groenlandia y Terranova. Antes, los árabes ya se habían expandido por Asia Occidental y Norte de África a partir del 632. Y hace ocho siglos los mongoles ocuparon gran parte de Asia.

En 1492 Colón llegó a las Américas, propiciando a partir de esa fecha grandes movimientos migratorios hacia ese continente. En 1520, barcos europeos empezaron a llevar a América esclavos capturados en el África Occidental. En 1820, cuando todavía no se habían producido las migraciones masivas que vendrían más adelante, ya vivían en América 2,6 millones de personas de origen europeo. En 1847, millón y medio de irlandeses huyeron de la hambruna en dirección a Gran Bretaña y Norteamérica. En 1913 la emigración europea hacia las Américas alcanzó su máximo histórico: ese año se desplazaron algo más de dos millones de personas. La revolución bolchevique de 1917 provocó el desplazamiento de más de un millón de seres humanos hacia Europa Occidental. Y en 1945 la Segunda Guerra Mundial desplazó a 30 millones de personas. En 1947 se movieron entre India y Paquistán 18 millones, como consecuencia de la partición india de acuerdo con criterios étnico-religiosos.

Hasta aquí hemos relatado los grandes movimientos de población que se han producido en la historia de la humanidad y de los que tenemos información precisa o, al menos, constancia. Pero, como es sabido, los desplazamientos siguen produciéndose a gran escala. En la actualidad, alrededor de 245 millones de personas viven en países distintos de los que nacieron y, de esos, más de 65 millones han tenido que abandonar su país huyendo de conflictos, violencia o vulneraciones de derechos humanos. Parte de los emigrantes -menos del 10%- son refugiados. El Alto Comisionado de Naciones Unidas para los Refugiados (ACNUR) informa de la existencia de 16,1 millones de personas bajo su jurisdicción, a los que hay que añadir otros 5,2 millones que están al amparo de la Agencia de Naciones Unidas para los Palestinos. En total son más de 21 millones.

Las personas no han dejado de moverse en el Mundo y siempre lo ha hecho por las mismas razones: huyen de la violencia y la persecución o, sencillamente, buscan una vida mejor.

Nota: Las fechas consignadas en el primer párrafo de esta anotación tienen carácter tentativo, por lo que no han de tomarse como definitivas. Cada cierto tiempo se hacen propuestas diferentes para las expansiones. El origen de la especie también está sometido a revisión; esta misma semana Nature ha publicado el hallazgo de fósiles que podrían modificar tanto el origen geográfico como temporal de nuestra especie. La paleoantropología no deja de dar sorpresas.

—————————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Una versión anterior de este artículo fue publicada en el diario Deia el 26 de marzo de 2017.

El artículo Migraciones se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Migraciones…¿vegetales?
  2. Migraciones épicas
  3. Legumbres
Categories: Zientzia

Asteon zientzia begi-bistan #158

Zientzia Kaiera - Sun, 2017/06/11 - 09:00
Uxue Razkin

Paleontologia

Asteko berria (eta baliteke urtekoa izatea) dakargu igandean ontzen dugun gehigarri honi hasiera emateko: 300.000 urteko Homo sapiens-en fosilak aurkitu dituzte Marokon. Gure espeziea duela 200.000 urte inguru sortu zela uste izan dute orain arte. Orain, aurreko hipotesia iraultzen duen bi ikerketa gauzatu dira. Elhuyarrek azaltzen digu: Jebel Irhoud aztarnategian (Maroko) aurkitutako fosil batzuetan oinarritzen dira ikerketak. Adituen ustez, Homo sapiens espeziaren sorlekua ez legoke Afrikako ekialdean, baizik eta iparraldean. Handik hedatuko zen kontinente osora, lehenik, eta gero Europa aldera (Out of Afrika edo Afrikatik kanpora hipotesia). Max Planck Institutuko Antropologia Ebolutiboko ikertzaileek gidatu dituzte ikerketok eta, datazioaz gain, gure espeziearen eboluzioari buruzko zantzuak ere eman dituzte.

Sustatuk eman du horren berri ere. Ikertzaile guztiak ez dira hipotesi berri honen alde agertu. John Hawks paleoantropologoak, besteak beste, Homo Naledi espezia aurkitu zuen taldeko ikertzaileak, artikulu eszeptiko bat idatzi du: bere ustez, “aurpegi modernoa” izate hutsagatik, Atapuercan aurkitutako Homo Antecessor ere izenda zitekeen Sapiens-aren “aldagai” bezala, eta hori ez da posible (1.2 eta 0.8 milioi arteko Europako espezie bat da Antecessor hau, agian Neandertalen arbasoa, ez ordea gu Sapiens-tarrona.) Halaber, astean agertu den beste azterketa –Hego Afrikako zenbait giza-genoma zahar eta berriren konparaketa– baten berri eman du.

Neurozientzia

Badira monogamoak diren animaliak eta ikerketa batek horiek hartu ditu hizpide. Zehazki, Ipar Amerikako lursagua hartu dute aintzat Emory Unibertsitateko (Atlanta, Georgia, AEB) ikertzaile batzuek, “maitasunaren kode neurala” argitzeko. Hau da, bikotekide leiala bilatu eta aurkitzeko prozesu horretan, animalion garunean zer gertatzen den aztertu dute. Zunda elektrikoak baliatuta, lursagu emeen garuneko bi erregio –kortex prefrontal mediala (erabakiak hartzearekin zerikusia duen atala) eta accumbens nukleoa (sari sistema, plazera…)– arteko komunikazio neurala grabatu eta entzun zuten ikertzaileek, arrekin hartu-emanetan zeuden bitartean. Jarraian, ikertzaileek artifizialki aktibatu zuten garuneko bi erregioen arteko zirkuitu neurala. Horren ondorioz, ar horrekin bizi arteko harreman sendoa izango balu bezala hasi zen jokatzen emea.

Medikuntza eta osasuna

Min kronikoa tratatzeko garrantzitsua izan daiteke neuronen barrura iristea. Nazioarteko ikertzaile-talde batek arratoiekin egindako esperimentu batzuetan ikusi duenez, neuronen azaleko minaren hartzaile batzuek zelularen barnealdera migratzen dute eta ohiko botikak ez dira gai horraino iristeko. NK1R izeneko hartzaileek lotura dute min kronikoarekin; horiek aktibatzean, hantura eta mina eragiten baitute. Hartzaile horiek blokeatzen dituzten konposatuei lipido bat erantsi diete, zelularen mintza zeharkatu ahal izan dezaten, eta ikusi dute horrela mina kentzea lortzen dela.

Medikuntza arloan badugu beste albiste bat. Gelatinazko matrizea garatu du UPV/EHUko NanoBioCel taldeak, hezurren osatze prozesuan euskarri fisiko funtzioa izateaz gain, hazkuntza-faktoreak askatzeko aukera ematen duena, gorputzak modu naturalean egiten duenari jarraiki. Biodegradagarria izateaz gain, gorputzak errefusatzeko oso arrisku baxua du. Artikulu osoa irakurtzea gomendatzen dizuegu.

Xiringei beldurra diotenek pozarren hartuko dute albiste hau. Izan ere, azken urteotan odola biltzeko teknika berri bat garatzen ari da: Odol Tanta Lehorra. Zer da? Kotoiaz egindako txartel batean odol tanta batzuk ipintzen dira, horretarako gorputzeko edozein tokitan (atzamarra, orpoa edo belarria) orratz batekin ziztada bat eginez. Odola lehortu denean txartel hauek oso erraz gorde daitezke eta edonora eraman. Gero, laborategian odola duen paper zati bat zulatzen da, odola erauzten da eta interesatzen zaigun metabolitoa edo droga analiza daiteke. Baina zergatik ez du azken honek baztertu guztiz xiringa bidezko odol ateratzea? Teknika “berria” 1963. urtean erabiltzen hasi zen eta oraindik gutxik izan dute ospitaletan ikusteko aukera. Arrazoi nagusietariko bat analisiak burutzeko behar diren metodo analitikoen mugak izan dira.

Felipe Aizpuru, Osakidetzako Arabako ikerketa unitateko burua elkarrizketatu du Berriak. Bihotz gutxiegitasunaren bilakaera iragarri ahal izateko ikerketa lanetan ari da. 2011. urtetik, gaitz hori duten 13.000 lagunen datuak aztertu dituzte. Big data osasungintzan “aukera” bat dela dio, baina ez du gizateria salbatuko. Zuzentzen ari den ikerketa lanak badu helburu jakin bat, Azipuruk azalduta: “Etorkizunean aurreikuspenak egiteko modeloak landu nahi ditugu. Alegia, medikuek edo erizainek gaixoaren bilakaera zein izango den iragar dezaten. Bestalde, kasuen artean konparazioak egin nahi ditugu, ondorioak ateratzeko”.

Astrofisika

Albert Einsteinek erlatibitatearen teoria orokorra landu zuzenean, aurreikusi zuen argia kurbatu egiten dela masa baten eraginez. Fenomeno horren froga esperimentala lortu dute oraingoan Estatu Batuetako Space Telescope Science Instituteko ikertzaileek. Ez da argiaren desbiazio hori esperimentalki frogatzen den aurreneko aldia, baina. Jada 1919ko eguzki-eklipse batean ikusi zuten. Eguzkiaren atzean zegoen izar bat desplazatuta azaltzen zela ikusi zuten, Eguzkiaren beraren presentziagatik. Orain fenomeno hori Eguzkia ez den beste izar batekin frogatu ahal izan da. Esperimentu horren nondik norakoa ezagutzeko, jo ezazue Einsteinek ezinezkotzat jo zuena lortu zuen artikulura.

KIC 8462852 izarra dugu protagonista albiste honetan. Lurretik 1.300 bat argi-urtera dago eta Tabbyren izarraz ezagutzen da. Portaera bitxia du: izugarrizko iluntzeak gertatzen dira han, baina zientzialariek ez dakite zergatik. Izan ere, distira aldaketa horiek ez dute jarraitzen inolako eredu ezagunik. Marian Martinez, Kanariar Uharteetako (Espainia) Astrofisika Institutuko ikertzaileak dio: “ikertzen ari garen guztiok ez dakigu oso ondo zehazki zeren bila ari garen”. Martinezek azaltzen du orain arte irakurri duen “azalpenik zentzuzkoena” dela honakoa: asteroidez inguratuta dagoen planeta erraldoi batek sortzen dituela iluntzeak.

Nanoteknologia

Material superelastikoak gai dira % 10 deformatu eta atzera jatorrizko itxura hartzeko. Ezaugarri hori ezaguna da eskala makroskopikoan; orain, kobre-aluminio-nikel aleazio bateko gailu oso txikiak ere ezaugarri izan dezaketela frogatu dute EHUko Materia Kondentsatuaren Fisika Saileko eta Fisika Aplikatua II Saileko ikertzaileek. Ikerketa honek aplikazio interesgarriak ekar ditzake, hala nola jantzietan, pantailetan eta abar, eta haientzat osagaiak sortzeko baliagarria izan daiteke, baita osasun-arloan ere, organismo barruan txertatuko liratekeen txipak egiteko, adibidez.

Geodinamika

Lurralde igneo erraldoiak “bolkanismo anomaloaren” egitura adierazgarrienak dira. “Bolkanismo anomalotzat” jotzen da plaken arteko mugetatik urrun gertatzen dena. LIPek zuten ezaugarrietako bat da geologian laburtzat hartzen den epean azaltzen direla, eta onartu ohi da 1 ma baino arinago garatzen direla. Horren epe laburrean horrenbeste arroka igneo azaleratzen delarik, atmosferara gas kantitate izugarriak igortzen dira. Ondorioz, eragina dute bai Lurreko batezbesteko tenperaturan, bai klimatologian, bai eta ozeanoetako baldintzetan, eta zenbait suntsipen biologiko orokor sustatu dituzte. Mendearen hasieran eztabaida sutsua izan zen LIPen jatorria azaltzeko. Bi hipotesi gailendu ziren: batak mantuko luma gorakorren jarduera (lumen eredua) erabiltzen du eragile gisa, eta besteak, kontinenteko litosferaren lodiera-ezberdintasunetan sortutako, tokian tokiko, konbekzio-korronteak eta mantuaren heterogeneotasuna (plaken eredua). Egindako azken ikerketek indartu egin dute luma gorakorraren eredua.

Biologia

Kolibriak hegazti txikienak dira eta nektarra da haien janari nagusia. 12 ordutan zurrupatu behar duten ur kantitatea haien masaren halako 5 baino gehiago da. Ur gehiegi edaten duten animalietan hiperhidratazioa gerta daiteke. Naturan animalia gutxi egon daitezke hori pairatzeko arriskuan. Artikuluaren egileek adibide batzuk aipatu dituzte: anfibioak egon litezke egoera horretan, larruazal iragazkorra dutelako, baina gernu-bolumen handiak ekoitziz konpontzen dute arazoa; anfibioen gernua, bestalde, oso diluitua da, kasik ez du gatzik, haien giltzurruna oso eraginkorra baita gernutik gatzak berreskuratzen. Kolibriek badute urarekin arazoa. Zurrupaturiko uraren % 80 xurgatzen dute kolibriek eta, beraz, giltzurrunak kanporatu behar du ur gehiena. Bada, giltzurrunak mugak ditu. Litekeena da kolibriak toki beroetan bizitzera behartuta egotea. Toki hotzetan animalia homeotermoek bero gehiago galtzen dute eta, ondorioz, toki hotzetan beroetan baino gehiago jan behar dute. Baina kolibriek nekez jan lezakete jaten dutena baino gehiago, giltzurrunak askoz ere ur gehiago prozesatu beharko bailuke orduan.

———————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.

———————————————————————–

Egileaz: Uxue Razkin Deiako kazetaria da.

———————————————————————–

The post Asteon zientzia begi-bistan #158 appeared first on Zientzia Kaiera.

Categories: Zientzia

Arte & Ciencia: Conservación de obras con componentes tecnológicos

Cuaderno de Cultura Científica - Sat, 2017/06/10 - 11:59

El arte y la ciencia son dos formas de conocimiento aparentemente alejadas, en gran medida consecuencia de la especialización profesional y la educación compartimentada. Del estudio de esta impostada separación surgió el estereotipo de las dos culturas, las ciencias y las humanidades, para referirnos a esa brecha de conocimiento. La realidad es que la ciencia y el arte sí están conectadas y que ninguna forma de conocimiento es impermeable a otra. Por poner algunos ejemplos: ¿Cómo podría crearse una obra plástica sin las técnicas propiciadas por la ciencia? ¿Cómo podríamos interpretar la elección de materiales?

Estas y otras cuestiones relacionadas furon tratadas por destacados profesionales -artistas, ilustradores, filósofos y científicos- que han puesto el foco en ese difuso trazo que une la ciencia y el arte. El ciclo Ciencia & Arte se desarrolló, bajo la dirección de Deborah García Bello, a lo largo de cuatro jornadas que se celebraron los jueves días 6 y 27 de abril y 11 y 25 de mayo de 2017 en el auditorio del Museo Guggeheim Bilbao.

Esta actividad de la Cátedra de Cultura Científica de la UPV/EHU se enmarca en el programa TopARTE que conmemora el XX Aniversario del Museo Guggenheim Bilbao.

Primera jornada. 2ª conferencia.

Aitziber Velasco, técnica de Conservación del Museo Guggenheim Bilbao: Conservación de obras con componentes tecnológicos

Las ciencias experimentales juegan un papel esencial en el análisis, tratamiento y conservación de las obras de arte. Estos procesos nos ofrecen, además, información valiosa sobre el contenido de la obra y las circunstancias en las que fue creada. Ciencia y arte tienen una relación mucho más íntima de lo que imaginamos, ya que el conocimiento científico es una herramienta imprescindible para artistas, restauradores y analistas. Les permite conocer las cualidades de los materiales para optar por unos u otros, prever cómo se degradarán los pigmentos o determinar la mejor manera para conservar una escultura.

Conservación de obras con componentes tecnológicos

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Arte & Ciencia: Conservación de obras con componentes tecnológicos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Arte & Ciencia: La importancia de la ciencia para la conservación del arte
  2. Ciencia, naturaleza y arte: la química y sus metáforas, por Fernando Cossío
  3. Curso de verano “La ciencia de nuestras vidas”: Arte, literatura y ciencia, por Gustavo A. Schwartz
Categories: Zientzia

Ezjakintasunaren kartografia #163

Zientzia Kaiera - Sat, 2017/06/10 - 09:00

Zelan eragiten du gure garunaren entrenamenduak berorrek esan diezaion gure buruari zer gogoratu? Ignacio Amigok ematen dizkigu azalpenak Learning to remember artikuluan.

Erabili daiteke LSD bezalako droga bat autismoa tratatzeko? José Ramón Alonsok garatzen du gaia: LSD as a therapeutic agent for autism.

Elektronika elektroien kargan oinarritzen da, spintronika haren spinean, eta “harantronika” (valleytronics)? Gure zalantza argitzen dute DIPCko ikertzaileek: A link between straintronics and valleytronics in graphene.

–—–

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #163 appeared first on Zientzia Kaiera.

Categories: Zientzia

La carrera hacia la supremacía cuántica

Cuaderno de Cultura Científica - Fri, 2017/06/09 - 12:00

Ordenador IBM Q de 17 cúbits superconductores. Fuente: IBM.

Dos grandes empresas, IBM y Google, compiten entre sí por alcanzar la supremacía cuántica: fabricar un ordenador cuántico capaz de resolver un problema que ningún ordenador clásico del mundo haya sido capaz de resolver hasta ese día. Parece difícil, ya que los superordenadores más poderosos del mundo, que lideran el TOP500, son muy poderosos. Sin embargo, se estima que un ordenador cuántico de propósito general totalmente funcional sería capaz de tal hazaña con tan solo 50 cúbits. Como puedes imaginar, lograr la supremacía cuántica será el final de una carrera y el inicio de otra, la carrera hacia los ordenadores cuánticos comerciales. Permíteme glosar la situación actual de esta carrera entre gigantes.

El término «supremacía cuántica» fue acuñado por el físico John Preskill, que ocupa la cátedra Richard P. Feynman de Física Teórica en el Instituto Técnico de California (Caltech). Lo acuñó en octubre del año 2011 para su charla en la 25º Conferencia Solvay de Física [1]. Un término muy popular hoy en día, aunque resulta políticamente incorrecto para cierta gente [2]. El problema lingüístico es sencillo, en inglés recuerda demasiado al término «supremacía blanca», que se usó durante el apartheid de Sudáfrica entre 1948 y 1991. Para un hispanoparlante, quizás, la asociación con la segregación racial no sea tan obvia. Aun así, el propio Preskill tuvo sus propias dudas al respecto como nos contó en su blog Quantum Frontiers [3]; allí retó a sus lectores a proponer una alternativa; nadie propuso ninguna mejor.

Llamamos «cúbit» (qubit en inglés) a un «dígito binario cuántico» (quantum binary digit), o sea, a un «bit cuántico» (quantum bit). Este término matemático fue acuñado en el año 1993 por el físico Ben Schumacher, del Kenyon College, Ohio (EE.UU.), tras una conversación con uno de los padres de la teoría cuántica de la información, el físico teórico Bill K. Wootters, del Williams College, Massachusetts (EE.UU.) [4]. El concepto matemático de cúbit se puede implementar físicamente mediante cualquier sistema cuántico que presente dos niveles, o estados energéticos, que puedan estar en superposición cuántica. A veces conviene diferenciar entre «cúbit matemático» y «cúbit físico», pero en la práctica el contexto suele aclarar en qué sentido se está usando.

El primer artículo en el que se escribió el término «cúbit» se envió en 1993 a una revista de física, Physical Review A, aunque apareció en abril de 1995 [4]. Un segundo artículo del propio Schumacher, junto al matemático Richard Jozsa, de la Universidad de Cambridge (Reino Unido), que fue enviado más tarde en 1993 a una revista de óptica, acabó apareciendo publicado un poco antes, en 1994 [6]. En poco tiempo el término se hizo muy popular.

Los ordenadores cuánticos se caracterizan por su número total de cúbits, lo que en un ordenador clásico sería equivalente, más o menos, al número total de transistores de su microprocesador. En los ordenadores clásicos el número de bits se usar para otra cosa, el tamaño del bus de datos, es decir, el número de bits que puede recibir o enviar de forma simultánea desde la placa base al microprocesador. Hoy en día lo habitual es que un ordenador use un microprocesador de Intel de 64-bits (un Core i3, Core i5, o Core i7), que tiene unos cientos de millones de transistores. Sin embargo, el primer microprocesador de Intel era de 4-bits, el famoso Intel 4004, que tenía 2300 transistores; luego aparecieron los procesadores de 8-bits, como el 8080, con 4500 transistores; más tarde los de 16-bits, como el famoso 8086, con 29000 transistores; y así sucesivamente.

Un ordenador cuántico con 50 cúbits sería algo así como un ordenador clásico con una memoria capaz de almacenar 50 bits (el equivalente a siete letras de texto en formato ASCII); parece un número ridículamente pequeño, sobre todo hoy en día que los ordenadores tienen gigabytes de memoria; pero la magia cuántica oculta un as bajo la manga, el paralelismo cuántico. En cada paso de la ejecución de cierto algoritmo, el ordenador clásico aplica una operación matemática al contenido almacenado en su memoria clásica de 50 bits, llamada registro, es decir, a un valor numérico concreto de entre 250 posibles valores (uno entre unos mil billones).

Sin embargo, en el ordenador cuántico la información se almacena en un registro cuántico, que para 50 cúbits almacena un estado en superposición cuántica de todos los 250 posibles valores, cada uno con su correspondiente amplitud de probabilidad; gracias a ello, en cada paso de la ejecución del algoritmo cuántico se aplica una operación matemática que cambia de forma simultánea las 250 amplitudes de probabilidad correspondientes a cada uno de los 250 valores en superposición cuántica. Si este proceso se realiza de forma adecuada, el ordenador cuántico puede ser mucho más eficiente que un ordenador clásico; más aún, la simulación en un ordenador clásico del funcionamiento de un ordenador cuántico requerirá usar 250 registros clásicos, o aplicar 250 operaciones sobre un único registro clásico. Aunque estoy obviamente muchas sutilezas técnicas, salta a la vista que un ordenador cuántico con decenas de cúbits puede lograr la supremacía cuántica.

El gran problema de la fabricación de un ordenador cuántico es que no basta tener unos cuantos cúbits físicos para tener un registro cuántico en el que adquieran un estado de superposición cuántica coherente. Además, hay que garantizar que la coherencia cuántica no se pierda durante la aplicación de todas y cada una de las operaciones cuánticas aplicadas a los cúbits del registro cuántico. Cualquier interacción de alguno de los cúbits con su entorno (el sitio donde se encuentre cada cúbit físico) puede resultar en una medida no intencionada de su estado cuántico; la medida destruye (al menos parcialmente) el estado cuántico en superposición y entra en acción la decoherencia cuántica, con lo que el sistema de cúbits pasa a comportarse como un ordenador clásico (probabilístico). Con la tecnología actual aislar 50 cúbits del resto del universo y al mismo tiempo poder operar de forma arbitraria con cualquiera de ellos raya lo imposible. Por eso la carrera hacia la supremacía cuántica está repleta de obstáculos, incluso para gigantes como IBM y Google.

El concepto de supremacía cuántica es relevante en computación cuántica porque, en la práctica, es el único método para asegurarnos de que un supuesto ordenador cuántico con muchos cúbits es realmente un ordenador cuántico. Parece un juego de palabras, pero la diferencia entre un ordenador cuántico y un ordenador clásico probabilístico que usa cúbits como fuente de aleatoriedad es sutil; la eficiencia cuántica requiere que el ordenador sea cuántico de verdad. Con pocos cúbits se puede realizar un estudio experimental sistemático para verificar que el ordenador cuántico se comporta como tal. Pero con decenas de cúbits dicho estudio experimental es inviable.

Por todo ello, la mejor manera de confirmar que un supuesto ordenador cuántico con 50 cúbits es realmente un ordenador cuántico consiste en ejecutar en él un algoritmo que resuelva un problema cuya solución es imposible de lograr con el más potente de los superordenadores clásicos actuales; lo ideal sería que, por supuesto, el problema sea tal que sea fácil comprobar que la solución ofrecida es correcta. Hay muchos problemas así, pero es muy costoso poner a un equipo de investigadores a desarrollar programas y más programas para ejecutar en dicho ordenador esperando, no sin cierta fe, a que alguno demuestre la supremacía cuántica. Aquí es donde entra con pie firme la iniciativa de IBM llamada Quantum Experience [7].

El gigante azul ofreció en el verano de 2016 el acceso gratuito y automático a un ordenador cuántico de 5 cúbits mediante un servicio en la nube (cloud). La iniciativa ha sido todo un éxito y se estima que unos 40000 usuarios de más de 100 países han desarrollado más de 275000 algoritmos cuánticos para dicho ordenador en solo un año; la corrección de los programas se verifica en un simulador clásico, para luego ser ejecutados en la máquina física IBM Q [8]. Gracias a esta ingente cantidad de experimentos se puede validar estadísticamente que este ordenador IBM Q de 5 cúbits se comporta como debe hacerlo un ordenador cuántico de propósito general.

Validar de forma experimental que un ordenador cuántico de 16 cúbits es realmente cuántico, si bien no es imposible, requiere un coste muy elevado en tiempo y recursos. Por ello, desde marzo de 2017, la IBM Q Experience ofrece el acceso gratuito a un supuesto ordenador cuántico de 16 cúbits que usa la misma tecnología que el ordenador anterior de 5 cúbits [7]. Para este nuevo ordenador no existe un simulador clásico eficiente, aunque existe un verificador de la sintaxis del código. Un usuario solo sabrá si su algoritmo funciona correctamente tras ejecutarlo físicamente en la máquina IBM Q. Se espera que gran parte de los usuarios que ya han disfrutado de la experiencia con 5 cúbits se atrevan con la nueva máquina de 16 cúbits. Si toda va bien, dentro de un año habrá un número suficiente de experimentos como para que se pueda verificar de forma estadística que la máquina de 16 cúbits se comporta como debe hacerlo un ordenador cuántico.

Dra. Katie Pooley junto al cilindro del contiene el sistema criogénico que contiene en su interior el ordenador IBM Q de 17 cúbits en el Centro de Investigación Thomas J. Watson de IBM. Fuente: Carl de Torres para IBM.

Permíteme enfatizar la idea del gigante azul: decenas de miles de usuarios trabajarán gratis para IBM demostrando que su máquina funciona. ¡Qué más se puede pedir! Por supuesto, mantener una máquina cuántica de 16 cúbits en funcionamiento continuo en un laboratorio tiene un coste. Por ello, las grandes mentes pensantes de IBM Q han tenido otra idea feliz, que anunciaron el pasado 17 de mayo de 2017 [7]. Su máquina de 16 cúbits tiene 17 cúbits. ¡¿Cómo?! La experiencia IBM Q ofrece acceso gratuito a 16 cúbits, ni uno más; quien quiera usar los 17 cúbits tendrá que pagar por ello. Todas las empresas, industrias, institutos de investigación y demás entes interesados en usar la máquina de 17 cúbits podrán aprender a usarla de forma gratuita, con 16 cúbits, pero para usar la máquina fetén tendrán que abonar por ello. Sin lugar a dudas el gigante azul es gigante por algo.

Seguro que te preguntas, si nadie sabe con seguridad si el ordenador IBM Q de 17 cúbits es realmente cuántico, ¿quién va a pagar por usarlo? Yo no tengo la respuesta. Lo cierto es que lo único importante para IBM Q es que la máquina de 16 cúbits sea tan usada, o más, de lo que ha sido usada la máquina de 5 cúbits en el último año. Así podrá verificar que su tecnología funciona.

El objetivo de IBM Q es fabricar un ordenador cuántico de 50 cúbits antes de 2022 capaz de lograr la supremacía cuántica. Para este proyecto lo ideal es disponer de cientos de miles de algoritmos cuánticos ya implementados y de decenas de miles de programadores cuánticos experimentados en su tecnología. Quizás alguno de esos algoritmos, implementado en 50 cúbits, sea el que logre la supremacía cuántica para IBM. Quizás en los próximos años IBM abra una competición entre sus usuarios con un buen premio en metálico para el primero que logre demostrar la supremacía. Quizás el gigante azul venza en la carrera de la supremacía cuántica contra Google gracias a esos miles de programadores que están trabajando gratis por el mero placer de usar un ordenador cuántico.

Por cierto, Google afirma tener un ordenador cuántico de 8 cúbits, pero no ha demostrado aún que sea cuántico. Ha anunciado que pretende fabricar uno de 50 cúbits antes que IBM [8]. ¿Pero quién programará dicha máquina? ¿Quién trabajará gratis para Google?

Este post ha sido realizado por Francis Villatoro (@Emulenews) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias

[1] John Preskill, “Quantum computing and the entanglement frontier,” 25th Solvay Conference on Physics (“The Theory of the Quantum World”), 19-22 Oct 2011, arXiv:1203.5813 [quant-ph].

[2] Karoline Wiesner, “The careless use of language in quantum information,” arXiv:1705.06768 [physics.soc-ph].

[3] John Preskill, “Supremacy Now?” Quantum Frontiers, 22 Jul 2012. https://goo.gl/KdnD3j

[4] John Preskill, “Who named the qubit?” Quantum Frontiers, 09 Jun 2015. https://goo.gl/EwFDyR

[5] Benjamin Schumacher, “Quantum coding,” Physical Review A 51: 2738 (1995), doi: 10.1103/PhysRevA.51.2738.

[6] Richard Jozsa, Benjamin Schumacher, “A New Proof of the Quantum Noiseless Coding Theorem,” Journal of Modern Optics 41: 2343-2349 (1994), doi: 10.1080/09500349414552191.

[7] IBM Q Experience: https://www.research.ibm.com/ibm-q/

[8] Davide Castelvecchi, “IBM’s quantum cloud computer goes commercial,” Nature 543: 159 (09 Mar 2017), doi: 10.1038/nature.2017.21585.

El artículo La carrera hacia la supremacía cuántica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una puerta cuántica robusta y ultrarrápida
  2. Cuántica y relatividad por todas partes
  3. Digitalización universal de la computación cuántica analógica en un chip superconductor
Categories: Zientzia

Olaia Martinez: “Elikagaien segurtasun alerten %40a etxeko praktika desegokiak dira” #Zientzialari (74)

Zientzia Kaiera - Fri, 2017/06/09 - 09:00

Aurreko mendearen azken hamarkadetan izandako behi eroen gaitzaren edota koltza olioaren krisien ondorioz, kontsumorako elikagaien segurtasuna bermatzeko kontrolak areagotu egin dira azken urteetan. Hala ere, gaur egun oraindik badira esparru honetan aurre egin beharreko mehatxuak, denon ahotan dabilen palma olioaren auzia esate baterako. Baina badakigu zehatz mehatz arriskuak zeintzuk diren? Zein kontrol egiten zaizkie gure etxeetara iristen diren elikagaiei? Nola areagotu genezake jaten ditugun produktuen segurtasuna?

Galdera hauei erantzuteko Olaia Martinez, UPV/EHUko Elikagaien segurtasun eta kalitateko irakaslearekin izan gara. Bere esanetan, kontsumitzaileak berak ere erantzukizun handia dauka, izan ere, urtero gertatzen diren alerta kasuen %40a etxeko praktika desegokien ondorioz izaten da.

Zientzialari‘ izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.

The post Olaia Martinez: “Elikagaien segurtasun alerten %40a etxeko praktika desegokiak dira” #Zientzialari (74) appeared first on Zientzia Kaiera.

Categories: Zientzia

La evaluación mejora el aprendizaje

Cuaderno de Cultura Científica - Thu, 2017/06/08 - 17:00

Marta Ferrero

En el ámbito escolar la evaluación se suele asociar con el proceso de examinar y poner nota a los conocimientos de los estudiantes. Quizá por eso despierta tanto recelo entre muchos alumnos, familias e incluso docentes, hasta el punto de que no son pocas las voces que abogan por desterrarla definitivamente de los centros escolares. Lo que muchos desconocen es que, además de ser un medio para comprobar lo aprendido, la evaluación es un potente medio para aprender.

A mediados de la década de los 70, una revisión de la literatura puso de relieve que el acto de recuperar la información almacenada en la memoria favorece su aprendizaje (Bjork, 1975). Desde entonces, el efecto de la evaluación (o “testing effect” en inglés) ha sido objeto de estudio en innumerables ocasiones y la evidencia recogida hasta el momento apunta de forma consistente en la misma dirección: evaluar a los alumnos propicia un mejor aprendizaje y recuerdo posterior de lo aprendido que otras técnicas de estudio más populares (Adesope y cols., 2017; Bangert y cols., 1991; Phelps, 2012; Roediger y cols, 2006; Rohrer y cols., 2010). De hecho, en contra de lo que la intuición nos pueda dictar, el hecho de enfrentarse a una evaluación tiene más beneficios en el aprendizaje que leer la materia una y otra vez. Y más importante aún, como veremos a continuación, este resultado es robusto bajo una amplia variedad de circunstancias.

En el año 2006, Roediger y colaboradores realizaron una revisión cualitativa sobre el efecto de la evaluación en el aprendizaje. Los resultados mostraron que los beneficios de ésta son constantes independientemente del tipo de tarea que se emplee para ello (por ejemplo, tareas de laboratorio como la asociación de parejas de estímulos o tareas reales como la redacción de un ensayo o responder a preguntas de selección múltiple), del tipo de material objeto de estudio (por ejemplo, listas de palabras o textos) o del contenido y su complejidad. Además, encontraron que estas ganancias se mantienen constantes tanto en los laboratorios como en las aulas. Un meta-análisis de estudios realizados exclusivamente en colegios había alcanzado esta misma conclusión años atrás (Bangert y cols., 1991). En el año 2012, Phelps realizó una nueva síntesis sobre el efecto de la evaluación en el rendimiento académico de los alumnos. En esta ocasión, se incluyeron trabajos cuantitativos y cualitativos realizados entre 1910 y 2010. Una vez más, los resultados mostraron que evaluar mejora el aprendizaje.

Recientemente, Adesope y colaboradores (2017) han realizado un meta-análisis sobre el efecto de la evaluación. Su trabajo de revisión incorpora una serie de mejoras en relación a los anteriores como, por ejemplo, la inclusión de los estudios más recientes o el uso de técnicas de análisis más sofisticadas que permiten una interpretación de los datos más completa y rigurosa. Por todo ello, las conclusiones a las que llega son especialmente relevantes. En primer lugar, los resultados confirman que realizar evaluaciones favorece el aprendizaje. Este efecto es moderado si se compara con otras estrategias de estudio, como la relectura, y es mucho mayor cuando se compara con no hacer nada. En relación al formato de las tareas de evaluación empleadas, se observa que el recuerdo libre, el recuerdo con pistas, las preguntas de selección múltiple y las preguntas de respuestas cortas son las estrategias que conducen a beneficios mayores. Por ello, lo más adecuado es que el docente decida en cada caso qué formato usar en función del tipo de aprendizaje (por ejemplo, preguntas de selección múltiple para retener hechos y preguntas de respuesta corta para contenidos más abstractos y conceptuales). Además, los beneficios de aprendizaje son mayores si el formato de las pruebas finales coincide con el de las pruebas de repaso y también si se combinan diferentes tipos de tarea durante ambos tipos de prueba. Este último resultado justifica una vez más el empleo de diferentes tipos de tarea en función de la materia objeto de aprendizaje. En relación al feedback, los autores concluyen que los beneficios de la evaluación son prácticamente iguales tanto si los alumnos reciben retroalimentación sobre su rendimiento durante las pruebas de repaso como si no. Y, por tanto, recomiendan la evaluación incluso cuando no existe la opción de dar feedback. La evaluación es también eficaz independientemente del intervalo de tiempo que transcurra entre las pruebas de repaso y las finales, aunque las mejoras son mayores si este lapso de tiempo es de 1 a 6 días que si es inferior a 1 día. Y también lo es al margen del nivel académico en el que se encuentren los alumnos. Curiosamente, es preferible que los estudiantes realicen una única prueba de repaso a que realicen varias. Luego, en principio, una pequeña inversión de tiempo es suficiente para obtener mejoras. Por último, al igual que en revisiones previas, este meta-análisis muestra que los efectos de la evaluación se producen tanto en contextos artificiales como en aulas reales.

¿Por qué la evaluación está tan infravalorada en relación a otras estrategias de aprendizaje como la relectura, tan valorada por muchos estudiantes? La relectura de un texto puede propiciar un sentido de familiaridad con el mismo que nos conduce a la falsa sensación de estar aprendiendo (Bjork y cols., 2011). Sin embargo, este aprendizaje es superficial y se traduce en un rendimiento pobre a largo plazo (Roediger et al., 2006). Por el contrario, la evaluación posibilita unas condiciones de aprendizaje que, aunque aparentemente crean cierta dificultad, permiten un aprendizaje más flexible y duradero. Estas dificultades deseables, como las ha denominado Bjork (1994), impulsan los procesos de codificación y recuperación que favorecen el aprendizaje, la comprensión y el recuerdo. Junto con la dificultad que supone ser evaluado, hay otras razones que pueden explicar la mala fama de la evaluación. Por un lado, hay voces que apuntan al estrés que puede causar en los estudiantes una exposición frecuente a evaluaciones (véase, por ejemplo, Acaso, 2014). Sin entrar en más debate, es importante recalcar aquí que evaluación no es necesariamente sinónimo ni de calificación ni de prueba oficial para acceder a estudios superiores. Por otro lado, algunos críticos también apuntan a que la evaluación puede quitar tiempo para hacer otras actividades o para usar el material didáctico de una forma más creativa. Sin embargo, como apuntan Roediger y colaboradores (2006), si los alumnos no han alcanzado un dominio básico de la materia, difícilmente van a poder pensar de forma crítica y creativa sobre la misma. Además, como explican estos autores, hay muchas formas de integrar la práctica de la evaluación en el aula sin interrumpir la rutina de trabajo habitual.

En síntesis, la evidencia demuestra de forma robusta que la evaluación es una herramienta muy valiosa para favorecer el aprendizaje a largo plazo. Los numerosos estudios que se han hecho muestran además que los beneficios de la evaluación se mantienen con independencia de la edad y nivel educativo de los aprendices así como del tipo y complejidad de la materia. A la luz de estos resultados, y a pesar del creciente número de voces críticas, no hay razón para que los centros escolares no mantengan o incorporen la evaluación en sus aulas como práctica habitual.

Referencias:

Acaso, M. (2014). Dopamina, empoderamiento y responsabilidad: sin cambiar la evaluación no cambiaremos la educación.

Adesope, O. O., Trevisan, D. A., & Sundararajan, N. (2017). Rethinking the Use of Tests: A Meta-Analysis of Practice Testing. Review of Educational Research, 87, 1-43.

Bangert-Drowns, R.L., Kulik, J.A., & Kulik, C.L.C. (1991). Effects of frequent classroom testing. Journal of Educational Research, 85, 89-99.

Bjork, R. A. (1975). Retrieval as a memory modifier. In R. Solso (Ed.), Information processing and cognition: The Loyola Symposium (pp. 123-144). Hillsdale, NJ: Erlbaum.

Bjork, R.A. (1994). Memory and metamemory considerations in the training of human beings. In J. Metcalfe & A. Shimamura (Eds.), Metacognition: Knowing about knowing (pp. 185-205). Cambridge, MA: MIT Press.

Bjork, E. J., & Bjork, R. (2011). Making things hard on yourself, but in a good way: Creating desirable difficulties to enhance learning. In M. A. Gernsbacher, R. W. Pew, L. M. Hough, & J. R. Pomerantz (Eds.), Psychology and the real world: Essays illustrating fundamental contributions to society (pp. 56-64). Washington, DC: FABBS Foundation.

Phelps, R. P. (2012). The effect of testing on student achievement, 1910–2010. International Journal of Testing, 12, 21–43.

Roediger, H.L., & Karpicke, J.D. (2006). The Power of Testing Memory: Basic Research and Implications for Educational Practice. Perspectives on Psychological Science, 1, 181-210.

Rohrer D., & Pashler, H. (2010). Recent research in human learning challenges conventional instructional strategies. Educational Research, 39, 406-412.

Sobre la autora: Marta Ferrero es psicopedagoga y doctora en psicología. Actualmente es investigadora posdoctoral en el Deusto Learning Lab de la Universidad de Deusto. Es autora del blog Si tú supieras…

El artículo La evaluación mejora el aprendizaje se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El aprendizaje del inglés es mejor si se usa para aprender otra cosa
  2. Dejad de propagar el mito de los estilos de aprendizaje
  3. A favor de la evaluación escolar objetiva
Categories: Zientzia

Landareentzat ez ezik animalientzat ere: argia

Zientzia Kaiera - Thu, 2017/06/08 - 15:00
Landareentzako ezinbestekoa da argia. Pellokeria dirudi. Denok dakigu fotosintesia egiteko eta, hortaz, bizitzeko nahitaezkoa dutela argia landareek. Animaliak, baina, beste kontu bat dira. Beharrezkoa dute argia animaliek? Eraginik du argiak animaliengan?

Zalantzarik gabe, bai. Alor bat baino gehiagotan du garrantzia argiak animalientzat. Batetik, ezinbestekoa da animaliak elika daitezen. Izan ere, elikadura mota edozein dela (belarjale, haragijale, orojale) oinarrian argia dago.

Landareek nahitaezkoa dute argia hazteko eta, beraz, hedaduraz, animalia belarjaleek ere argia behar dute euren elikadura bermatzeko. Era berean, haragijaleentzat ere beharrezkoa da jaten dituzten belarjaleak haz daitezen eta horretarako landareak behar dituzte. Kate trofiko guztian du eragina argiak, beraz.

1. irudia: Argiak eragina du kate trofiko guztian zehar. (Ziortza Guezuragaren irudia.)

Argia beharrezkoa da animalientzat, hortaz. Eta ez bakarrik elikadurarako, bestelako aspektuetan ere eragina du argiak, animalien jokaeran, adibidez:

  • Ugalketa sasoia muga dezake argi ordu kopuruak eta baita ugalketa-sasoiaren hasiera edo amaiera markatu.
  • Lozorroan sartzen diren animaliei noiz sartu seinalatzen die argiak, tenperaturarekin batera.
  • Animalia migratzaileek, beste faktoreren artean, argi ordu kopuruari esker dakite noiz hasi migrazioa.
Ikusi makusi

Ikusmenaren alorrean du, hala ere, argiak inpaktu gehien. Argia hautemateko mekanismoa da ikusmena, azken batean. Animalien %95ak ditu irudiak sortzen dituzten begiak eta %96ak argia hautemateko moduren bat. Begi guztiak ez dira berdin, hala ere. Ez dituzte argia eta irudiak modu berean prozesatzen eta zenbait begik ez dute irudirik sortzen.

“Begi”rik sinpleenek argia antzemateko gaitasuna baino ez dute, irudirik ez dute sortzen. Euglena protozooa da argia hauteman baina irudirik sortzen ez duen animaliaren adibidea. Ez da ikusmena zentzu hertsian, baina fotorrezepzioa (fotoien energiaren xurgapena) gertatzen da. Begi mekanismo sinpleena litzateke Euglenarena, baina animalien artean oso begi konplexuak aurki daitezke.

Argia antzeman baino ezin duten begi sinpleenetatik hasi eta irudi konplexuak garbitasunez sortzeko gai diren begietaraino eboluzio prozesua jasan dute ikusmen organoek. Lehen “begia” zelula fotorrezeptoreen xafla izan zen eta hortik hasita kamera konplexudun begira eboluzionatu dira. Hona eboluzio hipotetikoa:

  1. Zelula pigmentudun xafla. Hasiera batean argia sumatzeko gai ziren zelula multzoa baino ez ziren begiak, argia detektatzeko gai. Lehen aipaturiko Euglenaren eta lapen kasua litzateke hau.

    2. irudia: Zelula fotohartzaile multzoaz osaturiko xafla (Ziortza Guezuragak moldatutako irudia).

  2. Begi kopak. Zelula xaflak kopa itxura hartzean argia antzemateaz gain, norabidea ere nabaritu dezakete. Planariek dute mota honetako begiak.

    3. irudia: Kopa itxurako begia (Ziortza Guezuragak moldatutako irudia).

  3. Kamera iluna. Pinhole begia izenarekin ere ezaguna. Irudiak sortzeko gai da, fokatzeko. Irudiak nahiko ilunak dira, baina. Izan ere, oso argi gutxi sar daiteke begian. Nautilus moluskuetan aurkitu daitezke mota honetako begiak.

    4. irudia: Kamera iluna motak begia (Ziortza Guezuragak moldatutako irudia).

  4. Lente primitibodun begia. Lenteen agerpenak argia kontzentratzeko gaitasuna ekarri zuen, ikusmena hobetzea eta argitzea ekarri zuena. Murex barraskiloek gartu dute honako mekanismoa.

    5. irudia: Lente primitibodun begia (Ziortza Guezuragak moldatutako irudia).

  5. Kamera konplexudun begia. Lente sistema konplexua da, kornea eta bestelakoei esker garbitasunez ikustea ahalbidetzen dute. Egungo ornodun gehienen begiak lirateke mota honetakoak.

    6. irudia: Kamera konplexudun begia (Ziortza Guezuragak moldatutako irudia).

Eboluzio hipotetikoa izanik ere, ezaugarri komuna dute begi guztiek: zelula fotorrezeptoreak dituzte guztiek. Bestelako begi motak ere garatu izan dira, intsektuetan aurki daitezkeen begi konposatuak, esaterako. Kasu honetan, omatidio izeneko hainbat egiturez osaturiko begiak dira. Omatidioak begi osoak dira, bakoitzak kornea, kristalinoa eta fotorrezeptoreak du eta mosaiko itxurako irudia sortzen dute.

7. irudia: Begi konposatua (Ziortza Guezuragak moldatutako irudia De Bugboyren irudian oinarrituta).

''Argiak animalietan izan ditzakeen eraginak''

Aurreko artikuluak:

Argi uhina ala argi partikula?

Argia materia bihurtzen

———————————————————————–

Egileaz: Ziortza Guezuraga kazetaria eta UPV/EHUko Kultura Zientifikoko Katedraren kolaboratzailea da.

——————————————————————

The post Landareentzat ez ezik animalientzat ere: argia appeared first on Zientzia Kaiera.

Categories: Zientzia

Ciencia: es complicado

Cuaderno de Cultura Científica - Thu, 2017/06/08 - 11:59

Explicaciones hay, y las ha habido siempre; para cada problema humano hay siempre una solución bien conocida, elegante, plausible y equivocada. H. L. Mencken

La mente humana es una máquina maravillosa que está poseída por un insaciable deseo de conocer, de satisfacer su curiosidad, pero como todos los sistemas biológicos tiene sus defectos. Y uno de ellos es particularmente perverso: la vagancia. La mente humana quiere saber, pero el cerebro tiene un infinito anhelo de trabajar lo menos posible. Por eso siempre prefiere una explicación sencilla a una compleja; un razonamiento simple a uno más alambicado, una historia directa y sin demasiados condicionales que otra repleta de apartes, casos particulares y rincones que necesitan explicaciones complementarias. No hablamos aquí de la llamada Navaja de Ockham, un principio metodológico razonable, sino del simple problema de la pereza que hace que los seres vivos prefieran el camino con menos cuestas. Y eso, para la ciencia, es un problema, porque resulta que nuestro Universo es complejo, sutil, a veces contradictorio y siempre anti-intuitivo. Comprender el cosmos es siempre cuesta arriba.

Por eso la respuesta a casi cualquier pregunta realmente interesante se puede resumir igual que esas tortuosas relaciones personales se etiquetan en Facebook: Es Complicado.

Imagen resumen en la que solo se indica la posible influencia de las bacterias intestinales en la enfermedad celíaca. Nótese la cantidad de interrogantes.

Pongamos un ejemplo relacionado con la actualidad. El pasado domingo 4 de junio de 2017 la periodista Rosa Montero publicó en la revista El País Semanal un artículo sobre intolerancias alimenticias, transgénicos, el poder de la industria farmacéutica y la demonización de la homeopatía. No se trata de desmontar sus numerosos, variados y profundos errores; otros ya lo han hecho, con brillantez. Lo que se pretende aquí es subrayar hasta qué punto este tipo de argumentos revelan el daño que hace el afán de simplicidad enfrentado a la complejidad del conocimiento científico. Porque puramente por casualidad y coincidiendo con el artículo citado la revista The Scientist publicó un amplio repaso de lo que la ciencia conoce ahora mismo sobre la celiaquía, las intolerancias alimentarias no celiacas, su prevalencia, causas y posibles orígenes, además de potenciales avenidas de tratamiento. A diferencia de la elegante, plausible y equivocada explicación defendida por Rosa Montero lo que conocemos es mucho más complejo.

La prevalencia de estas enfermedades está aumentando, es cierto, y no sabemos por qué; pero no se debe a transgénicos (que no están en nuestros campos de cultivo) y mucho menos a que la labor del gran Norman Borlaug y la Revolución Verde crearan nuevos tipos de trigo con un gluten distinto, cosa que no hizo. Sabemos que la verdadera intolerancia celiaca se comporta como una enfermedad autoinmune, creando respuesta de nuestras defensas no sólo contra algunas de las proteínas del gluten, sino sobre células propias del cuerpo. Hay un componente genético, pero resulta que casi el 40% de la población lleva variantes génicas relacionadas con la enfermedad y sólo entre el 1 y el 3% del total la desarrollan, y aún no conocemos el agente detonante que podría ser cualquier cosa en nuestro medio ambiente, tal vez la más insospechada. Existen, además, intolerancias a los cereales que no están relacionadas con el gluten, pero que pueden interactuar modificando el curso de la enfermedad.

Los síntomas abdominales son los más típicos y pueden dañar el intestino, pero ahora están apareciendo otros de síntomas en adultos (osteoporosis, anemia) cuya conexión no conocemos. Sabemos que la composición del microbioma intestinal es diferente en los celiacos, pero no sabemos de qué manera afecta a la enfermedad; aunque resulta que al menos parte del aumento del número de casos podría deberse a nuestra exitosa lucha contra las úlceras de estómago, porque la presencia de Helicobacter pylori (la bacteria que causa muchas de ellas) coincide con menos celiaquía. Y sabemos que en algunas circunstancias la infección deliberada con parásitos, como lombrices intestinales, alivia a algunos enfermos, pero no sabemos cómo ni por qué. Hay pocas certezas y muchos factores en juego. En otras palabras: es complicado.

Sería mucho más sencillo, comprensible y satisfactorio tener un único enemigo contra el que poder luchar. Sería mucho más heroico que ese enemigo tuviese defensores poderosos para así luchar hasta derrotarlos en defensa de la verdad. Sería mucho más elegante y plausible que las cosas tuviesen una explicación sencilla. Pero la realidad no es así. En ciencia muchos fenómenos surgen de la interacción de múltiples factores, lo que complica entenderlos. Por eso uno de los principios metodológicos básicos es el reduccionismo: controlar los factores que participan en un sistema complejo y modificarlos de uno en uno, de modo controlado y sistemático, para detectar cuáles influyen y de qué manera afecta cada uno. Cuando se trata de objetos o seres vivos es fácil realizar este tipo de investigación en un laboratorio. Pero cuando se trata de seres humanos no se pueden hacer experimentos, así que hay que usar los grandes números, las estadísticas y la historia para intentar conseguir los datos. Esto obliga a tratar con múltiples factores y a usar sofisticados métodos de análisis para separar sus efectos. El proceso no es simple y puede conducir a errores que luego hay que corregir, pero es el único disponible.

Esto exige años de estudio, décadas de dedicación, grandes presupuestos, captación de datos a gran escala, y también personas que dedican su carrera y deben vivir con la posibilidad, siempre presente, de que el trabajo de su vida resulte ser uno de esos errores que se descartan en los pies de página de los libros de ciencia. Exige mucho trabajo mental sin ninguna garantía de que el resultado final sea positivo y con la certeza de que, aun siéndolo, la explicación nunca será elegante y sencilla sino retorcida, compleja, llena de excepciones y sutilezas difíciles de entender. La práctica de la ciencia a veces genera la sensación de estar golpeándote la cabeza contra la pared, de estar desperdiciando tu vida dedicándote a pensar con feroz intensidad en resolver un problema que no se puede resolver. Y hacerlo antes de que los chinos, o los estadounidenses, lo consigan antes que tú.

Cuánto más fácil es buscar un culpable, un enemigo malvado, plausible y que explique todo y enfocar en la ira sobre esa imagen, sobre todo cuando lo que se quiere es la explicación de un sufrimiento humano real; cuánto más satisfactorio sentirse seguro y lleno de justicia con una explicación simple y un enemigo claro en lugar de frustrado, inseguro e incluso ignorante. La ciencia no ofrece respuestas sencillas, ni morales, ni justas: busca respuestas reales. El cerebro a veces prefiere ahorrarse el trabajo y las dudas, y es comprensible: siempre es más fácil remar a favor que en contra de la corriente. Pero aunque cueste más trabajo hay que ir donde está la verdad; por eso merece la pena. Aunque sea complicado.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo Ciencia: es complicado se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. De los héroes de la ciencia y sus frágiles teorías
  2. La ciencia y la duda
  3. Buscar vida extraterrestre va a ser un poquito más complicado
Categories: Zientzia

Nektarra jateak dakarren korapiloa

Zientzia Kaiera - Thu, 2017/06/08 - 09:00
Juan Ignacio Pérez eta Miren Bego Urrutia Janaria

———————————————————————————————————–

Kolibriak hegazti txikienak dira eta nektarra da haien janari nagusia. Nektarra diluzio bat da, intsektuak eta hegazti polinizatzaileak erakartzeko zenbait landareren loreek sortzen duten ur-diluzioa. Hori dela eta, kolibriek 12 ordutan zurrupatu behar duten ur kantitatea haien masaren halako 5 baino gehiago da, eta hori, bistan da, ur asko da, gehiegi beharbada.

Ur gehiegi edaten duten animalietan hiperhidratazioa gerta daiteke, hots, urez pozoitzea. Gezurra badirudi eta arraro samarra bada ere, noiz edo noiz hori gertatzen zaie gizabanakoei, gaixotasun batzuen ondorioz batik bat. Paradoxikoa izanik ere, gastroenteritisak, esaterako, hiperhidratazioa ekar dezake. Izan ere, barne-medioaren gatz-kontzentrazioa gehiegi behera daiteke ur gehiegi edaten denean, eta barne-likidoen bolumen handia galdu ondoren gerta daiteke hori. Hori dela eta, zenbait kirolari hil ere egin dira lehiatzen ari ziren bitartean, urez pozoituta. Hiperhidratazioaren zantzuak aurkitu zituzten Andy Warhol artista ezagunaren gorpuan ebakuntza baten osteko bihotz-arritmia baten ondorioz hil zenean. Garunaren funtzioan eragiten ditu kalterik larrienak hiperhidratazioak, zeren barne-medioa gehiegi diluitzen denean neuronen zitoplasmaren eta barne-medioaren arteko elektrolitoen balantzea desorekatu egiten baita. Ezaguna denez, elektrolitoen oreka ezinbestez gorde behar da nerbio-bulkada behar bezala sortu ahal izateko.

Irudia: Odol beroko animaliarik txikiena Kuban bizi da, eta ez da satitsu etruskoa: erle-kolibria da. Mellisuga helenae du zientzia-izena eta “pájaro mosca” edo “zunzuncito” esaten diote gaztelaniaz.

Naturan animalia gutxi egon daitezke hiperhidratazioa pairatzeko arriskuan. Anfibioak egon litezke egoera horretan, larruazal iragazkorra dutelako, baina gernu-bolumen handiak ekoitziz konpontzen dute arazoa; anfibioen gernua, bestalde, oso diluitua da, kasik ez du gatzik, haien giltzurruna oso eraginkorra baita gernutik gatzak berreskuratzen. Ur gezetako arrain teleosteoak ere, urez pozoitu litezke uraren sarrera saihesteko modurik izango ez balute, baina “Ura, bizitzarako ezinbestekoa” atalean ikusi dugun bezala, oso eraginkorrak dira diluzioaren aurka dituzten hiru hesiak [1].

Uretako animalia horiek, beraz, badituzte gehiegizko uraren arazoa saihesteko modu egokiak, bestela ezingo lirateke ur gezetan bizi. Kolibriek ere, lehenago emandako arrazoi bitxiagatik, antzeko arazoei aurre egin behar diete. Kolibriek urarekin duten arazoa ez da arazo makala. Izan ere, uretan bizi diren anfibioek baino ur-sarrera handiagoak pairatzen dituzte.

Kolibrien hesteak nektarraren ur osoaren zati txiki bat bakarrik xurgatzen duela pentsatzen zen hasieran, baina gero frogatu da ezetz, gehiena xurgatzen duela. Ez zen ideia txarra, hala ere, horixe baita Nectariniidae familiako eguzki-txoriek [2] egiten dutena.

Zurrupaturiko uraren % 80 xurgatzen dute kolibriek eta, beraz, giltzurrunak kanporatu behar du ur gehiena. Hortaz, oso eraginkorra da haien giltzurruna, eta oso malgua gainera; azken batean, egunez lan handia egin behar badu ere, gauez ez du ia lanik egiten, kolibriak lozorroan sartzen baitira, eta giltzurrunak ez baitu ia gernurik sortzen.

Hala eta guztiz ere, urarena ez da arazo makala, giltzurrunak mugak dituelako, oso eraginkorra eta ahaltsua bada ere. Izan ere, litekeena da kolibriak toki beroetan bizitzera behartuta egotea. Toki hotzetan animalia homeotermoek bero gehiago galtzen dute eta, ondorioz, toki hotzetan beroetan baino gehiago jan behar dute. Baina kolibriek nekez jan lezakete jaten dutena baino gehiago, giltzurrunak askoz ere ur gehiago prozesatu beharko bailuke orduan. Hortaz, ingurune hotzetan jarritako kolibriek pisua galtzen dute, gehiegizko ur-arazoa dela medio beharko luketen nektar guztia jan ezin dezaketelako.

Lehen esan bezala, bestelakoa da eguzki-txorien jokabide fisiologikoa. Eguzki-txoriek ez dute zurrupatu duten ur guztia xurgatzen, % 60 baztertu baitezakete. Ez dakigu zein den hori egiteko erabiltzen duten mekanismoa, baina badakigu txori horientzat behar-beharrezkoa dela horrela jokatzea, bizi diren tokietan askotan hotza egiten duelako.

Horrelakoxe korapiloak ditu bizitzak: tamaina, tenperatura, giltzurrun-funtzioa eta elikatze-modua, lau faktore horiek batera eragiten diote kolibrien banaketa geografikoari. Bai korapilo ederra!

Oharrak:

[1] Larruazal iragazkaitza da lehen hesia; gernu-bolumen handia ekoizteak eta gernuko gatz-kontzentrazioa oso apala izateak osatzen dute bigarren hesia; eta gatzen barneratze aktiboa dugu hirugarrena. Azken hau da, izan ere, urez pozoitzea eragozten duena, barne-medioaren diluzioaren aurkako berezko mekanismoa baita.

[2] Familiaren izen zientifikoak dioen bezala, txori horiek ere nektar-jaleak dira.

—————————————————–

Egileez: Juan Ignacio Pérez Iglesias (@Uhandrea) eta Miren Bego Urrutia Biologian doktoreak dira eta UPV/EHUko Animalien Fisiologiako irakasleak.

—————————————————–

Artikulua UPV/EHUren ZIO (Zientzia irakurle ororentzat) bildumako Animalien aferak liburutik jaso dugu.

The post Nektarra jateak dakarren korapiloa appeared first on Zientzia Kaiera.

Categories: Zientzia

Cómo el Ártico se volvió salado

Cuaderno de Cultura Científica - Wed, 2017/06/07 - 17:00

El Océano Ártico fue una vez un gigantesco lago de agua dulce. Sólo después de que el puente terrestre entre Groenlandia y Escocia se hubiese sumergido lo suficiente, grandes cantidades de agua salada llegaron desde el Atlántico. Con la ayuda de un modelo climático, investigadores del Instituto Alfred Wegener (Alemania) han demostrado cómo tuvo lugar este proceso, permitiéndonos por primera vez comprender con mayor precisión cómo se desarrolló la circulación atlántica que conocemos hoy.

Cada año, aproximadamente 3.300 kilómetros cúbicos de agua dulce fluyen hacia el océano Ártico. Esto equivale al diez por ciento del volumen total de agua que todos los ríos del mundo transportan a los océanos al año. En el clima cálido y húmedo del Eoceno (hace entre 56 a 34 millones de años), la afluencia de agua dulce probablemente fue aún mayor. Sin embargo, a diferencia de hoy, durante ese período geológico no hubo intercambio de agua con otros océanos. La afluencia de aguas salinas del Atlántico y del Pacífico, que hoy encuentra su camino al Océano Ártico desde el Pacífico a través del estrecho de Bering y desde el Atlántico Norte a través de la cresta Groenlandia-Escocia, no era posible. La región que hoy está sumergida estaba por encima del nivel del mar en ese periodo.

Sólo una vez que desapareció el puente terrestre entre Groenlandia y Escocia, surgieron los primeros pasos oceánicos, conectando el Ártico con el Atlántico Norte y haciendo posible el intercambio de agua. Utilizando un modelo climático, los investigadores han simulado con éxito el efecto de esta transformación geológica en el clima. En sus simulaciones, sumergieron gradualmente el puente terrestre a una profundidad de 200 metros, un proceso tectónico de inmersión que en la realidad duró varios millones de años. Curiosamente, los mayores cambios en los patrones de circulación y las características del Océano Ártico sólo se produjeron cuando el puente de tierra había alcanzado una profundidad de más de 50 metros por debajo de la superficie del océano.

Esta profundidad umbral corresponde a la profundidad de la capa superficial de mezcla, esto es, la capa que determina dónde termina el agua superficial relativamente ligera del Ártico y comienza la capa subyacente de agua densa que entra del Atlántico Norte. Sólo cuando la cresta oceánica se encuentra por debajo de la capa de mezcla superficial puede el agua salina más pesada del Atlántico Norte fluir hacia el Ártico con relativamente poco obstáculo. Por tanto, solo una vez que el puente entre Groenlandia y Escocia había alcanzado esta profundidad crítica, se creó el Océano Ártico salino como lo conocemos hoy. La formación de los pasos oceánicos desempeña un papel vital en la historia del clima global, ya que conlleva cambios en el transporte de energía térmica en el océano entre las latitudes media y polar.

La teoría de que la Cuenca Ártica estuvo una vez aislada se apoya en el descubrimiento de fósiles de algas de agua dulce en los sedimentos de aguas profundas del Eoceno que se obtuvieron durante una campaña de perforación internacional cerca del Polo Norte en 2004. Lo que una vez fue un puente terrestre ahora se encuentra alrededor de 500 metros bajo el océano y está formado casi enteramente de basalto volcánico. Islandia es la única sección que queda por encima de la superficie.

Referencia:

Michael Stärz, Wilfried Jokat, Gregor Knorr, Gerrit Lohmann (2017) Threshold in North Atlantic-Arctic Ocean circulation controlled by the subsidence of the Greenland-Scotland Ridge. Nature Communications. DOI: 10.1038/NCOMMS15681

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Cómo el Ártico se volvió salado se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El óxido de grafeno que se mueve como una oruga y coge cosas como una mano
  2. Y el Sol se volvió azul
  3. Cómo usar a las ballenas como detectores de radiación
Categories: Zientzia

El teorema de los cuatro colores (y 4): ¿Podemos creer la prueba de la conjetura?

Cuaderno de Cultura Científica - Wed, 2017/06/07 - 11:59

En 1975, el divulgador científico Martín Gardner (1914-2010) publicaba un artículo (ver [1]) en el que afirmaba que el denominado mapa de Mc.Gregor –de 110 regiones– precisaba necesariamente de cinco colores para pintarse, sin que dos regiones adyacentes compartieran color. Es decir, proponía un contraejemplo al teorema de los cuatro colores. ¿Por qué continuaron entonces Appel y Haken intentando demostrar el resultado planteado por Guthrie en 1852?

El artículo de Gardner se publicó el 1 de abril de 1975, el Día de los inocentes en los países anglosajones. Muchos lectores, contrariados, enviaron a Gardner propuestas de coloreado del mapa de Mc.Gregor, para mostrarle que su afirmación era errónea.

El mapa de Mc.Gregor y la propuesta de 4-coloreado de Stan Wagon (1951).

Lo raro es que esos lectores no fueran conscientes de que se trataba de una simple broma; en ese artículo Gardner hablaba de Seis descubrimientos sensacionales que de alguna manera han escapado a la atención pública. En efecto, el divulgador:

  1. ‘mostraba’ una refutación de la teoría de la relatividad de Einstein, a través de un experimento del físico británico Humbert Pringl;

  2. ‘anunciaba’ el descubrimiento –en el Codex Madrid I y por parte de Augusto Macaroni de la Universidad Católica de Milán– de que Leonardo de Vinci había inventado el retrete auto-limpiable con el agua de su cisterna;

  3. ‘comentaba’ la demostración de Richard Pinkleaf –con ayuda del ordenador MacHic– de que en ajedrez, el movimiento de apertura de peón a cuatro torre de rey gana siempre la partida;

  4. ‘notificaba’ el sorprendente resultado –obtenido por John Brillo de la Universidad de Arizona– de que la base de los logaritmos naturales, el número e,elevado a π(163)½ es el número entero 262.537.412.640.768.744;

  5. ‘anunciaba’ la construcción –debida al parapsicólogo Robert Ripoff– de un motor funcionando con energía mental; y

  6. ‘notificaba’ el descubrimiento –por parte del especialista en teoría de grafos William McGregor– del famoso mapa del que hemos hablado antes.

Así que es lógico que, tras el 1 de abril de 1975, se continuara con la búsqueda de una demostración del teorema de los cuatro colores… Durante el largo proceso hasta llegar a su prueba, se desarrollaron teorías matemáticas como la teoría de grafos y de redes. Es decir, ni los errores ni los aciertos intentando demostrar este teorema fueron nimios; todos ellos ayudaron a la puesta a punto de este primer gran teorema demostrado –¿verificado?– usando un ordenador.

Pero, ¿es realmente una demostración? ¿Se puede garantizar la corrección de la compilación realizada por un ordenador? ¿Las computadoras son infalibles? Tras la demostración del teorema de los cuatro colores con ayuda de ordenadores, otras pruebas se apoyaron en este método, como la clasificación de los grupos simples finitos (2004) –que depende de cálculos imposibles de ejecutar con detalle a mano– o la solución de Thomas Hales (1998) del problema de Kepler sobre el empaquetamiento óptimo de esferas. Pero, ¿se puede aceptar como válida una afirmación que sólo una máquina, y no una mente humana, puede comprobar?

¿Qué es una demostración? El filósofo de la ciencia Imre Lakatos (1922-1974) la define (ver [3]) como: “Una sucesión finita de fórmulas de algún sistema dado, donde cada uno de los pasos de la sucesión es o bien un axioma del sistema, una fórmula derivada por una regla del sistema a partir de una fórmula precedente”.

Por su parte, el filósofo Thomas Tymoczko (1943-1996) califica una demostración como algo (ver [6]): convincente –debería persuadir incluso a los escépticos que dudan de la veracidad del resultado–, formalizable –la conclusión debería alcanzarse partiendo de sistemas axiomáticos–, y comprobable.

Este último es el aspecto más controvertido en el caso del teorema de los cuatro colores. ¿Puede estar un teorema probado si no se puede leer (comprobar) su demostración?

Existen dos corrientes principales que intentan responder a este dilema:

Los escépticos opinan que el aspecto de la comprobabilidad es el que pone en duda la credibilidad de la prueba. Si las pruebas deben ser verificadas, parece que entonces una persona –lo opuesto a una máquina– debe completar esta tarea: esto no puede hacerse con la prueba del teorema de los cuatro colores.

El matemático Paul Halmos (1916-2006) opinaba que la demostración realizada con un ordenador tiene la misma credibilidad que si está hecha por un adivino…Y afirmaba: “No puedo aprender nada de la demostración. La prueba no indica la razón por la que sólo se necesitan 4 colores ¿por qué no 13? ¿Qué tiene de especial el número 4?”.

El matemático Pierre Deligne (1954) comentaba: “No creo en una prueba hecha con ordenador. En primer lugar, soy demasiado egocéntrico. Creo en una demostración si la entiendo, si está clara. Un ordenador puede también cometer errores, pero es mucho más difícil encontrarlos”.

Tymockzo afirma que usar un ordenador para establecer una verdad matemática es transformar pruebas en experimentos. Afirma que el teorema de los cuatro colores ha sido confirmado a través de un experimento de física teórica, pero no probado de una manera formal. Aunque se tiene una pequeña idea de lo que el ordenador está testando, no se tiene la seguridad de lo que se está haciendo.

Los no escépticos, por su parte, argumentan del siguiente modo:

  1. aunque las equivocaciones cometidas por los ordenadores son más difíciles localizar, los seres humanos fallan con más frecuencia; los ordenadores siguen un programa rígido predeterminado, y no tienen tropiezos motivados por los cambios de humor, el estrés u otros factores externos;

  2. la longitud de algunas demostraciones sobrepasa la capacidad de computación humana, pero es perfectamente aceptable por los estándares de las máquinas;

  3. la idea de que no pueden usarse ordenadores va a ser cada vez más insólita para las generaciones futuras: los ordenadores serán –¿son?– herramientas como el lápiz y el papel

  4. la prueba de Appel y Haken es, en esencia, tradicional, ya que consiste en una serie de pasos lógicos, que conducen a la conclusión de que la conjetura puede reducirse a una predicción sobre el comportamiento de unos2.000 mapas.

¿Quiénes tienen razón?

Para añadir un poco más de incertidumbre al tema, el filósofo Hud Hudson afirmaba dar en [2] un contraejemplo al teorema de los cuatro colores: presentaba el mapa de Zenopia, una isla formada por seis provincias que necesita seis tonos para colorearse… Entonces, ¿es falso el teorema de los cuatro colores? No, no hay que preocuparse: Zenopia es un mapa con fronteras extrañas, cuya especial geografía queda excluda del enunciado original del teorema…

Bibliografía

[1] Martin Gardner, Mathematical Games: Six Sensational Discoveries that Somehow or Another have Escaped Public Attention, Scientific American 232, 127-131, 1975

[2] Hud Hudson, No basta con cuatro colores, Gaceta de la RSME 8(2), 361-368, 2005.

[3] Imre Lakatos, What does a mathematical proof prove?, Cambridge Univers¡ity Press, 540-551, 1979.

[4] Marta Macho Stadler, Mapas, colores y números, Descubrir las matemáticas hoy: Sociedad, Ciencia, Tecnología y Matemáticas 2006 (2008) 41-68

[5] E.R. Swart, The philosophical implications of the four-colour theorem, American Mathematical Montlhy 87, 697-707, 1980

[6] Thomas Tymoczko, The four-color problem and its philosophical significance, Journal of Philosophy 76, 57-70, 1979

[7]Robin .J. Wilson, Four colors suffice: how the map problem was solved, Princeton University Press, 2002

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo El teorema de los cuatro colores (y 4): ¿Podemos creer la prueba de la conjetura? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba
  2. El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema?
  3. El teorema de los cuatro colores (1): una historia que comienza en 1852
Categories: Zientzia

Pages