Fitorremediazioa lurzoru kutsatuen kudeaketa iraunkorrerako estrategia gisa
Lurzoruak, besteak beste, elikagaien ekoizpenean paper oso garrantzitsua betetzen du (izan ere, elikagaien %95 zuzenean edo zeharka lurzorutik datorrela kalkulatzen da) eta klima aldaketa arintzeko estrategiak bideratzeko funtsezkoa da. Zoritxarrez, jende gutxik daki lurzorua baliabide berriztaezina dela giza eskalan. Adituek diote mila urte baino gehiago behar direla lurzoru berria eratzeko. Ohartu behar gara, hortaz, gaur zapaltzen ari garen lurzorua dela gure bizitzan zehar edukiko dugun bakarra.
Munduan 10 milioi leku baino gehiago kaltetzen dituen ingurumen-mehatxu larria izan arren, gaur egun ere lurzoruaren kutsadura errealitate ikusezina da gizartearen zati handi batentzat. Nekazaritza-, industria- eta urbanizazio- jarduerak dira, besteak beste, lurzoruek pairatzen duten kutsaduraren erantzule nagusiak. Kutsatzaile ohikoen eta toxikoenen zerrendan, metalak, pestizidak eta hidrokarburoak lehenengo postuetan daude. Kutsadurak kate-erreakzio bat eragiten du: lurzoruak bere funtzionaltasuna (osasuna) galtzen du eta, honekin batera, (berak) mantentzen dituen ekosistemen zerbitzuak, ezinbestekoak direnak giza osasuna eta ongizatea bermatzeko. Hau horrela izanik, premiazkoa da lurzoru kutsatuen kudeaketa iraunkorrerako estrategiak ezartzea, lurzoruek osasuna berreskuratu eta degradazio-prozesuen aurrean erresilienteak bilaka daitezen.
Lurzoru kutsatuen erremediazioa zeregin konplexua da dituen inplikazio ekonomiko, ekologiko eta teknikoengatik. Metodo fisiko-kimiko tradizionalek kutsatzaileak lurzorutik guztiz ezabatu ditzakete modu azkar batean. Alabaina, lurzoruaren ezaugarri fisiko, kimiko eta biologikoak suntsitzen dituzte eta, oro har, garestiak dira. Fitorremediazioa, berriz, in situ eta eskala handian aplikatu daitekeen ekoteknologia ez-suntsitzaile eta ekonomiko bat da. Fitorremediazioan, landareak (eta haiekin erlazionaturiko mikroorganismoak) dira kutsatzaileak lurzorutik ateratzeko (fitoerauzketa) edo/eta lekuan egonkortzeko (fitoegonkortzea) erabiltzen diren erremintak. Teknologiaren eraginkortasunean landareen hazkuntza eta tolerantziak, eta kutsatzaileen bioeskuragarritasunak zeresan handia daukate. Berreskupenerako maneiatzen diren epeak, haatik, luze samarrak dira.
Hau horrela izanik, azken urteotan fitokudeaketaren paradigma sustatu da ekonomia zirkularraren esparruan berreskurapen prozesuan dauden lurzoruak errentagarri bihurtzeko asmoz. Fitokudeaketan, adibidez, ohiko laborantzako praktikak (adib., medeapen organikoen aplikazioa) eta fitorremediaziorako potentziala daukaten labore energetikoak batera erabiltzen dira.
Hortaz, fitorremediazio-programa batean zehar posible da onura ekologikoak (adib., funtzioak eta ekosistemen zerbitzuak), ekonomikoak (adib., biomasa eta energiaren ekoizpena) eta sozialak (adib., aisia) aldi berean lortzea. Honen froga dira gure mugaz barne (PhytoSUDOE, 2015-2018) eta kanpo (GREENLAND, 2010-2015) garatu diren azken ikerketa proiektu ezberdinak.
Hala eta guztiz ere, lurzoru kutsatuen kudeaketa iraunkorrak fronte ireki ugari ditu, besteak beste: (i) Europa mailako lurzoruaren babeserako Zuzentarau baten gabeziak lurzoruaren kutsadurari aurre hartzeko eta zuzentzeko estrategia orokorrak ezar litzake; (ii) arriskuen ingurumen-ebaluazio xehatua barne hartzen duten landa-proiektuen eskasia dago, fitokudeaketa erreferentziazko estrategia izan litekeen argitzeko; eta, azkenik, (iii) berreskurapen prozesuan dauden kokaleku kutsatuen errentagarritasun potentzialari buruzko datuen falta dago.
Artikuluaren fitxa:- Aldizkaria: Ekaia
- Zenbakia: Ekaia 35
- Artikuluaren izena: Fitorremediazioa lurzoru kutsatuen kudeaketa iraunkorrerako estrategia gisa.
- Laburpena: Iraunkorrak eta (eko)toxikoak izan ohi diren konposatu ez-organiko eta organikoen isurketa masiboek potentzialki kutsatuta egon daitezkeen lurzoruen kopurua izugarri handitu dute. Lurzoruen osasuna (funtzionalitatea) eta kalitatea (emankortasuna) arrisku larrian egoteak eta, ondorioz, giza biziraupena estutasunean jartzeak lurzoru kutsatuen kudeaketa eraginkorra mundu mailako ingurumen-politiken premiazko jomugan paratu du. Gaian sartuta, lan honen helburu nagusiak hauek dira: (i) lurzoru kutsatuen kudeaketaren lege eta jarduera markoa aurkeztea; (ii) lurzoru kutsatuen kudeaketa eta arriskuen ebaluazioa aztertzea, eta, azkenik, (iii) ohiko erremediazio-teknika suntsitzaileen aitzinean, fitorremediazioaren arloan egiten ari diren esfortzu zientifiko-teknikoak argitara ekartzea. Lurzoru kutsatuen kudeaketan aurrerapenak egiteko landu beharreko hariak ere laburki iruzkintzen dira.
- Egileak: María Teresa Gómez-Sagasti, Lur Epelde, Oihana Barrutia.
- Argitaletxea: UPV/EHUko argitalpen zerbitzua.
- ISSN: 0214-9001
- Orrialdeak: 197-212
- DOI: 10.1387/ekaia.19633
————————————————–
Egileez:
María Teresa Gómez-Sagasti UPV/EHUko Zientzia eta Teknologia Fakultateko Landare Biologia eta Ekologia sailekoa da, Lur Epelde Neiker-Tecnaliako Baliabide naturalen kontserbazioa sailekoa da eta Oihana Barrutia UPV/EHUko Hezkuntza, Filosofia eta Antropologia Fakultateko Matematikaren eta Zientzia Esperimentalen Didaktika Sailean dabil.
———————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post Fitorremediazioa lurzoru kutsatuen kudeaketa iraunkorrerako estrategia gisa appeared first on Zientzia Kaiera.
Una información paradójica
Accromαth es una revista bianual editada por el Institut des sciences mathématiques y el Centre de recherches mathématiques, centros de investigación matemática ubicados en Montreal, Canadá. Sus artículos están orientados a la divulgación de las matemáticas y pensados principalmente para profesorado y alumnado de enseñanza secundaria.
Desde hace años la sigo con interés, sobre todo sus secciones Glanures mathématico-littéraires –Recolecciones matemático-literarias, con fragmentos de textos procedentes de la literatura en los que las matemáticas “se cuelan” de alguna manera– y Rubrique des paradoxes –Sección de paradojas–. Jean-Paul Delahaye es el responsable de este último apartado. Propone en cada número de la revista una paradoja relacionada de alguna manera con las matemáticas y la resuelve en el siguiente número, planteando una nueva para pensarla durante los seis meses que siguen. Algunas de ellas no son nada sencillas de resolver.
Delahaye es matemático de formación y profesor emérito de informática en la Universidad de Lille (Francia). Su investigación se centra en teoría de la complejidad computacional. Dedicado también a la divulgación de la ciencia, recibió en 1998 el Premio d’Alembert (nombrado en honor a Jean le Rond d’Alembert) otorgado por la Société Mathématique de France por el conjunto de sus trabajos de divulgación matemática.
En el segundo número de Accromath de 2019, Delahaye proponía un problema L’information paradoxale –La información paradójica– cuya solución se explica en el primer número de la revista de 2020.
Damos a continuación el enunciado del problema y la solución –ambas enunciadas y explicadas por Delahaye– tal y como aparecen en los dos números consecutivos de Accromath.
Imagen 1: Diseñada partir de una imagen de Pixabay.
Esta paradoja precisa paciencia para ser resuelta… o la ayuda de un ordenador.
Se eligen cinco números enteros distintos entre 1 y 10: a, b, c, d y e –están ordenados en orden creciente–. A un grupo de cuatro personas se les dan distintas informaciones para que adivinen de que números se trata: A Patricia se le dice cuál es su producto P, a Silvia su suma S, a Cristian la suma de sus cuadrados C=a2+b2+c2+d2+e2, y a Vicente la cantidad V=(a+b+c)(d+e).
Una hora después de haberles planteado el problema, las cuatro personas –a las que se pregunta de manera simultánea– responden a la vez: «Desconozco cuales son los números a, b, c, d y e.».
Tras haber transcurrido otra hora, las cuatro personas –a las que se pregunta de nuevo a la vez– responden conjuntamente: «Desconozco cuales son los números a, b, c, d y e.».
Se continúa de esta manera, hora a hora, obteniendo exactamente la misma respuesta hasta que han pasado veintitrés horas tras la formulación del problema. En ese momento las cuatro personas –a las que se pregunta simultáneamente por la solución– responden a la vez: «Desconozco cuales son los números a, b, c, d y e.». Tras esta contestación conjunta –la vigésimo tercera, idéntica a las anteriores–, las cuatro personas sonríen y exclaman al mismo tiempo: «¡Ya está! Ahora sé cuáles son los números a, b, c, d y e.».
Parece paradójico que la repetición –veintitrés veces– de la misma afirmación de ignorancia por parte de las cuatro personas lleve oculta una información significativa.
Ahora ya sabes lo suficiente para adivinar los cinco números a, b, c, d y e. Intenta entender la razón y ármate de paciencia, porque la solución llega tras realizar unos largos cálculos…
Así plantea Delahaye esta paradoja. Si deseas pensar en la respuesta, no mires aún la solución…
Hay 252 quíntuples posibles (a, b, c, d, e) que solucionan el problema: son las combinaciones sin repetición de diez elementos tomados de cinco en cinco, es decir, el número combinatorio C(10,5).
Algunos de esos quíntuples poseen una suma S que permitiría adivinar (a, b, c, d, e). Por ejemplo si S = 15, esta es la menor suma posible y necesariamente se tendría a = 1, b = 2, c = 3, d = 4 y e = 5. Como en el primer paso Silvia indicó que desconocía la solución, eso significa que la familia de números propuesta no puede ser (1, 2, 3, 4, 5). Esto sucede para otras sumas. De la misma manera, algunos productos P sólo pueden obtenerse de una manera y sucede lo mismo con las cantidades C y V.
Por medio de un largo cálculo a mano –o un poco más corto usando un ordenador– se llega a demostrar que la eliminación de esos quíntuples –cuyas cantidades S, P, C o V solo se pueden conseguir de una manera– reduce las posibilidades iniciales a 140. Patricia, Silvia, Cristian y Vicente realizan este razonamiento de eliminación durante la primera hora que sigue a la propuesta del problema.
A partir de esas 140 posibilidades para (a, b, c, d, e) cada persona puede volver a razonar de la misma manera. Si Silvia indica que no es capaz de decir cuál es la lista (a, b, c, d, e), eso indica que en esa nueva lista de 140 quíntuples se pueden eliminar las correspondientes a sumas S que solo aparecen una vez en esa lista. Lo mismo puede hacerse para P, C y V. Así, se llega a una lista de 100 posibles soluciones.
Razonando de este modo hora a hora, la reducción de posibles soluciones proporciona, paso a paso, posibilidades cada vez menos numerosas. De hecho, a lo largo de estas reducciones se obtienen posibles quíntuples candidatos en estas cantidades: 85, 73, 64, 62, 60, 57, 54, 50, 47, 44, 40, 36, 33, 31, 28, 24, 19, 13, 8, 4.
Imagen 2: Diseñada partir de una imagen de Pixabay.
La consideración de la última información dada en la etapa vigésimo tercera permite a las cuatro personas llegar a la solución única: S = 28, P = 3360, C = 178 y V = 195. Y, de este modo, terminan por deducir que a = 2, b = 5, c = 6, d = 7 y e = 8.
Referencias:
Jean-Paul Delahaye, Rubrique des paradoxes : L’information paradoxale, Accromath. Volume 14.2 – été-automne 2019
Jean-Paul Delahaye, Solution du paradoxe précédent: L’information paradoxale, Accromath. Volume 15.1 – hiver-printemps 2020
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Una información paradójica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Basoen gene-dibertsitatea klima-aldaketari aurre egiteko
Klima-aldaketaz gain basoek arazo ugariri aurre egin behar diote: esate baterako, deforestazioari, izurriteei eta gaitz berriei. Horiei guztiei aurre egiteko lanabes bat izan daiteke zuhaitzen ahalik eta gene-dibertsitaterik handiena jasotzea. Horrela, ingurune aldakorrei aurre egiteko gene-baliabide gehiago eman ahal zaizkie basoei. Haatik, urriak dira zuhaitzen gene-datu horiek. Aurreko batean zailtasun hori azaldu genuen Zientzia Kaieran, zur-trafikoaren aurka erabiltzen diren gene-teknikak jorratu genituenean, hain zuzen ere.
Gene-datuen eskasia hori betetzeko jarri zen abian GenTree egitasmoa. Egitasmo horren baitan, 14 herrialdetako ikertzailek lagindu dituzte, Europan zehar, ekonomikoki eta ekologikoki garrantzitsuak diren 12 zuhaitz-espezie. Horien artean daude izei zuria eta gorria, zenbait pinu espezie, hagin arrunta, urkia, pagoa, makal beltza edota haritza. Kontinente bateko basoak hain sakonki eta zabalki aztertzen den lehen aldia da. Egitasmo hau 2016. urtean hasi zen eta lau urtez luzatu da, hilabete honetan bukatuko baita. Zortzi milioi euroko aurrekontua izan du, Europar Batasunak lagunduta. Kontuan izan behar da Europar Batasuneko azaleraren %40tik gora basoek estaltzen dutela eta inguru horiek hornitzen dituztela egurra, janaria, energia, ur garbia edota uholdeen aurreko kontrola; eta basoak erabiltzen dituztela txori-behatzaileek, txangozaleek eta ehiztariek. Hortaz, garrantzitsua zen zuhaitzen gene-dibertsitatea dokumentatzea basoen kudeaketa hobetzeko. Alegia, kudeaketa hori, hazkuntzaren ikuspuntutik ez ezik, kontserbazioaren ikuspuntutik ere egiteko.
Datuak jaso ziren espezie bakoitzeko hamar eta hogeita bost populazio artean eta hogei zuhaitz inguru aztertu ziren populazio bakoitzean. Ikertzaileak saiatu ziren zuhaitzen hein guztia aztertzen eta muturreko inguruneetan –lehorteak dituzten eremuetan edo izozteak pairatzen dituzten lekuetan– bizi diren zuhaitzak lagintzen. Lagindutako zuhaitz bakoitzetik, sekuentziatu egin ziren aktibo zeuden geneak eta genomak; neurtu ziren urteko hazkundea, hosto-azalera, hazien ernetze-tasa eta gaixotasunei dieten erresistentzia; eta ikertu zituzten parametro horietan eragina zuten gene-aldaerak.
Azterketa horiei esker jakin daiteke zuhaitzak nola moldatzen diren beren inguruneetara; esate baterako, lehorteetara nola moldatzen diren eta zein gene-aldaerak eragiten duten moldaketa hori. Gainera, ikertzaileek ikusi dute espezie bakoitzaren barruan dibertsitate handia dagoela –oso ezaguna ez zen gertaera bat— eta basoen kudeaketan gutxitan kontuan hartzen den alderdia. Ikertzaileek uste dute egitasmo horretan bildutako datuek lagunduko dutela hobeto ulertzen zein eragin duen gene-dibertsitateak Europako basoen adaptazioan eta erresilientzian. Horrela, kontserbazionistek, baso-kudeatzaileek eta ikertzaileek aukera izango dute hobeto ezagutzeko basoak klima-aldaketara nola moldatzen diren. Ondorioz, basoak kudeatzeko orduan, gehiago izan beharko da kontuan genetika: garrantzia zuhaitz bakoitzaren gene-osaketari emango zaio, ez bakarrik zuhaitzaren jatorria zein den jakiteari. Azkenik, adituek uste dute gene-datuak erabiliko direla, orobat, basoen ustiaketa ekonomikoa erabakitzeko, ingurune bakoitzera hobeto moldatzen diren haziak erabilita.
Bestalde, ikertzaileek uste dute gene-datu hauek erabil daitezkeela aurresateko baso bat klima-aldaketaren aurrean moldatzeko gai izango ote den; eta horrela ez bada, baso horri laguntzeko. Adibidez, epeltzen ari den ingurune bateko basoan klima epeletara moldatuta dauden zuhaitzen haziak landa daitezke, migrazio lagundua deritzon prozesua erabilita, hain zuzen ere. Gene-datuak erabilgarriak izan daitezke erabakitzeko zein hazi landatu behar den landa berrietan edota zuhaitz sendoagoak hazteko. Edo alderantziz, baso batek gene-aniztasun nahikoa badu ez da beharrezkoa izango inolako esku-sartzerik eta zuhaitzak gai izango dira klima-baldintza berrietara moldatzeko.
Laburbilduz, inoiz jaso den zuhaitzen gene-dibertsitatearen bildumarik handiena egin da Europan. Ahalegin horri esker, datuak jarri dira ikertzaileen, baso-kudeatzaileen eta kontserbazionisten eskuetan, basoek aurretik dituzten erronkei hobeto erantzuteko. Ondorioz, klima-aldaketak basoetan eragin ditzakeen kalteen aurrean, lanabes berri bat eskuratu da genetikari esker.
Iturria:
Pennisi, Elizabeth (2020). Massive effort to document the genetics of European forests bears fruit. Sciencemag.org. doi:10.1126/science.abb0632
—————————————————–
Egileaz: Koldo Garcia (@koldotxu) Biodonostia OIIko ikertzailea da. Biologian lizentziatua eta genetikan doktorea da eta Edonola gunean genetika eta genomika jorratzen ditu.
—————————————————–
The post Basoen gene-dibertsitatea klima-aldaketari aurre egiteko appeared first on Zientzia Kaiera.
¿Más allá de la mecánica cuántica?
La idea de que la solución de la ecuación de Schrödinger es una onda que representa, no una onda física, sino la probabilidad de encontrar la partícula asociada en algún estado concreto de movimiento ha tenido un gran éxito. De hecho, cada experimento ideado hasta ahora para probar esta interpretación ha confirmado estos resultados [1]. Sin embargo, a muchos científicos todavía les resulta difícil aceptar la idea de que es imposible saber exactamente qué está haciendo una partícula. [2]
El más destacado de estos incrédulos fue Einstein. En una carta a su amigo y colega Max Born, escrita en 1926, comentó:
La mecánica cuántica es ciertamente imponente. Pero una voz interior me dice que no es todavía la auténtica. La teoría dice mucho, pero no nos aproxima un ápice al secreto del “viejo”. Yo, en cualquier caso, estoy convencido de que él no lanza dados.
Por lo tanto, Einstein estaba de acuerdo con la utilidad y el éxito de la mecánica cuántica, pero se negaba a aceptar leyes basadas en la probabilidad como el nivel final de explicación en física. El comentario sobre no creer que Dios jugase a los dados (una expresión que usó muchas veces más tarde) expresaba la fe [3] de Einstein de que aún se deben encontrar leyes más básicas y deterministas. Con esto quería decir que si se conociesen todas las condiciones de un sistema aislado y se conociesen las leyes que describen las interacciones, entonces debería ser posible predecir con precisión, de acuerdo con la «causalidad estricta», lo que sucederá a continuación, sin ninguna necesidad de probabilidad [4].
Algunos científicos estuvieron y están de acuerdo con Einstein, pero todos los científicos están de acuerdo en que, como teoría, la mecánica cuántica funciona en la práctica. Da las respuestas correctas a muchas preguntas en física; unifica ideas y sucesos que alguna vez estuvieron desconectados; ha producido muchos experimentos y conceptos nuevos de enorme utilidad práctica, abriendo la puerta a muchos avances tecnológicos, desde transistores, microprocesadores y superconductores, hasta láseres y las últimas técnicas de imagen médica, por mencionar algunos.
Por otro lado, todavía hay discusiones acaloradas [5] sobre el significado básico de la mecánica cuántica. Produce funciones de probabilidad, no trayectorias precisas. Algunos científicos ven en este aspecto de la teoría una indicación importante de la naturaleza del mundo. Para otros científicos, el mismo hecho indica que la mecánica cuántica aún está incompleta. [2] Algunos en este segundo grupo están tratando de desarrollar una teoría más fundamental y no estadística. Para un modelo así, la mecánica cuántica actual sería solo un caso especial. Como en otros campos de la ciencia, los mayores descubrimientos aquí pueden ser los que aún no se han hecho. [6]
Notas:
[1] Los que vean esto como prueba falsacionista irrefutable tendrán motivo para la reflexión leyendo La falsación ya no es lo que era y los enlaces que contiene.
[2] Visto [1], también comprenderán que haya quien insista en encontrar variables ocultas. Véase adicionalmente Los dados de Dios.
[3] Incluso los científicos que desprecian la filosofía, lo que no era el caso de Einstein precisamente, parten de una cosmovisión que prejuzga; muchas veces esta cosmovisión no explícita tiene una base filosófica o religiosa y, en algunos casos, es pura ideología. Véase Sesgos ideológicos que aquejan a la ciencia.
[4] Este convencimiento entronca con el concepto de verdad; la ciencia es coherentista, aunque muchos la consideren correspondiente, como Einstein. Sobre esto véase Verdad verdadera.
[5] Entendamos que el acaloramiento es un término relativo, sobre todo si tenemos en cuenta que la discusión se sustancia en forma de artículos subidos a arXiv u otros repositorios.
[6] Más sobre este asunto en nuestra serie Incompletitud y medida en física cuántica
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo ¿Más allá de la mecánica cuántica? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Eguzki Sistema: atzo, gaur eta bihar (I)
Gaur egun, Eguzki Sistema ez ezik, beste sistema planetario batzuk ere ezagutzen ditugu. Merkurio, Artizarra, Lurra, Marte, Jupiter, Saturno, Urano eta Neptunoz gain, 3.000tik gora planeta topatu ditugu gertuen ditugun izarren inguruan biraka. Aipagarria da TRAPPIST-1 kasua, izarraren inguruan 7 planeta baititu. Gure sistema kosmikoki berezia ez dela onartuz, planeta-formazio eredu orokor batek gai izan behar luke, Eguzki Sistemak gaur dituen ezaugarriez gain, exoplaneta horien guztien sorrera ere azaltzeko.
Eguzki Sistemaren egungo ezaugarriakEguzki Sistema aztertzean, Eguzki beroa ikusten dugu erdi-erdian. Barnealdean, planeta harritsuak. Eta, kanpoaldean, gasezko planetak eta planeta izoztuak. Gorputz harritsu txikiz osatutako barne eraztun bat ere badugu, eta baita gorputz izoztu txikiz osatutako kanpo-eraztun bat. Eta ezin ahaztu harri-izotz nahasketazko satelite eta planeta nanoak, edota sistemaren puntu urruneneko kometa izoztuak.
Sistema planetarioen sorrera- edo formazio-eszenario ezberdinak ikertzerakoan, Eguzki Sistemaren geometriak pista garrantzitsuak ematen ditu, baina baita mugak jartzen ere. Planetak (nagusiak zein nanoak) plano berean daude, 6º-ko diferentziarekin; denek noranzko berean egiten dute bira Eguzkiaren inguruan, eta gehienek noranzko horretan bertan ematen diote bira euren buruari. Planeten periodo orbitala (Eguzkiari bira bat emateko behar duten denbora) gero eta handiagoa da Eguzkitik urruntzean. Asteroideen Gerrikoko edo Kuiperren Gerrikoko objektu txikienek, ordea, orbita eliptikoagoak eta makurtuagoak izaten dituzte.
Objektu txikiek forma irregularra izaten dute, normalean, eta ez-diferentziatuak dira. Objektu handiak, berriz, esferikoak eta diferentziatuak izan ohi dira. Hau da, iraganeko momenturen batean tenperatura nahikoa izan zuten barneko materiala urtu eta barnean zenbait geruza sortzeko. Objektuen gainazalak ere iragan termikoari buruzko informazioa eman lezake, kraterrez edo labaz estalia egon baitaiteke. Kraterrak zenbatuz, Eguzki Sistemaren hasierako faseetan izandako inpaktu tasa lor daiteke.
Lurrera eroritako meteoritoen azterketari esker, Eguzki Sistemako lehen solidoak orain dela 4.570 milioi urte ingurukoak direla dakigu. Ilargiko harriak 3.000 – 4.400 milioi urtekoak dira, eta Lurreko harri zaharrenak 4.000 milioi urtekoak (baina 4.400 milioi urteko lur-aleak ere topatu dira).
Izar-eraketaren eredu estandarraEzaguna da planetak izarren inguruan sortzen direla, izarren eraketa–prozesuaren ondorio natural moduan. Beraz, planeten sorrera ikusi aurretik, izarren sorrera aztertu behar dugu.
Izarrak galaxien beso espiraletan dauden molekula-hodeietan sortzen dira. Molekula-hodeiak hodei dentso eta hotzak dira, gas eta hautsez beteak. Esne Bideak ugari ditu, sistema erraldoietatik (100.000 – 1.000.000 Eguzki masa bitarte dituztenak) nukleo txikietara (Eguzki masa gutxikoak). Dentsitateak askotarikoak dira; hodei erraldoietan 1.000 partikula daude cm3 bakoitzean, eta nukleo txikietan 100 aldiz gehiago. Molekula-hodei gehienek -223ºC baino tenperatura baxuagoak dituzte.
Hodeien egonkortasuna hainbat indarren arteko orekari zor zaio; grabitateak, indar magnetikoak, gasaren presio-termiko indarrak eta errotazioak sortutako indarren orekari, hain zuzen. Dena dela, oreka hori apurtu dezaketen zenbait fenomeno agertzen dira espazioan; galaxien arteko talka, galaxia bereko molekula-hodeien talka, gertuko supernoba baten eztanda… Halako gertakizun batek molekula-hodei baten dentsitatean perturbazioak eragin eta gune trinkoagoak sortu ditzake. Gune trinko hauetan materia (gas eta hauts) gehiago pilatzen denez, bertako grabitatea indartu egiten da eta inguruko materia erakarria sentitzen da, eta gune trinkora eroriko da, ondorioz. Zenbat eta materia gehiago metatu, orduan eta indartsuagoa da grabitatearen erakartze-indarra eta orduan eta materia gehiago pilatzen da. Molekula-hodeiaren kolapso grabitazionala hasi da orduan.
Kolapsoan, energia potentziala energia termiko bilakatzen da. Hasiera batean, nukleoak tenperatura mantentzen du, irabazitako energia termikoa kanporantz igorriz. Baina nukleoko dentsitatea oso handia denean, gehiegizko energia termiko hori nukleoa berotzen eta bertako presioa igoarazten hasten da. Halako une batean, grabitate indarraren (barruranzkoa) eta presio indarraren (kanporanzkoa) arteko oreka lortzen da; oreka hidrostatikoa. Sortu berri den gorputzak protoizar izena jasotzen du eta bere inguruko materialak, izar-hodeia.
Nukleoko tenperaturak 1 milioi gradu inguruko balioa lortzen duenean, erreakzio nuklearrak hasten dira. Eta 10 milioi graduko tenperaturan, hidrogenoaren fusioa hasten da eta izar bat jaio dela esaten da.
Disko planetarioaren jatorriaBere buruarekiko biratzen ari den patinatzaile batek, uzkurtzen denean, abiadura irabazten duen moduan, kolapsatzen ari den izar-hodeiak ere abiadura irabazten du. Zenbat eta biraketa azkarragoa izan, orduan eta handiagoa da indar zentrifugoa (errepideko bihurgune batean edo tiobibo batean kanporantz bidaltzen gaituen indarra). Indar zentrifugoa handiagoa da esfera baten erdiko planoan (ekuatorean) poloetan baino, eta, ondorioz, kolapsatzen ari den hodei esferikoa gas eta hautsezko diskoa bilakatzen doa poliki-poliki. Prozesuak iraun egiten du diskoan barrena grabitate indarra (zentroranzkoa edo izarreranzkoa) eta indar zentrifugoa (kanporanzkoa) orekatzen diren arte. Disko protoplanetario bat sortu berri da.
Une honetan diskoa oraindik oso lodia da eta materia asko du. Milioi urte gutxi batzuen buruan, gas eta hauts zati handi bat protoizarrera eroriko da, diskoan zehar materia barrurantz garraiatzen delako, momentu angeluarra (abiadura kantitatea, nolabait) kanporantz garraiatzen den heinean.
Aldiune batean, diskoko gasa barreiatu edo sakabanatu egiten da eta, ondorioz, hustu egiten da ordura arte sortu diren gorputz solidoen arteko espazioa. Uste da hiru fenomenoren ondorio dela. Alde batetik, izarrak eragindako akrezioa garrantzitsua izan daiteke (sortzen duen grabitatea oso indartsua da eta distantzia handietara dagoen gasa ere erakar dezake). Bestetik, izarraren erradiazioak (izar-haizeak) gasa sistematik kanpora bultza dezake. Eta azkenik, izar gaztearen energia altuko erradiazioak fotoebaporazioa eragin lezake.
Horrek denbora-muga bat ezartzen du planeta gaseosoen eraketan, gasa diskotik barreiatu ostean planeta horiek sortzeko materialik ez baita geratzen. Hori dela eta, Jupiter eta Saturno moduko gasezko planetak 3-5 milioi urtean eratzen direla uste da. Planeta lurtarrak edo telurikoak, ordea, askoz geldoago sortzen dira.
Planeta bakoitzak jarraitu duen eraketa-prozesua eta Eguzki Sistemak izan dezakeen amaiera katastrofikoa hurrengo artikulu batean landuko dira.
—————————————————–
Egileaz: Itziar Garate Lopez (@galoitz) UPV/EHUko Fisika Aplikatua I Saileko irakaslea da eta Zientzia Planetarioen Taldeko kidea.
—————————————————–
The post Eguzki Sistema: atzo, gaur eta bihar (I) appeared first on Zientzia Kaiera.
Parte de la investigación científica es quizás irrelevante
La actividad investigadora no ha dejado de crecer en el mundo. Cada vez son más los países que dedican importantes volúmenes de recursos a sostenerla. Y como consecuencia de ello, cada vez hay más resultados que publicar. Por otro lado, no dejan de surgir disciplinas o subdisciplinas, y es normal que la aparición de esas disciplinas venga acompañada por la creación de una o varias revistas científicas en las que se publica los trabajos de aquellas. Además, como se ha señalado antes, los profesionales de la ciencia y quienes aspiran a formar parte de la profesión se encuentran cada vez más presionados para publicar artículos con los resultados de su trabajo. Y por otro lado, las revistas científicas cada vez imponen más restricciones a las dimensiones de cada publicación. Por todo ello, se publican infinidad de artículos científicos cada día, miles, de todo tipo de temas, cada vez más y, en promedio, cada vez más breves.
Una parte importante de esos artículos no son leídos por nadie. Según estimaciones relativamente antiguas, un 55% de los artículos científicos no se citan nunca, y muchos otros son consultados y, a veces, citados, en muy pocas ocasiones (Hamilton, 1990; Pendlebury, 1991). Las cosas, sin embargo, no parecen alcanzar extremos tan alarmantes (Van Noorden, 2017) para las alrededor de 12.000 revistas referenciadas en la Web of Science. Al parecer no llega al 10% el porcentaje de artículos no citados en las revistas de esa base de datos, aunque es probablemente bastante más alto en los miles de revistas no recogidas y que, sin embargo, figuran en el currículo de muchísimos investigadores y en la producción de muchos centros de investigación.
Variación del número de artículos científicos publicados en el mundo de acuerdo con diferentes bases de datos bibliográficas. Fuente: Shiffrin et al (2018) PNAS 115 (11): 2632-2639Un 4% de todos los artículos publicados en revistas biomédicas, un 8% de los de química y un 11% de los de física no había sido citado diez años después. Si se excluyen las autocitas, o sea, las ocasiones en que un investigador cita su propio trabajo, el porcentaje de artículos no citados sube de manera considerable (en algunas especialidades hasta un 50%). Esas son las disciplinas en las que los porcentajes de artículos no citados son los más bajos. Los artículos no citados llegan a ser el 24% en ingeniería y tecnología, mucho más alto que en las ciencias naturales. Considerando la literatura científica en su conjunto (39 millones de artículos de todas las disciplinas regogidas en la Web of Science) desde 1990 hasta 2016, un 21% no habían recibido ninguna cita. La mayor parte de esos artículos no citados se habían publicado en revistas poco conocidas. Esa es la razón por la que hay razones para pensar que el porcentaje de artículos no citados es aún mayor en las revistas no recogidas en esa base documental.
En otra categoría se encuentran las revistas de humanidades. El 65% de los artículos de ese campo no habían sido citados en 2006, lo que puede deberse, en parte al menos, a que en la investigación en humanidades hay quizás menor dependencia del saber acumulado que en las ciencias naturales. Aunque también ocurre que en la Web of Science no están bien representadas esas disciplinas, porque ignora muchas revistas y libros.
La diferencia entre las estimaciones de 1990 y 1991, por un lado, y la de 2006 por el otro, se debe, en parte, a que las primeras incluían cartas al editor, respuestas, editoriales y, en general, todas las piezas publicadas por las revistas, mientras que la última solo valoraba las de los artículos de investigación publicados. Pero otra razón es que a lo largo de los años se ha producido un descenso en el porcentaje de artículos no citados y es descenso obedece, también en parte, a que en cada artículo se incluyen cada vez más citas.
Por último, los especialistas en cienciometría advierten acerca del hecho de que hay más artículos que son citados una o dos veces que los que no son citados. Y si se tiene en cuenta lo superficiales que son muchas de las citas, el diagnóstico del fenómeno no es nada halagüeño. Hay muchísima investigación que tiene un impacto mínimo o que lo tiene nulo.
Puede resultar aventurado considerar muchos de esos artículos carentes de todo interés. La trayectoria de un artículo puede ser muy azarosa y acabar teniendo suficiente impacto muchos años después de su publicación aunque en los inmediatamente siguientes su influencia haya sido nula. Pero no es verosímil que eso ocurra con la mayoría de los artículos que no se citan o se citan mínimamente. La cruda conclusión es que mucha investigación realizada (a la vista de los datos anteriores cabría hablar quizás de un 20%, aproximadamente) no interesa a nadie, y quizás un porcentaje similar interesa a algunos, pero interesa poco. En otras palabras, una parte muy importante de la investigación no es relevante a juicio de la propia comunidad científica, por lo que es desconocida y el esfuerzo que se le ha dedicado, es un esfuerzo baldío.
Una derivación extrema y, cabría decirse, patológica, de este estado de cosas, es el fenómeno de las revistas depredadoras de acceso abierto. Como puede atestiguar cualquier investigador en ejercicio, hay empresas que organizan congresos científicos y editoriales que publican revistas supuestamente especializadas que ofrecen la posibilidad de presentar comunicaciones (en los congresos) o publicar artículos (en las revistas) previo pago de importantes cantidades de dinero. Jeffrey Beall, bibliotecario de la Universidad de Colorado en Denver (EEUU), ha confeccionado una lista de ese tipo de revistas, que puede consultarse aquí (actualizada en 2015) y Antonio Martínez Ron ha tratado el fenómeno en Vozpópuli.
Existen esas revistas y se celebran esos congresos porque hay investigadores que los alimentan con sus contribuciones. No solamente carecen de la más mínima credibilidad en la comunidad científica; no tienen, además, ningún interés para nadie. Se publican porque el sistema de publicaciones ha perdido su función original y ha pasado a satisfacer los requerimientos de una comunidad necesitada de acreditar logros para estabilizarse o progresar en la carrera académica. Las revistas de calidad, al menos, ejercen un cierto control aunque sus publicaciones tengan eco escaso o nulo. Las depredadoras no llegan ni a cubrir esos mínimos. Pero no debemos engañarnos, todo ello es consecuencia de un sistema que ha pervertido sus objetivos primordiales.
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo Parte de la investigación científica es quizás irrelevante se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Baina non demontre daude denak?
Oraindik Lurretik kanpoko izakien bisitarik jaso ez izanak eragiten zion harridura adierazten zuen fisikari italo-amerikarraren galderak. Fermiren ustez, Esne Bidean beste zibilizazio batzuk sortu izanaren nahiko probabilitate handia zegoen eta, horregatik, harrigarria egiten zitzaion horren frogarik ez egotea. Nahiz eta Fermi bera ez izan inpresio kontraesankor hori formulatzen lehena, gaur egun Fermiren paradoxa izenez ezagutzen da.
1961ean, Frank Drake astrofisikariak ekuazio bat diseinatu zuen, gure galaxiako zenbat zibilizaziorekin komunikatu ahalko ginatekeen jakiteko; hala ere, ariketa horren arrazoi nagusia bizitza adimendunaren bilaketari buruzko eztabaida sustatzea zen. 1975ean, Michael Hart astrofisikariak Fermiren argumentua zehatz-mehatz landu zuen zientzia artikulu batean. Eta 2013an, Sara Seager astrofisikariak Drakeren ekuazioaren bertsio paralelo bat proposatu zuen, kasu honetan gure galaxiako planeta potentzialki habitagarrien kopurua kalkulatzeko.
Alde batetik, badakigu Esne Bidean Eguzkiaren pareko milaka milioi izar daudela eta, gainera, hura baino milioika urte lehenago eratu zirela. Bestalde, oso litekeena da izar horietako batzuek gurearen antzeko planetak izatea; beraz, ez litzateke harritzekoa izango planeta horietan bizi adimenduna garatu izana. Behin horretara ezkero, ez litzateke ezinezkoa izango izaki adimendun horiek izarrarteko bidaiak egitea eta, hala, gure planetan ere egon izana edo, behintzat, haiek bidalitako zundak iritsi izana. Eta, hala ere, ez dago halakorik gertatuaren frogarik. Fermik horregatik egin zuen galdera: “Baina non demontre daude denak?”.
Jakina, paradoxa argitu ahalko luketen zenbait argumentu eman dira. Adibidez, planteatu izan da zenbait trantsiziok –adibidez, materia inertetik materia bizira, zelula bakunetik konplexuetara, edo izaki indibidualetatik sozialetara– beste mundu batzuetan denbora asko beharko zutela edo, beharbada, oraindik ez direla gertatu. Lur Bereziaren hipotesiaren arabera, beharbada gure planetako baldintzak ohiz kanpokoak dira, eta oso planeta gutxi daude horrelako ezaugarriak dituztenak. Bestalde, Lurrean bertan, bizi adimendunak oso historia laburra du; beraz, ez dakigu zenbateraino den gertaera benetan ezohikoa edo bakarra, eta arrazoi hori teknologia edukitzearen arlora estrapola dezakegu, zeina askoz ere mugatuagoa den. Proposamen apokaliptiko batek, berriz, hauxe dio: ikusita gizakiek elkar hiltzeko joera hipotetikoa dutela, bizi adimendunak, beharbada, bere burua suntsitzera joko du. Edo, agian, beste bizi mota adimendun batzuk suntsitzeko joera du, eta, horrela, bizi mota hori askoz ere iragankorragoa bihurtzen da. Beste batzuek uste dute baliabideak agortzeari lotuta dagoela zibilizazio batek galaxian zehar hedatzeko duen gaitasunaren muga. Edo, besterik gabe, ez gara behar den bezala bilatzen ari.
Modu batera zein bestera, gero eta teknologia hobea daukagu espazioa esploratzeko, eta programa espezifikoak daude hor kanpoan bizia bilatzen saiatzeko. Bertigoa emango lidake aurkituko bagenu. Baina oraindik bertigo handiagoa jakiteak bizirik ez dagoela, Unibertsoan guztiz bakarrik gaudela.
———————————————————————————-
Egileaz: Juan Ignacio Pérez Iglesias (@Uhandrea) UPV/EHUko Fisiologiako katedraduna da eta Kultura Zientifikoko Katedraren arduraduna.
———————————————————————————
The post Baina non demontre daude denak? appeared first on Zientzia Kaiera.
Así nos hizo la Iglesia: Individualistas, independientes y prosociales si no es personal
En el año 506 la Iglesia de Occidente, en un concilio celebrado en la localidad de Agda, Francia, tomó una decisión de profundas consecuencias para el devenir de Europa y por ello, aunque de forma indirecta, el de la humanidad. Con el fin de acabar con el incesto, prohibió el matrimonio entre primos, y a partir de aquella decisión adoptó una serie de normas que ampliaron la prohibición de casamiento entre miembros de una misma familia. A comienzos del segundo milenio, la prohibición alcanzó a los primos en sexto grado. Se proscribió el matrimonio con familiares adoptivos, así como con parientes políticos. La Iglesia promovió también los casamientos “por elección” de los cónyuges en contra de la práctica tradicional de matrimonios acordados, y a menudo requería que los recién casados se estableciesen en una residencia independiente de la de sus progenitores (residencia neolocal). Igualmente, prohibió la adopción legal, las segundas nupcias, cualquier forma de poligamia y el concubinato.
Pues bien, de acuerdo con un estudio basado en el análisis de un ingente volumen de datos y cuyas conclusiones se han publicado recientemente, esa decisión, a través de sus efectos sobre la estructura social, ha propiciado en las poblaciones occidentales una psicología diferente de la del resto de poblaciones en lo relativo al grado de individualismo, confianza, conformidad y pensamiento analítico de sus miembros.
Según los autores de la investigación, como consecuencia de las medidas tomadas por la Iglesia, hacia el año 1500 gran parte de Europa se caracterizaba por una configuración social basada en débiles relaciones de parentesco, con unidades familiares monógamas, descendencia bilateral, matrimonio tardío y residencia neolocal. Esa estructura social se diferenciaba con claridad de la que caracterizaba a la mayor parte del resto de sociedades, al menos hasta que recibieron el influjo europeo.
Las instituciones basadas en el parentesco han sido las estructuras en torno a las cuales se ha organizado la vida social a lo largo de la historia humana. Además, desde el comienzo del Neolítico, con la aparición de la agricultura, y mediante un proceso de evolución cultural, se ampliaron y reforzaron las normas de parentesco intensivo, como el matrimonio entre primos, la formación de clanes familiares y la convivencia de familias extensas en una misma residencia. Todo ello promovía la cohesión social, la interdependencia y la cooperación dentro del grupo.
Dado que las normas sociales moldean las motivaciones, emociones y percepciones de la gente, quienes se educan y conviven en sociedades con instituciones basadas en fuertes vínculos de parentesco desarrollan unos rasgos psicológicos que les facilitan adaptarse a las demandas del entorno colectivista propio de su densa red social. Las normas de parentesco intensivo recompensan la conformidad, la obediencia y la lealtad intragrupal, a la vez que desincentivan el individualismo, la independencia y las motivaciones impersonales que promueven la justicia y la cooperación.
Por todo ello, en las sociedades occidentales, al haberse difuminado la estructura social basada en los vínculos de parentesco, la gente tiende a ser más individualista, independiente y prosocial de una forma impersonal, a la vez que muestra menor conformidad y lealtad para con el grupo al que pertenecen. Son las sociedades denominadas “WEIRD”, acrónimo inglés de white (blanca), educated (educada), industrialized (industrializada), rich (rica), democratic (democrática). De ser correctas la conclusiones de este estudio, bien podría ser que un propósito de la Iglesia tan modesto como era el de acabar con el incesto, haya estado en el origen, al menos en parte, de la extraña prosperidad de que gozan los países occidentales. No por casualidad, además del acrónimo dicho, weird en inglés significa extraño.
Fuente: Jonathan F. Schulz, Duman Bahrami-Rad, Jonathan P. Beauchamp and Joseph Henrich (2019): The Church, intensive kinship, and global psychological variation. Science 366 (6466), eaau5141. DOI: 10.1126/science.aau5141.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Así nos hizo la Iglesia: Individualistas, independientes y prosociales si no es personal se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Asteon zientzia begi-bistan #292
Marten lurrikarak detektatu dituzte NASAko ikertzaileek. InSight zunda Marteko azalera iritsi zenetik, 174 gertaera sismiko identifikatu dituzte, horietatik batzuk 3-4 mailako lurrikarak izan dira. Gauzak horrela, mugimendu sismikoak egoteak frogatu du Marte sismikoki aktiboa dela. Halaber, zundak aztertu ditu planetaren atmosfera, haizeteak eta magnetismoa. Elhuyar aldizkarian topatuko dituzue xehetasun gehiago.
BiologiaGarunak musika eta hitzak nola bereizten dituen argitu dute McGill Unibertsitateko (Kanada) ikertzaileek. Horien arabera, pertzepzioa estimuluan dagoen informazio akustikoaren araberakoa da: hitzen pertzepzioaren oinarrian modulazio tenporal motzak prozesatzeko ahalmena dago. Musikaren pertzepzioan, berriz, soinuen espektroan dago gakoa. Egindako esperimentuaren xehetasunak Elhuyar aldizkarian aurkituko dituzue.
Zer egiten dute moko-baleek orketatik babesteko? Sakontasun handiko uretan ibiltzen dira normalean baina itsas azalera itzultzean, haientzako izugarrizko eremu arriskutsua denez, estrategia bat jartzen dute martxan: isilpeko igeriketa. Moko-baleek erabiltzen duten ibilbidea eta portaera aztertu dituzte ikerketa batean eta ikusi dute itsas azalera bueltatzean, ez dutela modu zuzenean egiten, zeharka baizik. Gainera, igotzean, 700 metroko sakonetik erabateko isiltasuna mantentzen dute, artikuluan irakur daitekeenez.
OsasunaDiabetesari buruzko hirugarren atalean, iraganera egin dugu jauzi, historian zehar gaixotasunak izan duen garapena eta data esanguratsuenak bildu dizkigu Josu Lopez-Gazpiok. Badakigu aspalditik ezaguna dela diabetesa eta horri aurre egiteko hainbat ahalegin egin direla. Hala nola, 1869. urtean Paul Langerhansek pankreako zelula-multzoak ezagutzera eman zituen haren tesian. 1921.urtean, adibidez, Frederick Banting eta Charles Best ikertzaileek ordura arteko ideiak elkartu eta pankrearen substantziak bilatzen hasi ziren. Bazekiten pankreak zerbait izan behar zuela eta horren gabeziak diabetesa sortzen zuela. Ez galdu ibilbide historiko hau!
Ikerketa batek frogatu du depresioak %50 areagotzen duela hiltzeko arriskua. Elhuyar aldizkariak azaltzen digunez, arriskua are handiagoa da gizon gazte eta adin ertainekoetan: 18-64 urteko gizonek 6 aldiz arrisku handiagoa dute hiltzeko.
Bizi-itxaropena handiagoa da herrialde aberatsenetan herrialde pobreenetan baino, hau da, zenbat eta diru-sarrera handiagoak orduan eta elikadura, etxebizitza, arropa hobea, eta horrenbestez, orduan eta hobea da osasuna. Baina Samuel Preston demografoa konturatu zen agian dena ez zegoela diru-sarreraren mailaren mende. Hamarkada bat geroago, John C. Caldwell demografoak ikusi zuen eskualde pobreetan bizi-itxaropenak gora egiten zuela osasun zerbitzuak hobetzeaz gain emakumeek hezkuntzarako sarbidea zuten tokietan. Halaber, Wolfgang Lutz eta Endale Kebede ikertzaileek ikusi zuten hezkuntza mailak diru-sarreren mailak baino eragin handiagoa zuela biztanleriaren osasun egoeran. Honen guztiaren informazioa artikuluan.
GeologiaAzken bi milioi urtean izandako erupzio handienetakoa gertatu zen duela 74.000 urte inguru Sumatra uhartean (Indonesia): Toba sumendiak eztanda egin zuen eta zientzialari askok uste dute horrek eragin handia izan zuela garaiko gizakiengan. Orain, baina, nazioarteko zientzialari talde batek esan du gertakizun hori ez zela hain katastrofikoa izan. Elhuyar aldizkarian informazio guztia.
MikrobiologiaErrealitate bilakatu den fenomeno baten aurrean gaude: gure betiko antibiotikoak geroz eta ahulagoak dira bakterioen aurka. Super-bakterio hauei buruzko ikerketa asko abiatu dira azken urteotan, eta adimen artifizialak badu zeresana afera honetan, izan ere, aurreko astean argitaratu zen artikulu batean erakusten zuten nola erabili neurona-sare artifizialak antibiotiko berriak diseinatzeko. Ikertzaileek erakutsi dute era horretara diseinatutako antibiotiko berritzaile batek hainbat superbakterio hiltzen dituela laborategiko probetan. Berrian irakur daitekeenez, bide berri bat ireki dute superbakterioak garaitzeko!
IngurumenaZaldibarko zabortegiaren harira, asteon Eusko Jaurlaritzako Osasun Sailak jakinarazi du dioxina eta furano maila “nabarmen” murriztu dela, eta “hiri eremuetan ohikoak” diren mailetan daudela. Zaldibarko zabortegiaren inguruko herrietan egindako dioxina eta furano azterketen emaitzen sintesia aurkituko duzue Berriako artikulu honetan.
NeurologiaSare neuronalak izan dituzte mintzagai Unibertsitatea.neteko artikulu honetan. Giza burmuinaren funtzionamendua eredutzat hartuta, patroiak ezagutzeko erabiltzen diren algoritmo multzoak dira. Definizioa eta sailkapenaz gain, sare neuronalen osagaiak aztertu dituzte, baita ikaskuntza-algoritmoak ere. Honen inguruan unibertsitatea.neten.
Adimen artifizialaDatuen Zientzien eta Adimen Artifizialaren Institutua martxan jarri du Nafarroako Unibertsitateak. Institutu berriak ikerketa, berrikuntza, transferentzia eta formakuntza izango ditu helburu. Jesus Lopez Fidalgo institutuko zuzendariak Big data-ren garrantziaz hitz egin du Berrian: “Beti izan dugu datu asko. Orain dela bi mende datu asko ziren 500, orain datu asko dira milioika, milioika eta bilioika datu, aldagai eta zenbaki. Beti arazo hori izan dugu: datu kopuru handiak analizatzearena. Orain, arazo horrek salto oso handia eman du aurrerapen teknologikoei esker eta denetariko datuak ateratzeko dugun gaitasunari esker”.
KimikaEgun, materialak ezaugarritzeko erabiltzen diren teknikek informazio dezente uzten dute agerian. Informazio hau garrantzitsua eta beharrezkoa da polimero horietatik eratorritako materialen propietateak ezagutzeko. Polimeroak karakterizatzeko, Matrix Assisted Laser Desorption-Ionization Time of Flight Mass Spectrometry (MALDI/TOF MS) teknika dugu, sortu zenetik asko hedatu dena, polimeroen karakterizazioan, masa molarraren banaketaz gain, polimeroen unitate monomerikoa, polisakabanatzea eta kateen muturrak ezagutzea lor daitekeelako. Lan honetan teknika horren oinarriak azaltzeaz gain, zenbait polimeroen karakterizazio adibideak aztertu dituzte.
–——————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
———————————————————————————-
Egileaz: Uxue Razkin (@UxueRazkin) kazetaria da.
———————————————————————————-
The post Asteon zientzia begi-bistan #292 appeared first on Zientzia Kaiera.
Geotermia urbana
Los fósiles, los minerales o las rocas son, entre otras cosas, en lo primero que pensamos al hablar de geología, pero lo cierto es que la física es un ámbito científico que difícilmente se puede desvincular de la geología. Y es que el fundamento físico resulta clave a la hora de explicar algunos procesos geológicos que suceden tanto en el océano como en la superficie terrestre.
Con el fin de poner sobre la mesa la estrecha relación entre la geología y la física, los días 27 y 28 de noviembre de 2019 se celebró la jornada divulgativa “Geología para poetas, miopes y despistados: La Geología también tiene su Física”. El evento tuvo lugar en la Sala Baroja del Bizkaia Aretoa de la UPV/EHU en Bilbao.
La segunda edición de esta iniciativa estuvo organizada por miembros del grupo de investigación de Procesos Hidro-Ambientales (HGI) de la Facultad de Ciencia y Tecnología de la Universidad del País Vasco, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Geoparque de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.
Las técnicas geotérmicas permiten aprovechar temperaturas tan bajas como 25ºC y hasta 15ºC. Iñigo Arrizabalaga, director general de Telur Geotermia y Agua S.A. (Durango), nos introduce en esta energía renovable.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Geotermia urbana se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ezjakintasunaren kartografia #297
Garun erdiarekin bizi daiteke? Eta erdiarekin baino gutxiagorekin? Baiezkoa da erantzuna, baina, zelan? J.R. Alonsoren Living with half a brain
Min kronikoa tratatzeko bezalako interbentzio medikuetan nahitaezko tresna bilakatzen ari dira simulazio matematikoak. BCAMekoek Heterogeneous sorroundings are critical in the analysis of nerve ablation for treating chronic pains
Molekula bat isomero zelan bihurtzen den pausoz pauso behatu duten DIPCn fluoreszentzia eta tunel efektuko mikroskopioa erabilita. Tracking the tautomerization of a single molecule in space and time
–—–
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #297 appeared first on Zientzia Kaiera.
Magnetosomas para el tratamiento del cáncer
Las nanopartículas magnéticas han permitido en los últimos años explorar modos de actuación alternativos a las terapias actualmente en uso en la lucha contra el cáncer. Una ventaja notable de las nanopartículas magnéticas es que pueden emplearse como agentes teranósticos (elementos que participan tanto en la terapia como en el diagnóstico) y entre los diferentes tipos destacan los magnetosomas, nanopartículas magnéticas sintetizadas por un tipo concreto de bacterias denominadas bacterias magnetotácticas.
Estos nanosistemas no solo se pueden usar en el transporte de fármacos sino que también presentan notables propiedades físicas y magnéticas para poder emplearlos en hipertermia —aumento de la temperatura corporal—, así como en el transporte guiado de fármacos. “El presente trabajo se centra en el estudio del potencial terapéutico de los magnetosomas en tratamientos de hipertermia magnética, una técnica que aprovecha la energía térmica producida por nanopartículas magnéticas bajo la acción de un campo magnético alterno para eliminar las células cancerígenas”, señala David Muñoz Rodríguez, investigador del Departamento de Inmunología, Microbiología y Parasitología de la UPV/EHU.
“Los magnetosomas, al contrario que las nanopartículas magnéticas de síntesis química, poseen de manera natural una membrana lipoproteica que los protege, evitando a la vez su aglomeración. Además, pueden funcionalizarse, es decir, ciertos fármacos o agentes antitumorales pueden adherirse a la membrana para poder guiarlos de forma eficiente hasta la masa tumoral. Las nanopartículas magnéticas emiten en forma de calor la energía que absorben del campo magnético alterno que se les aplica desde el exterior, provocando así un aumento de temperatura en los tumores y combatiéndolos”, indica Muñoz.
“Los magnetosomas presentan gran capacidad de producir calor (mayor que las nanopartículas magnéticas de síntesis química) y su eficiencia en la hipertermia queda demostrada al ver que el 80 % de las células morían en los experimentos realizados”, comenta David Muñoz. Además, “la hipertermia magnética tiene la ventaja de ser una terapia local, sin provocar efectos secundarios severos en el organismo. El campo magnético no debe aplicarse en cualquier zona del cuerpo, ni de cualquier manera: hay que aplicarlo solo a la zona afectada por el tumor, alcanzando una temperatura que oscile entre los 43 y 46 ºC ,ya que en este intervalo de temperatura las células entran en lo que se llama apoptosis —muerte celular programada—. Hemos demostrado que la hipertermia magnética usando magnetosomas proporciona un aumento de temperatura suficiente para reducir la viabilidad celular de forma estadísticamente significativa, induciendo a las células a que entren en apoptosis y mueran”, subraya el autor del trabajo.
El investigador ha destacado que «el uso de magnetosomas en este tipo de terapias podría tener un futuro prometedor y ser una alternativa válida a los tratamientos antitumorales convencionales”. Sin embargo, Muñoz afirma que “sería fundamental conocer la distribución de dichas partículas magnéticas en el organismo. Es decir, una vez han actuado, ¿dónde van a parar? Algunos estudios señalan que el propio organismo podría metabolizar los magnetosomas; otros dicen que suelen acumularse en órganos como el hígado, riñón, el bazo… Ahí está el hándicap”.
Referencias:
Muela, A.; Muñoz, D.; Martín-Rodríguez, R.; Orue, I.; Garaio, E.; Abad Díaz de Cerio, A.; Alonso, J.; García, J. Á.; Fdez-Gubieda, M. L. Optimal Parameters for Hyperthermia Treatment Using Biomineralized Magnetite Nanoparticles: Theoretical and Experimental Approach. (2016) J. Phys. Chem. C, 120, 24437– 24448, doi: 10.1021/acs.jpcc.6b07321
Huizar-Felix, A. M.; Munoz, D.; Orue, I.; Magen, C.; Ibarra, A.; Barandiaran, J. M.; Muela, A.; Fdez-Gubieda, M. L. Assemblies of magnetite nanoparticles extracted from magnetotactic bacteria: A magnetic study. (2016) Appl. Phys. Lett. , 108, 063109, doi: 10.1063/1.4941835
Lourdes Marcano, David Muñoz, Rosa Martín-Rodríguez, Iñaki Orue, Javier Alonso, Ana García-Prieto, Aida Serrano, Sergio Valencia, Radu Abrudan, Luis Fernández Barquín, Alfredo García-Arribas, Alicia Muela, and M. Luisa Fdez-Gubieda (2018) Magnetic Study of Co-Doped Magnetosome Chains The Journal of Physical Chemistry C 122 (13), 7541-7550 doi: 10.1021/acs.jpcc.8b01187
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Magnetosomas para el tratamiento del cáncer se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Aran Garcia-Lekue: “Elektroiek atomoen eta molekulen eskalan duten portaera aztertzen dugu” #Zientzialari (132)
Nanometroa gure inguruan dauden atomoen eta molekulen neurria da, non efektu kuantikoek aparteko portaerak eragiten dituzten. Hain zuzen ere, eskala horretan zer gertatzen den aztertzea da nanozientziaren helburua, diziplina askotarako baliagarria izan daitekeelako eta aplikazio berriak sortzen lagun dezakeelako.
‘Bottom-up’ delako metodoa, adibidez, aurrerapauso handia izan daiteke nanoteknologian. Behetik gorako prozedura honen bidez molekulak, haien kabuz, banan-banan antolatzen dira nanoegiturak sortuz, Lego piezak balira bezala.
Aran Garcia-Lekue Materialen Zientzian eta Ingeniaritzan doktoratu zen UPV/EHUn eta gaur egun Ikerbasque ikertzailea da DIPCn. Berarekin elkartu gara nanomundu honi buruz gehiago jakiteko eta ikerketa-arlo honen erronka nagusiak ezagutzeko.
“Zientzialari” izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.
The post Aran Garcia-Lekue: “Elektroiek atomoen eta molekulen eskalan duten portaera aztertzen dugu” #Zientzialari (132) appeared first on Zientzia Kaiera.
El genio cegado por su propia teoría
Nos situamos en 1873. James Clerk Maxwell era uno de los miembros más distinguidos de la Royal Society de Londres, ya que, unos años antes había demostrado que electricidad y magnetismo son dos caras del mismo fenómeno, y que viajan de la mano en forma de onda a la velocidad de la luz. Ese mismo año publicó su magnum opus: el Tratado de Electricidad y Magnetismo, un compendio de todo su trabajo que predecía que la luz es, de hecho, una onda electromagnética.
Pero aquel tratado predecía otro fenómeno quizás más sorprendente: al igual que una masa empuja a otra masa al chocar con ella, las ondas electromagnéticas, por el mero hecho de ser ondas que transportan energía, serían capaces de transmitir movimiento al incidir en un objeto, de empujarlo. No en vano, hoy en día sabemos que este es el principio por el que funcionan las velas solares.
Por aquel entonces, William Crookes, que era químico y un gran experimentador, tenía fama por su gran habilidad creando tubos de vacío: tubos de vidrio de los que se extraía casi todo el aire con diferentes propósitos. De hecho, ha pasado a la historia por ser el creador del tubo de rayos catódicos: un tubo de vacío con dos electrodos que, años más tarde, se utilizó para descubrir los electrones y los rayos-X, e incluso sirvió para inventar el televisor.
Pero a pesar de su habilidad técnica, también tenía fama de no ser muy buen científico. O, al menos, en la Royal Society no estaba muy bien considerado, puesto que, como buen caballero victoriano, era espiritista. De hecho, durante aquel año, el buen hombre se hallaba buscando “fuerzas psíquicas”… Para ello, estaba realizando unas medidas de masa muy delicadas con talio dentro de uno de sus tubos de vacío cuando se dio cuenta de que, cuando el sol incidía en el dispositivo, las medidas salían distintas.
¿Cómo podía ser posible? Crookes lo vio claro: estaba ante una prueba empírica de la teoría de Maxwell. Esto le llevó a concebir el artilugio que conocemos como “molinillo de luz” o “radiómetro de Crookes”. Consta, cómo no, de un tubo de vacío, normalmente en forma de bombilla. En su interior hay unas aspas, con una cara negra y otra reflectante, unidas a un capuchón de vidrio que pende sobre una aguja, para evitar al máximo el rozamiento. Según Crookes, la teoría de Maxwell establece que la luz interactúa de forma diferente con la parte negra y la reflectante, lo que resulta en una fuerza neta que impulsa las aspas. Y lo cierto es que, cuando pones el molinillo a la luz… ¡las aspas giran!
Fuente: Wikimedia Commons
Maxwell recibió el artículo de Crookes que describía el experimento y se quedó maravillado con la elegancia de la prueba de su propia teoría. Alabó su trabajo, perdonando su pasado espiritista, y recomendó su inmediata publicación. Se realizó una presentación del artilugio en la Royal Society por todo lo alto, y las crónicas contaron que “la ciencia había hecho un agujero en el infinito”.
Pero finalmente resultó que uno de los mayores genios científicos de la historia, cegado por su propia teoría, seducido por la supuesta elegancia de la demostración, cayó presa de su propio sesgo. Y es que la teoría electromagnética, efectivamente, establece que la luz interacciona de forma distinta con las caras de las aspas, pero más concretamente dice que la parte reflectante recibe el doble de presión que la parte negra. Y, por tanto, ¡gira al revés!, ¡debería girar para el otro lado!
Ni que decir tiene que, a partir de ese momento, empezó una carrera para investigar el verdadero funcionamiento del molinillo. Entre otras cosas, se vio que, cuando había mucho aire dentro, no giraba; cuando había demasiado poco, tampoco; cuando se enfriaba, giraba en el otro sentido… todo parecía indicar que algo tenía que ver el poco aire que quedaba dentro del tubo de vacío.
Se especuló mucho hasta que Osborne Reynolds, en 1879, dio finalmente con la solución: se trata de un fenómeno denominado transpiración térmica. Resulta que, en las condiciones del tubo de vacío, las poquitas moléculas de aire que quedan en su interior ya no interaccionan entre ellas, lo que se denomina gas enrarecido. La cara negra de las aspas se calienta más que la cara reflectante, porque absorbe la radiación, y así se calienta el aire circundante. Lo que sucede entonces es que el aire frío tiende a trepar por el borde del aspa y pasa al lado caliente, y así se produce un empuje neto hacia el otro lado.
Simulación de la transpiración térmica en un molinillo de luz, por Moritz NadlerComo epílogo, Reynolds escribió un artículo con esta explicación que revisó… Maxwell de nuevo. Pero Maxwell, quizás herido en su orgullo, decidió paralizar la publicación y escribir su propio artículo para criticar a Reynolds. Entonces Reynolds quiso publicar una crítica de la crítica de Maxwell al primer artículo suyo rechazado. Pero, entretanto, lamentablemente Maxwell murió, y de nuevo Reynolds se quedó sin publicación, esta vez por respeto al recién fallecido. Hoy en día, el molinillo es una baratija que se suele vender en tiendas de museos científicos como curiosidad.
Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute.
El artículo El genio cegado por su propia teoría se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:MALDI-TOF masa espektrometriaren erabilera polimeroak karakterizatzeko
Masa espektrometria hau barreiatu egin da polimeroen karakterizazioan, masa molarraren banaketaz gain, polimeroen unitate monomerikoa, polidispertsitatea eta kateen muturrak jakitea lor daitezkeelako, hain zuzen ere.
Lan honetan MALDI/TOF zenbait polimeroen karakterizazioa aztertuko da. Zehazki, polimero hauen karakterizazioa erakutsi da: Poliestireno (PS) homopolimeroa eta Latemul, kopolimeroa.
PS homopolimeroaren MALDI espektroa aztertuz, ikus daiteke C4H9-(C8H8)n-H estrukturari lotuta dagoela (1. irudia), hau da, mutur taldeak C4H9 eta H dira eta monomero bakarrez osaturik dago, estirenoa (St, C8H8). Monomeroaren kopurua n letraz seinalatzen da.
Espektroaren gailur bakoitzak 1. Ekuazioari dagokio, monomero kopuru desberdina nSt letraz adierazten da eta, AgTFA gatza erabili denez, espektroan agertzen den gailur bakoitza zilarra aduktuarekin batera detektatzen da, horregatik MAg agertzen da ekuazioan.
(m/z)kal = nStMSt + MH + MButiloa+ Maduktoa (Ag). (1)
Non (m/z)kal, gailur bakoitzarentzat kalkulatutako balioa; n, monomero kantitatea; M, masa molekularra; eta St, estirenoa dira. Kalkuluak egiteko erabili diren masa molekularrak hauek dira: MSt = 104.06, MH = 1.007, MButiloa = 57.07 eta MAg = 106.90 Da.
Bestalde, Latemul PD-104 kopolimero komertzialaren (Kao Chemicals) analisia burutu da. Konposatu hau emultsionatzaile polimerizagarri moduan erabiltzen da emultsio-polimerizazioetan. Honen egitura jakitea premiazkoa da emultsio-polimerizazioetan partikulen egonkortasun koloidalean duen eraginagatik. Normalean industriak ez du datu gehiagorik errazten eta zaila izaten da konposatu osoa karakterizatzea.
MALDI espektroa aztertuz polimero honen egitura zehatza jakin dezakegu. Latemul PD-104-k, C5H9O-(C2H4O)n-(C3H6O)m-SO4 egitura dauka (2. Irudia), hau da, mutur taldeak C5H9O eta SO4 dira, eta bi monomero desberdin dauzka: etilenglikola (EG, C2H4O) eta propilenglikola (PG, C3H6O). Monomero bakoitzaren kopurua n eta m letraz seinalatzen da. Espektroaren gailur bakoitzak 2. Ekuazioari dagokio, monomero desberdinak kopuru desberdinekin (nEG eta nPG letraz adierazita). Kasu honetan NaI erabili da gatz moduan eta espektroan agertzen den gailur bakoitza sodioa aduktuarekin batera detektatzen da, beraz, kontuan hartu behar da MNa ekuazioan.
(m/z)kal = nEGMEG + nPGMPG + MSO4 + MC5H9O+ Maduktoa (Na). (2)
Non (m/z)kal, gailur bakoitzarentzat kalkulatutako balioa; n, monomero kantitatea; M, masa molekularra; EG, etilenglikola; PG, propilenglikola. Kalkuluak egiteko erabili diren masa molekularrak hauek dira: MEG = 44.03, MPG = 58.04, MC5H9O = 85.06, MSO4 = 95.95 eta MNa = 22.99 Da.
Ondorioz, masa espektrometria teknika hau erabiliz egiturari buruzko informazio osatua lor daiteke polimeroen mikroegitura eta polimero horietatik eratorritako materialen propietateak ezagutzeko. Masa molarraren banaketaz gain, polimeroen unitate monomerikoa, polidispertsitatea eta kateen muturrak jakitea lor daiteke, hain zuzen ere. Hori dela eta, teknika hau gero eta gehiago barreiatzen ari da polimeroen propietateak hobeto aztertzeko.
Artikuluaren fitxa:- Aldizkaria: Ekaia
- Zenbakia: Ekaia 35
- Artikuluaren izena: MALDI-TOF masa espektrometriaren erabilera polimeroak karakterizatzeko.
- Laburpena: Gaur egun, materialak ezaugarritzekoerabiltzen diren teknikek informazio dezente uzten dute agerian, baina oraindik nahiko zaila da egiturari buruzko informazio osatua lortzea. Informazio hau garrantzi handikoa eta beharrezkoa da modu sakon batean polimero horietatik eratorritako materialen propietateak ezagutzeko. Polimeroak karakterizatzeko, Matrix Assisted Laser Desorption-Ionization Time of Flight Mass Spectrometry (MALDI/TOF MS) sortu zenetik, gero eta gehiago hedatu da teknika honen erabilera arlo desberdinetan. Masa-espektrometria teknika hau hedatu egin da polimeroen karakterizazioan, masa molarraren banaketaz gain, polimeroen unitate monomerikoa, polisakabanatzea eta kateen muturrak ezagutzea lor daitekeelako, hain zuzen ere. Lan honetan MALDI/TOF teknikaren oinarriak labur azalduko dira: masa espektrometroak nola funtzionatzen duen, zein den matrizearen garrantzia, zeintzuk diren matrize ohikoenak… Eta zenbait polimeroren karakterizazio adibideak aztertuko dira. Zehazki, bi karakterizazio-prozedura erakutsiko dira: Gel Permeation Chromatography (GPC) teknikan estandartzat erabiltzen den poliestireno homopolimeroa eta Latemul, emultsionatzaile polimerizagarri komertzial moduan erabiltzen den kopolimeroa.
- Egileak: Antonio Veloso eta Rebeca Sola-Llano.
- Argitaletxea: UPV/EHUko argitalpen zerbitzua.
- ISSN: 0214-9001
- Orrialdeak: 185-196
- DOI: 10.1387/ekaia.19691
————————————————–
Egileez:
Antonio Veloso eta Rebeca Sola-Llano UPV/EHUko Zientzia eta Teknologia Fakultateko Kimika Fisikoa sailekoak dira eta Antonio Velosok, gainera, Polymaten dabil.
———————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post MALDI-TOF masa espektrometriaren erabilera polimeroak karakterizatzeko appeared first on Zientzia Kaiera.
La ecuación de las ciudades oscuras
Las ciudades oscuras es una serie de novelas gráficas, publicadas originalmente en francés, del dibujante belga François Schuiten y el guionista francés Benoît Peeters, cuyo primer álbum Las murallas de Samaris fue publicado en 1983 y que sigue publicándose en la actualidad. En el momento en el que escribo estas líneas cuenta con doce álbumes: Las murallas de Samaris, La fiebre de Urbicande, La Torre, La ruta de Armilia, Brüsel, La chica inclinada, La sombra de un hombre, La Frontera Invisible (doble), La teoría del grano de arena (doble), Recuerdos del eterno presente.
En la colección de novelas gráficas Las ciudades oscuras nos encontramos ante una serie de historias entre fantásticas y surrealistas que transcurren en diferentes ciudades de un continente imaginario que se encuentra situado en el planeta Antichton, o Anti-Tierra. Este hipotético planeta fue inventado por el filósofo y matemático pitagórico Filolao (aprox. 470 – 380 a.n.e.) cuando describió un sistema cosmológico, no geocéntrico, en el que había un fuego central distinto del Sol y un planeta situado en la posición diametralmente opuesta a la Tierra, respecto a dicho fuego central, la anti-Tierra.
La arquitectura y el diseño urbanístico de las ciudades oscuras son protagonistas principales de esta serie de novelas gráficas, pero también la política, la sociedad, la ciencia, las creencias o las relaciones humanas., entre muchos otros
Nueve portadas de la serie de novelas gráficas Las ciudades oscuras de François Schuiten (dibujo) y (Benoît Peters), publicadas por Norma Editorial. Imágenes de la página web de Norma EditorialEn esta entrada del Cuaderno de Cultura Científica vamos a centrarnos en uno de los álbumes de la serie titulado La fiebre de Urbicande (1985). El protagonista de esta historia es Eugen Robick, el “urbatecto” (unión de urbanista y arquitecto) oficial de la ciudad de Urbicande, que está preocupado por el diseño urbanístico de la ciudad y su falta de simetría. La ciudad de Urbicande está dividida por su río en dos zonas. La zona sur, en la que vive la alta sociedad, sería una ciudad geométrica, con avenidas rectas, que se intersecan perpendicularmente, sobre la que se han diseñado, de forma racional, edificios rectos y simétricos, mientras que la zona norte, en la que vive la parte de la sociedad que la clase alta quiere mantener alejada, posee un desarrollo urbanístico irregular.
Sin embargo, un inesperado acontecimiento cambiará las preocupaciones de Eugen Robick y de los habitantes de la ciudad de Urbicande, la aparición de un misterioso cubo encontrado en unas obras y que se convertirá en el desencadenante de los acontecimientos futuros de la ciudad.
Viñeta de la novela gráfica La fiebre de Urbicande, de Scuiten-Peeters, en el cual vemos el cubo que se convertirá en protagonista de esta historia
Aparentemente el cubo no posee un gran interés, salvo que está construido con un material extremadamente duro. El urbatecto Eugen Robick lo describe así en las primeras páginas.
“Klaus y Friedrich han venido con gran alboroto a traerme una especie de cubo que han exhumado cavando en la obra Von Hardenberg.
El objeto habría quebrado la pala de una grúa, debido a su gran solidez.
Al observarla fríamente, no tiene sin embargo nada de demasiado extraño. Es una simple estructura cúbica totalmente vacía cuyas aristas no deben de superar los quince centímetros.”
Lo curioso es que, poco tiempo después, del cubo han surgido unas prolongaciones que extendían los lados del mismo, con un crecimiento constante, hasta generar un nuevo cubo en cada una de las caras del hexaedro regular original. De forma que en esta primera etapa se ha creado una pequeña red con 7 cubos. Además, al tiempo que iba ocurriendo esto, el tamaño del cubo original ha ido creciendo también, así en un día el tamaño de las aristas del cubo, de los cubos, ha pasado de 15 a 20 centímetros. El grosor de las aristas también ha ido creciendo paulatinamente.
Viñeta de la novela gráfica La fiebre de Urbicande, de Scuiten-Peeters, en el cual vemos el momento en que se está terminando la primera etapa de desarrollo del cubo original, convirtiéndose en una pequeña red de 7 cubos, el central y uno en cada cara del mismo
Como el proceso no para, la red de cubos va creciendo poco a poco, en tamaño y en número de ortoedros que lo conforman. En la siguiente etapa de crecimiento, en cada cara de los cubos que forman la red surgen nuevos cubos, luego de 7 cubos pasa a 25. Y en la siguiente etapa, la red de cubos, que tendrá la forma de un octaedro (es decir, una doble pirámide, hacia arriba y hacia abajo), estará formada por 63 cubos. Después, 129, 231, etcétera.
Viñetas de la novela gráfica La fiebre de Urbicande, de Scuiten-Peeters, en las cuales vemos al urbatecto Robick estudiar la estructura y calcular el número de cubos que tendrá en cada etapa de crecimiento
Eugen Robick, que era matemático de formación según se comenta en la parte de La leyenda de la red, empieza a estudiar la estructura reticular que se genera. En particular, obtiene una fórmula, que veremos más adelante, que le da el número de cubos que tendrá la estructura en cada paso. Pero estudiemos nosotros esa sucesión de números que nos da la cantidad de cubos que posee la red octaédrica que aparece en la novela gráfica.
Empecemos pensando el problema en dimensión 2. Supongamos que nuestra estructura original es un cuadrado, que va creciendo y formando una red de cuadrados de forma similar a como la red de cubos de Urbicande (véase la siguiente imagen). En cada lado del cuadrado original se forma un nuevo cuadrado y sobre los lados de los nuevos cuadrados irán creciendo nuevos cuadrados.
Primero, en el momento cero tenemos 1 cuadrado (c0), del que surgen 4 más, luego 5 (c1) en total. En la segunda etapa se incorporan 8, luego 13 (c2) en total… y así continúa. Pero, veamos cuantos cuadrados se incorporan en cada momento. Si nos fijamos en la anterior imagen, en la segunda etapa (c2), los cuadrados que se incorporan forman un cuadrado grande (rojo) con 3 cuadrados en cada lado, luego tiene (4 x 3 – 4 = 4 x (3 – 1) = 4 x 2 = 8 cuadrados, es decir, cuatro veces los cuadrados que hay en cada lado menos 4, de los vértices, que contábamos dos veces). En general, en el paso n-ésimo se incorporarán, a los anteriores cubos, 4 x n cubos más. Por lo tanto, se obtiene la siguiente fórmula:
Donde hemos utilizado, en el ante-último paso, la fórmula de la suma de los n primeros números (véase la entrada Matemáticas para ver y tocar ).
Página de la novela gráfica La fiebre de Urbicande, de Scuiten-Peeters, en la cual vemos al urbatecto Robick dentro de la estructura reticular que cada vez va creciendo másEstructura reticular con cubos, que adopta la forma de un octoedro, después de tres etapas, luego con 25 cubos, que he realizado con el material de construcción Zometool
El razonamiento que hemos desarrollado en el plano, para cuadrados, no solo nos ayuda a entender el problema en dimensión tres, para cubos, sino que nos permite obtener fácilmente una fórmula para la cantidad de cubos de cada etapa de la red. Esto se debe a que en la etapa n-ésima la cantidad de cubos de la zona/capa central de la red octaédrica es igual a la cantidad de cuadrados de la etapa n-ésima de los cuadrados planos (cn), ya que solo nos fijamos en los cubos que están a la misma altura, en la misma capa horizontal. En la capa de arriba de la central, y también en la de abajo, hay tantos cubos como cuadrados había en la etapa anterior, luego (n – 1)-ésima de los cuadrados planos (c(n – 1)), y así con el resto. Veamos los primeros pasos. En la primera etapa hay 5 cubos en la zona central y 1 arriba y otro abajo, en total, 7 cubos. En la segunda etapa hay 13 cubos en la zona central, 5 en la zona que está justo encima y 5 en la que está justo debajo, y 1 cubo arriba del todo y 1 abajo del todo, en total 13 + 2 x 5 + 2 x 1 = 25 cubos.
Es decir, tenemos la fórmula general para la cantidad de cubos de la red de Urbicande dada en función de los anteriores números:
Pero sustituyendo el valor de los números de cuadrados (cn) calculados anteriormente, se obtiene:
Observemos que en la segunda igualdad hemos sumado primero los 1s de los corchetes, obteniendo el número 1 + 2n del inicio.
Hemos obtenido así una primera fórmula para el cálculo del número de cubos de la red. Si vais dando valores a n = 0, 1, 2, 3, 4, 5, … obtendréis la cantidad de hexaedros regulares de cada etapa 1, 7, 25, 63, 129, 231, …
Vamos a intentar obtener una fórmula más sencilla de manejar. Si denotamos como Tn a los números triangulares, es decir, la suma de los n primeros números, Tn = 1 + 2 + … + n, que sabemos que es igual a n (n + 1) / 2, podemos demostrar que la anterior fórmula es igual a:
Para seguir avanzando necesitamos la fórmula de la suma de los números triangulares. En la siguiente imagen podéis ver dicha fórmula, con la demostración sin palabras que publicó Monte J. Zerger en Mathematics Magazine (diciembre, 1990) y que aparece también en el libro Demostraciones sin Palabras, de Roger B. Nelsen.
Demostración sin palabras que publicó Monte J. Zerger en Mathematics Magazine (diciembre, 1990) de la suma de los números triangulares
Ahora, haciendo uso de la anterior fórmula se obtiene la siguiente fórmula para la sucesión de cubos que conforman la red octaédrica de La fiebre de Urbicande:
Robick y Sofía, una mujer a la que conoce nuestro protagonista y de la que se enamora, disfrutando del paisaje de la estructura reticular, de la que se ve la pirámide superior, mientras que la inferior está ya bajo tierra
Si volvemos a la novela gráfica de Schuiten-Peeters, podemos observar que la fórmula que he obtenido coincide con una de las dos que aparecen en la misma. Una de ellas es la fórmula de Robick y la otra la que aparece en el opúsculo El misterio de Urbicande “de un tal R. de Brok”, dentro de la parte denominada La leyenda de la red, que es un documento perteneciente a los Archivos de “las ciudades oscuras”.
Página extraída del opúsculo El misterio de Urbicande, anotada por Eugen Robick, en la que podemos ver las dos fórmulas matemáticas para el número de cubos de la estructura reticular, la fórmula de Robick y la fórmula de R. de Brok (que aparece descrita como “Mi fórmula”)
El razonamiento que utiliza Eugen Robick es diferente al mío y por eso la fórmula que obtiene es diferente. Podemos decir que yo cuento los cubos de cada capa horizontal de la estructura reticular, mientras que Robick cuenta los cubos en columnas verticales.
Expliquemos brevemente la idea de Robick. En la etapa n-ésima del desarrollo de la red la “columna central” de la estructura con forma de octaedro (pirámide doble) tiene 2n + 1 cubos, que es el número que aparece en primer lugar en su fórmula. Después divide la pirámide doble, menos la columna central, en cuatro partes iguales (en la siguiente imagen observamos la partición en lo que sería la vista desde arriba de la red) y calcula la cantidad de cada parte, que es la expresión que aparece multiplicando al 4.
Vista desde arriba de la estructura reticular, con la columna central que se corresponde con el cuadrado negro y las cuatro zonas de la retícula octaédrica en las que Robick divide la estructura
Ahora razonemos visualmente (en la siguiente imagen) cómo obtiene Robick la fórmula del cálculo de los cubos de cada una de esas cuatro partes.
Ilustración, para la etapa n = 3 del crecimiento de la red, de la columna central de cubos, en la que hay 2n +1 elementos, más una de las cuatro partes en las que Robick divide la retícula. Se indican con diferentes colores los cubos que cuenta juntos, que van por alturas
Juntando todo lo anterior se obtiene la fórmula de Robick:
No hemos entrado en el trasfondo social y político de la historia que se cuenta en La fiebre de Urbicande, pero eso dejo que lo descubráis en vuestra propia lectura de la novela gráfica.
Viñeta de La fiebre de Urbicande, de Schuiten-Peeters, en la que vemos el momento en el que la red ya solo tiene un cubo alrededor de la ciudad, por lo que ya no interfiere en la vida de la misma. La red de hexaedros regulares seguirá creciendo, primero superando la ciudad, luego el continente, después el planeta y seguirá creciendo en la galaxia
Finalizamos la entrada animando a la lectura de la serie de novelas gráficas de François Schuiten y Benoît Peeters, Las ciudades oscuras, y con la imagen de la contraportada de La fiebre de Urbicande de la edición en castellano de Norma editorial en 2015, con tres de los protagonistas de la historia, Eugen, Sofía y el misterioso cubo.
Contraportada de La fiebre de Urbicande, Schuiten-Peeters, Norma editorial, 2015
Bibliografía
1.- Francois Schiten, Benoit Peeters, La fiebre de Urbicande (Las ciudades oscuras), Norma Editorial, 2015.
2.- Roger B. Nelsen, Demostraciones sin palabras (ejercicios de pensamiento visual), Proyecto Sur, 2001.
3.- Jean-Paul Van Bendegem, A short explanation of «Le Mystère d’Urbicande», Alta plana, the impossible & infinite encyclopedia of the world created by Schuiten & Peeters
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo La ecuación de las ciudades oscuras se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Moko-baleen estrategia bizirik irauteko: isilpeko igeriketa sinkronizatua
Ez da erraza moko-balea edo zifio bat ikustea, eta agian horregatik ere ez dira oso ezagunak. Askotan, hondartzetan hilik agertzen direnean baino ez dira ikusten. Horren arrazoia da normalean sakontasun handiko uretan denbora gehiena ematen dutela. Ez da soilik habitat kontua: tartean biziraupena dago.
Arazoaren muina moko-baleen areriorik handiena da, eta Orcinus orca du izena. Bai, orka. Haiengandik babesteko, moko-baleak gutxitan joaten dira itsasoaren azaletik gertu, eta, egiten dutenean, kontu handiz egiten dute, haientzako arrisku handiko eremua baita. Beste hainbat zetazeok badute abantailaren bat orkei aurre egiteko: balearik handienek tamaina eta indarra dituzte alde. Izurdeek, batera eta arin igeri egiteko gaitasuna. Odontozento klaseko hainbat espeziek, berriz, orkek entzuteko gai ez diren komunikazio-frekuentzia bat erabiltzen dute. Moko-baleen kasuan, sakontasun handietan igeri egitea da haien abantaila, baina, hain ezezagunak izanik, zientzialariek portaeraren atzean gehiago jakin nahi izan dute. Eta ikasi dute.
La Lagunako Unibertsitateko (Tenerife) itsas biologoek gidatutako ikerketa batean, moko-baleen portaera aztertu du nazioarteko zientzialari talde batek; atera dituzten ondorioak Scientific Reports aldizkarian ezagutarazi dituzte. Zehazki, bi dira aztertu dituzten espezieak: Cuvier moko-balea (Ziphius cavirostris) eta Blainville moko-balea (Mesoplodon densirostris).
Zetazeoen jarduna jarraitu ahal izateko, sentsoreak jarri dizkiete hiru talde desberdinetako sei animaliari. Lagin gehiago nahiko lituzketen arren, arras zaila da moko-balea bati halako gailu bat txertatzea. Modu horretan, zetazeoek hartzen duten sakontasuna eta urpetik ateratzean hartzen duten ibilbidearen makurdura neurtzeko aukera izan dute, eta egiten dituzten soinuak ere grabatu dituzte.
Datu berrietan oinarrituta, aurretik zituzten hainbat susmo berresteko moduan izan dira, eta gauza berriak ikasteko abagunean egon dira. Ikertzaileek azaldu dutenez, beste zenbait zetazeo espezieren artean ohikoa da kumeak itsas azaletik gertu uztea, taldeko heldu batzuen zaintzapean, uretan murgildu eta janari bila joateko. Baina moko-baleek kumeak ere eramaten dituzte beraiekin. Gainera, modu sinkronizatuan egiten dute, eta isilpean. Soilik sakontasun handiko uretara iristean hasiko dira ekolokalizazioa erabiltzen, janaria aurkitu ahal izateko.
Maila fisikoan, badirudi hori egiteko ondo prestatuta daudela ere. Umeek arren tamaina berdina dute, eta kumeak nahiko handiak dira, jaiotzetik bertatik. Modu horretan, helduekin batera urperatzeko gai dira. Nagusiek kilometro bateko sakontasunera iristeko gaitasuna dute, zenbait kasu berezitan marka hori bizpahiru kilometrora luza daitekeelarik.
Jaistean, 450 metroko sakontasunean hasten dira ekolokalizazioa erabiltzen, eta taldeko kideak sakabanatu egiten dira, ehiza egiteko. Ehiza bukatzean, bildu egiten dira, gorantzako norabidea hartuta arnastu ahal izateko. Urpean bi ordu eta erdi inguru eman dezakete, baina, ugaztunak direnez gero, noizean behin arnasa hartu behar dute, ezinbestean.
Dena dela, goian zain dituzte orkak. Sakontasun handietara iritsi ezin badaitezke ere, orkak gai dira ekolokalizariorako erabilitako deiak entzuteko, eta moko-baleak noiz aterako diren zain geratzen dira, adi-adi.
Harrapakariaren eta harrapakinaren arteko beste hainbat harremanetan bezala, hemen ere portaera bitxia garatu dute moko-baleek: itsas azalera bueltatzean, ez dute modu zuzenean egiten, zeharka baizik, bertikalarekiko angelu bat osatuz. 700 metroko sakonetik, gainera, erabateko isiltasuna mantentzen dute. Gainera, pixkanaka joan behar dira, halabeharrez, oxigeno gehiegi ez kontsumitzeko.
Gorantzako bidean, ekolokalizazioa egiteri utzi dioten puntutik kilometro batera atera daitezke. Modu horretan, orkek harrapatuak izateko aukerak gutxitzen dituzte moko-baleek. Kalkulatu dutenez, moko-baleak atera daitezkeen eremuaren %10 baino ezin dute behatu orkek. Hortaz, estrategia hau erabilita, moko-baleek %90 handitzen dute bizirik irauteko aukera.
Dena dela, ikertzaileek argitu dutenez, dena ez da abantaila: ezkutuan ibiltzeko behar izanagatik, itsasoan gora egiteko ordubete inguru behar dute, eta horrek janaria lortzeko denbora kentzea dakar. Ikertzaileen esanetan, janaria lortzeko denbora %35 murrizten zaie, beste zetazeoekin alderatuta.
Hau gutxi balitz, orkak ez dira arerio bakarrak: orka diruditen arren, orka ez direnak ere arazo iturri dira moko-baleentzat. Sonar militarrei buruz ari gara. Orkek erabili ohi dituzten antzeko frekuentziak erabiltzen dituzte, eta horregatik moko-baleek soinu horiek orketatik datozela pentsatzen dute. Ondorioz, izugarrizko ezustekoa hartzen dute, eta ziztu bizian alde egiten dute. Zenbait kasutan, horrek heriotza dakarkie; orketatik babesteko urpean igeri egiteko behar diren eskakizun fisiologikoak hain muturrera eraman behar izanagatik, sonarrek eragindako estresak enboliak eta barneko odoljarioak eragin ahal dizkiete.
Natacha Aguilar de Soto itsas biologoaren hitzetan, ez dago modurik zetazeoek halako alarma baten aurrean hartzen duten izua murrizteko, baina badago aukera gobernuei neurriak har ditzaten eskatzeko, “maniobra militarrak inpaktua izango ez duten eremuetara mugatu ditzaten”.
Eboluzioaren bidean, bada, orkei aurre egiteko moduan egon dira zetazeo bitxi hauek, baina, tamalez, hamarkada gutxietan garatu diren sonarrei egokitzeko denbora nahikorik ez dute izan.
Erreferentzia bibliografikoa:
Aguilar de Soto, N., Visser, F., Tyack, P.L. et al. (2020). Fear of Killer Whales Drives Extreme Synchrony in Deep Diving Beaked Whales. Scientific Reports, 10:13. DOI: https://doi.org/10.1038/s41598-019-55911-3.
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Moko-baleen estrategia bizirik irauteko: isilpeko igeriketa sinkronizatua appeared first on Zientzia Kaiera.
La interpretación de Copenhague de la mecánica cuántica
El principio de complementariedad de Bohr es una afirmación de una enorme importancia, porque significaba que lo que observamos en nuestros experimentos no es lo que la naturaleza realmente es cuando no la estamos observando. Pero ahondemos sobre esto, porque la afirmación choca con el sentido común [1], lo que puede hacer más difícil asimilar lo que aquí se está diciendo [2].
De hecho, la naturaleza no favorece ningún modelo específico cuando no estamos observando; si algo podemos afirmar es que la naturaleza es una mezcla de las muchas posibilidades que podría ser hasta que observamos [3]. Al establecer un experimento, seleccionamos el modelo que exhibirá la naturaleza y decidimos si los fotones, electrones, protones e incluso las pelotas de tenis (si se mueven lo suficientemente rápido) se comportarán como corpúsculos o como ondas.
En otras palabras, según Bohr, ¡el experimentador se convierte en parte del experimento! Al hacerlo, el experimentador interactúa con la naturaleza, de tal modo que nunca podemos observar todos los aspectos de la naturaleza como realmente es “en sí” [4]. De hecho, esta expresión, si bien es atractiva, no tiene un significado operativo. En cambio, deberíamos decir que solo podemos conocer la parte de la naturaleza que nuestros experimentos ponen de manifiesto. [5] La consecuencia de este hecho, a nivel cuántico, decía Bohr, es el principio de incertidumbre, que coloca una limitación cuantitativa sobre lo que podemos aprender sobre la naturaleza en cualquier interacción dada; y la consecuencia de esta limitación es que debemos aceptar la interpretación de probabilidad de los procesos cuánticos individuales. De aquí que al principio de incertidumbre a menudo también se le llame principio de indeterminación.
No hay forma de evitar estas limitaciones, según Bohr, mientras la mecánica cuántica siga siendo una teoría válida. Estas ideas, por supuesto, están totalmente en desacuerdo con el sentido común, como apuntábamos antes. Asumimos que la naturaleza existe de manera completamente independiente de nosotros y que posee una realidad y un comportamiento definidos, incluso cuando no la estamos observando. Así, supones que el mundo fuera del lugar donde estás todavía existe más o menos como fue la última vez que lo observaste. No cabe duda de que la naturaleza se comporta así en nuestra experiencia cotidiana, y esta visión es una suposición fundamental de la física clásica. Incluso tiene un nombre filosófico; se llama «realismo», y para los fenómenos y objetos en el rango de la experiencia ordinaria es perfectamente apropiado. Pero, como Bohr a menudo enfatizó, tenemos que estar preparados para esperar que el mundo cuántico no sea como el mundo cotidiano en el que vivimos.
Parte de la dificultad viene del lenguaje que empleamos. Nuestra lengua común no puede expresar adecuadamente lo que las matemáticas consiguen hacer de manera muy eficiente. Max Born, uno de los fundadores de la mecánica cuántica, lo expresó así (nuestro énfasis):
El origen último de la dificultad radica en el hecho (o principio filosófico) de que estamos obligados a usar las palabras del lenguaje común cuando deseamos describir un fenómeno, no mediante un análisis lógico o matemático, sino mediante una imagen atractiva para la imaginación. El lenguaje común ha crecido con la experiencia cotidiana y nunca puede superar estos límites. La física clásica se ha limitado al uso de conceptos de este tipo; al analizar los movimientos visibles, ha desarrollado dos formas de representarlos mediante procesos elementales: partículas en movimiento y ondas. No hay otra forma de dar una descripción pictórica de los movimientos: tenemos que aplicarlo incluso en la región de los procesos atómicos, donde la física clásica se descompone. [6]
Juntos, el principio de complementariedad de Bohr, el principio de incertidumbre de Heisenberg y la interpretación de probabilidad de Born forman una interpretación lógicamente coherente del significado de la mecánica cuántica. Dado que esta interpretación se desarrolló en gran medida en el instituto de Bohr en la Universidad de Copenhague, se la conoce como la Interpretación de Copenhague de la mecánica cuántica. Los resultados de esta interpretación tienen profundas consecuencias científicas y filosóficas que se siguen estudiando y debatiendo. [7]
Notas:
[1] La ciencia se empeña en demostrar que el sentido común no deja de ser una colección de sesgos antropocéntricos y, por lo tanto, si bien útiles para el día a día en muchos casos, no necesariamente ciertos.
[2] Por eso es interesante fijarse en las palabras en cursiva, que están cuidadosamente seleccionadas.
[3] Este es el principio de superposición cuántico, sobre el que reflexionamos en La teoría superpositiva.
[4] Esto del “en sí” está entrecomillado porque es más un concepto filosófico que físico. Está relacionado con la caracterización de la sustancia de la época racionalista de la filosofía. Recordemos, por ejemplo, que Spinoza en la definición tercera del libro primero de la Ética decía “Por substancia entiendo aquello que es en sí y se concibe por sí, esto es, aquello cuyo concepto, para formarse, no precisa del concepto de otra cosa.”
[5] Y aquí hay que reflexionar mínimamente. Esto no es una invitación al misticismo, como algunos se apresuran a adoptar. Fijémonos en que, al fin y al cabo, conocemos incluso a nuestro mejor amigo solo a través de un mosaico de encuentros, conversaciones y actividades repetidas, en muchas circunstancias diferentes.
[6] A este respecto puede resultar interesante nuestro La verdadera composición última del universo (y IV): Platónicos, digitales y pansiquistas
[7] Una introducción a los elementos del debate puede encontrarse en nuestra serie Incompletitud y medida en mecánica cuántica
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La interpretación de Copenhague de la mecánica cuántica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Diabetesa ulertzeko bidean (eta III): akatsak konpontzen
Diabetes mellitusaren ondorioz glukosaren metabolismoaren erregulazioan bi akats nagusi gertatzen dira: pankreak intsulina ez jariatzea -1 motako diabetesa- edo organismoko zeluletako hartzaileak intsulinarekiko sentikortasunik ez izatea -2 motako diabetesa-. Edozein kasutan, diabetikoen ezaugarri komuna odoleko glukosa kontzentrazioa altua izatea da eta, hortaz, arazoa tratatzen ez bada, hainbat osasun-arazo ekar ditzake. Odoleko glukosa kontzentrazio altuaren ondorioz, diabetikoen gernua ohikoa dena baino gozoagoa da. Hain zuzen ere, 1776. urtean jakin zuten glukosa zela gernuaren zapore gozoaren erantzulea, baina, XIX. mendera arte ez zen lortu gernuko glukosa kontzentrazioa neurtzeko metodorik.
Era berean, 1869. urtean Paul Langerhansek egun Langerhasen irlak izenarekin ezagutzen ditugun pankreako zelula-multzoak ezagutzera eman zituen haren tesian. Orain badakigu irla horietan ekoizten dela intsulina -glukosaren metabolismoa erregulatzen duen hormona-, baina jakina, orduan ez zuten hori ezagutzen. Hirugarren ezagutza aipagarria hauxe da: 20 urte geroago, Joseph von Mering eta Oskar Minkowskik zenbait esperimentu egin zituzten txakurren pankreak aztertzeko. Hobeto esanda, txakurren pankreak erauzita jakin zuten pankrearik ez zuten txakurrek egarri eta pixagura handia zutela eta haien gernua gozoa zela. Ondorioa nabarmena zen: pankrearik gabeko txakurrek diabetikoen antzeko sintomak eta ezaugarriak zituzten.
Iraultza 1921. urtean iritsi zen. Frederick Banting eta Charles Best ikertzaileek ordura arteko ideiak elkartu zituzten eta pankrearen substantziak bilatzen hasi ziren. Bazekiten pankreak zerbait izan behar zuela eta horren gabeziak diabetesa sortzen zuela. Substantzia hori lortzeko, 1921eko maiatzean lehen esperimentuak egin zituzten. Lehen pausoa txakurren pankreako hodiak ixtea izan zen. Horrela, txakurraren pankreak intsulina ekoizten zuen, baina, pankrean bertan pilatzen zen -une hartan substantzia horri isletina deitu zioten, Langerhasen irletan ekoizten zelako-. Esperimentuaren bigarren fasean, beste txakur batzuk hartu eta pankrea kentzen zieten. Diabetesa agertzea itxaroten zuten eta, orduan, hasierako txakurren pankreatik erauzitako substantzia –intsulina– ematen zieten. Horrela lan eginda, txakurren bizitza luzatu zuten eta diabetesa kontrolatu ahal izan zuten.
Banting eta Bestek animalien intsulina gizakietan erabiltzea posible izan zitekeela pentsatzen zuten eta egun badakigu zuzen zeudela. Gizakion intsulina eta txerriena edo behiena oso antzekoa da. Desberdintasun txiki honi esker, txerrien pankreatik erauzitako intsulina sendagai gisa erabili izan da diabetikoak tratatzeko, baina, 1921ean oraindik ez zekiten posible izango ote zen. Lehen saiakuntza Leonard Thomson gazte diabetikoarekin egin zuten. Txakurren pankreatik erauzitako substantzia eman zioten eta hasiera batean erreakzio alergikoa izan bazuen ere, aurrera jarraitu zuten. Bigarren aldian, purifikatutako intsulina eman zioten eta, oraingoan bai, hobekuntza txikiak ikusten hasi ziren. Tratamenduarekin jarraituz, hilzorian zegoen Leonard Thomsonen bizitza beste 13 urtez luzatzea lortu zuten.
Iraultza izugarria izan zen eta horrek azaltzen du zergatik jaso zuten 1923an Medikuntzako Nobel saria. Pixkanaka ikerketa gehiago egin ziren eta metodoak hobetuz, animalien pankreak erabili ziren intsulina erauzteko. Modu horretan, intsulinarik jariatzeko gai ez ziren diabetikoei ematen zitzaien odoleko glukosa kontzentrazioa murrizteko. Azken batean, organismoak duen mekanismo berdina erabiltzen zuten, baina, pankrea kanpotik hartzen zuten. Gaur egun beste bide batzuk erabiltzen dira intsulina lortzeko eta ingeniaritza genetikoari esker bakterio eta legamiek ekoizten dute intsulina -bai, sendagai gisa erabiltzen den intsulina transgenikoa da-. Intsulinaren aurkikuntzaren ondoren, diabetesaren tratamendurako hiru lerro zeudela jakin zuten -eta gaur egun ere, 1921ean bezala, horrela izaten jarraitzen du-: kirola, dieta eta sendagaiak. Garrantzitsua da esatea, gainera, 2 motako diabetesa sendatu daitekeela ohitura onak hartzen edo berreskuratzen badira. 1 motakoaren kasuan, aldiz, gaixotasun autoimmune denez gauzak ez dira hain errazak. Hala ere, pankreako transplanteak eta bestelako tratamendu zelularrak ere izan badira.
Zalantzarik gabe, diabetesari aurre egiteko modurik eraginkorren prebentzioa da: dieta eta kirola. Batez ere, jakinda 2 motako diabetesa dela ugariena, alegia, ohitura txarren ondorioz agertzen dena. Hala ere, intsulinaren erabilpena ezinbestekoa da milaka gaixorentzat eta, hori gabe, diabetesak heriotza azkarra eragingo luke. Era berean, intsulinaren aurkikuntza prozesuan ondo ikusten da zientziak nola funtzionatzen duen: ikertzaile askok aurretik egindako lanik gabe, Banting eta Bestek ez zuten 1921erako intsulina lortuko eta Leonard Thomson, beste asko bezala, diabetesak jota hilko ziren. Zorionez, gauzak asko aldatu dira.
—————————————————–
Egileaz: Josu Lopez-Gazpio (@Josu_lg) Kimikan doktorea, irakaslea eta zientzia dibulgatzailea da. Tolosaldeko Atarian Zientziaren Talaia atalean idazten du eta UEUko Kimika sailburua da.
—————————————————–
Diabetesari buruzko artikulu-sorta:
- Diabetesa ulertzeko bidean (I): glukosaren metabolismoa
- Diabetesa ulertzeko bidean (II): metabolismoan akatsak daudenean
- Diabetesa ulertzeko bidean (eta III): akatsak konpontzen
The post Diabetesa ulertzeko bidean (eta III): akatsak konpontzen appeared first on Zientzia Kaiera.
La crisis de reproducibilidad en ciencia
Uno de los elementos más valiosos con que debiera contar la comunidad científica es con la replicación sistemática de los estudios o, al menos, con aquellos que introducen alguna novedad significativa. Sin embargo, la mayoría de los científicos se muestran poco inclinados a tratar de replicar los experimentos o análisis realizados por otros investigadores. Al fin y al cabo, resulta mucho más gratificante hacer nuevos estudios que puedan aportar novedades de interés en un campo que limitarse a comprobar si se obtienen los mismos resultados que obtuvieron antes otros. Además, las revistas científicas no están interesadas en publicar repeticiones, máxime si las conclusiones no refutan las del primer trabajo; en ese caso no hay novedades que contar.
En varios estudios se ha llegado a la conclusión de que muchos resultados publicados no son reproducibles o solo lo son parcialmente. Aunque lleva años generando preocupación, este problema se manifestó con toda su crudeza a raíz de la publicación en 2015 de un estudio en la revista Science, según el cual tan solo para una treintena de 100 experimentos de psicología publicados en las mejores revistas científicas del campo se habían podido reproducir sus resultados. Pero el problema no se limita a la psicología, sino que afecta a un buen número de disciplinas.
De acuerdo con una encuesta realizada en 2016 por la revista Nature a 1500 investigadores de diferentes campos, el 70% habían sido incapaces de reproducir los resultados de otros colegas y el 50% no lo habían sido de reproducir sus propios resultados. Por disciplinas, estos fueron los datos de la encuesta: en química el 90% y el 60% (ajenos y propios, respectivamente), en biología el 80% y el 60%, en medicina el 70% y el 60%, en física e ingeniería el 70% y el 50%,en medicina, y en ciencias de la Tierra y el ambiente el 60% y el 40% (Baker, 2016).
Parece evidente que la imposibilidad o dificultad para reproducir resultados constituye una severa limitación al ejercicio del escepticismo, sin el cual no es posible someter a contraste los resultados y conclusiones publicadas.
Aunque a veces la imposibilidad de reproducir los resultados se refiere a casos de fraude, lo normal es que no haya trampa ni malas prácticas realizadas de forma voluntaria. Las razones por las que los resultados experimentales no se reproducen al repetirse los experimentos son diversas. Muchas veces no se especifican de forma correcta las condiciones experimentales. En otras los investigadores se ven afectados por sesgos como los expuestos en una anotación anterior y que tienen que ver con el grado de aproximación de los resultados obtenidos a las expectativas iniciales. Cuando en un conjunto de datos alguno destaca como “anómalo” es relativamente común descartarlo basándose en el supuesto de que la anomalía bien puede deberse a un error experimental sin trascendencia. En todo esto influyen de forma decisiva dos factores. Uno es que el personal de universidades y centros de investigación, como ya hemos visto, está sometido a una fuerte presión por publicar. Y el otro es que las revistas científicas rara vez aceptan publicar resultados negativos. Por esa razón, no es de extrañar que funcionen sesgos que, inconscientemente, facilitan la obtención de resultados positivos y, por lo tanto, publicables.
El tratamiento estadístico es también una fuente de resultados de difícil reproducción. Es relativamente común la práctica de ensayar diferentes procedimientos y seleccionar, entre un catálogo más o menos amplio de posibilidades, aquél cuyos resultados mejor se acomodan a las expectativas. Este es un problema serio en los campos en que se realizan ensayos que han de conducir al desarrollo posterior de tratamientos médicos. Pero, el daño que causa es general, ya que esa forma de proceder tiende a neutralizar la emergencia de nuevas ideas que debería caracterizar, de forma intrínseca, a la práctica científica. Si se opta por mostrar los resultados que mejor se acomodan a las expectativas, se deja de lado el examen crítico de posibilidades que podrían haber conducido a nuevas ideas.
La figura muestra la frecuencia de aparición de expresiones relativas a, reales o supuestas, crisis científicas. Fuente: D Fanelli (2018) PNAS 115 (11): 2628-2631La revista Proceedings of the National Academy of Sciences, más conocida por sus siglas PNAS y una de las más prestigiosas del mundo, publicó una serie de artículos analizando la llamada “crisis de reproducibilidad” y, en general, la validez de un discurso muy en boga mediante el que se difunde la idea de que la ciencia se encuentra hoy en crisis. De ese conjunto de estudios parece concluirse que esa idea no tiene suficiente base y que se trata, más bien, de una leyenda urbana. Sin embargo, en nuestra opinión, lo que esos estudios documentan es que el fraude no ha crecido durante las últimas décadas, de la misma forma que no ha crecido el número de artículos retractados (retirados de la publicación por los editores) en términos relativos. Pero no es tan clara la conclusión de que no hay problemas de reproducibilidad, porque el procedimiento seguido para llegar a esa conclusión es demasiado indirecto, mientras que los estudios que documentan las dificultades para reproducir resultados anteriores son bastante más directos.
En nuestra opinión, la falta de reproducibilidad procede de una progresiva relajación de los estándares que se consideran aceptables en cuanto calidad de la evidencia científica; nos referimos a asuntos tales como tamaños de muestra, claridad de la significación estadística más allá del valor de p, calidad de los blancos, etc. Los científicos como colectivo somos a la vez autores de los experimentos, autores de los artículos y revisores de estos. Que poco a poco se vayan aceptando niveles cada vez más bajos nos conviene si nuestro objetivo es el de publicar más rápidamente y engrosar un currículo investigador en un tiempo breve. Pero eso conduce, lógicamente, a un declive del rigor y exigencia generales. Ahora bien, al tratarse de un declive gradual, no se aprecia con nitidez la pérdida de calidad. Sin embargo, cuando el deterioro se acentúa se acaban dando por buenos (publicándolos) resultados que realmente no responden a hechos reales y por tanto no se pueden reproducir.
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo La crisis de reproducibilidad en ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: