Ciencia: es complicado

Cuaderno de Cultura Científica - Og, 2017-06-08 11:59

Explicaciones hay, y las ha habido siempre; para cada problema humano hay siempre una solución bien conocida, elegante, plausible y equivocada. H. L. Mencken

La mente humana es una máquina maravillosa que está poseída por un insaciable deseo de conocer, de satisfacer su curiosidad, pero como todos los sistemas biológicos tiene sus defectos. Y uno de ellos es particularmente perverso: la vagancia. La mente humana quiere saber, pero el cerebro tiene un infinito anhelo de trabajar lo menos posible. Por eso siempre prefiere una explicación sencilla a una compleja; un razonamiento simple a uno más alambicado, una historia directa y sin demasiados condicionales que otra repleta de apartes, casos particulares y rincones que necesitan explicaciones complementarias. No hablamos aquí de la llamada Navaja de Ockham, un principio metodológico razonable, sino del simple problema de la pereza que hace que los seres vivos prefieran el camino con menos cuestas. Y eso, para la ciencia, es un problema, porque resulta que nuestro Universo es complejo, sutil, a veces contradictorio y siempre anti-intuitivo. Comprender el cosmos es siempre cuesta arriba.

Por eso la respuesta a casi cualquier pregunta realmente interesante se puede resumir igual que esas tortuosas relaciones personales se etiquetan en Facebook: Es Complicado.

Imagen resumen en la que solo se indica la posible influencia de las bacterias intestinales en la enfermedad celíaca. Nótese la cantidad de interrogantes.

Pongamos un ejemplo relacionado con la actualidad. El pasado domingo 4 de junio de 2017 la periodista Rosa Montero publicó en la revista El País Semanal un artículo sobre intolerancias alimenticias, transgénicos, el poder de la industria farmacéutica y la demonización de la homeopatía. No se trata de desmontar sus numerosos, variados y profundos errores; otros ya lo han hecho, con brillantez. Lo que se pretende aquí es subrayar hasta qué punto este tipo de argumentos revelan el daño que hace el afán de simplicidad enfrentado a la complejidad del conocimiento científico. Porque puramente por casualidad y coincidiendo con el artículo citado la revista The Scientist publicó un amplio repaso de lo que la ciencia conoce ahora mismo sobre la celiaquía, las intolerancias alimentarias no celiacas, su prevalencia, causas y posibles orígenes, además de potenciales avenidas de tratamiento. A diferencia de la elegante, plausible y equivocada explicación defendida por Rosa Montero lo que conocemos es mucho más complejo.

La prevalencia de estas enfermedades está aumentando, es cierto, y no sabemos por qué; pero no se debe a transgénicos (que no están en nuestros campos de cultivo) y mucho menos a que la labor del gran Norman Borlaug y la Revolución Verde crearan nuevos tipos de trigo con un gluten distinto, cosa que no hizo. Sabemos que la verdadera intolerancia celiaca se comporta como una enfermedad autoinmune, creando respuesta de nuestras defensas no sólo contra algunas de las proteínas del gluten, sino sobre células propias del cuerpo. Hay un componente genético, pero resulta que casi el 40% de la población lleva variantes génicas relacionadas con la enfermedad y sólo entre el 1 y el 3% del total la desarrollan, y aún no conocemos el agente detonante que podría ser cualquier cosa en nuestro medio ambiente, tal vez la más insospechada. Existen, además, intolerancias a los cereales que no están relacionadas con el gluten, pero que pueden interactuar modificando el curso de la enfermedad.

Los síntomas abdominales son los más típicos y pueden dañar el intestino, pero ahora están apareciendo otros de síntomas en adultos (osteoporosis, anemia) cuya conexión no conocemos. Sabemos que la composición del microbioma intestinal es diferente en los celiacos, pero no sabemos de qué manera afecta a la enfermedad; aunque resulta que al menos parte del aumento del número de casos podría deberse a nuestra exitosa lucha contra las úlceras de estómago, porque la presencia de Helicobacter pylori (la bacteria que causa muchas de ellas) coincide con menos celiaquía. Y sabemos que en algunas circunstancias la infección deliberada con parásitos, como lombrices intestinales, alivia a algunos enfermos, pero no sabemos cómo ni por qué. Hay pocas certezas y muchos factores en juego. En otras palabras: es complicado.

Sería mucho más sencillo, comprensible y satisfactorio tener un único enemigo contra el que poder luchar. Sería mucho más heroico que ese enemigo tuviese defensores poderosos para así luchar hasta derrotarlos en defensa de la verdad. Sería mucho más elegante y plausible que las cosas tuviesen una explicación sencilla. Pero la realidad no es así. En ciencia muchos fenómenos surgen de la interacción de múltiples factores, lo que complica entenderlos. Por eso uno de los principios metodológicos básicos es el reduccionismo: controlar los factores que participan en un sistema complejo y modificarlos de uno en uno, de modo controlado y sistemático, para detectar cuáles influyen y de qué manera afecta cada uno. Cuando se trata de objetos o seres vivos es fácil realizar este tipo de investigación en un laboratorio. Pero cuando se trata de seres humanos no se pueden hacer experimentos, así que hay que usar los grandes números, las estadísticas y la historia para intentar conseguir los datos. Esto obliga a tratar con múltiples factores y a usar sofisticados métodos de análisis para separar sus efectos. El proceso no es simple y puede conducir a errores que luego hay que corregir, pero es el único disponible.

Esto exige años de estudio, décadas de dedicación, grandes presupuestos, captación de datos a gran escala, y también personas que dedican su carrera y deben vivir con la posibilidad, siempre presente, de que el trabajo de su vida resulte ser uno de esos errores que se descartan en los pies de página de los libros de ciencia. Exige mucho trabajo mental sin ninguna garantía de que el resultado final sea positivo y con la certeza de que, aun siéndolo, la explicación nunca será elegante y sencilla sino retorcida, compleja, llena de excepciones y sutilezas difíciles de entender. La práctica de la ciencia a veces genera la sensación de estar golpeándote la cabeza contra la pared, de estar desperdiciando tu vida dedicándote a pensar con feroz intensidad en resolver un problema que no se puede resolver. Y hacerlo antes de que los chinos, o los estadounidenses, lo consigan antes que tú.

Cuánto más fácil es buscar un culpable, un enemigo malvado, plausible y que explique todo y enfocar en la ira sobre esa imagen, sobre todo cuando lo que se quiere es la explicación de un sufrimiento humano real; cuánto más satisfactorio sentirse seguro y lleno de justicia con una explicación simple y un enemigo claro en lugar de frustrado, inseguro e incluso ignorante. La ciencia no ofrece respuestas sencillas, ni morales, ni justas: busca respuestas reales. El cerebro a veces prefiere ahorrarse el trabajo y las dudas, y es comprensible: siempre es más fácil remar a favor que en contra de la corriente. Pero aunque cueste más trabajo hay que ir donde está la verdad; por eso merece la pena. Aunque sea complicado.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo Ciencia: es complicado se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. De los héroes de la ciencia y sus frágiles teorías
  2. La ciencia y la duda
  3. Buscar vida extraterrestre va a ser un poquito más complicado
Kategoriak: Zientzia

Nektarra jateak dakarren korapiloa

Zientzia Kaiera - Og, 2017-06-08 09:00
Juan Ignacio Pérez eta Miren Bego Urrutia Janaria

———————————————————————————————————–

Kolibriak hegazti txikienak dira eta nektarra da haien janari nagusia. Nektarra diluzio bat da, intsektuak eta hegazti polinizatzaileak erakartzeko zenbait landareren loreek sortzen duten ur-diluzioa. Hori dela eta, kolibriek 12 ordutan zurrupatu behar duten ur kantitatea haien masaren halako 5 baino gehiago da, eta hori, bistan da, ur asko da, gehiegi beharbada.

Ur gehiegi edaten duten animalietan hiperhidratazioa gerta daiteke, hots, urez pozoitzea. Gezurra badirudi eta arraro samarra bada ere, noiz edo noiz hori gertatzen zaie gizabanakoei, gaixotasun batzuen ondorioz batik bat. Paradoxikoa izanik ere, gastroenteritisak, esaterako, hiperhidratazioa ekar dezake. Izan ere, barne-medioaren gatz-kontzentrazioa gehiegi behera daiteke ur gehiegi edaten denean, eta barne-likidoen bolumen handia galdu ondoren gerta daiteke hori. Hori dela eta, zenbait kirolari hil ere egin dira lehiatzen ari ziren bitartean, urez pozoituta. Hiperhidratazioaren zantzuak aurkitu zituzten Andy Warhol artista ezagunaren gorpuan ebakuntza baten osteko bihotz-arritmia baten ondorioz hil zenean. Garunaren funtzioan eragiten ditu kalterik larrienak hiperhidratazioak, zeren barne-medioa gehiegi diluitzen denean neuronen zitoplasmaren eta barne-medioaren arteko elektrolitoen balantzea desorekatu egiten baita. Ezaguna denez, elektrolitoen oreka ezinbestez gorde behar da nerbio-bulkada behar bezala sortu ahal izateko.

Irudia: Odol beroko animaliarik txikiena Kuban bizi da, eta ez da satitsu etruskoa: erle-kolibria da. Mellisuga helenae du zientzia-izena eta “pájaro mosca” edo “zunzuncito” esaten diote gaztelaniaz.

Naturan animalia gutxi egon daitezke hiperhidratazioa pairatzeko arriskuan. Anfibioak egon litezke egoera horretan, larruazal iragazkorra dutelako, baina gernu-bolumen handiak ekoitziz konpontzen dute arazoa; anfibioen gernua, bestalde, oso diluitua da, kasik ez du gatzik, haien giltzurruna oso eraginkorra baita gernutik gatzak berreskuratzen. Ur gezetako arrain teleosteoak ere, urez pozoitu litezke uraren sarrera saihesteko modurik izango ez balute, baina “Ura, bizitzarako ezinbestekoa” atalean ikusi dugun bezala, oso eraginkorrak dira diluzioaren aurka dituzten hiru hesiak [1].

Uretako animalia horiek, beraz, badituzte gehiegizko uraren arazoa saihesteko modu egokiak, bestela ezingo lirateke ur gezetan bizi. Kolibriek ere, lehenago emandako arrazoi bitxiagatik, antzeko arazoei aurre egin behar diete. Kolibriek urarekin duten arazoa ez da arazo makala. Izan ere, uretan bizi diren anfibioek baino ur-sarrera handiagoak pairatzen dituzte.

Kolibrien hesteak nektarraren ur osoaren zati txiki bat bakarrik xurgatzen duela pentsatzen zen hasieran, baina gero frogatu da ezetz, gehiena xurgatzen duela. Ez zen ideia txarra, hala ere, horixe baita Nectariniidae familiako eguzki-txoriek [2] egiten dutena.

Zurrupaturiko uraren % 80 xurgatzen dute kolibriek eta, beraz, giltzurrunak kanporatu behar du ur gehiena. Hortaz, oso eraginkorra da haien giltzurruna, eta oso malgua gainera; azken batean, egunez lan handia egin behar badu ere, gauez ez du ia lanik egiten, kolibriak lozorroan sartzen baitira, eta giltzurrunak ez baitu ia gernurik sortzen.

Hala eta guztiz ere, urarena ez da arazo makala, giltzurrunak mugak dituelako, oso eraginkorra eta ahaltsua bada ere. Izan ere, litekeena da kolibriak toki beroetan bizitzera behartuta egotea. Toki hotzetan animalia homeotermoek bero gehiago galtzen dute eta, ondorioz, toki hotzetan beroetan baino gehiago jan behar dute. Baina kolibriek nekez jan lezakete jaten dutena baino gehiago, giltzurrunak askoz ere ur gehiago prozesatu beharko bailuke orduan. Hortaz, ingurune hotzetan jarritako kolibriek pisua galtzen dute, gehiegizko ur-arazoa dela medio beharko luketen nektar guztia jan ezin dezaketelako.

Lehen esan bezala, bestelakoa da eguzki-txorien jokabide fisiologikoa. Eguzki-txoriek ez dute zurrupatu duten ur guztia xurgatzen, % 60 baztertu baitezakete. Ez dakigu zein den hori egiteko erabiltzen duten mekanismoa, baina badakigu txori horientzat behar-beharrezkoa dela horrela jokatzea, bizi diren tokietan askotan hotza egiten duelako.

Horrelakoxe korapiloak ditu bizitzak: tamaina, tenperatura, giltzurrun-funtzioa eta elikatze-modua, lau faktore horiek batera eragiten diote kolibrien banaketa geografikoari. Bai korapilo ederra!

Oharrak:

[1] Larruazal iragazkaitza da lehen hesia; gernu-bolumen handia ekoizteak eta gernuko gatz-kontzentrazioa oso apala izateak osatzen dute bigarren hesia; eta gatzen barneratze aktiboa dugu hirugarrena. Azken hau da, izan ere, urez pozoitzea eragozten duena, barne-medioaren diluzioaren aurkako berezko mekanismoa baita.

[2] Familiaren izen zientifikoak dioen bezala, txori horiek ere nektar-jaleak dira.

—————————————————–

Egileez: Juan Ignacio Pérez Iglesias (@Uhandrea) eta Miren Bego Urrutia Biologian doktoreak dira eta UPV/EHUko Animalien Fisiologiako irakasleak.

—————————————————–

Artikulua UPV/EHUren ZIO (Zientzia irakurle ororentzat) bildumako Animalien aferak liburutik jaso dugu.

The post Nektarra jateak dakarren korapiloa appeared first on Zientzia Kaiera.

Kategoriak: Zientzia

Cómo el Ártico se volvió salado

Cuaderno de Cultura Científica - Az, 2017-06-07 17:00

El Océano Ártico fue una vez un gigantesco lago de agua dulce. Sólo después de que el puente terrestre entre Groenlandia y Escocia se hubiese sumergido lo suficiente, grandes cantidades de agua salada llegaron desde el Atlántico. Con la ayuda de un modelo climático, investigadores del Instituto Alfred Wegener (Alemania) han demostrado cómo tuvo lugar este proceso, permitiéndonos por primera vez comprender con mayor precisión cómo se desarrolló la circulación atlántica que conocemos hoy.

Cada año, aproximadamente 3.300 kilómetros cúbicos de agua dulce fluyen hacia el océano Ártico. Esto equivale al diez por ciento del volumen total de agua que todos los ríos del mundo transportan a los océanos al año. En el clima cálido y húmedo del Eoceno (hace entre 56 a 34 millones de años), la afluencia de agua dulce probablemente fue aún mayor. Sin embargo, a diferencia de hoy, durante ese período geológico no hubo intercambio de agua con otros océanos. La afluencia de aguas salinas del Atlántico y del Pacífico, que hoy encuentra su camino al Océano Ártico desde el Pacífico a través del estrecho de Bering y desde el Atlántico Norte a través de la cresta Groenlandia-Escocia, no era posible. La región que hoy está sumergida estaba por encima del nivel del mar en ese periodo.

Sólo una vez que desapareció el puente terrestre entre Groenlandia y Escocia, surgieron los primeros pasos oceánicos, conectando el Ártico con el Atlántico Norte y haciendo posible el intercambio de agua. Utilizando un modelo climático, los investigadores han simulado con éxito el efecto de esta transformación geológica en el clima. En sus simulaciones, sumergieron gradualmente el puente terrestre a una profundidad de 200 metros, un proceso tectónico de inmersión que en la realidad duró varios millones de años. Curiosamente, los mayores cambios en los patrones de circulación y las características del Océano Ártico sólo se produjeron cuando el puente de tierra había alcanzado una profundidad de más de 50 metros por debajo de la superficie del océano.

Esta profundidad umbral corresponde a la profundidad de la capa superficial de mezcla, esto es, la capa que determina dónde termina el agua superficial relativamente ligera del Ártico y comienza la capa subyacente de agua densa que entra del Atlántico Norte. Sólo cuando la cresta oceánica se encuentra por debajo de la capa de mezcla superficial puede el agua salina más pesada del Atlántico Norte fluir hacia el Ártico con relativamente poco obstáculo. Por tanto, solo una vez que el puente entre Groenlandia y Escocia había alcanzado esta profundidad crítica, se creó el Océano Ártico salino como lo conocemos hoy. La formación de los pasos oceánicos desempeña un papel vital en la historia del clima global, ya que conlleva cambios en el transporte de energía térmica en el océano entre las latitudes media y polar.

La teoría de que la Cuenca Ártica estuvo una vez aislada se apoya en el descubrimiento de fósiles de algas de agua dulce en los sedimentos de aguas profundas del Eoceno que se obtuvieron durante una campaña de perforación internacional cerca del Polo Norte en 2004. Lo que una vez fue un puente terrestre ahora se encuentra alrededor de 500 metros bajo el océano y está formado casi enteramente de basalto volcánico. Islandia es la única sección que queda por encima de la superficie.

Referencia:

Michael Stärz, Wilfried Jokat, Gregor Knorr, Gerrit Lohmann (2017) Threshold in North Atlantic-Arctic Ocean circulation controlled by the subsidence of the Greenland-Scotland Ridge. Nature Communications. DOI: 10.1038/NCOMMS15681

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Cómo el Ártico se volvió salado se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El óxido de grafeno que se mueve como una oruga y coge cosas como una mano
  2. Y el Sol se volvió azul
  3. Cómo usar a las ballenas como detectores de radiación
Kategoriak: Zientzia

El teorema de los cuatro colores (y 4): ¿Podemos creer la prueba de la conjetura?

Cuaderno de Cultura Científica - Az, 2017-06-07 11:59

En 1975, el divulgador científico Martín Gardner (1914-2010) publicaba un artículo (ver [1]) en el que afirmaba que el denominado mapa de Mc.Gregor –de 110 regiones– precisaba necesariamente de cinco colores para pintarse, sin que dos regiones adyacentes compartieran color. Es decir, proponía un contraejemplo al teorema de los cuatro colores. ¿Por qué continuaron entonces Appel y Haken intentando demostrar el resultado planteado por Guthrie en 1852?

El artículo de Gardner se publicó el 1 de abril de 1975, el Día de los inocentes en los países anglosajones. Muchos lectores, contrariados, enviaron a Gardner propuestas de coloreado del mapa de Mc.Gregor, para mostrarle que su afirmación era errónea.

El mapa de Mc.Gregor y la propuesta de 4-coloreado de Stan Wagon (1951).

Lo raro es que esos lectores no fueran conscientes de que se trataba de una simple broma; en ese artículo Gardner hablaba de Seis descubrimientos sensacionales que de alguna manera han escapado a la atención pública. En efecto, el divulgador:

  1. ‘mostraba’ una refutación de la teoría de la relatividad de Einstein, a través de un experimento del físico británico Humbert Pringl;

  2. ‘anunciaba’ el descubrimiento –en el Codex Madrid I y por parte de Augusto Macaroni de la Universidad Católica de Milán– de que Leonardo de Vinci había inventado el retrete auto-limpiable con el agua de su cisterna;

  3. ‘comentaba’ la demostración de Richard Pinkleaf –con ayuda del ordenador MacHic– de que en ajedrez, el movimiento de apertura de peón a cuatro torre de rey gana siempre la partida;

  4. ‘notificaba’ el sorprendente resultado –obtenido por John Brillo de la Universidad de Arizona– de que la base de los logaritmos naturales, el número e,elevado a π(163)½ es el número entero 262.537.412.640.768.744;

  5. ‘anunciaba’ la construcción –debida al parapsicólogo Robert Ripoff– de un motor funcionando con energía mental; y

  6. ‘notificaba’ el descubrimiento –por parte del especialista en teoría de grafos William McGregor– del famoso mapa del que hemos hablado antes.

Así que es lógico que, tras el 1 de abril de 1975, se continuara con la búsqueda de una demostración del teorema de los cuatro colores… Durante el largo proceso hasta llegar a su prueba, se desarrollaron teorías matemáticas como la teoría de grafos y de redes. Es decir, ni los errores ni los aciertos intentando demostrar este teorema fueron nimios; todos ellos ayudaron a la puesta a punto de este primer gran teorema demostrado –¿verificado?– usando un ordenador.

Pero, ¿es realmente una demostración? ¿Se puede garantizar la corrección de la compilación realizada por un ordenador? ¿Las computadoras son infalibles? Tras la demostración del teorema de los cuatro colores con ayuda de ordenadores, otras pruebas se apoyaron en este método, como la clasificación de los grupos simples finitos (2004) –que depende de cálculos imposibles de ejecutar con detalle a mano– o la solución de Thomas Hales (1998) del problema de Kepler sobre el empaquetamiento óptimo de esferas. Pero, ¿se puede aceptar como válida una afirmación que sólo una máquina, y no una mente humana, puede comprobar?

¿Qué es una demostración? El filósofo de la ciencia Imre Lakatos (1922-1974) la define (ver [3]) como: “Una sucesión finita de fórmulas de algún sistema dado, donde cada uno de los pasos de la sucesión es o bien un axioma del sistema, una fórmula derivada por una regla del sistema a partir de una fórmula precedente”.

Por su parte, el filósofo Thomas Tymoczko (1943-1996) califica una demostración como algo (ver [6]): convincente –debería persuadir incluso a los escépticos que dudan de la veracidad del resultado–, formalizable –la conclusión debería alcanzarse partiendo de sistemas axiomáticos–, y comprobable.

Este último es el aspecto más controvertido en el caso del teorema de los cuatro colores. ¿Puede estar un teorema probado si no se puede leer (comprobar) su demostración?

Existen dos corrientes principales que intentan responder a este dilema:

Los escépticos opinan que el aspecto de la comprobabilidad es el que pone en duda la credibilidad de la prueba. Si las pruebas deben ser verificadas, parece que entonces una persona –lo opuesto a una máquina– debe completar esta tarea: esto no puede hacerse con la prueba del teorema de los cuatro colores.

El matemático Paul Halmos (1916-2006) opinaba que la demostración realizada con un ordenador tiene la misma credibilidad que si está hecha por un adivino…Y afirmaba: “No puedo aprender nada de la demostración. La prueba no indica la razón por la que sólo se necesitan 4 colores ¿por qué no 13? ¿Qué tiene de especial el número 4?”.

El matemático Pierre Deligne (1954) comentaba: “No creo en una prueba hecha con ordenador. En primer lugar, soy demasiado egocéntrico. Creo en una demostración si la entiendo, si está clara. Un ordenador puede también cometer errores, pero es mucho más difícil encontrarlos”.

Tymockzo afirma que usar un ordenador para establecer una verdad matemática es transformar pruebas en experimentos. Afirma que el teorema de los cuatro colores ha sido confirmado a través de un experimento de física teórica, pero no probado de una manera formal. Aunque se tiene una pequeña idea de lo que el ordenador está testando, no se tiene la seguridad de lo que se está haciendo.

Los no escépticos, por su parte, argumentan del siguiente modo:

  1. aunque las equivocaciones cometidas por los ordenadores son más difíciles localizar, los seres humanos fallan con más frecuencia; los ordenadores siguen un programa rígido predeterminado, y no tienen tropiezos motivados por los cambios de humor, el estrés u otros factores externos;

  2. la longitud de algunas demostraciones sobrepasa la capacidad de computación humana, pero es perfectamente aceptable por los estándares de las máquinas;

  3. la idea de que no pueden usarse ordenadores va a ser cada vez más insólita para las generaciones futuras: los ordenadores serán –¿son?– herramientas como el lápiz y el papel

  4. la prueba de Appel y Haken es, en esencia, tradicional, ya que consiste en una serie de pasos lógicos, que conducen a la conclusión de que la conjetura puede reducirse a una predicción sobre el comportamiento de unos2.000 mapas.

¿Quiénes tienen razón?

Para añadir un poco más de incertidumbre al tema, el filósofo Hud Hudson afirmaba dar en [2] un contraejemplo al teorema de los cuatro colores: presentaba el mapa de Zenopia, una isla formada por seis provincias que necesita seis tonos para colorearse… Entonces, ¿es falso el teorema de los cuatro colores? No, no hay que preocuparse: Zenopia es un mapa con fronteras extrañas, cuya especial geografía queda excluda del enunciado original del teorema…

Bibliografía

[1] Martin Gardner, Mathematical Games: Six Sensational Discoveries that Somehow or Another have Escaped Public Attention, Scientific American 232, 127-131, 1975

[2] Hud Hudson, No basta con cuatro colores, Gaceta de la RSME 8(2), 361-368, 2005.

[3] Imre Lakatos, What does a mathematical proof prove?, Cambridge Univers¡ity Press, 540-551, 1979.

[4] Marta Macho Stadler, Mapas, colores y números, Descubrir las matemáticas hoy: Sociedad, Ciencia, Tecnología y Matemáticas 2006 (2008) 41-68

[5] E.R. Swart, The philosophical implications of the four-colour theorem, American Mathematical Montlhy 87, 697-707, 1980

[6] Thomas Tymoczko, The four-color problem and its philosophical significance, Journal of Philosophy 76, 57-70, 1979

[7]Robin .J. Wilson, Four colors suffice: how the map problem was solved, Princeton University Press, 2002

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo El teorema de los cuatro colores (y 4): ¿Podemos creer la prueba de la conjetura? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba
  2. El teorema de los cuatro colores (3): Tras más de un siglo de aventura… ¿un ordenador resuelve el problema?
  3. El teorema de los cuatro colores (1): una historia que comienza en 1852
Kategoriak: Zientzia

Lursaguek dute maitasunaren gakoa

Zientzia Kaiera - Az, 2017-06-07 09:00
Amaia Portugal Monogamia naturala ala kulturala den, asko eztabaidatu daiteke gaiari buruz, gizakiez ari garenean. Baina izan, badira, berez monogamoak diren animalia gutxi batzuk, bizitza osoa bikotekide bat eta bakarrarekin partekatzen dutenak. Microtus ochrogaster lursagua da espezie horietako bat. Hain zuzen, Ipar Amerikako lursagu monogamo honi begira jarri dira Emory Unibertsitateko (Atlanta, Georgia, AEB) ikertzaile batzuk, “maitasunaren kode neurala” argitzeko. Hau da, bikotekide leiala bilatu eta aurkitzeko prozesu horretan, animalion garunean zer gertatzen den aztertu dute. Nature aldizkarian eman dute ikerketaren berri.

Abiapuntua bazuten zientzialariok. Izan ere, aurrez beste lan batzuek iradoki izan dutenez, oxitozina eta dopamina bezalako gai kimikoek garuneko bi erregiotan esku hartzen dute, lursaguen arteko bikote loturak sustatze aldera: kortex prefrontal mediala (erabakiak hartzearekin zerikusia duen atala) eta accumbens nukleoa (sari sistema, plazera…) dira bi erregioak. Horiek sakon aztertuta, bikote loturak bideratzen dituen jarduera neural zehatza aurkitzea zen lan honen gakoa.

1. irudia: Microtus ochrogaster lursaguek bikotekide bakarrarekin partekatzen dute bizitza osoa. (Argazkia: Emory Unibertsitatea)

Zunda elektrikoak baliatuta, lursagu emeen garuneko bi erregio horien arteko komunikazio neurala grabatu eta entzun zuten ikertzaileek, arrekin hartu-emanetan zeuden bitartean. Hau da, bikotekide potentzial bat aurkitu, lehenbizikoz harekin ernalketa izan eta, ondotik, biziarteko lotura osatu dutela erakusten duten adierazleak (ez dira gizakiengandik hain desberdinak zentzu horretan, elkarri lapa-lapa eginda ibiltzen baitira) agertzen diren arteko prozesu guztia jarraitu zuten, emearen burmuinari begira.

Ondorioztatu dutenez, erabakiak hartzen dituen kortex prefrontalak lagundu egiten dio sari sistemaren erdigunea den accumbens nukleoari, bertan dauden neuronen oszilazio erritmikoak kontrolatuta. Bi alorren arteko konexio funtzionala iradokitzen du horrek. Gainera, ikertzaileok ikusi dutenez, konexio funtzional horren indarra desberdina da kasu bakoitzean, eta konektibitate sendoena erakusten duten emeak dira balizko bikotearenganako lotura azkarren erakusten dutenak.

Are gehiago, lehen ernalketak bizkortu egin ohi du lursagu bikotearen arteko harremana, eta garuneko konexio funtzionala ere sendotzen duela egiaztatu dute. Konexio horrek zer indar duen eta animaliok bikote lotura zer azkar (edo motel) egiten duten, korrelazioa dago bi aldagai horien artean. Era berean, emeak ar zehatz batekin bikotea osatzeko duen probabilitatea aurresan daiteke, garuneko bi erregioen arteko komunikazio mailari erreparatuta.

2. irudia: Gerora, autismoa bezalako gaitzei aurre egiten ere lagun dezake ikerketa ildo honek.
(Argazkia: Darryl Leja, National Human Genome Research Institute / CC BY 2.0 lizentziapean)

Horiek guztiak ikusita, jarraian, ikertzaileek artifizialki aktibatu zuten garuneko bi erregioen arteko zirkuitu neurala, optogenetikaren bitartez. Hala, lursagu emeen kortex prefrontalaren eta accumbens nukleoaren arteko komunikazioa indartu zuten teknika horrekin. Optogenetika bidezko estimulazioa baliatzen zuten bitarte horretan, emea ar baten ondoan jarri zuten, baina ez zegoen ez ernalketarik, ez eta kontaktu fisiko txikienik ere haien artean, arra kopa garden baten azpian baitzegoen. Harreman hori ahulegia da, berez, lursaguen arteko bikote lotura osatzeko, baina estimulazio artifizialaren ondorioz, ar horrekin bizi arteko harreman sendoa izango balu bezala hasi zen jokatzen emea.

Epe luzera begira, ikerketa ildo honetatik, erronka are zailago bati heldu nahi diote Emory Unibertsitateko kideek, Robert Liu arduradunak azaldu duenez: “Oro har komunikazio neural hobea sustatzea da gure helburua, adibidez autismoaren moduko gaitzen kasuan, kognizio sozialari bultzada emateko”.

Erreferentzia bibliografikoa:

Elizabeth Amadei et al. Dynamic corticostriatal activity biases social bonding in monogamous female prairie voles. Nature (2017). Published online 31 May 2017. DOI: 10.1038/nature22381

———————————————————————————-

Egileaz: Amaia Portugal (@amaiaportugal) zientzia kazetaria da.

———————————————————————————

The post Lursaguek dute maitasunaren gakoa appeared first on Zientzia Kaiera.

Kategoriak: Zientzia

Evolución de los sistemas nerviosos: moluscos

Cuaderno de Cultura Científica - Ar, 2017-06-06 17:00

El rasgo más característico del sistema nervioso de los moluscos es la gran importancia relativa que tiene su sistema periférico. En todos los grupos de moluscos se da alguna forma de coalescencia de neuronas que dan lugar a ganglios o encéfalos. Cefalópodos y gasterópodos presentan encéfalos bien definidos, aunque de diferente grado de complejidad y desarrollo. Los bivalvos disponen de ganglios, encefálicos y viscerales, que cumplen funciones análogas a las de los encéfalos de los anteriores. Pero además, todos ellos disponen de un extenso sistema periférico que comprende plexos nerviosos subepidérmicos y pequeños ganglios periféricos. Los ganglios periféricos son responsables del control reflejo y del procesamiento sensorial primario de órganos especiales, tales como branquias o palpos de bivalvos, y en numerosas ocasiones ambos sistemas intervienen de forma coordinada en el desarrollo de algunos comportamientos.

La importancia tan grande del sistema periférico parece deberse a la condición de animales de cuerpo blando y al hecho de tener un esqueleto hidrostático. Al disponer de una compleja y bien organizada musculatura en la superficie corporal, un control preciso a cargo del sistema central requeriría de un muy elevado número de neuronas centrales, por lo que resulta mucho más económico, desde el punto de vista de la organización nerviosa disponer de una extensa organización periférica responsable del control local. La ausencia de articulaciones impide disponer de sentidos de posición; sin la información que proporcionan los receptores de estiramiento de uniones articuladas, los cefalópodos desconocen la posición de sus brazos; tampoco puede estimar el peso de un objeto, sólo conocer su textura y tamaño. La gran importancia funcional del sistema periférico es lo que, sin embargo, les permite alcanzar los grandes tamaños propios de algunas especies.

El sistema nervioso central de los gasterópodos está formado por pares de ganglios conectados por células nerviosas; hay ganglios encefálicos, pedales, osfradiales, pleurales y viscerales, y en algunos casos, bucales también. En este grupo han surgido dos líneas principales, la de los opistobranquios, por un lado, y la de los prosobranquios y caracoles pulmonados, por el otro. La primera corresponde a animales que han abandonado las actividades de excavación de sus antecesores y que ramonean y pastan libremente, por lo que cuentan con elaborados sistemas de defensa química. Viven en ambientes simples y su sistema nervioso es simple, por lo que el comportamiento de estos animales se caracteriza por un repertorio limitado de subrutinas.

Los prosobranquios y pulmonados, sin embargo, ocupan nichos más complejos y presentan ganglios encefálicos más desarrollados, a la vez que sistemas sensoriales de alta resolución. Son capaces de desarrollar comportamientos de orden superior, muy elaborados. Un ilustrativo ejemplo de comportamiento elaborado es el del depredador Fusitriton oregonensis, que adhiere su puesta a la roca y patrulla la zona para rechazar a posibles depredadores; los detecta gracias a ojos muy desarrollados y los ataca propinándoles golpes con sus conchas.

Dada la condición sedentaria de la mayoría de los bivalvos, su sistema nervioso es bastante más simple que el del resto de moluscos. Carecen de un encéfalo, y el sistema consiste en una red nerviosa y una serie de pares de ganglios. En la mayoría de bivalvos hay dos ganglios cerebro-pleurales, a cada lado del esófago, los cerebrales controlan los órganos sensoriales y los pleurales la cavidad del manto. Los ganglios pedales controlan el pie, y los viscerales, que se encuentran tras el músculo aductor posterior, pueden llegar a tener gran tamaño en los bivalvos que nadan; los que tienen largos sifones también cuentan con un par de ganglios que los controlan.

Los cefalópodos, por su parte, tienen modos de vida muy activos, viven en un medio tridimensional y son depredadores. Disponen de desarrollados receptores de equilibrio, receptores de posición corporal análogos a la línea lateral de los peces pelágicos, y habilidades fotorreceptoras muy notables; también pueden identificar texturas.

Tienen encéfalos muy desarrollados, con un elevado número de neuronas, y sus comportamientos pueden ser muy elaborados, con alta capacidad de aprendizaje. El sistema periférico también está muy desarrollado. Cada ventosa de un pulpo tiene su propio ganglio periférico, aunque también está comunicado con el sistema nervioso central. Los ganglios realizan integración quimio y mecanorreceptora y son responsables del control motor de la ventosa.

El sistema central y el periférico actúan en serie y en paralelo. Los comportamientos complejos suelen generarse en el central, aunque el periférico puede participar en la recepción del estímulo y en el control motor final. En los moluscos se producen tanto comportamientos fijados como no fijados. Ejemplos relativamente bien conocidos de modelos de acción fijos son la natación de huida del opistobranquio Tritonia, que está basado en un grupo de cuatro neuronas del sistema nervioso central, y el comportamiento ventilatorio de la branquia de Aplysia. Sin embargo, el comportamiento alimenticio –en el que intervienen el encéfalo y los ganglios bucales-, o el de rechazo de alimento de gasterópodos –en el que interviene el ganglio abdominal- son buenos ejemplos de comportamientos no fijados.

Por último, hay plasticidad en el comportamiento y la actividad neural de moluscos debido a fenómenos de plasticidad de los reflejos simples (habituación, sensitización, aprendizaje asociativo) y a la capacidad para modificar taxias y desarrollar comportamientos complejos gracias al aprendizaje asociativo.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Evolución de los sistemas nerviosos: moluscos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Evolución de los sistemas nerviosos: cnidarios y gusanos no segmentados
  2. Moluscos en el Arte
  3. Evolución del tamaño animal
Kategoriak: Zientzia

Carnot y los comienzos de la termodinámica (1)

Cuaderno de Cultura Científica - Ar, 2017-06-06 11:59

Carnot fue uno de de los ingenieros franceses que se propusieron estudiar los principios científicos subyacentes al funcionamiento de la máquina de vapor con el objetivo de lograr la máxima potencia de salida con la máxima eficiencia. Como resultado de sus estudios, Carnot y otros ayudaron a establecer la física del calor, lo que se conoce como termodinámica.

Nicolas Léonard Sadi Carnot (1796-1832), en este imagen vistiendo el uniforme de estudiante de L’École polytechnique, fue hijo de Lazare Carnot, uno de los generales de confianza de Napoléon. Murió a los 36 años como conseuencia de la epidemia de cólera que se extendió por Europa en la época.

Carnot comenzó con la observación experimental de que el calor no fluye por sí solo de un cuerpo frío a uno caliente. Se deduce entonces que si, en una situación dada, se hace fluir calor de lo frío a lo caliente, debe tener lugar algún otro cambio en otra parte. Es decir, debe realizarse algún trabajo. Por ejemplo, un refrigerador o un acondicionador de aire son también “máquinas térmicas”, pero su ciclo funciona de manera inversa a una máquina de vapor o un motor de automóvil. Hace falta trabajo (en forma de energía eléctrica o mecánica) para bombear el calor de un cuerpo frío (desde el interior del compartimento o la habitación fríos) a uno más caliente (la habitación donde está el refrigerador o el aire exterior). Utilizando una argumentación muy elegante1 Carnot demostró que ninguna máquina puede ser más eficiente que una máquina ideal y reversible, y que todas las máquinas de este tipo tienen la misma eficiencia.

¿Y que es una máquina ideal y reversible? De entrada algo que no existe en el mundo real (por eso se llama ideal), pero que es extremadamente útil para entender los límites de las máquinas reales. Íntimamente ligado a la idealidad está el concepto de reversibilidad. Una máquina reversible es aquella en la que el ciclo desde la energía de entrada al trabajo de salida más la energía residual, y vuelta a la energía de entrada, se puede ejecutar en sentido inverso sin ninguna pérdida o ganancia adicional de calor u otras formas de energía.

Como todas las máquinas reversibles tienen la misma eficiencia, sólo se tiene que elegir una versión simple de una máquina reversible y calcular su eficiencia para un ciclo para encontrar un límite superior a la eficiencia de cualquier máquina. Esta máquina simple se representa esquemáticamente en el siguiente diagrama. Durante un ciclo de funcionamiento, la máquina, representada por la C de Carnot, absorbe la energía térmica Q1 del cuerpo caliente a temperatura T1, produce un trabajo útil W, y descarga una cierta cantidad de energía térmica Q2 al cuerpo frío a temperatura T2. El ciclo puede repetirse muchas veces.

Observando el diagrama y empleando la ley de conservación de la energía vemos que se tiene que cumplir que Q2 = Q1 – W; o, dicho en términos coloquiales, el calor que sale es la diferencia entre el que entra menos el trabajo que realiza la máquina. Pero, como la eficiencia vimos que era la proporción entre la energía de salida (ahora añadimos “útil”, esto es, el trabajo) y la energía de entrada, tenemos que ef = W/Q1.

Carnot calculó la eficiencia de este ciclo esquemático y encontró que las proporciones de calor y trabajo en una máquina reversible dependen solamente de la temperatura2 de la sustancia caliente desde la cual la máquina obtiene el calor y la temperatura2 de la sustancia fría que extrae el calor residual de la máquina.

La expresión que encontró Carnot para la eficiencia de las máquinas reversibles es, escrita con nomenclatura actual, ef = W/Q1 = 1 – T2/T1

Démonos cuenta de que la única forma de obtener una eficiencia del 100%, es decir ef = 1, es si hacemos que T2, la temperatura de la sustancia que recibe el calor residual, sea el cero absoluto, algo físicamente imposible, como veremos. Esto significa, de nuevo en términos coloquiales, que toda máquina debe liberar algo de calor residual al exterior antes de volver a tomar más energía del cuerpo caliente. Y esto, tan simple, es de una importancia enorme.

Notas:

1 Una argumentación a la que, por su simplicidad, importancia y valor formativo, dedicaremos una anotación específica.

2 Las temperaturas usadas en este caso se llaman temperaturas absolutas (T), o Kelvin, (por el señor Kelvin que fue el primero en introducir esta escala). En la escala absoluta, las mediciones de temperatura son iguales a las temperaturas (t) en la escala Celsius (°C) más 273. No se usa signo de grado, °, para grados Kelvin, el símbolo utilizado es K. Por tanto, el agua se congela a T = 273 K y cuando T = 0 K hablamos de cero absoluto. Ya explicaremos el origen de esta escala más adelante en la serie.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Carnot y los comienzos de la termodinámica (1) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Potencia y eficiencia de una máquina
  2. La máquina de vapor (1)
  3. Los experimentos de Joule
Kategoriak: Zientzia

Lurralde igneo erraldoiak: Lurraren indar-erakustaldia

Zientzia Kaiera - Ar, 2017-06-06 09:00
Arturo Apraiz Lurralde igneo erraldoiek (LIP; Large Igneous Provinces), bere barne hartzen dituzte basalto-plataformak (flood-basalts edo trap), ozeano-plataformak (oceanic plateau), eta Hawaii bezalako gandor aseismiko edo bolkan-kateekin batera “bolkanismo anomaloaren” egitura adierazgarrienak dira (1. irudia).

“Bolkanismo anomalotzat” jotzen da plaken arteko mugetatik urrun gertatzen dena. Ondorioz, onartzen da plaka-tektonikak ezin duela bolkanismo mota hori azaldu. LIPetan pilatutako basalto-bolumenak izugarriak dira; sarritan 1.000-2.000 km-ko diametroko lurraldeak estaltzen dituzte, lodiera kilometrikoa dutelarik (1-5 km); beraz, milioi bat km3 baino basalto gehiago pila daiteke (Elosegi eta Apraiz, 2004). Pilaketa prozesua metro gutxiko laba-kolada bakunen gainezartzaren ondorioa da.

LIPek ezaugarri modura dute, era berean, Geologian laburtzat hartzen den epean azaltzea, eta onartu ohi da 1 ma baino arinago garatzen direla.

Horren epe laburrean horrenbeste arroka igneo azaleratzen delarik, atmosferara gas kantitate izugarriak igortzen dira. Ondorioz, eragina dute bai Lurreko batezbesteko tenperaturan, bai klimatologian, bai eta ozeanoetako baldintzetan, eta zenbait suntsipen biologiko orokor sustatu dituzte.

1. irudia: Fanerozoikoko lurralde igneo erraldoien kokapena (Mahoney eta Coffin, 1997). Kontinente-lurrazalean garatutako basalto-plataformak (flood-basalt) kolore horiarekin daude adierazita, ozeano-lurrazalean kokatutako ozeano-plataformak (oceanic plateau) laranja kolorez. Gorriz, bolkanismo anomaloa adieraten dituzten beste eremuak.

Lurralde igneo erraldoiek daukaten bolumen handia eta isurtze-denbora laburra uztartuz, erraz uler dezakegu produkzio magmatikoa ikaragarrizkoa behar duela, urtero kilometro kubikoa baino handiagoa.

Halako emaria lortzeko mantuak ohiko tenperaturak baino beroagoak behar ditu izan eta magmaren igoera azkarra izan behar da.

Aurrez aipatutako zehaztapenak kontutan hartuz, mendearen hasieran eztabaida sutsua izan zen LIPen jatorria azaltzeko muturreko bi hipotesien artean. Batak mantuko luma gorakorren jarduera (lumen eredua) erabiltzen du eragile gisa, eta besteak, kontinenteko litosferaren lodiera-ezberdintasunetan sortutako, tokian tokiko, konbekzio-korronteak eta mantuaren hetereogeneotasuna (plaken eredua).

Egun, eztabaida baretu da, egindako azken ikerketek zeharo indartu dutelako luma gorakorraren eredua.

Aipagarria da, adibidez, LIP gazte gehienek, sortu zitueneko luma gorakorrekin duten lotura zuzena, bien artean 200-300 km zabal den bolkan-katea edo gandor aseismikoa agertzen baita (2. irudia).

Jakinik LIPen erupzio-proportzioa, lotuta duten bolkan-kateena baino 2-3 magnitude-orden handiagoa dela, luma gorakorren bilakaera logikoa ondorengoa litzateke: luma gorakorren buruek anomalia termiko handia eragiten dute listoferaren azpian, eta horren eraginez, LIPak garatzen dira. Lumaren burua lausotu eta indarra galtzen duenean, lumaren zutabea edo isatsa baizik ez da geldituko, eta zutabe horrek Hawaii-Emperor antzeko bolkan-katea edo gandor aseismikoa baino ez du sortuko, anomalia termiko murritzagoa eragiten duena (2. irudia).

Isatsaren bizia luzea da eta puntu bero bat mantenduko du lurrazalean. Puntu bero horrek, bolkanketa prozesu geologikoki jarraituak izango ditu.

2. irudia: Luma gorakorraren buruak litosferaren oinera iritsita, lurralde igneo erraldoia sortuko du (kasu honetan basalto-plataforma bat). Buruak indarra galtzen duenean aldiz, bolkan-katea edo gandor aseismikoa sortzen da zutabe edo isatsaren eraginez.

Basalto-plataformek eta, ondorioz, luma gorakorrek lotura zuzena dute superkontinenteen edo kontinenteen apurketa prozesuekin. Luma gorakorrek bultzada eragiten dute litosferaren azpian, eta horren eraginez, domo egiturak sortzen dira 1000m-ko altueraraino. Domoek estentsioaren eragipean jartzen dute kontinente-litosfera eta estentsio-indarrek LIPen sorrera erraztu eta ozeano baten garapenarekin buka dezakeen rifting prozesua abiarazten dute.

Rifting prozesua eraginkorra izanik, ozeano berria sortzen denean, normala baino lodiagoa izango da luma gorakorraren eraginpean garatutako ozeano-lurrazala. Aldiz, lodiera normala izan ohi du luma-gorakorren eraginetik urrun sortzen den ozeano-lurrazal berriak. Adibidez, ozeano-lurrazalerako normala dena baino lodiera handiagoa erakusten dute Hego Ameriketako eta Afrikako ertzak Paranáko luma gorakorraren inguruan, Indiako ertzak Deccan luma gorakorraren inguruan edo Groenlandia eta Europako ertzak Islandiako luma gorakorraren inguruan.

LIPen eta kontinenteen apurketaren arteko adin-harremana aspalditik ezaguna da geologoontzat. Azken 300 ma-tan eskala handiko hamar LIP garatu dira. Etiopiakoa da gazteena eta ez dago zalantzetan Itsas Gorriko, Adeneko golkoko eta Eki-Afrikako riftaren sorrerarekin duen harreman estua. Era berean, antzeko harremanak aurkitu dira 55 ma-ko Groenlandiako LIParen eta Ipar Atlantikoaren zabalkuntzaren artean, 66 ma-ko Deccaneko LIParen (3. irudia) eta iparmendebaldeko ozeano Indikoaren irekitzearen artean, 133 ma-ko Paranáko LIParen eta Hego Atlantikoaren irekitzearen artean, 183 ma-ko Karooko LIP-aren eta hegomendebaldeko ozeano Indikoaren zabalkuntzaren artean edo 201 ma-ko Atlantikoaren erdialdeko LIP-aren eta ozeano Atlantikoaren Ekuatore aldeko irekitzearen artean. Hala ere, zalantzak sortzen dituzten salbuespenak ere badaude. Ezagutzen den LIP handienak, Siberiakoak, ez du lotura zuzenik ozeano baten sorrerarekin, nahiz eta bere inguruan estentsioaren aztarnak ugari izan eta arro sedimentario sakonak aurkitu. Baliteke, hasierako estentsio-egoera orokorra kontinenteen apurketa gertatu aurretik aldatu izana eta, ondorioz, arro ozeanikoaren garapena ekiditzea.

3. irudia: Deccaneko LIParen ikuspegi zoragarria. Kilometro bat baino lodiagoa den sekzio honetan oso ondo bereizten dira kolada basaltikoak. Mahabaleshwar, Ghats mendebaldean, India. Hetu Sheth-en argazkia, abenduak, 2005.

Izugarria da Lurralde igneo erraldoiek Lur osoko ingurumenean izan dezaketen eragina. Erupzio basaltikoek sulfuro dioxidoaren, karbono dioxidoaren, kloroaren eta fluorraren kopuru izugarriak igortzen dituzte atmosferara. Bolkanismo-prozesuetan sortzen diren 3-13 km bitarteko erupzio-zutabeen bidez gasak troposferaren goiko aldean eta estratosferaren beheko aldean pila daitezke. Baldintza horietan, berotegi-efektua sortzen duen gasa izanik, Lurreko berotzea eragin dezake karbono dioxidoak. Aldiz, sulfuro dioxidoak aurkako eragina du, eta sasoi hotzak eragin ditzake epe laburrera.

Hain epe laburrean hainbeste arroka bolkaniko azaleratzen delarik, klima-aldaketa azkarrak eragin ditzake atmosferara igortzen den gasak eta, ondorioz, gerta daiteke hainbat organismok baldinza berrietara egokitzeko denborarik ez izatea.

Adibide bat ematearren, Pinatubo bolkanak 20 milioi tona sulfuro dioxido igorri zituen atmosferara 1991. urtean. LIP batean astero Pinatubo antzeko bolkan bat aktibatuko litzateke milaka eta milaka urtean zehar, eta horrela sortuko ziren atmosferan, kliman zein ozeanoen konposizioan aldaketa iraunkorrak. Horrela, klima zein ozeanoetako uren konposizioa suntsipen biologikoak eragiteraino alda daiteke. Frogatu da lotura zuzena dagoela historia geologikoan gertatutako suntsipen biologiko garrantzitsuenen eta LIPen artean (4. irudia) (Courtillot, 1999). Kretazeo-Paleogeno mugan (K/Pg) gertatutako suntsipenak dinosauroen desagerpena, beste hainbat espezieren artean, ekarri zuenak Deccaneko LIPrekin lotzen da. Gaur egun, askok pentsatzen dute K/Pg mugaren aurretik organismo bizidun asko estresatuta zeudela Deccaneko LIPak sortutako klima-aldaketengantik eta Yucatango penintsulan eroritako meteoritoak suntsipena areagotu eta bapatekotu egin zuela. Baina historia geologikoan K/Pg suntsipen orokorraren antzeko eta are suntsipen bortitzagoak gertatu dira (Permiar-Triasiko muga), eta horietarako ez da meteoritoen aztarnarik aurkitu. Zer dugu beraz?

4. irudia: LIP nagusiek Lurreko berotze orokorreko garaiekin, ozeanoetako anoxia garaiekin eta suntsipen biologiko orokorreko garaiekin dituzten adin harremanak.

Erreferentzia bibliografikoak:

  • Courtillot, V. (1999): Evolutionary catastrophes: the science of mass extinction. Cambridge Univ. Press, Cambridge.
  • Elosegi, M. eta Apraiz, A. (2004): Basalto-plataformak: ezaugarriak, jatorria eta kontinenteen apurketa, eta suntsipen biologiko orokorrekin izan ditzaketen loturak. Ekaia, 18: 31-48.
  • Mahoney, J.J. eta Coffin, M.F. (Edk.) (1997). Large Igneous Provinces: Continental, Oceanic, and Planetary Flood Volcanism. Geophys. Monogr., 100.

———————————————————————————-

Egileaz: Arturo Apraiz UPV/EHUko Geodinamika saileko irakaslea eta ikertzailea da.

———————————————————————————-

The post Lurralde igneo erraldoiak: Lurraren indar-erakustaldia appeared first on Zientzia Kaiera.

Kategoriak: Zientzia

Historias de la malaria: Charles Louis Alphonse Laveran y el protozoo

Cuaderno de Cultura Científica - Al, 2017-06-05 17:00

Charles Louis Alphonse Laveran

Fue Alphonse Laveran quien en 1880 identificó correctamente que era un protozoo, al que llamó Oscillaria, el agente causante de la malaria. Nació en 1845 y se licenció en Medicina en 1867. Sirvió como médico militar en la guerra con Prusia en 1870 y en 1874 fue nombrado Director de Enfermedades y Epidemiología en la Escuela de Val de Grâce. En 1878 fue destinado a Argelia donde inició sus estudios sobre la malaria, una de las enfermedades más incapacitantes y extendidas entre los soldados franceses que servían en aquella colonia.

No se conocía su causa y, para aliviar los síntomas, sobre todo los accesos de fiebre, solo era eficaz la quinina. En Bona, Laveran practicó la autopsia a soldados fallecidos por las fiebres, y encontró que padecían anemia y que su sangre tenía un color marrón oscuro por la presencia de un pigmento negro. Todo ello le llevó a estudiar al microscopio muestras de sangre de soldados enfermos, sin preparar la muestra para facilitar el examen como era habitual entonces, algo que no habían probado otros investigadores antes que él.

Ilustración de Laveran de 1880 con sus observaciones del parásito de la malaria en sangre fresca.

En su destino en Bona y, más tarde, en Constantina, detectó que los glóbulos rojos de los enfermos llevaban unos gránulos pigmentados. Poco después descubrió en la sangre fresca de esos enfermos, que, a veces, de esos glóbulos rojos se desprendían partículas de menor tamaño con cilios o flagelos móviles. Fue, según lo relata el propio Laveran, el 6 de noviembre de 1880 y en el Hospital Militar de Constantina, cuando observó “unos filamentos móviles o flagelos, con movimientos muy rápidos y variados que no dejaban duda de su naturaleza”. Dos días después observó lo mismo en la sangre de otro enfermo. De inmediato redactó y envió una nota, de fecha 23 de noviembre, comunicando su descubrimiento a la Academia de Medicina de París.

Ilustración de Laveran C.L.A., “Note sur un nouveau parasite trouvé dans le sang de plusieurs malades atteints de fièvre palustres”. Bull Acad Med 1880; 9: 1235-1236.

En 1881, publicó la revista The Lancet, de Estados Unidos, la confirmación del hallazgo de Laveran. En los meses siguientes, Laveran encontró los mismos organismos en la sangre de 148 de 192 enfermos examinados, incluidos algunos de las marismas de Roma y de otros lugares de Italia.

Viajó a París y convenció a Louis Pasteur y a su colaborador Emile Roux, otro prestigioso microbiólogo de la época, de que era un protozoo el parásito que causaba la malaria. Laveran era un médico militar, fuera de los círculos académicos y destinado en una colonia al otro lado del Mediterráneo, lejos de la capital, y sin contactos con los grupos de investigación de la malaria de finales del siglo XIX. Pero también los italianos Ettore Marchiafava y Angelo Celli, con un microscopio más potente, confirmaron el hallazgo de Laveran y le agradecieron expresamente el descubrimiento del protozoo. Pertenecían a la prestigiosa escuela italiana de estudios de la malaria, encargada de las investigaciones sobre esta enfermedad en las numerosas marismas de Italia. De allí nos llega el término malaria, del italiano “mal aria”, o “mal aire” en traducción directa.

Cuatro años más tarde, en 1884, Laveran ya había estudiado 480 casos y concluyó que el parásito de la malaria penetraba y se desarrollaba en los glóbulos rojos, provocaba su ruptura y liberaba esporas al torrente sanguíneo que, a su vez, invadían otros glóbulos rojos. Lo llamó Oscillaria malariae, nombre que, posteriormente, la escuela italiana cambió a Plasmodium, tal como ahora se conoce.

Era la época de la Microbiología y Pasteur, Koch y otros habían demostrado que la causa de las infecciones y de muchas enfermedades eran las bacterias. Así se había confirmado para, entre otras, el ántrax, la tuberculosis, el tifus o el cólera. Aceptar que había otros organismos causantes de enfermedades, como el protozoo descrito por Laveran, costó que lo aceptaran muchos investigadores. Pero las evidencias eran abrumadoras y Laveran recibió el Premio Nobel en 1907.

Ronald Ross

Uno de los expertos en malaria más críticos, en principio, con los trabajos de Laveran fue el médico militar inglés, de servicio en la India, Ronald Ross. Llevaba años estudiando la malaria y, en 1893, estaba convencido, según lo habitual en la época, de que era una enfermedad intestinal provocada por la toma de agua no potable. Escribió un informe para la revista Medical Reporter en que afirmaba que no era necesario otro parásito, un protozoo según Laveran, como causa de la malaria.

Consideraba que la enfermedad era compleja en síntomas y diagnóstico y, por ello, terminaba su informa con una frase llena de ironía, oculta en el típico lenguaje científico:

Para la solución de la cuestión de la fiebre india, lo que queremos es una definición clara de las ideas, un escrutinio cuidadoso de todas las suposiciones y una interpretación de sentido común de los fenómenos que tenemos ante nosotros; y están muy equivocados quienes se imaginan que un problema siempre tan grande y variado será resuelto por un solo ‘coup de microscope’.”

Por “un vistazo al microscopio” y, además, en francés, o sea, lo que había propuesto Laveran, en francés, años antes de este escrito de Ross.

Página del cuaderno de notas de Ross en la que identifica en parásito de la malaria

Dos años más tarde, en 1895, y después de los consejos de otro médico inglés, Patrick Manson, Ross observó el “denostado” protozoo en el estómago del mosquito Anopheles y demostró que era el parásito y el vector de la malaria. Y, por estos hallazgos, Ronald Ross recibió el Premio Nobel en 1902.

Además de los conocimientos de Microbiología, típicos de su época, a Laveran le permitieron su descubrimiento y los estudios posteriores sobre el protozoo de la malaria otras mejoras en los métodos de investigación. Por ejemplo, los microscopios cambiaron en la segunda mitad del siglo XIX, con adelantos sustanciales en óptica y en la fabricación de lentes. Eran los años de Ernst Abbe, el especialista en óptica que resolvió los problemas teóricos de la fabricación de lentes. Y Carl Zeiss y Otto Schott, que formaron la empresa Carl Zeiss Inc., que todavía fabrica microscopios de gran calidad. A partir de 1884, junto con la fábrica Nachet, de París, ya comercializaban microscopios que mejoraban sustancialmente el material disponible hasta entonces. Fue sorprendente que, cuando Laveran, en 1880, encontró por vez primera el parásito de la malaria, su microscopio no era precisamente de los mejores y no tenía los aumentos, solo llegaba a 400, que después se consideraron necesarios para describir el protozoo. Pero, a pesar de ello, lo hizo con una precisión que se confirmó en años posteriores y con mejor instrumental. Como diría Pablo Picasso, la inspiración le encontró trabajando, o sea, en este caso mirando por el microscopio.

Otro de los adelantos técnicos que permitió la observación del protozoo de la malaria fue el desarrollo de las técnicas de tinción. No eran fáciles los estudios al microscopio tal como hizo Laveran, con sangre fresca y sin teñir. Fue Dimitri Leonidovich Romanowsky, en 1891, quien publicó una tinción que permitió las observaciones en frotis de sangre sobre portaobjetos que, incluso, permitían guardar las muestras y repetir el estudio al microscopio. Además, utilizaba dos colorantes, eosina y azul de metileno, que teñían diferente al protozoo según la fase de su ciclo vital.

En aquellos años, Wilhelm von Drigalski nos cuenta que en Italia llevaban mucho tiempo estudiando las causas de la malaria, sobre todo en las marismas que rodeaban la capital, Roma. Fueron Camillo Golgi, Marchiafava o Celli quienes completaron el ciclo vital del Plasmodium en la sangre de los enfermos, con buenos microscopios y la tinción de Romanowsky. El primero, Golgi, identificó con precisión los parásitos de la malaria y clasificó el Plasmodium vivax y el P.malariae. Y en 1890, Marchiafava y Celli identificaron el P. falciparum. Así quedó establecido que la malaria no era una enfermedad provocada por un solo parásito sino por cuatro (el P. ovale se identificó en 1922) que, a veces, hasta provocaban las fiebres actuando en conjunto.

Fue en la India donde el también médico militar Ronald Ross planteó la hipótesis, y la demostró en aves, de que el parásito llegaba a la sangre de los enfermos por la picadura de mosquitos.

Giovanni Battista Grassi

Y, finalmente, el italiano Giovanni Battista Grassi mostró todo el ciclo de desarrollo del protozoo, con su paso por el mosquito y el hombre como huéspedes.

La historia del protozoo de la malaria está llena de intensos debates, rencillas personales y amargura. Varios de los científicos dedicaron mucho tiempo a reclamar la prioridad de sus descubrimientos, un aspecto importante en la cultura de la ciencia de la época y hoy, en cambio, un debate casi olvidado. Investigadores franceses, alemanes, ingleses e italianos contribuyeron a los descubrimientos sobre la malaria y, también, polemizaron interminablemente sobre muchos aspectos de lo que se iba encontrando.

Además, todos los estudios de finales del siglo XIX sobre la malaria coinciden, en los grandes países europeos, con las aventuras y las exploraciones de otros continentes, con las colonias y los imperios. En ese momento histórico, la malaria era una enfermedad importante para el control europeo de esas colonias y la explotación de sus recursos naturales y, por tanto, era un asunto prioritario para los gobiernos y para la opinión pública.

En cambio, en Italia la malaria era algo muy cercano y, por ello, su investigación era esencial para la salud pública y como problema social. Era una enfermedad de siempre que mantenía empobrecidas extensas regiones del país. Para ingleses y franceses, la malaria es un problema colonial y, para los italianos, era un asunto interno, sobre todo para el centro y sur del país.

Y, por si fuera poco este sustrato político en la investigación sobre la malaria, estamos en la era de los nacionalismos y, también, son habituales en la ciencia. Parte de la polémica entre Grassi, Ross y Laveran, o del rechazo de ingleses e italianos a los descubrimientos del médico militar francés en Argelia, viene de esta competición patriótica entre científicos. Como ejemplo nos sirve lo que Santiago Ramón y Cajal publicó en aquellos años en sus “Reglas y consejos de investigación científica”, pues entre las “cualidades de orden moral” de un investigador está el patriotismo. Inicia el texto afirmando que

“entre los sentimientos que deben animar al hombre de ciencia merece particular mención el patriotismo. Este sentimiento tiene en el sabio signo exclusivamente positivo: ansía elevar el prestigio de su patria, pero sin denigrar a los demás.”

Es oportuno citar que la cualidad que Ramón y Cajal menciona antes del patriotismo es la “pasión por la gloria” y, de ello se derivan las polémicas sobre la prioridad en los descubrimientos. Hoy, quizá, solo se discute por las patentes derivadas de esos hallazgos.

En mayo de 1922, Alphonse Laveran murió en París a los 76 años. Está enterrado en el Cementerio de Montparnasse, junto a celebridades como el filósofo Jean Paul Sartre, o el líder anarquista Pierre-Joseph Proudhon, el poeta Charles Baudelaire o el escritor Julio Cortázar.

Referencias:

Capanna, E. 2006. Grassi versus Ross: who solved the riddle of malaria? International Microbiology 9: 69-74.

Chernin, E. 1984. The malariatherapy of neurosyphilis. Journal of Parasitology 70: 611-617.

Coleman-Jones, E. 1999. Ronald Ross and the great malaria problem: historical reference in the biological sciences. Journal of Biological Education 33: 181-184.

Earle, D.P. 1979. A history of malaria and its ironies. Transactions of the American Clinical and Climatological Association 90: 1-26.

Hommel, M. 2007. Morphologie, biologie et cycle des Plasmodium parasites de l’homme. Bulletin de l’Academie nationale de medicine 191: 1235-1246.

Laverdant, C. 2007. Le context scientifique contemporain de la découverte de Laveran. Bulletin de l’Academie nationale de medicine 191: 1227-1234.

Ledermann, W. 2008. Laveran, Marchiafava y el paludismo. Revista Chilena de Infectiología 25: 216-221.

Macchi, G. 1999. Camillo Golgi: A clinical pathologist. Journal of History of Neurosciences 8: 141-150.

Ramón y Cajal, S. 1940 (1899). Reglas y consejos sobre investigación científica (Los tónicos de la voluntad). 8ª ed. Librería Beltrán. Madrid. 302 pp.

Ross, R. 1893. Some objections to hematozoic theories of malaria. Medical Reporter 2: 65-71.

Schmidt, G.D. & L.S. Roberts. 1985. Foundations of Parasitology. Times Mirror/Mosby College Publ. St. Louis, Toronto. Santa Clara.

Snowden, F.M. 2006. The conquest of malaria. Italy, 1900-1962. Yale University Press. New Haven & London.

Tan, S.Y. & A. Ahana. 2009. Charles Laveran (1845-1922): Nobel lauréate pioneer of malaria. Singapore Medical Journal 50: 657-658.

von Drigalski, W. 1954. Hombres contra microbios. La victoria de la Humanidad sobre las grandes epidemias. Ed. Labor. Barcelona. 368 pp.

Yoeli, M. 1973. Sir Ronald Ross and the evolution of malaria research. Bulletin of the New York Academy of Medicine 49: 722-735.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Historias de la malaria: Charles Louis Alphonse Laveran y el protozoo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Historias de la malaria: El parásito
  2. Historias de la malaria: El charlatán y caballero Sir Robert Talbor
  3. Historias de la malaria: El árbol de la quina
Kategoriak: Zientzia

Kotoi-paperezko euskarriak odol analisiak egiteko

Zientzia Kaiera - Al, 2017-06-05 15:00
Beatriz Uribe, Oskar Gonzalez eta Rosa M. Alonso Medikuak odol analisi bat egiteko esaten digunean segituan datozkigu burura xiringak eta odolez betetako tutuak. Guztiok diogu gutxi-asko, beldurra momentu latz horri, baina, XXI. mendean ez al dago alternatibarik? Zorionez azken urteotan odola biltzeko teknika berri bat garatzen ari da: Odol Tanta Lehorra (OTL) edo, beste hainbat terminoekin bezala, bere ingelesezko izenez hobeto ezagutzen den Dried Blood Spot (DBS) teknika.

Irudia: Odol Tanta Lehorrean (OTL) erabiltzen den kotoi-paperezko euskarri baten odola biltzen.

Teknika honetan kotoiaz egindako txartel batean odol tanta batzuk ipintzen dira, horretarako gorputzeko edozein tokitan (atzamarra, orpoa edo belarria) orratz batekin ziztada bat eginez. Odola lehortu denean txartel hauek oso erraz gorde daitezke eta edonora eraman. Gero, laborategian odola duen paper zati bat zulatzen da, odola erauzten da eta interesatzen zaigun metabolitoa edo droga analiza daiteke. Modu honetan teknika hau dopin kontroletan, farmakoen monitorizazioan edota gaixotasunen diagnostikotan aplika daiteke. Zeresanik ez izugarri egokia dela jaioberriei odola hartu behar zaienean (ezin diegu odol gehiegi lapurtu!) edo hirugarren munduan erabiltzeko tamalez han odol laginketa klasikoa egiteko arazo asko baitaude.

Orduan, teknika hau hain ona bada, zergatik ez du aspaldi xiringen bidezko odol ateratzea baztertu? Izan ere, 1963. urtean erabiltzen hasi zen eta oraindik gutxik izan duzue ospitaletan OTLa ikusteko aukera. Arrazoi nagusietariko bat analisiak burutzeko behar diren metodo analitikoen mugak izan dira. OTLarekin hain odol bolumen gutxi hartzen da ezen analitoen kantitate izugarri txikiak detektatzeko teknikak beharrezkoak baitira. Zorionez denbora aurrera doan heinean metodo analitikoak askoz sentikorragoak dira eta gaur egun analisi gehienak ahalbidetzeko beharrezkoak diren detekzio mugak lor daitezke.

Hala ere, teknika honen berpiztea berriki geratu denez analisi kuantitatiboetan eragina izan dezaketen faktoreak sakonki aztertu behar dira oraindik. Hori da hain zuzen ere aurkezten dugun lan honetan egin duguna. Alde batetik, OTLan oinarritutako prozedura analitikoa garatu dugu hiru farmako ezberdinen analisi erraza aurrera eramateko kromatografia likido ultra-azkarra eta detekzio fluoreszentea erabiliz. Bestetik, farmako hauen analisi kuantitatiboa baldintza dezaketen hiru faktore sakonki aztertu ditugu: odolaren hematokritoa, euskarrian ipinitako tantaren bolumena, eta analisirako zulatutako paperaren posizioa.

Garatutako metodo azkarrak OTLa farmakoen analisirako etorkizun izugarriko teknika dela erakusten du. Dena den, hematokritoa eta zulatutako paperaren posizioa bezalako faktoreek analitoen kuantifikazioan eragina dutela ikusi dugu. Ondorioz, teknika hau aplikatu baino lehen, analizatu nahi den konposatu bakoitzaren portaera aztertu behar da eskaintzen diren emaitzak fidagarriak direla ziurtatzeko.

Artikuluaren fitxa:
  • Aldizkaria: Ekaia
  • Zenbakia: Ekaia 30
  • Artikuluaren izena: Odol Tanta Lehorraren fidagarritasunaren azterketa farmakoen analisi kuantitatiborako UHPLC-PDA-FLDren bidez.
  • Laburpena: Lan honetan Odol Tanta Lehorraren (OTLa) laginketa-teknikaren fidagarritasuna ikertu da farmakoen analisirako fotodiodo- eta fluoreszentzia-detektagailuei akoplatutako bereizmen oso altuko likido-kromatografiaren (UHPLC-PDA-FLD) bidez. OTLak, odol-tanta bat kotoi-paperezko euskarri batean jartzean eta lehortzen uztean datzan teknikak, azken urteotan erabileraren handipen garrantzitsua antzeman du bioanalisian. OTLak ohiko odol-analisiekiko hainbat abantaila erakutsi arren, analisi kuantitatiboaren ikuspuntutik hainbat faktorerekiko mendekotasuna duela antzeman da. Ikerketa honetan faktore batzuek (hematokritoa, odol-bolumena eta laginketa-puntua) farmakoen determinazioan duten eragina aztertu da, horretarako amilorida, propranolola eta valsartan farmakoak eredu gisa erabiliz. Emaitzetan oinarrituta, zuloaren kokapenak eta hematokritoak analisien zehaztasunean eta doitasunean eragina dutela ondorioztatu da, teknika honen aplikazio kuantitatiboa mugatuz. Bestalde, analitoen sakabanaketa odol-tantan zehar analitoen propietate fisiko-kimikoen mendekoa dela ikusi da, metodo analitikoaren garapenean analito bakoitzaren sakabanaketa aztertu behar dela ondorioztatuz.
  • Egileak: Beatriz Uribe, Oskar Gonzalez eta Rosa M. Alonso
  • Argitaletxea: UPV/EHUko argitalpen zerbitzua
  • ISSN: 0214-9001
  • Orrialdeak: 19-36
  • DOI: 10.1387/ekaia.14547

—————————————————–
Egileaz: Beatriz Uribe, Oskar Gonzalez eta Rosa M. Alonso UPV/EHUko Kimika Analitikoa Saileko irakasleak eta ikertzaileak dira.
—————————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.

The post Kotoi-paperezko euskarriak odol analisiak egiteko appeared first on Zientzia Kaiera.

Kategoriak: Zientzia

Superelasticidad nanométrica

Cuaderno de Cultura Científica - Al, 2017-06-05 11:59

La superelasticidad es una propiedad física por la que se puede deformar un material en gran medida, hasta un 10 % —un porcentaje muchísimo mayor que en la elasticidad—, de forma que aplicando una tensión a una varilla recta, esta puede formar una U, y al eliminar la tensión aplicada, la varilla recupera completamente su forma inicial. Aunque está más que probada en materiales macroscópicos, “hasta ahora nadie había podido estudiar estas propiedades de superelasticidad en dimensiones micrométricas y nanométricas”, explica José María San Juan, investigador principal y catedrático de la UPV/EHU.

Investigadores del Departamento de Física de la Materia Condensada y de Física Aplicada II de la UPV/EHU han conseguido ver que “el efecto superelástico se mantiene en dispositivos realmente pequeños de una aleación de cobre-aluminio-niquel”. Se trata de una aleación con memoria de forma en la que el equipo de investigación lleva más de 20 años trabajando a nivel macroscópico: Cu-Al-Ni, una aleación que muestra superelasticidad a temperatura ambiente.

Utilizando un equipo denominado Focused Ion Beam, “un cañón de iones que actúa como una especie de cuchillo atómico que talla el material”, explica San Juan, han construido micropilares y nanopilares de esta aleación de diámetros comprendidos entre 2 µm y 260 nm —un micrómetro es una millonésima parte de un metro y un nanómetro es una mil millonésima parte de un metro— a los que han aplicado una tensión con un sofisticado equipo llamado nanoindentador, que “permite aplicar fuerzas extremadamente pequeñas” y han medido su comportamiento.

Los investigadores han constatado y cuantificado por primera vez que en diámetros menores de un micrómetro hay un cambio notable de las propiedades relacionadas con la tensión crítica para la superelasticidad: “El material se empieza a comportar de manera diferente y requiere una tensión mucho más elevada para que se produzca. La aleación sigue presentando superelasticidad pero para tensiones más elevadas”. San Juan remarca la novedad de ese incremento de la tensión crítica con el tamaño, y subraya, además, que han podido explicar la razón de dicho cambio de comportamiento: “Hemos propuesto un modelo atómico que permite entender por qué y cómo cambia la estructura atómica de estos pilares cuando se les aplica una tensión”.

El catedrático de la UPV/EHU destaca la importancia de este descubrimiento, “un comportamiento superelástico espectacular a pequeña escala”, que abre nuevas vías en el diseño de estrategias de aplicación de aleaciones con memoria de forma para el desarrollo de microsistemas y nanosistemas electromecánicos flexibles. “La electrónica flexible está muy presente en el mercado actual, se utiliza cada vez más en prendas de vestir, zapatillas de deporte, en diversos displays…”. Asimismo, afirma que todo ello es de suma importancia para el desarrollo de dispositivos inteligentes médico-sanitarios implantables en el cuerpo humano, del tipo Lab on a chip o laboratorio en un chip: “Se podrán construir pequeñas microbombas o microactuadores que se puedan implantar en un chip, que permitan liberar y regular una sustancia dentro del cuerpo humano para diversos tratamientos médicos”.

Se trata de un descubrimiento que “se espera que tenga una gran repercusión científica y tecnológica y que pueda revolucionar ciertos aspectos en campos afines”, concluye San Juan, y se congratula de que “hemos sido capaces de transferir todo el conocimiento necesario y de conseguir las herramientas de trabajo que tienen los centros más avanzados para abrir una nueva línea de investigación con la capacidad de desarrollarla íntegramente en la UPV/EHU”.

Referencia:

Jose F. Gómez-Cortés, Maria L. Nó, Iñaki López-Ferreño, Jesús Hernández-Saz, Sergio I. Molina, Andrey Chuvilin and Jose M. San Juan. Size effect and scaling power-law for superelasticity in shape-memory alloys at the nanoscale. Nature Nanotechnology. May 2017. DOI: 10.1038/nnano.2017.91.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Superelasticidad nanométrica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una puerta cuántica robusta y ultrarrápida
  2. La máquina de vapor (1)
  3. La fusión nuclear como fuente de neutrones eficiente
Kategoriak: Zientzia

Hazkuntza faktoreak askatzen dituzten aldamioak

Zientzia Kaiera - Al, 2017-06-05 09:00
Hezur kalteak jasan ostean hezurren birsorkuntza-prozesua hasten du organismoak. Batzuetan, baina, ez da gai jasandako kaltea osatzeko. Kasu horietan, lagungarria izan daiteke kaltetutako tokian egitura bateragarri eta biodegradagarria jartzea: aldamioa.

1. irudia: Hezurretako hutsuneak osatzeko aldamio gisa balia daitezkeen eta hazkuntza-faktoreak askatzen dituzten egitura batzuk sortu dituzte UPV/EHUn.

Aldi baterako aldamio funtzioa izaten dute kaltetutako ehunean, organismoari osatzen laguntzeko. Gelatinazko matrizea garatu du UPV/EHUko NanoBioCel taldeak, hezurren osatze prozesuan euskarri fisiko funtzioa izateaz gain, hazkuntza-faktoreak askatzeko aukera ematen duena, gorputzak modu naturalean egiten duenari jarraiki.

Hezur-kalte kritikoetan (erredura, traumatismo, tumore-erauzketa, …) sor daitezkeen kalteetan aldi batez hezur-matrizea ordezkatu eta hezur-ehuna birsortzen laguntzeko da baliagarria garatutako aldamioa. Kolagenoaren deribatu bat erabili dute, kolagenoa prozesatzean sortzen den gelatina bat, zehazki.

Biodegradagarria izateaz gain, gorputzak errefusatzeko oso arrisku baxua du material honek. Gelatina-proteinak polimerizatu eta aldamioa kohesionatzeko, gardeniaren fruitutik erauzten den molekula bat erabili dute: genipina. Erabili ohi diren beste molekulak (glutaraldehido, adibidez) baino toxizidade baxuagoa du zelulentzat genipinak.

Behin aldamioa diseinatuta, zenbait entsegu eta prozesutan probatu dute; zer-nolako propietate, biobateragarritasun eta zitotoxikotasun dituen jakiteko. Emaitza positiboak lortu dituzte proba guztietan. Are gehiago, entseguetako batean espero baino hobeto erantzun dute zelulek: ohiko euskarri batean aldamioa zelula alfonbra baten gainean jarri zuten, kontaktuan egoteak zelulak intoxikatzen edo hiltzen ziren ikusteko. Aldamioa altxatzean, hutsunea ikusi zuten harekin kontaktuan egondako gainazal osoan eta zelulak hil zirela pentsatu zuten hasieran, baina zelulek aldamiora migratu zutela ikusi zuten orduan, alegia, hazteko jarritako plastikoa baino, nahiago zutela aldamioaren gelatina.

Aldamioa baino gehiago

Zelula ama mesenkimalei (hezur-matrizea birsortzen duten zelulei) sostengatzeko egitura emateaz harago, hazkuntza-faktoreak askatzeko gai den materiala bilatu dute ikertzaileek; unean uneko egoeraren arabera beharrezkoa den moduan eta kantitatean egin dezala, gainera. VEGF and SHH proteinak dira, zehazki, gehitu diren hazkuntza faktoreak. Heparina glikosaminoglikanoa lotzeko atalak dituzte bi proteina hauek haien sekuentzietan eta, ezaugarri hori aprobetxatuta, heparina gehitu da aldamio egiturara, hazkuntza-faktoreak harrapatu eta haien askatze profilak gordetzeko.

Hezurra hautsi eta lehenengo bi egunetan baino espresatzen ez den proteina da SHH, hezurra osatzen laguntzeko inguruko zeluletan zenbait gene aktibatzeko funtzioa duena. Heparina baliatuta aldamioetan gehitutakoan, lehenengo 24 orduetan askatu zen SHH proteina entseguetan, gorputzak sortzen duenaren antzeko portaera. VEGF proteinak, bere aldetik, angiogenesia (odol hodien sorrera) bultzatzen du eta, horretaz gain, zelulak erakartzen ditu hezur ehuna sortzen lagun dezaten. Kasu honetan ere, gorputzak askatzen duen moduan, hainbat egunetan zehar askatu zen aldamioan gehitutakoan.

2. irudia: SHH eta VEFG proteinen askapen grafikoak. (Ikerketa artikulutik hartua)

Proiektuaren lehenengo zatia da ikerketa hau. Animalietan azterketa preklinikoak egin dituzte eta emaitza itxaropentsuak lortu dituzte. Etengabe goraka doan diziplina da medikuntza birsortzailea eta askotariko estrategia terapeutikoak hartzen ditu barnean, proteina birkonbinatu eta zelula ametatik hasi eta, kasu honetan bezala, botikak eta hazkuntza-faktoreak askatzeko material eta matrizeetaraino.

Erreferentzia bibliografikoa:

P. Sánchez, J.L. Pedraz, G. Orive.. Biologically active and biomimetic dual gelatin scaffolds for tissue engineering. International Journal of Biological Macromolecules, 98: 486–494 (2017). DOI: 10.1016/j.ijbiomac.2016.12.092.

Iturria:
UPV/EHUko komunikazio bulegoa: Hezurren birsorkuntza-prozesuan organismoa imitatzen duten gelatinazko gailu berriak

The post Hazkuntza faktoreak askatzen dituzten aldamioak appeared first on Zientzia Kaiera.

Kategoriak: Zientzia

II Concurso de Cristalización en la Escuela del País Vasco

Cuaderno de Cultura Científica - Al, 2017-06-05 08:00

La final de la segunda edición del Concurso de Cristalización en la Escuela tuvo lugar el pasado 5 de mayo en el Aula Magna de la UPV/EHU en Leioa. En la misma se dieron a conocer los ganadores del concurso quienes, además de un diploma acreditativo, también recibieron un detalle.

El concurso, dirigido a estudiantes de educación secundaria (ESO y bachillerato), tiene el objetivo de acercar el mundo científico al alumnado, aprovechando el atractivo de la cristalografía.

Además de subrayar la importancia que tienen los cristales en la sociedad, el concurso también busca ”fomentar el estudio, el trabajo sistemático, el pensamiento racional y la comunicación, utilizando como base la cristalografía”, tal como explica Begoña Bazán, organizadora del evento.

La edición de este año ha reunido maquetas de todo tipo, desde un parque de atracciones, una réplica del Guggenheim con Puppy incluído, volcanes, fondos marinos, hasta el hundimiento del Titanic pasando por el sistema solar.

Acercar la metodología científica

Para participar en el concurso el alumnado utiliza un kit didáctico que permite hacer crecer cristales de fosfato monoamónico (dihidrógeno fosfato de amonio). El kit permite modificar variables físicas (temperatura solubilidad, concentración, etc.), lo que posibilita variar los procesos de cristalización y obtener distintos resultados.

Los participantes deben presentar, además de una maqueta con los cristales creados, un póster con formato científico en el que se detallan los objetivos, materiales, métodos, resultados y las conclusiones. Por último, también deben presentar un cuaderno de laboratorio con los procesos seguidos y las respuestas obtenidas.

El formato del concurso acerca la metodología científica a los más jóvenes, ya que incluye todos sus elementos empezando por la investigación en el laboratorio hasta la presentación de resultados en un congreso científico creado a tal efecto. Mediante esta actividad amena y visual el alumnado se familiariza con el método científico. También permite introducir la cristalografía y la cristalización en el temario educativo, temas en los que no se suele profundizar o que, directamente, están ausentes.

Implicación docente

La participación no solo atañe a los estudiantes, también requiere el compromiso del profesorado. El concurso tiene una duración aproximada de un curso académico y está dividido en tres fases:

  • Fase 1. Curso de formación para el profesorado de secundaria. En esta primera fase el profesorado responsable de cada centro educativo realiza un curso de formación donde personal de la UPV/EHU les dota de las herramientas científico-didácticas para la realización de los experimentos.
  • Fase 2. Realización de los proyectos de cristalización y seguimiento del concurso. Durante esta fase el profesorado orienta a los participantes en los experimentos. Esta fase tiene una duración de cinco meses.
  • Fase 3. Final del concurso de cristalización. En esta fase se exponen los resultados obtenidos en formato de congreso científico.

Tres grupos de jurados han evaluado los distintos trabajos, valorando cada grupo dos ítems: (i) póster y entusiasmo, (ii) rigor científico y cuaderno y (iii) cristal y montaje. En cuanto a los criterios de evaluación, los principales han sido: la creatividad, la aplicación del método científico, la calidad de los cristales, la originalidad de la maqueta, la claridad en el cuaderno de laboratorio, el conocimiento del procedimiento utilizado para el crecimiento cristalino, utilización del lenguaje cinetífico-técnico apropiado, orden y claridad en el póster…

La edición de Euskadi 2017 ha contado con la participación de 31 centros (24 de Bizkaia, 5 de Gipuzkoa y 2 de Araba). En todo el proceso del concurso más de 1.200 estudiantes han formado parte de la iniciativa.

Por segundo año consecutivo el concurso ha sido organizado por el grupo IMaCris/MaKrisil del departamento de Mineralogía y Petrología de la UPV/EHU, en colaboración con Geobizirik y la Cátedra de Cultura Científica.

—————————-

Agradecemos a Begoña Bazán, profesora de la UPV/EHU y coordinadora del concurso de cristalización, la información proporcionada.

Texto elaborado por Ziortza Guezuraga, periodista y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.

El artículo II Concurso de Cristalización en la Escuela del País Vasco se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ‘Cristalización en la escuela’, un concurso para fomentar el interés por la ciencia
  2. LocosxCiencia llega al País Vasco
  3. Estudio de eficacia escolar en el País Vasco
Kategoriak: Zientzia

Cálculo y geometría analítica, de George F. Simmons

Cuaderno de Cultura Científica - Ig, 2017-06-04 11:59

En Editoralia lectores, autores o editores presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.

Pablo Rodríguez Sánchez, lector

Tenía 18 años, y, aunque yo no me daba cuenta, aún era un poco idiota. Pasando por alto las más elementales leyes de la prudencia, había decidido matricularme en la carrera de física; las enormes dificultades y padecimientos que había sufrido con las matemáticas en el instituto no lograron frenarme.

Necesitaba un libro para preparar la asignatura de cálculo infinitesimal (aquello de las derivadas y las integrales), de modo que acudí a una librería, no muy bien surtida en libros de ciencia, y agarré el primero que vi. Ya he mencionado que entonces era un poco idiota.

El libro que me llevé de la tienda resultó ser una auténtica joya, aunque yo aún tardé unas semanas en abrirlo y darme cuenta.

Me refiero a “Cálculo y geometría analítica”, de George Finlay Simmons. Se trata de una magnífica introducción al cálculo infinitesimal. A primera vista parece un libro normal y corriente, con sus capítulos, sus problemas, etcétera. Pero son varias las cosas las que lo convierten en un libro digno de mención.

Lo primero que llama la atención, debido al uso recuadros de diferente color, es la gran cantidad de notas históricas que se introducen en medio del texto. Estas notas tienen la peculiaridad de que, en lugar de centrarse únicamente aspectos biográficos de matemáticos célebres, conceden tanta o incluso más importancia a un problema matemático clásico (que el lector puede comprender con las herramientas del propio capítulo)1.

Otra curiosidad llamativa: a menudo, en los márgenes aparece dibujada la imagen de una señal de tráfico como esta:

Esta señal indica que el párrafo adyacente debe ser leído despacio y reproduciendo los cálculos uno mismo con lápiz y papel.

Con el tiempo he apreciado otros detalles más sutiles. La estructura es un constante malabarismo entre conceptos teóricos, aplicaciones prácticas y notas históricas casi novelescas. Los métodos analíticos se explican con muchísimo detalle y siempre desde el punto de vista del estudiante, casi se diría que con cariño. Los problemas combinan ejercicios rutinarios con otros muy creativos, y como es tradición, se incluye la solución de todos los ejercicios impares. El lenguaje es elegante y claro sin dejar de ser cercano. Los ejemplos prácticos brillan tanto por su cantidad como por su calidad.

Todos estos detalles responden a un objetivo: enseñar de la forma más clara y duradera posible.

Gracias a este libro empezaron, por fin, a dárseme bien las matemáticas. Sus señales de obra me enseñaron cómo se deben leer las matemáticas. Algunos de sus problemas eran tan entretenidos que aún los recuerdo. Sus notas históricas me enseñaron que la ciencia es una empresa humana y no solamente sus resultados, y además me mantuvieron horas pegado al libro como si de una novela se tratase. Sus lecciones fueron tan duraderas que, salvo por placer, no he tenido que volver a abrir un libro de cálculo jamás. Por todo ello, lo recomiendo a cualquiera que tenga interés.

Referencia: (concretamente leí esta traducción, pero el original está en inglés)

Cálculo y geometría analítica (2ª ed.)

George F. Simmons, 2002

Editorial: S.A. MCGRAW-HILL / INTERAMERICANA DE ESPAÑA

Lengua: CASTELLANO

ISBN: 9788448135911

1 En este sentido cabe mencionar también otro libro del mismo autor, Calculus Gems: brief lives and memorable mathematics, centrado únicamente en la historia de las matemáticas

El artículo Cálculo y geometría analítica, de George F. Simmons se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El primer instrumento logarítmico: la regla de cálculo
  2. Las matemáticas como herramienta (III): La Ilustración y el nuevo cálculo
  3. Las matemáticas como herramienta (II): La Revolución Científica y el cálculo
Kategoriak: Zientzia

Asteon zientzia begi-bistan #157

Zientzia Kaiera - Ig, 2017-06-04 11:10
Uxue Razkin

Osasuna

Eusko Jaurlaritzako Osasun Sailak Zegamako (Gipuzkoa) Solita Apaolazari ezarritako isunak –erreakzio alergikoa eragin zion ukendu bat saldu ziolako bezero bati –, zer esana eman du komunitate zientifikoan; batzuek txalotu dute jarri dioten debekua, baina beste batzuk beldur dira mendeetako ezagutza bat galduko delako horrela. Deborah Garcia Bello kimikari eta dibulgatzaileak argi dauka: “Primeran iruditzen zait isuna jarri izana”. Hasteke produktuak kosmetiko edo sendagai gisa merkaturatzen ahal dira eta Zegamako sendalariak ukendua sendagai gisa merkaturatu izanak “askoz larriago” egiten du afera, kimikariaren arabera. “Hasteko, ezin da formula sekreturik izan. Kontrola pasatu behar duzu”. Sasi-zientzia izan da mintzagai artikulu honetan.

Teknologia

Kataluniako ICFO Kataluniako Fotonika Institutuko ikertzaileek, Grapheneakoekin lankidetzan, sentikortasun handiko kamera bat sortu dute grafenoa erabiliz. Ikertzaileek azpimarratu dute sentsorea egiteko ez dela prozesamendu konplexurik behar. Horregatik, uste dute aurrerapauso garrantzitsua izan daitekeela espektro anitzeko eta bereizmen handiko irudigintzarako gailu merkeak sortzeko. Hamaika aplikazio ditu gainera mugikorretarako kamerak, gaueko zaintzarako kamerak, automoziorako sentsoreak, medikuntzako irudigintza, elikagaien eta farmakoen azterketa, ingurumenaren monitorizazioa.

Maiatzaren 24an argitaratutako artikulu baten adimen artifizialean adituak diren 352 ikertzaileren iritzia plazaratu dute gure etorkizunari buruz. Bertan adierazten denez, adituen esanetan hemendik 40 urtetara robotek guk baino hobeto egingo dituzte hainbat zeregin: gidatu, idatzi edota operatu… eta honako honek aldaketak eragingo ditu gizartean. Sustatun eman digute honen berri: Makinek edozertan gaindituko gaituzte 2060. urterako.

Satelite artifizialen bilatzaile baten berri eman digute Sustatun. Keeptrack Space du izena aplikazioak. Honen bidez gure planetaren inguruan biraka dauden satelite artifizialen orbita eta informazioa ezagutu daiteke.

Erregaiak eta ingurumena

Txinak iragarri berri du itsaspean gordetako metano hidratoetatik gasa erauztea lortu duela. Hego Txinako Itsasoan egin dute ustiapena. Lurra eta Baliabideetako ministro Jiang Damingek jakinarazi du, hil honen 18an, hidratoak eskuratzeko arrakasta. Haren hitzetan, «mundu mailako iraultza energetikoan» aitzindaria izango da lorpena. 1.266 metroko sakontasunean topatu dituzte hidratoak. Xinhua Txinako agentzia ofizialaren arabera, “purutasun handiko 16.000 metro kubo” atera dituzte eguneko. Abantaila handiak dakartza berriak gainera: “Energia oparoa eta garbia da, eta mundu mailako energiaren garapenaren etorkizunerako garrantzi estrategikoa du”.

Eloy Alvarez Pelegry, Orkestrako energia katedrako buruari egin diote elkarrizketa Berrian. Garraioan bestelako energiak erabiltzea gomendatu dute, ohiko erregaiek eragiten duten igorpen kutsakorrak murrizteko asmotan. Orkestratik helarazi dute erronka nagusia dela energia alternatiboak gehituz joatea ahalbidetuko duen plana indartzea.

Hizkuntzalaritza

Afasiaren ondorioz, hizkuntza-erabilerari dagozkion askotariko arazoak ager daitezke, hala nola hitzak, hotsak edota esaldiak ekoizteko edota ulertzeko zailtasuna edo hizkuntzak bereiz mantentzeko ezintasuna elebidunengan. Arazo horiek ahozko edota idatzizko modalitateetan ager daitezke, baita zeinu-hizkuntzen hiztunengan ere. Afasiologiaren historian bi korronte kontrajarri dira aipagai hizkuntzek burmuinean duten antolaketari buruz: ikuspegi lokalizazionista eta ez-lokalizazionista. Egungo ikerketak, baina, bi mutur horietatik aldendu egin dira eta proposamen zehatz eta sofistikatuagoak eskaintzen dituzte. Informazioa osorik irakurtzea gomendatzen dizuegu.

Kimika

Uda begi-bistan dugunez Josu Lopez Gazpio kimikariak hondartza sasoiko gai bat dakarkigu. Dirudienez orain arte marmoken ziztaden aurrean egindako lehen sorospenak ez dira egokiak ezta eraginkorrak ere. Hawaiiko Unibertsitateko ikertzaileek egindako ikerketaren arabera ozpina eta beroa dira aplikatu beharrekoak marmokaren ziztada jasanez gero. Izan ere, ozpinak tentakuluen kolagenoa puztu eta blokeatu egiten ditu eta, ondorioz, pozoi-deskarga inhibitzen da. Azalpen guztiak eskura dituzue Zer egin behar da marmoken ziztada arintzeko? (eta ez, ez da pixa) artikuluan.

Emakumeak zientzian

Emma López de Armentiak Giza Nutrizioa eta Dietetika ikasi zuen eta amaitutakoan, kontsulta bat jarri zuen. Baina konturatu zen ez zuela horretan aritu nahi. Modu horretan, Elikagaien Zientzia eta Teknologia egitea erabaki zuen eta Leian hasi zen praktiketan: “Orduan hasi nintzen gerturatzen ikerketara”. Praktikak amaitu ostean, masterra gauzatu zuen: Elikagaien Kalitatearen eta Segurtasuna. “Segidan, Neiker-Tecnalian hasi nintzen lanean, Enrique Ritter doktorearekin, eta genomikaren mundua deskubritzen hasi nintzen”. Inoiz ez zuen doktorego-tesia egitea pentsatu, baina doktorego aurreko kontratu bat eskaini zioten. Bere tesiaren helburua Olio-palmondoko markatzailez lagundutako hautespen-sistema bat garatzea zen. Halaber, palma-olioaren aurka zabaldu den iritziaz mintzo da ikertzailea: “Badakigu palma-olioak gantz asea duela, eta gantz ase gehiegi hartzea txarra dela, baina horregatik palma-olioa guztiz baztertzea ez da zuzena, nire ustez”.

Biologia

Tridacna generoko espezieek bi elikatze-modu erabiltzen dituzte batera. Batetik, bibalbioetan ohikoa den iragazte-modua erabiltzen dute. Bestetik, mantuaren bazterrean dituzten mikroalga dinoflagelatu sinbiotikoek egiten duten fotosintesiari esker eskuratzen dute energia eta egitura-osagaien ekarpen gehigarria. Testuan azaltzen digutenez, handiak dira tamainaz eta duten bizitza luzea da: 100 urteko adinera hel daitezke. Hori bai, Tridacnaren tamaina dela, txirla gizajale edo txirla hiltzaile izenez ezagutu izan da Ozeano Bareko zenbait kostaldetan. Baina horiek funtsik gabeko elezaharrak dira soilik.

Genetika

CRISPR teknikak aurreikusi gabeko mutazioak eragiten ditu. Ikerketa Estatu Batuetan egin dute. CRISPR erabilita genoma eraldatu zaien saguen DNA aztertu dute, eta sagu batzuei itsutasuna sendatzeko gene bat aldatu zieten. Hori arrakasta izan zen, ikusteko gaitasuna eskuratu baitzuten. Baina, modu berean, bi saguren genometan 1.500 nukleotido-aldaketa inguru gertatu ziren, eta ehundik gora gene blokeatu edo gehitu egin ziren.

Zer da neuroblastoma? Umeei eragiten dien minbizi tumore arraroa da. Nerbio ehunetik eratzen da, nerbio sistema sinpatikoa osatzen duten ehunetatik, hain zuzen. Gorputzeko zona askotan gara daiteke, organo eta sistema gehienetara heltzen baita sistema parasinpatikoa. Hala, gaitz horren tratamendua hobetzen lagunduko duten hainbat mutazio genetiko identifikatu ditu ikerketa batek. TIAM 1 genea funtsezkoa da neuroblastomaren garapenean eta hori da ikertu dutena. Xehetasun gehiago ezagutzeko, irakurri Neuroblastoma: tratamenduan aurrera.

Astronomia

Astronomia alorrean, emakumezkoek sinatutako artikuluek sistematikoki aipamen gutxiago jasotzen dutela aurkitu dute Zuricheko (Suitza) Astronomia Institutuko ikertzaileek. Egile nagusi bezala emakume bat duten ikerketek %10 aipamen gutxiago jasotzen dute. Hain azterketa zabala burutu ahal izateko, ordea, ikaste automatikoko teknikak (machine learning) erabili behar izan dituzte. Zehazki, random forest izeneko algoritmoa baliatu dute. Artikuluan ere bada itxaropena pizteko datu bat: emakumezkoek idatzitako artikuluek gora egin dute azken hamarkadetan; 1960ko hamarkadan, %5 baino gutxiago ziren, baina, 2015ean, %25 inguru ziren emakumeek idatzitako ikerketa artikuluak.

Kirola eta osasuna

Ariketa fisiko eza hainbat gaixotasunekin uztartu da, besteak beste, gaixotasun kardiobaskularrekin, 2 motako diabetesarekin, depresioarekin edota zenbait minbizi motarekin. Munduko laugarren hilkortasun-eragilea da. Baina kirola egiteak ondorioak ere baditu; hala nola, lesioak. Artikulazioetako lesioak, esate baterako, aldaka, belauna edo orkatila bezalako giltzaduretan gertatzen dira. Garuneko kommozioa ere lesio larria da. Horretaz gain, aurretik jasandako lesioak dira arrisku-faktore garrantzitsuenak, esaterako orkatilako bihurdurarik pairatu ez duenak baino aukera gehiago izango du horrelakoa pairatu duenak, geroago lesio gehiago jasateko. Testuan, Athletic Clubarekin elkarlanean ari diren Euskal Herriko Unibertsitateko Kirola, Errendimendua eta Osasuna ikerketa taldeak eta Spot Genomics ikerketa taldeak, arrisku-faktoreen eta futboleko lesioen arteko lotura aztertzen duen ikerketa bat abiatu dute. Honen inguruko informazioa artikuluan topatuko duzue.

———————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.

———————————————————————–

Egileaz: Uxue Razkin Deiako kazetaria da.

———————————————————————–

The post Asteon zientzia begi-bistan #157 appeared first on Zientzia Kaiera.

Kategoriak: Zientzia

Arte & Ciencia: La importancia de la ciencia para la conservación del arte

Cuaderno de Cultura Científica - La, 2017-06-03 11:59

El arte y la ciencia son dos formas de conocimiento aparentemente alejadas, en gran medida consecuencia de la especialización profesional y la educación compartimentada. Del estudio de esta impostada separación surgió el estereotipo de las dos culturas, las ciencias y las humanidades, para referirnos a esa brecha de conocimiento. La realidad es que la ciencia y el arte sí están conectadas y que ninguna forma de conocimiento es impermeable a otra. Por poner algunos ejemplos: ¿Cómo podría crearse una obra plástica sin las técnicas propiciadas por la ciencia? ¿Cómo podríamos interpretar la elección de materiales?

Estas y otras cuestiones relacionadas furon tratadas por destacados profesionales -artistas, ilustradores, filósofos y científicos- que han puesto el foco en ese difuso trazo que une la ciencia y el arte. El ciclo Ciencia & Arte se desarrolló, bajo la dirección de Deborah García Bello, a lo largo de cuatro jornadas que se celebraron los jueves días 6 y 27 de abril y 11 y 25 de mayo de 2017 en el auditorio del Museo Guggeheim Bilbao.

Esta actividad de la Cátedra de Cultura Científica de la UPV/EHU se enmarca en el programa TopARTE que conmemora el XX Aniversario del Museo Guggenheim Bilbao.

Primera jornada. 1ª conferencia:

Ainhoa Sanz López de Heredia, coordinadora de conservación del Museo Guggenheim Bilbao: La importancia de la ciencia para la conservación del arte

Las ciencias experimentales juegan un papel esencial en el análisis, tratamiento y conservación de las obras de arte. Estos procesos nos ofrecen, además, información valiosa sobre el contenido de la obra y las circunstancias en las que fue creada. Ciencia y arte tienen una relación mucho más íntima de lo que imaginamos, ya que el conocimiento científico es una herramienta imprescindible para artistas, restauradores y analistas. Les permite conocer las cualidades de los materiales para optar por unos u otros, prever cómo se degradarán los pigmentos o determinar la mejor manera para conservar una escultura.

La importancia de la ciencia para la conservación del arte

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Arte & Ciencia: La importancia de la ciencia para la conservación del arte se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Para qué sirve la ciencia?
  2. Ciencia, naturaleza y arte: la química y sus metáforas, por Fernando Cossío
  3. Arte para explicar la ciencia
Kategoriak: Zientzia

Ezjakintasunaren kartografia #162

Zientzia Kaiera - La, 2017-06-03 09:00

Gorputzean ditugun bakterioak ote dira gure zahartze prozesuaren arduradunak? Eva García-Gonzálezek gaia aztertzen du Growing old together; are your bacterial partners making you old? artikuluan.

Erakusleihoetan ikusten ditugun manikietatik hasita, modaren munduak ematen duen irudia gaizbera izatera iritsi daiteke. Do mannequins have anorexia? artikuluan José Ramón Alonsok aztertzen du eragina.

Banakako molekulen korronte-pasabidearen diferentzien lehen behaketa dokumentatu da, hauen kiralitearen arabera. DIPCko ikertzaileek gauzatu dute berori: First case of observed current asymmetries in single chiral molecular junctions.

–—–

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #162 appeared first on Zientzia Kaiera.

Kategoriak: Zientzia

Cartografiando el Cosmos

Cuaderno de Cultura Científica - Or, 2017-06-02 12:00

“El mundo esta cambiando… lo siento en la tierra… lo veo en el agua… lo huelo en el aire…”

De vez en cuando me viene a la memoria esta primera frase de la versión cinematográfica de “La comunidad del Anillo”. Pero las palabras de Galadriel resuenan ligeramente distintas dentro de mi cabeza:

“La Astronomía está cambiando… lo siento en los observatorios… lo veo en los congresos… lo huelo en las políticas científicas…”

Y esto es realmente así. La Astronomía o, mejor dicho, la forma de hacer Astronomía, está cambiando rápidamente.

Hace un par de décadas lo más normal era que cada astrónomo o pequeño grupo de astrónomos en una universidad o instituto de investigación solicitara tiempo de telescopio para observar ellos mismos durante unas pocas noches al año. Buscaban datos para su propio proyecto de investigación, y prácticamente todo tenían que hacerlo ellos. Los astrofísicos tenían que preparar la propuesta de observación (para convencer a un comité de que su proyecto era interesante y conseguir el deseado tiempo de telescopio), entender las características de telescopio e instrumentos a usar, realizar las observaciones astronómicas, reducir los datos conseguidos (esto es, preparar los datos para ser analizados, por ejemplo calibrar correctamente las imágenes para realizar fotometría o ajustar correctamente la longitud de onda de los datos al realizar espectroscopía), analizar dichos datos (a veces comparando con modelos teóricos, otras veces comparando con más observaciones previas), extraer resultados y finalmente publicar el artículo científico con las conclusiones del estudio.

En esencia, ésta sería la pauta que se seguiría más o menos hoy día en el proceso de investigación astrofísica, aunque yo añadiría como último punto (que, en mi sesgada opinión, es fundamental, y mucho más en los tiempos que corren) la transmisión de los resultados científicos tanto en congresos de astrofísicos profesionales como en actividades de divulgación científica.

El autor de este artículo preparando el Telescopio Carlos Sánchez, de 1.5m de diámetro, en el Observatorio del Teide (Tenerife), para comenzar las observaciones de galaxias del tipo Wolf-Rayet en infrarrojo cercano para su tesis doctoral, en marzo de 2003. Crédito: Ángel R. López-Sánchez.

Pero, como decía con la cita de “El Señor de los Anillos”, los tiempos están cambiado. Aunque es cierto que aún muchos astrofísicos siguen el procedimiento brevemente descrito arriba, en los últimos años se están imponiendo “los grandes cartografiados astronómicos” (“large astronomical surveys”) para estudiar el Cosmos. Incluso se construyen instrumentos científicos (es más, ¡a veces hasta observatorios completos!) directamente pensados para trabajar “en formato survey”, y las propias políticas científicas están cada vez más dirigidas a esos “grandes proyectos”.

¿Qué quiere decir esto? Directamente que a la hora de enfrentarse ahora al quehacer de un astrofísico profesional son esenciales un nuevo tipo de conocimientos, mientras que otros antes fundamentales ahora son apenas relevantes.

Por ejemplo, muchos jóvenes astrofísicos que empiezan su carrera directamente a trabajar en alguno de estos “grandes cartografiados” no necesitan saber nada de observación astronómica, o de preparar propuestas de observación, o de qué ventaja tiene un telescopio/instrumento respecto a otro. Sí, es cierto que los grandes cartografiados también necesitan observadores, pero cada vez es más común que estos sean astrónomos especializados y dedicados casi completamente a ello, cuando no los datos se obtienen de forma semi (o casi) automática. En muchos casos, los astrónomos tampoco “reducen” ya los datos: las rutinas especializadas de los telescopios los dejan prácticamente “listos” para ser analizados.

Sin embargo, ahora es fundamentar saber gestionar bases de datos enormes, muchas veces albergadas en distintos sitios del planeta. El “Big Data” hace tiempo que llegó a la Astrofísica, y ha llegado para quedarse. Por lo tanto, los jóvenes astrofísicos necesitan herramientas de programación, tanto de gestión de bases de datos como estadística a alto nivel (ya no vale una regresión lineal, hay que usar métodos bayesianos o saber hacer un análisis de componentes principales, cuando no procesos más complejos), además de una excelente base en programación y saber usar herramientas óptimas de visualización y representación de datos para poder desarrollar el trabajo de astrofísico. Dicho de otra manera: ¿quieres ser astrofísico, pero no te gusta programar? Lo tienes complicado…

El “Big Data” en Astrofísica ha venido para quedarse. En esta imagen se muestra una toma de alta definición del centro de la Vía Láctea observada en infrarrojo medio tal por el Telescopio Espacial Spitzer (NASA). La pantalla, que consta de 128 monitores LCD de alta definición (longitud total de 7 metros), posee 250 millones de píxeles y se encuentra en Ames Research Center de NASA en Moffett Field, California, EE.UU.. Crédito: NASA/Ames/JPL-Caltech.

¿Cuándo comenzó el auge de los cartografiados astronómicos? En realidad, siempre han existido: desde la Antigüedad los astrónomos escudriñaban los cielos para tener el censo completo de objetos celestes visibles. Estos estudios venían dados simplemente por mapas y tablas donde se codificaban ciertas propiedades (identificación del objeto, coordenadas celestes, brillo, color,…). Tras la invención del telescopio y la confirmación de que “había muchas cosas más ahí arriba de las que veían nuestros ojos” estos catálogos se fueron haciendo más extensos. A principios del siglo XVII el astrónomo alemán Johann Bayer publicaba su famoso atlas estelar “Uranometría”. A finales del siglo XVIII el noble francés Charles Messier confeccionó el primer catálogo de objetos nebulares para ayudar a la hora de identificar un nuevo cometa (la “moda” de entonces). A finales del siglo XIX el astrónomo danés irlandés John Dreyer completó el “Nuevo Catálogo General” (NGC, por sus siglas en inglés, “New General Catalogue”) de nebulosas y cúmulos estelares (basado en los catálogos del famoso astrónomo inglés William Herschel) mientras que las “computadoras del Observatorio de Harvard” escudriñaban placas fotográficas (1), midiendo posiciones, buscando estrellas variables y estudiando por primera vez los espectros estelares. Ya en el siglo XX entramos en los cartografiados de galaxias, destacando los trabajos de Allan Sandage (quien en 1961 publicó el “Atlas Hubble de galaxias” usando todas las observaciones que tanto su predecesor y mentor, Edwin Hubble, como el mismo Sandage, habían realizado en este campo) y también por original el “Atlas de galaxias peculiares” confeccionado por Halton Arp en 1966. Obviamente, en el último siglo se han preparado una infinidad de catálogos de objetos celestes de diversa extensión, de los que podríamos estar hablando durante cientos de páginas.

Pero los “grandes cartografiados astronómicos” propiamente dichos (y ya no catálogos de objetos) empezaron hace apenas 20 años. La diferencia fundamental entre un “catálogo” y un “cartografiado” (o “mapeo” o “sondeo”, que serían la traducción de la palabra inglesa “survey”) es que mientras los primeros sólo buscan “listar” objetos, los segundos pretenden obtener información astrofísica y avanzar en el conocimiento del Cosmos con las observaciones. De hecho, hacen falta “catálogos de objetos” para preparar un “cartografiado”. Además de la lista de los objetos y las propiedades que se derivan de cada uno, en muchos casos los cartografiados también liberan los datos obtenidos para así facilitar el avance del conocimiento científico y que los propios datos sirvan a nuevos proyectos.

En imágenes astronómicas, el primer “cartografiado completo del cielo” fue el “Digitized Sky Survey” (DSS). Se trataban de las placas fotográficas de todo el cielo, digitalizadas con mucho esmero, obtenidas con los telescopios Schmidt localizados en los observatorios de Monte Palomar (en EE.UU., para el hemisferio norte celeste) y Siding Spring (en Australia, para el hemisferio sur celeste). DSS fue publicado originariamente en 1994 usando 102 CD-ROMs, los datos están ahora actualizados y disponibles gratuitamente en internet.

Resultados del The 2dF Galaxy Redshift Survey (“Cartografiado 2dF de desplazamiento al rojo de galaxias”), usando datos de 230 mil galaxias observadas con el instrumento 2dF en el Telescopio Anglo-Australiano. Cada punto azul representa una de estas galaxias. La Vía Láctea estaría en el centro de la figura, estando la galaxia cada vez más lejos de nosotros según se aleja a la derecha o la izquierda (nótese que la cuña derecha incluye en su parte inferior la escala en miles de millones de años luz, “billones” en inglés). La Estructura a Gran Escala, con sus filamentos y vacíos, destaca claramente en la imagen. Crédito: Matthew Colless / colaboración 2dFGRS.

En el campo de la espectroscopía astronómica tuvo un papel clave la fabricación del instrumento multi-fibra 2dF (de “Two Degrees Field”, “campo de dos grados”), instalado en 1997 en el Telescopio Anglo-Australiano (Observatorio de Siding Spring, Australia), y que permitía observar, a la vez, 400 objetos. Con este instrumento se desarrollaron dos cartografiados de galaxias que fueron fundamentales a la hora de empezar a entender la estructura a gran escala del Universo y la evolución de las galaxias. Por un lado, el The 2dF QSO Redshift Survey (o “Cartografiado 2dF de desplazamiento al rojo de cuásares”), que en apenas un lustro proporcionó la distancia a 35 mil cuásares a distancias cosmológicas. Por otro lado, el The 2dF Galaxy Redshift Survey (“Cartografiado 2dF de desplazamiento al rojo de galaxias”) completó un sondeo muy profundo de dos regiones concretas del cielo, proporcionado la distancia a más de 230 mil galaxias, y dando así una exquisita visión de la estructura a gran escala del Universo hasta 2500 millones de años luz.

No obstante, la gran revolución llegó con el “Sloan Digital Sky Survey” (SDSS, “Cartografiado Digital del Cielo Sloan), que sigue en activo (aunque “subdividido” en varios proyectos grandes). Originariamente usando sólo el telescopio de 2.5m del Observatorio de Apache Point (APO, Nuevo México, EE.UU.), completamente dedicado a SDSS, este cartografiado obtenía a la vez fotometría (imágenes) en distintos filtros de todo el cielo visible desde ese telescopio y espectros de galaxias. Desde 1998, SDSS ha obtenido observaciones fotométricas de más de 500 millones de objetos y observaciones espectroscópicas de más de 3 millones de galaxias. Muchos datos están públicos en la web, otros aún son propiedad sólo del proyecto, aunque se van liberando poco a poco. A fecha de hoy, más de 5800 publicaciones científicas en revistas con árbitro han usado datos de SDSS (la gran mayoría de ellos escritos por astrofísicos no pertenecientes a SDSS), siendo los resultados citados en más de 245 mil artículos científicos. De esta forma, SDSS es uno de los cartografiados más citados en la Historia de la Astronomía.

La “Araña Naranja” del Sloan Digital Sky Survey” (SDSS, “Cartografiado Digital del Cielo Sloan) ilustra la enorme cantidad de información a gran y pequeña escala obtenida en este cartografiado. La imagen de arriba a la izquierda muestra la visión que da SDSS de una zona del cielo centrada alrededor de la galaxia M 33. A su derecha aparecen dos ampliaciones de dicha imagen, mostrando tanto la galaxia M 33 en su totalidad (centro arriba) como la gigantesca región de formación estelar NGC 604 (derecha arriba), que brilla en color verdoso por la combinación de filtros usados para obtener el color. Las dos figuras inferiores (las “Arañas Naranjas”) muestran un mapa de todo el cielo tal con los datos de SDSS. A la derecha aparece el hemisferio norte celeste, prácticamente observado en su totalidad, a la izquierda se representa el hemisferio sur celeste. En este mapa se aprecian concentraciones de galaxias (cúmulos), filamentos y zonas aparentemente más vacías, definiendo la estructura a gran escala del Universo. Crédito: M. Blanton and SDSS.

Fue tal la cantidad tan ingente de datos que el cartografiado SDSS produjo que no había, ni de lejos, suficientes astrónomos para analizarlos todos. Precisamente éste fue el origen de “Galaxy Zoo”, el primer proyecto de Ciencia Ciudadana usando grandes datos en internet que necesitaba la interacción de los participantes. Lanzado en julio de 2007, Galaxy Zoo invitaba a los usuarios a clasificar galaxias (¿espiral o elíptica? ¿con brazos o sin ellos? ¿con prominente bulbo central o no?) detectadas de forma automática con las observaciones robóticas conseguidas con el cartografiado SDSS. Se liberaron unas 900 mil galaxias, obteniendo como resultado más de 50 millones de clasificaciones dadas por más de 150 mil participantes durante el primer año. Fue un éxito rotundo y el germen de una miríada de otros muchos proyectos similares que se han extendido más allá de la Astrofísica (muchos de ellos, no todos, compilados en ZooUniverse). La explosión de proyectos de Ciencia Ciudadana usando grandes bases de datos científicos es un ejemplo más de lo “desbordante” que es actualmente para los científicos (en particular, astrofísicos) digerir tanto número.

Y, en efecto, en la última década los grandes cartografiados no han hecho nada más que aumentar en número y complejidad. A SDSS se unió recientemente el “Skymapper Southern Sky Survey”, también usando un telescopio robótico expresamente construido para el proyecto, que busca “completar fotométricamente el cielo del Hemisferio Sur” (entre otras muchas más cosas). En los análisis de galaxias destacan los cartografiados “6dF Galaxy Survey” (6dFGS, en el Telescopio Schmidt del Observatorio de Siding Spring), GAMA (“Galaxy and Mass Assembly”, en el Telescopio Anglo-Australiano) y VIPERS (“VIMOS Public Extragalactic Redshift Survey”, usando el instrumento VIMOS instalado en una de las unidades de 8.2 metros del Very Large Telescope (VLT), en el Observatorio de Paranal, Chile), pero hay multitud más.

Los cartografiados de galaxias se han hecho cada vez más sofisticados al introducir un nuevo tipo de observación: la espectroscopía de campo integral (o espectroscopía 3D), con la que se obtienen a la vez imágenes y espectros. El sondeo CALIFA (“Calar Alto Legacy Integral Field spectroscopy Area survey”), que usa datos del telescopio de 3.5m del Observatorio de Calar Alto (Almería), ha sido pionero y es referencia mundial en la actualidad a la hora de “diseccionar” las galaxias usando la técnica de la espectroscopía de campo integral. En la actualidad los cartografiados de galaxias que usan este tipo de observaciones son el “SAMI Galaxy Survey” (que emplea un novedoso instrumento instalado en el Telescopio Anglo-Australiano) y MaNGA (“Mapping Nearby Galaxies at APO”, también parte de SDSS), con algunos más en camino.

El “Mandala de CALIFA” representa las propiedades física básicas de 169 galaxies extraídas aleatoriamente del cartografiado CALIFA (“Calar Alto Legacy Integral Field spectroscopy Area survey”), que usa datos de espectroscopía de campo integral obtenidos con el telescopio de 3.5m del Observatorio de Calar Alto (Almería). Comenzando por el panel superior y en el sentido de las agujas del reloj se muestran (1) imágenes a color, (2) mapa de la densidad de masa de cada galaxia, (3) edades, (4) imágenes en falso color mostrando el brillo del gas ionizado, (5) emisión de las nebulosas siguiendo la emisión en hidrógeno-alpha y (6) la cinemática del gas usando los datos en H-alpha. Crédito: Rubén García Benito, Fabián Rosales-Ortega, Enrique Pérez, C.J. Walcher, Sebastián Sánchez y la colaboración CALIFA.

A la hora de estudiar las estrellas de nuestra Galaxia, los sondeos más relevantes en la actualidad son GALAH (“Galactic Archaeology with Hermes”, para el que específicamente se construyó el espectrógrafo HERMES en el Telescopio Anglo-Australiano), APOGEE (que está dentro de los nuevos cartografiados de SDSS) y Gaia-ESO (que usa el instrumento FLAMES del VLT).

La búsqueda de exoplanetas alrededor de otras estrellas ha motivado cartografiados como AAPS (Anglo-Australian Planet Search), HARPS (High Accuracy Radial velocity Planet Searcher), WASP (Wide Angle Search for Planets) o CARMENES (“Calar Alto high-Resolution search for M dwarfs with Exoearths with Near-infrared and optical Échelle Spectrographs”, en el telescopio de 3.5m del Observatorio de Calar Alto), todos ellos usando instrumentos (y a veces telescopios) construidos expresamente para este fin. Por supuesto, sin olvidar incluso satélites artificiales como Kepler (NASA), que literalmente ha cambiado la concepción que teníamos de los exoplanetas.

En el campo de la cosmología destacan los cartografiados profundos de galaxias como “Dark Energy Survey” (DES, usando una avanzada cámara construida por el equipo para el Telescopio Blanco, de 4 metros de tamaño, en Chile) y OzDES (“Australia DES”, también en el Telescopio Anglo-Australiano y usando el instrumento 2dF), ambos buscando medir distancias cosmológicas para entender mejor la naturaleza de la energía oscura usando la detección de supernovas en ellas.

Finalmente, en esta larga lista incompleta (quizá bastante sesgada) no me puedo dejar atrás los cartografiados que se están haciendo o se van a hacer muy pronto usando radio interferómetros. Hay muchos, tal y como detallé en un artículo anterior, pero por cercanía y conocimiento destaco aquí los dos cartografiados principales a realizar en el nuevo interferómetro australiano ASKAP (“Australian SKA Pathfinder”): WALLABY (“Widefield ASKAP L-band Legacy All-Sky Blind Survey”), que proporcionará datos del hidrógeno atómico de centenares de miles de galaxias localizadas en un radio de unos 3000 millones de años luz, y EMU (“Evolutionary Map of the Universe”), que espera detectar la emisión de radio-continuo de cerca de 70 millones de galaxias.

El nuevo radio-interferómetro ASKAP (“Australian SKA Pathfinder”), en Australia Occidental, casi listo para comenzar las observaciones para sus grandes cartografiados. Crédito: Alex Cherney/terrastro.com.

En resumen, si en los últimos años hemos vivido una explosión de datos astronómicos dados por grandes cartografiados, en la próxima década todo esto se va a incrementar mucho más. Cada vez mayor proporción de astrofísicos estarán involucrados en estas grandes colaboraciones internacionales, construyendo ya no sólo instrumentos sino telescopios, satélites artificiales, y otras instalaciones más complejas como interferómetros para llevar a cabo grandes cartografiados. Conseguir tiempo de observación en telescopios grandes para proyectos pequeños va a estar cada vez más limitado (y va a ser más difícil) por el aumento considerable de tiempo dedicado expresamente a observaciones de grandes cartografiados. A su vez, estos grandes proyectos tendrán cada vez más preferencia a la hora de diseñar políticas científicas y de decidir qué proyectos científicos se financian y cuáles no.

Como corolario, en este artículo también quiero transmitir a los más jóvenes algo que llevo cierto tiempo repitiendo en mis conversaciones con ellos y en las redes sociales: los conocimientos astronómicos no bastan para ser astrofísico. Era patente cuando yo era estudiante (y tampoco hace tanto, terminé la tesis hace justo una década) que para tener éxito en astrofísica también era muy importante saber programar. Bueno, ahora no es importante, ahora es fundamental saber hacerlo, sobre todo entender y manejar grandes bases de datos, las herramientas estadísticas para extraer información de ellos, cómo lograr una correcta visualización de estos grandes datos, y cómo compartir en red toda esta información. Entre los astrofísicos jóvenes está claro: el lenguaje de programación que hay que saber dominar es Python. Así que mi recomendación para futuros jóvenes astrofísicos es esta: saber reconocer el cielo por la noche, identificar los objetos astronómicos por ti mismo (lo que hacen los astrónomos aficionados) no es importante en Astrofísica. Saber programar, particularmente en Python, es esencial, y va a ser cada vez más crítico. Invertid una buena parte de vuestra formación en aprender a programar bien.

Ya que estoy en ello, y desviándome completamente del tema principal de este artículo, me gustaría añadir un segundo consejo a los más jóvenes, también viviéndolo de mi experiencia personal: hay que saber comunicar lo que se hace, a la vez que entender lo que otros están haciendo. Y para ello lo primero y fundamental es tener un excelente nivel en inglés hablado y escrito. Aún llevando 10 años viviendo en un país cuyo idioma oficial es el del Shakespeare, el no ser nativo en este idioma sigue “lastrando” de vez en cuando mi investigación y desarrollo profesional (dejo aparte mi “acento peculiar” y que me llame Ángel, un nombre que las personas nativas inglesas no saben pronunciar en castellano, todo esto daría de sí otro artículo). Tal es así que, actualmente, equiparo los conocimientos en inglés y en programación (insisto: Python) a los propios conocimientos en Física y Astrofísica a la hora apostar por una carrera en investigación astrofísica.

Si te falla uno de estos tres pilares básicos (conocimientos de Astrofísica, programación e inglés) vas a tener muy complicado poder dedicarte de forma profesional a la investigación astrofísica. Los tiempos cambian, hay que saber adaptarse y, a riesgo de sonar egoísta, hay que planificar desde muy pronto una estrategia a años vista para conseguir trabajar, disfrutando, de la investigación del Cosmos. Y, si al final no funciona (y cada vez es más difícil llegar a dedicarte de por vida a la investigación científica) hay que tener claro que los conocimientos adquiridos (particularmente programación con grandes bases de datos e inglés) tienen unas salidas enormes y aplicación directa en muchos otros campos. Ya dije arriba que el “Big Data” viene a quedarse. En Astrofísica está dirigido por los grandes cartografiados. Pero fuera de ella, incluso fuera de la Ciencia, hay multitud de aplicaciones que lo usan, algunas tan sutiles que las usamos a diario ya sin darnos cuenta.

(1) Recomiendo encarecidamente la lectura del fascinante libro “El Universo de Cristal”, de Dava Sobel, donde se detalla la a veces desconocida pero fundamental labor que astrofísicas como Williamina Fleming, Antonia Maury, Annie Jump Cannon, Henrietta Swan Leavitt, Margaret Harwood o Cecilia Payne realizaron como “mapeadoras del Cosmos”.

Este post ha sido realizado por Ángel López Sánchez (@El_Lobo_Rayado) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU

El artículo Cartografiando el Cosmos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El hidrógeno en el Universo (V): Cartografiando las galaxias en hidrógeno atómico
  2. Los abismos oscuros del Cosmos
  3. Cartografiando automáticamente áreas quemadas a nivel global
Kategoriak: Zientzia

Emma López de Armentia: “Ikerketak asko eskatzen du, baina baita asko eman ere”

Zientzia Kaiera - Or, 2017-06-02 09:00
Ana Galarraga / Elhuyar Zientzia Emma López de Armentia Adan ia-ia halabeharrez sartu zen ikerketa-munduan. Dioenez, txikitatik zituen gustuko biologia, giza gorputza… Beraz, bazirudien medikuntza ikastera bideratuko zela. Baina gaztetan ikasketei behar baino arreta gutxiago jarri zienez, azkenean Giza Nutrizioa eta Dietetika ikasi zuen, eta, ikasketak amaitutakoan, kontsulta bat jarri nuen.

“Laster ohartu nintzen ez nuela horretan aritu nahi. Gaia bera oso gustukoa nuen, baina lana ez. Gainera, orduan ez zegoen gaur bezain ondo ikusia”, aitortu du. Hala, Elikagaien Zientzia eta Teknologia egitea erabaki zuen. Egin, eta Leian hasi zen praktiketan (gaur egun Tecnaliaren barruan), Elikagai Berrien laborategian. “Orduan hasi nintzen gerturatzen ikerketara; ordura arte, urrutikoa zen, eta han hasi zitzaidan harra sartzen”.

Praktikaldiaren ondoren, Elikagaien Kalitatearen eta Segurtasunaren Masterra egin zuen. “Segidan, Neiker-Tecnalian hasi nintzen lanean, Enrique Ritter doktorearekin, eta genomikaren mundua deskubritzen hasi nintzen. Erabat harrapatu ninduen, liluratuta geratu nintzen”, gogoratu du. “Inoiz ez nuen doktorego-tesia egitea pentsatu, baina doktorego aurreko kontratu bat eskaini zidaten, eta horrela hasi nintzen”.

Irudia: Emma López de Armentia ikertzailea.

López de Armentiaren esanean, ezustean eta pixka bat berandu iritsi zen ikerketa-mundura, baina gaiarekin zoratuta zegoen. Olio-palmondoko markatzailez lagundutako hautespen-sistema bat garatzea zen tesiaren helburua. Eta esperimentu-aldia gogorra izan bazen ere, askoz ere gogorragoa izan zen tesia idazten eman zuen garaia.

“Esperimentu-aldia ez da erraza izaten eta denbora asko eskatzen du, baina taldea oso-oso ona zen, eta benetan gustura aritu nintzen, asko lagundu baininduten. Ezin da beste lanarekin alderatu; ikertzen ari zarenean, ikasten duzu arazoei aurre egiten, taldean lana egiten, eta, aldi berean, autonomoa izaten… Asko eskatzen du, baina asko eman zidan. Hiru hilabetez luzatu zidaten kontratua esperimentuekin amaitzeko, eta dena ondo joan zen”, azaldu du.

Aldiz, inolako kontraturik gabe aritu zen tesia idazten, urte eta erdiz, eta oso gogorra egin zitzaion: “Diziplina handia eskatzen du, eta norberak ez ezik, ingurukoek ere lagundu behar dute. Bestela, ezin da; baina oso gogorra egiten zitzaidan ikustea etxekoei ere eragiten ziela. Azkenean, beste guztia alboratu, horretan ematen duzu urte eta erdi, buru-belarri”.

Palma-olioari buruzko iritzia eta informazioa

Palma-olioaren aurka zabaldu den iritziaz galdetuta, López de Armentiak uste du ez dela informazio osoa eman. “Boladak izaten dira. Garai batean txerri-gantza txartzat jotzen zen; gero jakin zen batez ere azido oleikoa duela, alegia, osasunerako ona dela. Eta bai, badakigu palma-olioak gantz asea duela, eta gantz ase gehiegi hartzea txarra dela, baina horregatik palma-olioa guztiz baztertzea ez da zuzena, nire ustez”.

Azaldu duenez, palma-olioak oso ezaugarri organoleptiko eta teknologiko egokiak ditu; horregatik erabiltzen da hainbeste elikagai-industrian. “Izatekotan, elikagai-prozesatuak dira kontuz hartu beharrekoak. Gaur egun, jende askok horietan oinarritzen du bere elikadura, eta hori bada txarra osasunerako; ez bakarrik palma-olioagatik, baita horrekin batera hartzen duen karbohidrato, gatz, azukre, gehigarri eta beste osagaiengatik”.

Horrekin batera, argitu du palma-olioaren ordezkoak are okerragoak izan daitezkeela: “Industriaren ikuspegitik, trans-azidoak erabiltzea izan daiteke irtenbide bat, baina horiek are kaltegarriagoak dira”. Eta olio-palmondoaren jatorrizko lekuetan, gantz-iturri nagusia huraxe dutela gogorarazi du. Haientzat, ezinbesteko elikagaia da.

Bestalde, olio-palmondoarekin egiten den ikerketaren erabat alde azaldu da: “Ikerketa pila bat egiten dira olio-palmondoarekin, eta oso onak: ingurumenaren alderditik, osasunarenetik, teknologiarenetik… Jendeak hori guztia jakin beharko luke, palma-olioa epaitu baino lehen”

Etorkizunean, olio-palmondoaren edo beste oleaginoso batzuen ikerketan aritzea du amets… “Badakit ikaragarri zaila dela. Gainera, nik ez dut kanpora joan nahi ikertzera; familia dut, eta ezin diet hori eskatu. Baina, nigatik, horixe egingo nuke gustura asko”.

———————————————————————————-

Egileaz: Ana Galarraga Aiestaran (@Anagalarraga1) zientzia-komunikatzailea da eta Elhuyar Zientzia eta Teknologia aldizkariko erredaktorea.

———————————————————————————-

Elhuyar Zientzia eta Teknologia aldizkariarekin lankidetzan egindako atala.

The post Emma López de Armentia: “Ikerketak asko eskatzen du, baina baita asko eman ere” appeared first on Zientzia Kaiera.

Kategoriak: Zientzia

De cómo la ludificación del aula prepara a los niños para vivir en un estado policial

Cuaderno de Cultura Científica - Og, 2017-06-01 17:00

Laura R. Pinkerton

Es bien sabido que la vigilancia afecta a cómo nos comportamos. Un estudio reciente sobre el tema mostró que el tráfico en los artículos de Wikipedia sobre temas polémicos cayó significativamente después de que Edward Snowden desvelase la amplitud de la vigilancia que sobre Internet realizan la NSA y GCHQ [véase nota del traductor 1].

Esto demuestra tanto el efecto a corto como a largo plazo que la intrusión en nuestra vida privada puede tener sobre actividades perfectamente legales. También refleja el “efecto panóptico” descrito por el teórico social francés Michel Foucault.

El panóptico [2] era una prisión del siglo XVIII diseñada de tal manera que los guardias de la prisión podían ver el interior de las celdas de la prisión desde su torre, pero los prisioneros no podían ver a los guardias. Su propósito era motivar a los presos a comportarse bien, no a través de la fuerza bruta, sino a través de su miedo a ser vistos.

Si bien la vigilancia masiva en Reino Unido no conlleva la misma amenaza de daño físico experimentada por aquellos que viven bajo dictaduras violentas, sí amenaza con moldear nuestra manera de hablar y actuar unos con otros, creando una sociedad menos libre.

Ludificando el aula

Este aumento en la vigilancia masiva también está ocurriendo en el aula: a través del uso de juegos en línea que guardan la puntuación e informan al maestro en tiempo real sobre el comportamiento y habilidades del alumno.

La “ludificación” en las escuelas enseña a los niños que deben esperar que todos sus movimientos van ser vigilados, evaluados y posiblemente compartidos públicamente. Hace que la falta de privacidad parezca normal y prepara a los jóvenes para aceptar la vigilancia masiva en su vida adulta.

El Presidio Modelo, un diseño panóptico, en la Isla de la Juventud (Cuba). Fuente: Friman/Wikipedia

Mientras que la ludificación ha jugado un papel en la educación a través de estrategias de enseñanza no-digitales tales como gráficos de pegatinas y escuelas, en los últimos años el interés ha aumentado. Ahora los maestros usan nuevas herramientas digitales tales como plataformas de gestión del aula y programas educativos parecidos a juegos para ver, capturar y juzgar una gama más amplia de comportamientos infantiles con un detalle cada vez mayor.

Algunos proveedores de sistemas educativos, como el supercomputador de lectura de emociones Watson de IBM y el editor de materiales educativos Pearson, incluso esperan registrar y entender cómo piensan y sienten los estudiantes.

Observaciones sobre el terreno

Mi estudio sobre cómo los nuevos estándares de computación en el currículo nacional de Inglaterra se están experimentando en las aulas de la escuela primaria ha documentado varios casos de ludificación que se han convertido en Big Brother [3]. En un colegio vi la introducción de un nuevo sistema de casas [4] donde los puntos los daban los estudiantes veteranos, que se ocultaban en las esquinas de los pasillos, tomando notas sobre niños desprevenidos.

Estas notas se subían todas las noches a ClassDojo (una plataforma en la nube para el seguimiento e información del comportamiento de los estudiantes) para que los padres las pudiesen ver. El agregado semanal de estas puntuaciones se mostraba a toda la clase cada viernes, para que los estudiantes pudieran ver sus resultados y compararse con sus compañeros.

El aula: ludificada. Fuente: Pexels

En otra colegio su profesor recordaba frecuentemente a los estudiantes fueron que ella podía ver todo lo que hicieron en sus iPads individuales mediante un programa de captura de pantalla. Más tarde, esta maestra compararía su estilo de enseñanza relativamente suave con el utilizado en algunos de los padres de los niños en el extranjero, donde los estudiantes tenían que arrodillarse sobre cáscaras de coco rotas hasta que recitaban con éxito sus tablas de multiplicar.

Supongo que es fácil ver cómo este tipo de seguimiento moderno se ve como relativamente inofensivo en comparación con la violencia experimentada por algunos escolares en otras partes del mundo.

Más mal que bien

Pero aunque la ludificación del aula a través del software educativo es claramente menos violenta físicamente que el castigo corporal, no debemos engañarnos creyendo que la ludificación es una experiencia universalmente divertida y atractiva para todos los niños. Y puede incluso causar daño o tener un impacto negativo en los estudiantes, si se usa sin comprender los riesgos que conlleva.

Incluso en los casos en que tenga un efecto positivo en el comportamiento del estudiante, debemos proceder con cautela. Porque, si no tenemos cuidado, corremos el riesgo de enseñar a los niños pequeños a aceptar un ojo que todo lo ve omnisciente en sus vidas. Y que esta mirada “panóptica” debe ser temida y valorada más que las motivaciones internas como la curiosidad, la pasión y el impulso.

La popularidad de la ludificación es comprensible. El aprendizaje debe ser divertido al menos parte del tiempo y los maestros necesitan saber lo que los estudiantes están haciendo en su aula. Pero con cada vez más medios de vigilancia de masas en el mundo adulto, deberíamos estar enseñando a los niños a pensar críticamente acerca de la privacidad y el miedo, en lugar de entrenarlos para que renuncien a la primera y vivan según el segundo.

Sobre la autora:

Laura R. Pinkerton es ayudante de investigación en el Oxford Internet Institute de la Universidad de Oxford (Reino Unido).

Texto traducido y adaptado por César Tomé López a partir del original publicado por The Conversation el 12 de mayo de 2017 bajo una licencia Creative Commons (CC BY-ND 4.0)

Notas del traductor:

[1] NSA = National Security Agency, Agencia de Seguridad Nacional de los Estados Unidos; GCHQ = Government Communications Headquarters, Cuartel General de Comunicaciones del Gobierno del Reino Unido

[2] Panóptico

[3] Big Brother (literalmente, gran hermano o hermano mayor) es un personaje de la novela de George Orwell “1984” que representa el control omnipresente y opresivo del estado totalitario.

[4] El sistema de casas es una forma de organización de los colegios británicos. Si ha visto alguna película o leído algún libro de la saga Harry Potter el lector está familiarizado con él sin saberlo, ya que el colegio Hogwarts está dividido en cuatro casas, perteneciendo Potter a una de ellas, Gryffindor.

The Conversation

El artículo De cómo la ludificación del aula prepara a los niños para vivir en un estado policial se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. #Naukas16 Cómo escribir un libro de ciencia para niños
  2. ¿Quién quiere vivir para siempre?
  3. Es hora de prepararse para el Maquinoceno
Kategoriak: Zientzia

Orriak