Sumas y sucesiones alícuotas

Cuaderno de Cultura Científica - Mié, 2019/06/19 - 11:59

Elige un número entero positivo n. Encuentra los números positivos que lo dividen (es decir, el resto de la división es cero). Súmalos y resta a la cantidad obtenida el entero de partida n. A esa cantidad, s(n), se le llama suma alícuota de n. Por ejemplo, n=10, es divisible por 1, 2, 5 y 10. Así que s(10)=8.

Imagen: Pixabay

Esta suma sirve para caracterizar ciertas clases notables de números. Por ejemplo,

  • 1 es el único número cuya suma alícuota es 0.

  • Un número n es primo si y solo si s(n)=1.

  • Un número n es perfecto si coincide con su suma alícuota, es decir, s(n)=n. Por ejemplo, 6 es un número perfecto (sus divisores son 1, 2, 3 y 6).

  • Un número n es deficiente si es mayor que su suma alícuota, es decir, s(n)<n. El 1 es el primer número deficiente. Y, obviamente, todos los números primos son también deficientes.

  • Un número n es abundante si es menor que su suma alícuota, es decir, s(n)>n. El primer número abundante es el 12 ya que s(12)=16. Los números abundantes son los que no son ni perfectos ni deficientes.

  • Un número n es quasiperfecto si s(n)=n+1. Aun no se ha encontrado ninguno de estos números…

  • Un número n es casi perfecto si s(n)=n-1. Los únicos números casi perfectos conocidos (de momento) son las potencias de 2.

  • Un número n se llama intocable si no existe ningún entero m de modo que s(m)=n. Abu Mansur al-Baghdadi demostró que 2 y 5 son intocables. Paul Erdős demostró que existen infinitos números intocables. Y aún se desconoce si 5 es el único número intocable impar.

¿Y qué sucede si se calcula la suma alícuota manera iterada? Es decir, ¿qué se obtiene al computar s(n), s2(n), s3(n),… y así sucesivamente? A {s(n), s2(n), s3(n),…} se le llama sucesión alícuota de n.

Por ejemplo, la sucesión alícuota de 10 es {10, 8, 7, 1} ya que:

  • 10 es divisible por 1, 2, 5 y 10, con lo que s(10)=8.
  • 8 es divisible por 1, 2, 4 y 8, con lo que s(8)=s2(10)=7.
  • 7 es divisible por 1 y 7, con lo que s(7)=s3(10)=1.
  • 1 es divisible solo por 1, con lo que a partir de este punto ya no puede repetirse el proceso.

Solo existen cuatro posibilidades para la sucesión alícuota de un número entero (a priori, porque se desconoce si existen ejemplos de todas ellas):

  1. que sea finita y termine en 1 (en este caso, el anteúltimo número de la sucesión es un primo). Un ejemplo es n=10;

  2. que sea finita y termine en un número perfecto. Un ejemplo es n=6, para el que sk(6)=6 para todo entero positivo k;

  3. que sea finita y termine en un par de números amigos (como 220 y 284) o en un ciclo (como el caso de los números sociables);

  4. que sea infinita.

Para n=276 no se sabe si su sucesión alícuota es finita o infinita. De momento se ha calculado hasta el término 469 de la sucesión:

s469(276)=149 384 846 598 254 844 243 905 695 992 651 412 919 855 640.

¿Volverá a descender esa cantidad para algún sk(276) con k mayor que 469? Se desconoce en este momento. Pero podría suceder porque, por ejemplo, para n=138, existe un k en el que se alcanza un “pico”, sk(138)= 179 931 895 322, y la sucesión empieza a descender a partir de ese momento hasta llegar a un 1.

Aunque esto parece un mero juego, existen muchas conjeturas alrededor de sumas y sucesiones alícuotas que mantienen a muchas personas ocupadas y ¡haciendo matemáticas serias!

Referencias

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Sumas y sucesiones alícuotas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Construye tu propia calculadora de sumas y restas
  2. La magia de los números (el teorema de Moessner)
  3. La magia del teorema de Zeckendorf
Categorías: Zientzia

Adimen artifizialak kolaboratzen ikasi du; momentuz, jokoetan

Zientzia Kaiera - Mié, 2019/06/19 - 09:00
Juanma Gallego Deep Mindek hiru dimentsioko bideo-joko batean trebatu du haren adimen artifiziala, eta gizakiak baino askoz hobeto moldatu dela ikusi dute. Ez da konputazio ahalmen hutsa: joko horretan aurrera egiteko ezinbestekoa da besteekin elkarlanean aritzea.

1. irudia: Orain arte xake eta go jokoetan garaile atera da adimen artifiziala, baina oraingoan elkarlanaren beharra duen bideo-joko partida batean eskuratu du garaipena. (Argazkia: Sean Do / Unsplash)

Bigarren partidaren 37. mugimenduan, ordenagailuak zentzurik gabeko mugimendua egin du. Komentaristak zur eta lur geratu dira. “Hori oso arraroa da”, esan du batek. Barre bakar batzuk ere entzun dira aretoan. “Hau akats bat da”, besteak. Go partidan ordenagailuaren aurkaria den Lee Sedol aretotik atera da, eta itzuli denean, jarri duen aurpegia ere ikustekoa da. AlphaGo programak aukeratu du bosgarren lerroan fitxa bat jartzea, baina milaka urtetan zehar gizateriak bildutako esperientziak dio horrek ez duela zentzurik, hasierako mugimenduetan bederen. Hirugarren lerroan, bai; laugarrenean, ere. Hirugarrenak epe motzera “lurraldea” eskuratzeko aukerak biderkatzen ditu; eta laugarrenak, berriz, erdialdearen gaineko eragina izateko estrategian laguntzen du. Hori diote, bederen, go jokoan aditu direnek.

2016ko martxoan izan zen Google AlphaGo eta orduko munduko txapeldun Lee Sedol hegokorearraren aurkako partida hori. Garaile atera zen adimen artifiziala, eta, hein handi batean, adituen buruan sartzen ez zen mugimendu horri esker izan zen garaipena. Iraultza txikia egon zen adimen artifizialaren munduan, eta bereziki, go zaletuen artean.

Makina gizakiaren aurka aritzea ez zen kontu berria, xake-jokoan ordenagailuek aspaldi gainditu zituztelako gizakiak. Baina Go jokoa oso bestelakoa da. Kasu honetan, ezinezkoa da “indar konputazional” hutsa erabiltzea aukeran dauden mugimendurik hoberenak aurreikusteko. Go jokoan aukeran dauden posizioak izugarri handiak direlako. Horregatik, AlphaGo sistemaren arrakastaz hitz egitean, horren sortzaileek “intuizioa” edota “kreatibitatea” bezalako hitzak erabili dituzte. Horrelako planteamenduek, noski, eztabaida asko eragin dute mundu akademikoan, kontzeptu horiek, momentuz, gizakiei mugatuta daudelako, eta gizakien artean ere horiek zer diren edo horiek kuantifikatzea ez delako batere erraza.

Eztabaida hori bere horretan dagoela, go jokoan trebatutako adimen artifiziala garatu duen DeepMind enpresako ikertzaileek beste kontzeptu bat atera dute plazara: “kolaborazioa”. Science aldizkarian aurkeztu duten proposamenaren arabera kolaborazioan oinarritzen den bideo-joko batean ere gizakiei aurrea hartu die adimen artifizialak.

Elkarlanaren beharra

Quake III Arena Capture the Flag jokoan trebatu da ordenagailua, “harrapa ezazu bandera” motako jokoa, hain zuzen. Hiru dimentsioko bideo-jokoa da. Erabili duten joko nagusiaren aldaeran, bi talde bata bestearen kontra aritu behar dira arerioaren base batean banderak eskuratzeko eta haien basea babesteko. Dena dela, helburua lortzeko bi talde horiek elkarlana behar dute. Ikertzaileen esanetan, adimen artifizialak maila altuko partidak egin ditu, gizakiak egiten dituen partiden parekoak, baina harago joan da kontua: gizakiekin batera egindako partidetan garaile atera dira makinak. 40 jokalari trebatuen aurkako partidetan, algoritmoak partiden %21 baino ez du galdu, kontuan izanda, gainera, ikertzaileek erabakiak hartzeko algoritmoaren abiadura moteldu zutela, gizakien erritmora eta erreflexuetara egokitu aldera. Bai gizakiekin zein beste algoritmoekin ondo moldatu da adimen artifiziala, partida horietan jokalariak modu aleatorioan banandu direlako, makina edo gizaki ziren kontuan hartu gabe.

2. irudia: Quake III Arena Capture the Flag izeneko jokoan trebatu dute adimen artifiziala, eta ederki moldatu dela ikusi dute, zerotik hasita. (Irudia: Deep Mind)

Ikerketaren egileen arabera, emaitzek adierazten dute adimen artifiziala gai dela kooperazio-estrategia garatuak abiatzeko. Gizakiek garatu ohi dituzten estrategia berdinak garatu ditu algoritmoak. Talde lana egin beharra dago jokoan aurrera egiteko, eta noiz eraso eta noiz babestu ondo jakin behar da ere. Adibidez, arerioaren basetik gertu itxarotea, bandera berriak ateratzeko zain edota norberaren basean geratzea, hura defendatzeko.

For The Win izena eman diote erabilitako algoritmoari, eta ausaz sortutako milaka partidatan egin du ikasketa: bere buruaren kontra 450.000 partidetan jokatuz trebatu da algoritmoa. Orotara, adimen artifizialean oinarritutako 30 agente sortu dituzte, haien artean lankidetzan edota lehian aritzeko.

Aurreko saiakeretan adimen artifizialari jokoaren arauak edota hainbat argibide eman dizkiete, baina hau ez da izan oraingoan egin dutena. Aitzitik, adimen artifizialaren esku utzi dute pantailan gertatzen denaren inguruan ikasketa bere kabuz egitea, egindako esku-hartze bakoitzaren ondoren lortutako puntuazioaren arabera. Zentzu horretan, psikologia konduktistaren alorrean izaten den irakaspen prozesu berdina izan da: zerbait ondo egitean sari bat irabazten da, eta egoera horrek egindakoa errepikatzeko aukerak biderkatzen ditu, saio eta hutsegite bidez. Ikasketa automatikoaren alorrean, errefortzu bidezko ikasketa sakona deitzen diote ikaskuntza mota honi.

DeepMind enpresaren blogean ere azaldu dute, luze eta zabal, joko horretan makinak aurrera egin dezan erabili duten estrategia. Esanguratsua da blogean egindako sarrerari eman dioten titulua: “Agente kooperatibo konplexuen gorakada”. Bertan azaldu dute testuingurua. Agente anitzen ikasketan oinarritzen da adimen kolektiboa: bakoitzak bere kabuz ikasi arren, hainbat lagunen artean elkarlanean aritzeko gaitasuna dute gizakiek, eta orain makinak gaitasun horretan trebatzen saiatu dira ikertzaileak. Makinak trebatu baino, bidea eman diete haien kabuz trebatu daitezen. “Gure agenteei jarri diegun erronka izan da ikas dezaten zuzenean pixel hutsetatik ekintzak sortzen”, azaldu dute.

Gauzak zaildu dizkiete algoritmoei. Partida batetik bestera jokoaren mapa aldatzen duen aldaera erabili dute. Modu horretan sustatu nahi izan dute agente horiek estrategia orokorrak ikas ditzaten, joko zelaia oroimenean gorde beharrean. Hala eta guztiz ere, ederki moldatu dira eta, lehenago azaldu dugun moduan, kolaborazioan aritu dira. “Parte-hartzaileen artean egindako inkesta batean, agenteak gizakiak baino elkarlan handiagoa egin dutela ikusi da”.

Agenteek partida bakoitza nola adierazten duten ulertu aldera, algoritmoen sare neuronalen mapetan azaltzen diren aktibazio patroiei erreparatu diete. Modu horretan, joko egoera bakoitzaren arabera kolore jarri duen aurpegiadesberdina erakusten dute patroiek. –Aipatu ez badute ere, neurologoek antzeko estrategia erabiltzen duten giza burmuinean gertatzen diren prozesuak ulertu nahi dutenean–. “Agenteei inoiz ez zaie ezer adierazi joko-arauei buruz, baina jokoaren funtsezko kontzeptuen inguruan ikasi dute, eta Capture The Flag jokorako intuizioa garatu dute”. Intuizioa. Ez da hitz xumea, makina bati aplikatuta. Zirraragarriena da agian arrazoia izan dezaketela.

Erreferentzia bibliografikoa:

Max Jaderberg et al., (2019). Human-level performance in 3D multiplayer games with population-based reinforcement learning. Science, 364(6443), 859-865. DOI: 10.1126/science.aau6249.

———————————————————————————-

Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.

———————————————————————————-

The post Adimen artifizialak kolaboratzen ikasi du; momentuz, jokoetan appeared first on Zientzia Kaiera.

Categorías: Zientzia

El desconcertante efecto fotoeléctrico

Cuaderno de Cultura Científica - Mar, 2019/06/18 - 11:59
El Museo Guggenheim de Bilbao está recubierto por planchas de titanio, un metal. «El gran árbol y el ojo» la escultura de bolas es de acero. ¿Emiten fotoelectrones? Fuente: Jon del Rivero / Unsplash

En 1887, Heinrich Hertz estaba comprobando la teoría de las ondas electromagnéticas de Maxwell. Se dio cuenta de que una superficie metálica puede emitir cargas eléctricas cuando incide sobre ella una luz de longitud de onda muy corta. Debido a que intervienen la luz y la electricidad este fenómeno pasó a conocerse como efecto fotoeléctrico.

Cuando las cargas eléctricas producidas de esta manera se hacía pasar a través de campos eléctricos y magnéticos, sus trayectorias se veían afectadas de la misma manera que las de los rayos catódicos. Por el mismo razonamiento empleado con ellos se dedujo que las cargas eléctricas emitidas por el efecto fotoeléctrico consisten en partículas cargadas negativamente. En 1898, J.J. Thomson midió el valor de la relación q / m para estas partículas. Utilizando el mismo método que había usado para las partículas de los rayos catódicos Thomson obtuvo el mismo valor para las partículas fotoeléctricas que para las partículas de los rayos catódicos.

Estos experimentos (y otros) demostraron que las partículas fotoeléctricas tenían las mismas propiedades que los electrones. De hecho, los físicos ahora consideran que estas partículas son electrones, aunque a menudo se les llama fotoelectrones, para indicar su origen. Trabajos posteriores demostraron que todas las sustancias (sólidos, líquidos y gases) exhiben el efecto fotoeléctrico en condiciones apropiadas. Para comprender bien en qué consiste y sus implicaciones nos será más conveniente centrarnos en el efecto en las superficies metálicas.

Quizás convenga señalar ahora que el efecto fotoeléctrico tuvo un lugar muy importante en el desarrollo de la física atómica básicamente porque el efecto no se puede explicar en términos de física clásica. Fue necesario introducir nuevas ideas para dar cuenta de los resultados experimentales. En concreto, la introducción del concepto revolucionario de cuanto inició una nueva rama de la física llamada teoría cuántica. Esta teoría y el concepto físico de cuanto surgen, en buena medida, debido a la explicación proporcionada para el efecto fotoeléctrico [1].

Veamos que es lo que se observó. La información básica para estudiar el efecto fotoeléctrico proviene de dos tipos de medidas:

1. Mediciones de la corriente fotoeléctrica (el número de fotoelectrones emitido por unidad de tiempo); y

2. Mediciones de las energías cinéticas de los fotoelectrones emitidos.

Figura 1. Fuente: Cassidy Physics Library

La corriente fotoeléctrica se puede estudiar con un aparato como el que se muestra en la Figura 1 (a). Dos placas de metal, C y A, están selladas dentro de un tubo de cuarzo [2] en el que se ha hecho el vacío. Las dos placas están conectadas a una fuente de diferencia de potencial (por ejemplo, una batería de alto voltaje). En el circuito también hay un amperímetro, que mide la corriente eléctrica. Mientras la luz incide en la placa C, como en Figura 1 (b), se emiten electrones con un rango de energías cinéticas (velocidades). Si el potencial de la placa A es positivo en relación con la placa C, estos fotoelectrones emitidos se acelerarán hacia la placa A [3]. La corriente eléctrica resultante la indica el amperímetro. .

Los primeros resultados del experimento son: cuanto más fuerte (o más intenso) sea el haz de luz de un color (frecuencia) dado, mayor será la corriente fotoeléctrica. Cualquier metal utilizado como placa C muestra un efecto fotoeléctrico, pero solo si la luz tiene una frecuencia mayor que un cierto valor. Este valor de la frecuencia se denomina frecuencia umbral para ese metal. Diferentes metales tienen diferentes frecuencias umbral. Pero si la luz incidente tiene una frecuencia inferior a la umbral, no se emiten fotoelectrones, ¡sin importar lo grande que sea la intensidad de la luz o cuánto tiempo permanezca encendida! Este es el primer conjunto de descubrimientos sorprendentes.

Las energías cinéticas de los electrones se pueden medir en una versión ligeramente modificada del aparato, que vemos en la Figura 1(c). La batería se invierte, de modo que la placa A ahora tiende a repeler los fotoelectrones. El voltaje puede cambiarse de cero a un valor lo suficientemente grande para evitar que los electrones alcancen la placa A, como se indica en la Figura 1(d).

Cuando el voltaje entre las placas es cero, el medidor indicará una corriente [3]. Esta lectura muestra que los fotoelectrones, que emergen con energía cinética de la superficie metálica, pueden alcanzar la placa A. A medida que aumenta el voltaje de repulsión, la corriente fotoeléctrica disminuye. Finalmente, se alcanza un cierto voltaje en el que incluso los electrones más rápidos se repelen y, por lo tanto, la corriente se vuelve cero, como se indica en en la Figura 1(d). Este voltaje, llamado voltaje de parada, es una medida de la energía cinética máxima de los fotoelectrones emitidos (Ecmax). Si llamamos Vp para al voltaje de parada, entonces la energía cinética máxima viene dada por la relación Ecmáx = e ·Vp , donde e es la magnitud de la carga del electrón. Se encontró que la energía cinética máxima medida de los electrones emitidos era proporcional a la frecuencia de la luz incidente.

En nuestro camino hacia poder explicar la tabla periódica y la estructura de los átomos, continuaremos discutiendo estos resultados, cómo la física clásica no puede explicarlos y qué solución propuso Einstein.

Nota:

[1] El concepto de cuanto fue introducido por Planck a finales de 1899. Pero en ese momento era poco más que un artificio matemático. El verdadero uso útil del mismo se lo dio Einstein en 1905 para explicar el efecto fotoeléctrico. Ya llegaremos a eso.

[2] El cuarzo es transparente a la luz ultravioleta, así como a la luz visible, no como el vidrio común a base de sílice, que es opaco en mayor o menor medida a la ultravioleta.

[3] Por la naturaleza del fenómeno existe una probabilidad no nula de que algunos electrones emitidos lleguen a la placa A, incluso si no es positiva en relación con C.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El desconcertante efecto fotoeléctrico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La estructura 3D de la cota de malla invierte el efecto Hall
  2. Una nueva cosmoquímica por descubrir gracias al efecto túnel cuántico
  3. El sistema de la difusión social de la ciencia: Efecto de las actividades de difusión científica
Categorías: Zientzia

Zer gertatzen zaigu hiltzen garenean?

Zientzia Kaiera - Mar, 2019/06/18 - 09:00
Josu Lopez-Gazpio Bizitza honetan oso gauza gutxi dira ziurrak. Halere, bada bat halabeharrez eta segurtasun osoz gertatuko dena: hil egingo gara. Zu ere hilko zara, bai. Agian ez gaur, ezta bihar ere, baina, egun hori iritsiko da eta hil egingo zara. Zelulen bizitzak muga bat du eta geure gorputzeko zelulak etengabe berritzen badoaz ere, guztiak muga bat du. Mugaldera iristen goazen neurrian, erreflexu okerragoak izango ditugu, gaixotasunek errazago erasoko gaituzte, nerbio-sistema ez da gai izango garunak emandako aginduak betearazteko, muskuluak ez dira gai izango aginduak betetzeko eta, baliteke, garuna bera ere aginduak emateko gai ez izatea. ‘Kaput’ horren ostean, alabaina, geure gorputza ez da bat-batean desagertzen eta hainbat prozesu kimiko eta biologiko gertatuko zaizkio. Nola, bada, ez da zientziarik egongo hil ostean ere?

Irudia: Hil ondoren hainbat prozesu kimiko eta biologiko gertatzen dira gorpua deskonposatzen den bitartean. (Argazkia: Manfred Kain – domeinu publikoko irudia. Iturria: pixabay.com)

Hil ondoren bihotzak odola punpatzeari uzten dio eta, pixkanaka, odola koagulatu egiten da eta lodiagoa egiten da. Odola ez denez zirkulatzen ari, grabitateak berak gorputzaren beheko aldeetara eramaten du odola postmortem hipostasia edo livor mortis deritzon prozesuan. Bihotzak odola punpatzen ez duen bezala, biriken jarduera ere eten egiten da. Hil ostean arnasteari uzten zaionean, zelulek ez dute oxigenorik jasotzen. Oxigenorik gabe, zeluletan dauden mitokondriek ezin dute ATPa ekoiztu. ATPrik gabe, zelulak ez dauka energiarik eta bere jarduera guztiak eten egiten dira. Hala ere, heriotza klinikoaren ondoren, denbora batez -hainbat minutu, ordutara iritsi daiteke- zelulek bizirik jarraitzen dute geratzen zaien oxigenoarekin eta zeluletan karbono dioxidoa ekoizten da -mitokondriek martxan jarraitzen dutelako tarte batez-. Era berean, heriotza klinikoaren hurrengo bizpahiru orduetan rigor mortis delakoa hasten da. Muskuluak gogortu egiten dira eta malgutasuna galtzen dute. Fenomeno horrek ez du asko irauten; izan ere, zelulak bizirik jarraitzen dute beste tarte batez eta haien metabolismoak ATPa azido laktiko bihurtzen du muskuluak deskonposatzen hasten direlarik -eta horrekin bigundu egiten dira-.

Zeluletan ekoizten den karbono dioxidoa azidoa da eta, denboraren poderioz, zeluletan dauden organuluak eta zakutxoak apurtu egiten dira. Horren ondorioz, babestuta eta zelulatik bereizita egon behar ziren entzimak askatu egiten dira eta zelula bera digeritzen hasten dira. Nolabait, zelula bere burua jaten hasten da. Prozesu hori zelula barrutik kanpora gertatzen denez, zelulak nutrientez beteriko poltsatxoak bihurtzen dira. Nutriente guzti horiek erakarrita, hainbat bakterio eta onddo gorpura hurbiltzen dira eta hildako zelulen nutrienteak hartzen dituzte. Pixkanaka, muskulu eta organoak likidotzen hasten dira. Putrefakzioa hasi da. Giza-ehunak erasotzen dituzten mikroorganismoen metabolismoaren ondorioz, hainbat eta hainbat substantzia ekoizten dira -horietako batzuk gas egoeran-.

Askatzen diren gasen artean, freona legoke, adibidez. Freona likido hozgarria da, hozkailuetan erabiltzen dena, hain zuzen ere eta klorofluorokarbonoen taldekoa da -ozono geruza kaltetzen duten gasak-. Bentzenoa ere askatzen da, hain zuzen ere, gasolinan dagoen hidrokarburo minbizi-sortzailea. Igortzen diren beste gasen artean sufredun konposatuak daude -ustel-usainaren erantzule nagusiak- eta baita metanoa eta karbono tetrakloruroa ere. Karbono tetrakloruroa, esaterako, su-itzalgailuetan erabiltzen zen toxikoa dela ezagutu zen arte. Fase honetan askatzen diren molekula nagusiak putreszina eta kadaberina dira. Putreszina eta kadaberina, beste 400 bat konposaturekin batera, gorpuen usain txarraren erantzuleak dira. Esan behar da, halere, putreszina ez dela gorpuen deskonposizioarekin bakarrik lortzen eta, besteak beste, gernuak eta semenak ere putreszina dute.

Mikroorganismoen lanaren ondoren, haragi gehiena desagertzen doa eta geroz eta bigunagoa da, usteltzen ari den seinale. Horrekin batera animalia handiagoak gerturatzen dira, besteak beste, zizareak eta kakalardoak. Intsektuek gainerako haragi ustela erabiltzen dute elikatzeko eta, horrela, hezurrak bakarrik geratzen dira. Denboraren poderioz hezurretan dauden proteinak ere deskonposatu egiten dira eta hezurraren mineralak bakarrik geratzen dira -nagusiki hidroxiapatita, alegia, kaltzio fosfatoa-. Denbora luzea pasata, hidroxiapatita ere hauts bihurtuko da eta horrela, gorputza osatzen zuen materia guztia, organikoa eta ez-organikoa, Naturako beste elementuen parte izatera pasatzen da. Horrela, hautsa bizigai bilakatu zen bezala, bizigaia hauts bilakatuko da. Zikloari berriro hasiera emateko, noski; izan ere, hauts bilakatu diren nutriente guzti horiek beste animalientzat elikagai izan dira eta landareentzat ongarri ona izan dira.

Informazio osagarria:

—————————————————–
Egileaz: Josu Lopez-Gazpio (@Josu_lg) Kimikan doktorea, irakaslea eta zientzia dibulgatzailea da. Tolosaldeko Atarian Zientziaren Talaia atalean idazten du eta UEUko Kimika sailburua da.
—————————————————–

The post Zer gertatzen zaigu hiltzen garenean? appeared first on Zientzia Kaiera.

Categorías: Zientzia

Anisakis

Cuaderno de Cultura Científica - Lun, 2019/06/17 - 11:59
Larvas de anisakis en el interior de un arenque. Imagen: Wikimedia Commons

Los nematodos parásitos de animales marinos pueden hospedarse en nuestra especie y provocar la enfermedad llamada anisakidosis son las especies Anisakis simplex y Pseudoterranova decipiens, antes conocida como Phocaneura decipiens, tal como revisan Natasha Hochberg y Davidson Hamer, de la Universidad de Boston. La especie Anisakis simplex fue descrita en 1845 por el zoólogo francés Félix Dujardin, como parásito de tiburones, en su monumental obra Histoire naturelle des helminthes ou Vers intestinaux. Anisakidosis es la enfermedad resultado de la infección accidental con las fases larvarias de varios nematodos que se encuentran en peces o cefalópodos marinos y que se ingieren crudos o poco cocinados. Según la reunión de expertos celebrada en 1988, la anisakidosis es la enfermedad provocada por parásitos de la familia Anisakidae, y anisakiosis es la enfermedad provocada por parásitos del género Anisakis. Los nematodos se conocen vulgarmente como gusanos redondos o gusanos cilíndricos debido a la forma redondeada de su cuerpo en un corte transversal. Son organismos esencialmente acuáticos, aunque aparecen también en ambientes terrestres. Existen especies de vida libre, marinas, en el suelo, y especies parásitas de plantas y animales, incluyendo el hombre. Son agentes causales de enfermedades de transmisión por alimentos y provocan enfermedades como la triquinosis, la filariasis y, entre otras más, la anisakidosis. El número de especies que parasitan directamente al hombre son un grupo muy pequeño en comparación al número total de especies de nematodos.

El primer caso de anisakidosis documentado en la bibliografía científica fue conocido en 1876 con un niño vomitando un gusano, pero la primera descripción completa llegó en 1960, cuando Van Thiel, del Instituto de Medicina Tropical de Leiden, en Holanda, identificó al parásito como un nematodo cuya fase larvaria se localizó en el arenque, el bacalao, la merluza y la caballa, y el adulto en el tiburón y la raya. El paciente de Van Thiel lo había ingerido de arenque. También menciona en su artículo otros diez casos, con parecidos síntomas y diagnosticados entre 1955 y 1959.

El primer caso de infección con anisakis en España lo publicó el equipo de Juan José Arenal, en 1991, en el Hospital Pío Del Río Hortega de Valladolid, en un varón de 41 años en el que no se pudo establecer cómo se contagió con el nematodo.

Las infecciones con anisakis provocan síntomas en el tracto digestivo, con dolores abdominales, incluso hay algún caso de apendicitis aguda, y, además, reacciones alérgicas. En personas sensibles a estos nematodos, pueden darse solo reacciones alérgicas sin molestias digestivas. En España, se han descrito reacciones alérgicas a anisakis en merluza, anchoa, bacalao, atún, sardina, sepia, caballa y gallo. Más en concreto, en Vitoria-Gasteiz, se han encontrado reacciones alérgicas después de consumir merluza cocinada o anchoas cocinadas o crudas, y el equipo de Luis Fernández Corres ha diagnosticado 100 casos de reacción alérgica, una cifra que destaca en la literatura médica sobre este parásito.

De los, más o menos, 20000 casos de anisakidosis que se detectan cada año en todo el mundo, más del 90% ocurren en el Japón, sobre todo en hombres y en las zonas costeras. El 10% restante se diagnosticó sobre todo en Europa y, en concreto, en Holanda, Reino Unido, Alemania, Italia, Francia y España; y también en Asia, en Corea; en Norteamérica, en Estados Unidos y Canadá; en los países del Pacífico en Sudamérica; y en Nueva Zelanda. En resumen, en todos los continentes y todos los océanos.

El aumento de casos en el reciente medio siglo, más en concreto en los últimos veinte años y según la revisión, publicada en 2008, de Audicana y Kennedy, del Hospital Santiago de Vitoria-Gasteiz y la Universidad de Glasgow, respectivamente, se debe a que es una enfermedad mal diagnosticada, con falta de información incluso en los ambientes médicos y con buenos métodos de detección recientes. Y, también, por la moda gastronómica de los últimos años de consumir pescado crudo o poco cocinado según la tendencia culinaria creciente de no cocinarlo en exceso. O, si se quiere, de no cocinarlo adecuadamente. Es indudable que, a causa de la moda de la dieta mediterránea, ha crecido la demanda de pescado por los consumidores. También se ha propuesto un aumento reciente de la presencia de estos parásitos en las especies de pescado que se comercializan.

En una revisión sobre parasitosis con anisakis en España, publicada en 2018, Zaida Herrador y su grupo, del Instituto de Salud Carlos III de Madrid, revisan los datos de hospitalización desde 1977 a 2015, con un total de 2471 ingresos con síntomas y diagnóstico de anisakidosis. Ya en 2017 y con datos de 2013, Miguel Bao había colocado en cabeza de número de casos a Cantabria seguida del País Vasco.

El grupo de Zaida Herrador detecta un aumento constante de casos en los 19 años revisados y, además, con dos picos muy altos en 2002 y 2014. La media es de 2.93 casos por millón de habitantes, con la tasa más alta en Madrid, con 9.17 casos por millón, seguida de Castilla-León y La Rioja. En el País Vasco, la tasa es de 4.62 casos por millón de habitantes. Los autores proponen que el número de enfermos no diagnosticados por año en España está entre 10000 y 20000.

Se conoce como anisakidosis a la infección por cualquier miembro de la familia Anisakidae y anisakiasis a la infección por algún gusano en concreto del género Anisakis. Imagen: Wikimedia Commons

El contagio depende de la cultura de cada país respecto a la alimentación con pescado. En el Japón son el sushi y el sashimi la mayor fuente de pescado crudo, aunque los cocineros profesionales detectan la infección con anisakis con rapidez. Pero hay peces y cefalópodos que se consumen por particulares en sus domicilios y que también pueden estar infectados. En Estados Unidos es el salmón, en Holanda el arenque salado o ahumado, en Sudamérica es el ceviche y en España, los boquerones.

Las especies marinas portadoras de anisakis y especies cercanas de nematodos están en todos los mares del planeta. Como ejemplo para comenzar a entender el problema sanitario que suponen estos parásitos, nos sirve que, en un mercado de venta de pescado del Japón, el 98% de la caballa o el 94% del bacalao lleva anisakis. En un mercado en España, en Granada, el 39.4% de la caballa lleva anisakis. Parecidas cifras se han encontrado en Escocia, Italia, Francia o Estados Unidos. Más en concreto, en España se han encontrado larvas de anisakis en más de 35 especies de pescado de consumo habitual. En merluza hay anisakis en el 88% de los ejemplares; en bacaladilla, hasta el 85%; en jurel, hasta el 60%, en anchoa es el 5.6%, y en sardina hasta el 9%. Hay variantes curiosas cuya causa no se conoce y, así, según Adroher y sus colegas, de la Universidad de Granada, en 1990 el 49.5% de las caballas del Cantábrico tenían anisakis, el 36% de las del Atlántico y solo el 6.3% de las caballas del Mediterráneo.

Boquerones crudos en vinagre. Imagen: Wikimedia Commons

La mejor protección contra la anisakidosis es la educación del público sobre el peligro de consumir pescado crudo o poco cocinado o si proviene de pescado salado o ahumado. Sin embargo, tal como escribe Ignacio Ferre, de la Universidad Cardenal Herrera-CEU de Valencia, es difícil cambiar las costumbres alimentarias de países con culturas de consumir pescado crudo, tal como ocurre, por ejemplo, con el Japón, el Perú y el ceviche o España con los boquerones. Hay que aplicar, en lo posible, las medidas de prevención que se pueda ya que, en muchos lugares, el combustible para cocinar o el congelador son lujos inalcanzables por ser países en desarrollo.

Y, también, hay que aplicar los métodos de destrucción de las larvas en el pescado. Mueren si pasan por temperaturas superiores a 60ºC durante más de un minuto, y mejor llegar a entre 5 y 10 minutos. El pescado ahumado necesita que el proceso tenga una temperatura alta, y el pescado en salazón debe alcanzar una concentración muy alta de sal durante un tiempo largo. Con el microondas se debe cocinar a 74ºC o más a potencia máxima más de dos minutos. Para el pescado que se quiere consumir crudo, se debe congelar a -20ºC como poco durante 24 horas y, mejor, de dos a tres días y hasta siete días.

En general, preparar pescado con sal, secado, marinado, con vinagre o ahumado hasta 40ºC, esteriliza otros patógenos pero no lo consigue con el anisakis. Así, el grupo de Pilar Puente, de la Universidad Complutense, detectó que la presencia de anisakis es mayor en los consumidores habituales de pescado crudo o poco cocido que en los que antes lo congelan y después lo cocinan.

La relación entre aumento de casos de anisakis y nuevas modas culinarias se puede ilustrar con lo que menciona Oscar Caballero en su historia cultural del mar. En 1965 y en París, se empezaron a servir en los restaurantes filetes de salmón salteados solo 15 segundos por cada lado. O también se empieza a conocer el carpaccio de lubina, es decir, la lubina cruda. Caballero escribe que “el pescado crudo entra de rondón en el restaurante un cuarto de siglo antes de que irrumpan sashimis y luego ceviches”. Fue hacia 1970 cuando el restaurante L’Arête, en Montparnasse, comenzó a servir su primer pescado “rosé à l’arête”, con la carne rosada contra la espina. Es el pescado casi crudo, es la nouvelle cuisine, la cocina que se impondrá en todo el mundo.

En España y a principios de los ochenta, José Carlos Capel reivindicaba los asados “en rosa”, que venían de Francia, con la carne poco hecha y la espina del pescado sonrosada, “una técnica que pretende respetar las cualidades gastronómicas de los alimentos, evidenciando al mismo tiempo su verdadera calidad, Una moda que se nos antoja definitiva, porque representa el único método válido para conservar en toda su pureza los impagables sabores del mar”. Es evidente que la nouvelle cuisine ignora una de las más importantes funciones del fuego para nuestra especie: esterilizar los alimentos durante el cocinado y eliminar parásitos y, entre ellos, el anisakis y otros nematodos en el pescado.

Y, para terminar, unos ejemplos de estos cambios culinarios. En 1930 y en el restaurante Amparo cocinaban la merluza durante media hora. En 1973, en la Sociedad Beztartxo de Villarreal de Urretxua lo hacían en 45 minutos. Pero en 1976, Ana María Calera recomienda quince minutos, y Arguiñano en 1996 recomienda 10-12 minutos, pero Arzak lo pone en 6 minutos, y en 2018 y en Internet, la compañía de alimentación Pescanova recomienda cuatro minutos. En 90 años hemos pasado de media hora a 4 minutos.

Referencias:

Adroher, F.J. et al. 1996. Larval anisakids (Nematoda: Ascardoidea) in horse mackerel (Trachurus trachurus) from the fish market in Granada (Spain). Parasitology Research 82: 253-256.

Arenal Vera, J.J. et al. 1991. Anisakiasis como causa de apendicitis aguda y cuadro reumatológico: primer caso en la literatura médica. Revista Española de Enfermedades Digestivas 79: 355-358.

Audicana, M.T. & M.W. Kennedy. 2008. Anisakis simplex: from obscure infections worm to inducer of immune hypersensitivity. Clinical Microbiology Reviews 21: 360-379.

Bao, M. et al. 2017. Assessing the risk of an emerging zoonosis of worldwide concern: anisakiasis. Scientific Reports 7: 43699.

Caballero, O. 2018. Océanos, peces, platos. Una historia cultural del mar. Arpa y Alfil Eds. Barcelona. 379 pp.

Capel, J.C. 1997. Manual del pescado. R & B Eds. Bilbao. 366 pp.

del Pozo, M.D. et al. 1997. Anisakis simplex, a relevant ethologic factor in acute urticaria. Allergy 52: 576-579.

Ferre, I. 2001. Anisakiosis y otras zoonosis parasitarias transmitidas por consumo de pescado. AquaTIC 14: 20 pp.

Herrador, Z. et al. 2018. Epidemiological scenario of anisakidosis in Spain base don associated hospitalizations: The tip of the iceberg. Clinical Infectious Diseases doi: 10.1093/cid/ciy853

Hochberg, N.S. & D.H. Hamer. 2010. Anisakidosis: Perils of the deep. Clinical Infectious Diseases 51: 806-812.

Nawa, Y. et al. 2000. Sushi delights and parasites: The risk of fish borne and food borne parasitic zoonoses in Asia. Clinical Infectious Diseases 41: 1297-1303.

Puente, P. et al. 2008. Anisakis simplex: The high prevalence in Madrid (Spain) and its relation with fish consumption. Experimental Parasitology 118: 271-274.

Terán-Ángel, G. & J. Rojas. 2012. Anisakidosis, inflamación e hipersensibilidad. Avances en Biomedicina 1: 30-37.

Van Thiel, P.H. et al. 1960. A nematode parasitic to herring, causing acute abdominal syndromes in man. Tropical and Geographical Medicine 12: 97-111.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Anisakis se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El caso de los enfermos de Minamata
  2. El petróleo, los desastres y la prensa
  3. El caso de la mujer barbuda
Categorías: Zientzia

Bizi ote liteke gizakia itsasoan?

Zientzia Kaiera - Lun, 2019/06/17 - 09:00

Bajau laut herria Filipina, Indonesia, Malaysia eta Bruneiko kostaldean bizi da. “Itsasoko nomadak” bezala ezagunak dira mundu osoan bajautarrak. Izendapenak badu arrazoia, izan ere, literalki itsasoan bizi dira gutxienez duela 1.000 urtetik hona. Baina, nola da hori posible?

Maiz egiten diren galderak ataleko bideoek labur eta modu entretenigarrian aurkeztu nahi dituzte, agian, noizbait egin ditugun galderak eta hauen erantzunak. Bideoak UPV/EHUko Kultura Zientifikoko Katedrak eginak daude eta zientzia jorratzen duen Órbita Laika (@orbitalaika_tve) telebista-programan eman dira gaztelaniaz.

The post Bizi ote liteke gizakia itsasoan? appeared first on Zientzia Kaiera.

Categorías: Zientzia

La tabla periódica en el arte: Cobalto

Cuaderno de Cultura Científica - Dom, 2019/06/16 - 11:59

El cobalto no es un elemento químico tan conocido como el oro, el hierro o el cobre. Sin embargo, desde una posición más humilde ha jugado un papel fundamental en la Historia del Arte. En muchísimas ocasiones lo ha hecho desde el más absoluto de los anonimatos, ya que artistas y artesanos lo emplearon sin conocer su existencia hasta que Georg Brandt lo aisló en 1735. El elemento tomó el nombre de los kobolds, seres mitológicos a los que se acusaba de reemplazar los preciados minerales de los mineros sajones por otros que aparentemente no tenían ningún valor. De esos minerales sin valor es de donde Brandt había extraído el cobalto.

Ladrillos de colores: el vidriado.

Pese a que los egipcios fueron pioneros en el uso del cobalto, empezaremos nuestro viaje en Babilonia. Más concretamente en la puerta de Isthar, ese acceso monumental que ordenó construir Nabucodonosor II en el s. VI a.e.c. para impresionar e intimidar a cuantos entrasen a la vía procesional de la ciudad. Dragones, toros y leones dorados nos aguardan sobre un fondo de un color azul intenso. Si nos acercásemos a la puerta, veríamos que ese azul es irregular. En la pared destacan rectángulos de diferentes tonalidades que podrían ser píxeles de una pantalla de televisión. Esas formas rectangulares no son otra cosa que ladrillos, sólo que en lugar de presentar el color anodino de la cerámica cocida fueron coloreados mediante la técnica del vidriado. El vidriado consiste en aplicar sobre la cerámica una pasta que en el proceso de cocción se funde y adquiere aspecto cristalino. Podemos decir que vidriar una cerámica es como vestir a una persona: cuestión de estética y funcionalidad. No sólo se aumenta la belleza de la pieza, sino que se reduce la porosidad del objeto, haciendo que sirva para albergar líquidos.

Imagen 1. Puerta de Ishtar. Museo de Pérgamo (Berlín). Fuente: flickr / youngrobv

La receta de la pasta empleada en el proceso de vidriado es simple: una fuente de sílice (arena), un fundente para reducir el punto de fusión de la mezcla y alúmina para controlar la viscosidad. A esa receta básica se le pueden añadir otros ingredientes, ya sea para lograr un aspecto opaco o para darle color. Y es en este último punto donde entra en juego nuestro protagonista, ya que el óxido de cobalto se caracteriza por otorgar color azul al vidriado.

Lo cierto es que no hace falta viajar tantos siglos en el tiempo para disfrutar del color que ofrece el cobalto. La loza de Delft, esa cerámica blanca y azul que abarrota las tiendas de suvenires holandesas, adquiere su bicromía gracias al óxido de estaño (opacificante blanco) y al óxido de cobalto (azul).

Imagen 2. Cerámica de Delft en el interior de la Tienda Tártara del castillo de Groussay.

Bleu de Chartres: cuando la luz se convierte en azul

El azul es un color esquivo. La naturaleza nos regala pocas substancias de este color, lo que ha conducido al ser humano a una lucha sin cuartel para poder plasmarlo en obras de arte. Una de esas batallas se venció en la Francia del s. XII, cuna de un nuevo estilo artístico y nuestra próxima parada en este viaje por la historia del cobalto.

En Sant-Denis el abad Suger supervisa la construcción de un templo que sentará las bases de un nuevo estilo arquitectónico y cuya protagonista absoluta será la luz: el gótico. Los techos de los edificios se elevarán hasta el cielo y gracias a los avances técnicos se abrirán ventanales enormes que, cubiertos con vitrales de colores, permitirán crear una atmósfera mística. El uso de vitrales ya se documenta en Bizancio en el s. VII, pero es en el gótico donde alcanzó su máximo esplendor. Sin embargo, los artesanos tenían dificultades enormes para obtener vidrios azules. Tanto es así que los que tenían el conocimiento para lograr este color mantenían un secreto que se transmitía de generación en generación. Guardaban con celo absoluto una substancia procedente de minas desconocidas que, añadida durante la elaboración del vidrio, proporcionaba el ansiado azul. Se trataba, obviamente, de óxidos de cobalto. El azul de las vidrieras se hizo tan célebre que adquirió nombre propio. Lo tomó de la catedral gótica donde este arte alcanzó su cenit: Chartres.

Imagen 3. La Virgen Azul de Chartres (ca. 1180). Fuente: flickr / Walwyn

Pese a la falta de conocimientos, aquella gente con su metodología de prueba y error estaba realizando algo que bien podría ser investigación puntera de nuestro siglo: el uso de nanopartículas. Efectivamente, el azul de Chartres debe su color a la interacción de partículas de escala nanométrica con la luz. Como la longitud de onda de la luz y la de las partículas de cobalto son similares, suceden ciertos fenómenos físicos que explican la aparición del color azul.

Esmalte: de los vitrales a la paleta

Al oír la palabra esmalte es muy posible que te venga a la cabeza un producto cosmético empleado como pintauñas. Pero en este caso nos referimos a la pasta de vidrio coloreado que se aplica a una superficie metálica o de vidrio. Eso sí, también tiene fines decorativos. Triturando el esmalte coloreado con óxidos de cobalto podemos lograr un pigmento muy empleado a lo largo de la historia: el azul esmalte. En resumidas cuentas, este pigmento no es otra cosa que vidrio azul pulverizado. El polvo se puede juntar con un aglutinante (óleo, tempera, etc.) para formar una pintura que resulta más pálida cuanto más pequeños sean los cristalitos.

Como sucede con el azul de Chartres el origen del azul esmalte está sumido en el misterio. Tendríamos que viajar hasta la Bohemia de 1540 para ver como Christopher Schurer lograba el pigmento empleando minerales de cobalto extraídos en las cercanas minas sajonas. El método consistiría en obtener una substancia llamada zaffre o zaffer mediante un proceso de combustión en el que se eliminaba el arsénico. Esa substancia se podría añadir al vidrio para otorgarle color azul, igual que sucedía con el polvo que unos siglos antes los artesanos medievales pasaban de padres a hijos para teñir las vidrieras. Eso es por lo menos la historia que cuentan los textos del s. XVII, aunque hoy en día sabemos que tanto en Europa como en China el azul esmalte se había empleado antes de 1540.

Imagen 4. La Venus del Espejo (122 x 177 cm), de Velázquez (1647-51) fue pintada con azul esmalte. Fuente: National Gallery.

Más azules, más cobalto

El azul esmalte tuvo su época de gloria, pero poco a poco fue perdiendo protagonismo por la aparición de otros pigmentos azules de mayor calidad, entre ellos dos con cobalto: el azul cobalto y el cerúleo. Volvemos a Francia y avanzamos hasta el s. XIX, sin duda el mejor siglo para los amantes del azul. Recordemos que además de estos dos pigmentos se logró sintetizar el azul ultramar.

Hacia 1803 el químico francés Louis Jacques Thénard publicaba sus estudios sobre un nuevo pigmento que inmediatamente se lanzó al mercado: el azul cobalto (CoO-Al2O3). Más de 200 años después el compuesto se sigue comercializando, en ocasiones con el nombre de azul de Thénard en honor a su descubridor. No sabemos qué le haría más ilusión al bueno de Louis Jacques, que su apellido haya bautizado a un pigmento o que esté grabado en la Torre Eiffel junto al de otros 71 grandes científicos. Precisamente el país donde más triunfó este nuevo pigmento fue en la propia Francia. Recordemos que en la segunda mitad del s. XIX los impresionistas acaparaban el panorama artístico y el azul cobalto fue uno de sus favoritos.

El otro azul con cobalto protagonista de ese siglo es el azul cerúleo, un estannato de cobalto (CoO · n SnO2). Su éxito no fue tan inmediato como el de nuestro anterior protagonista y tuvieron que pasar varias décadas desde que un tal Höpfner lo sintetizase hasta que George Rowney lo comercializase en Inglaterra en 1860. Su compañía, ahora como Daler-Rowney, sigue vendiendo el azul cerúleo tantos años después. El origen etimológico de este pigmento es bastante obvio y proviene de la palabra latina caeruleus que, a su vez, deriva de caelum (cielo). No en vano, ha sido muy empleado desde que irrumpió en el mercado para pintar la bóveda celeste.

Más allá del azul

Hasta el momento el azul ha monopolizado nuestra atención. Pero la química ofrece un amplio abanico de combinaciones y ha querido que el cobalto se asocie con otras moléculas para completar una especie de parchís al que suman el amarillo, el verde y el violeta.

Imagen 5. Los diferentes colores que ofrece el cobalto. Fuente: Twitter

Dentro de este abanico de colores, el pigmento más destacable es el violeta de cobalto, la sal que se forma con fosfato (Co3(PO4)2) o arseniato (Co3(AsO4)2). Cuando se descubrió en el s. XIX los pintores lo codiciaron por ser uno de los escasísimos pigmentos de color morado que existían en el mercado; color que de lo contrario tenían que lograr mezclando rojos y azules. Desafortunadamente era muy caro, por lo que su uso no se extendió demasiado. Lo que es seguro es que Monet consiguió hacerse con él para pintar el óleo Irises de la National Gallery. Teniendo en cuenta que en sus últimos años de vida realizó una serie de más de 200 obras con nenúfares y flores, podemos suponer que disponía de buenas reservas de violeta de cobalto. Aunque para obsesión con el cobalto la de Frank T. Edelmann, profesor en la Universidad Otto-von-Guericke de Magdeburg que dispone de una colección que haría las delicias de cualquier departamento de Química Inorgánica.

Imagen 6. La biblioteca de complejos de cobalto de Frank T. Edelmann. Fuente: Twitter. Usada con permiso del autor.

También en el s. XIX se sintetizó por primera vez la aureolina o amarillo de cobalto (K3[Co(NO2)6]), si bien su éxito fue efímero y pronto el amarillo de cadmio lo relegó a un papel muy secundario. En una época mucho más reciente apareció el titanato de cobalto (Co2TiO4), un pigmento verde que se obtiene de la calcinación de los óxidos de cobalto y titanio y que sólo se ha documentado en obras vanguardistas como Near the Lagoon de Jasper Johns (2002).

Para saber más

A. Roy et al. “Renoir’s ‘Umbrellas’ Unfurled Again” National Gallery Technical Bulletin (33) 2012.

M.F. Ashby et al. “Nanomaterials, Nanotechnologies and Design: An Introduction for Engineers and Architects” Ed. Butterworth-Heinemann (2009).

J.M. Mimoso. “Origin, early history and technology of the blue pigment in azulejos” International Conference Glazed Ceramics in Cultural Heritage

Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.

El artículo La tabla periódica en el arte: Cobalto se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tabla periódica en el arte: ¿Qué átomos hay en una obra?
  2. La tabla periódica en el arte: Cobre
  3. La tabla periódica en el arte: Mercurio
Categorías: Zientzia

Asteon zientzia begi-bistan #259

Zientzia Kaiera - Dom, 2019/06/16 - 09:00
Uxue Razkin

Medikuntza

UPV/EHUko eta BioCruceseko ikertzaile batzuek gaixotasun zeliakoa diagnostikatzeko biomarkatzaile berri bat aurkitu dute, glutenik gabeko dieta hartzen duten pertsonekin erabiltzeko aukera emango lukeena. Elhuyar aldizkariak azaltzen digunez, metodo berri honi esker pazienteek ez dute glutenik hartu beharko. Izan ere, zeliakia diagnostikatzeko zailtasunetako bat da pazienteek glutena hartu beharra dutela gaitza endoskopia bidez behar bezala diagnostikatzeko.

Immunoterapia gibel-minbizian ikertzeko sagu eredu bat sortu dute, CRISPR-Cas 9 teknika erabilita. Lujambio laborategiko Marina Ruiz de Galarreta Martínez eta Amaia Lujanbio Goizueta nafarrek gidatu dute ikerketa eta azaldu dute testu honetan zein den immunoterapiaren funtsa. Elhuyar aldizkarian topatu dituzue xehetasunak.

Klima aldaketa

Lur Epelde ikertzailea da Neiker-Tecnalia Nekazaritza, Ikerketa eta Garapenerako Euskal Erakundean eta Lurzoruetako Mikroorganismoen Ekologia taldeko partaidea da ere. Berriak egin dion elkarrizketan mikroorganismoen eta klima aldaketaren arteko harremanaz mintzo da: “Mikroorganismoak dira lurzoruak funtzionatzearen arduradunak, eta klima aldaketak funtzionamendu horretan eragingo du”. Horretaz gain, Epeldek aipatzen du ere antibiotikoekiko erresistente bihurtzen ari diren superbakterioen afera.

Paleontologia

Duela 29.000 eta 21.000 urte bitarteko aztarnategietan oso arruntak dira Noailles erako zulakaitzak. Isturitzeko haitzulokoak aztertu dituzte eta goi paleolitoko jostorratzak zirela ondorioztatu dute orain ikertzaileek. Bada, nolakoak ziren? UPV/EHUko Aitor Calvo Martínez de Guereñu ikertzaile eta lanaren egileetako batek azaltzen digu Elhuyar aldizkarian: “Uste dugu Isturitzeko kobazuloko Noailles zulakaitzak animalien larrua zulatzeko erabili zirela nagusiki”.

Biologia

Dallol basamortuan mikroorganismoak aurkitu dituzte, mineralez osatutako kapsuletan sartuta. Etiopiako Afar eskualdean dago kokatuta eta Planetako eskualde muturrenetakoa da. Hiru plaka teknotikok bat egiten dute bertan, eta horregatik bertako lurrazala oso mehea da, zorua gatzez beterik dago eta azpian magma beroa dago. Berriki egiaztatu dute nanobakterioak direla. Juanma Gallego kazetariak eman digu honen berri. Ez galdu!

Kimika

Artikulu honek hasieratik planteatzen digu honako galdera: zein da iturriko ura biguna edo gogorra izatearen desberdintasuna? Gogortasun horretan parte hartzen dutenak kaltzioa eta magnesioa dira. Kaltzio karbonatoari karea deitzen zaio eta hortxe dago uraren gogortasunaren eta karearen arteko harremana, hau da, kaltzioaren kontzentrazioa handia bada, karearena ere handia izango da, eta ur hori gogorra izango da. Hortaz, kaltzio eta magnesio kantitateen baturak karearen kantitatea emango du.

Matematika

Detektibeak hatz-marken bila ibiltzen dira pertsonak identifikatu ahal izateko artikuluan irakur daitekeenez. FBI 1924an hasi zen hatz-markak hartzen. Horren ondotik, digitalizazioari ekin zioten; hori egiteko hazbete bakoitzeko 500 puntuko irudia aukeratu zuten, 8 byteko kolore grisen eskalan. Estatu Batuetako zenbait unibertsitate eta gobernu-agentziatako ikertzaile elkarlanean aritu ziren hatz-marken irudien konpresiora egokitutako algoritmo on baten bila. Uhinxkak erabilita asmatu zuten FBIren beharretarako WSQ (Wavelet Scalar Quantization) konpresio-sistema.

———————————————————————–

Egileaz: Uxue Razkin kazetaria da.

——————————————————————

The post Asteon zientzia begi-bistan #259 appeared first on Zientzia Kaiera.

Categorías: Zientzia

E-pi-logo (después de esto, mi carrera ha muerto)

Cuaderno de Cultura Científica - Sáb, 2019/06/15 - 11:59

Aniceto Murillo Mas es catedrático en el departamento de álgebra, geometría y topología de la Universidad de Málaga. Excelente comunicador, nos deja en esta conferencia-monólogo una muestra de su arte…matemático.

Quizás sea el número más famoso de la historia. Lo cierto es que el número Pi, representado por la letra griega π, es una de las constantes matemáticas más importantes que existen en el mundo, estudiada por el ser humano desde hace más de 4.000 años. La fascinación que ha suscitado durante siglos es tal que el popular número cuenta con su propio día en el calendario, así el mes de marzo se celebra el Día de Pi en todo el planeta.

Este evento internacional vino de la mano del físico estadounidense Larry Shaw, quien lanzó en 1988 la propuesta de celebrar esta efeméride. La forma en la que se escribe el 14 de marzo en inglés y euskera coincide con los tres primeros dígitos de la famosa constante matemática. (3-14 martxoaren 14 en euskara / 3-14 march, 14th en inglés) y además, la celebración coincide con la fecha del nacimiento de Albert Einstein. En 2009, el congreso de EEUU declaró oficialmente el 14 de marzo como el Día Nacional de Pi.

Actualmente, el Día de Pi es una celebración mundialmente conocida que sobrepasa el ámbito de las matemáticas. Este número irracional, que determina la relación entre la longitud de una circunferencia y su diámetro, concierne a múltiples disciplinas científicas como la física, la ingeniería y la geología, y tiene aplicaciones prácticas sorprendentes en nuestro día a día.

Este 2019 nos unimos de nuevo al festejo con el evento BCAMNAUKAS, que se desarrolló a lo largo del 13 de marzo en el Bizkaia Aretoa de UPV/EHU. BCAM-NAUKAS contó durante la mañana con talleres matemáticos para estudiantes de primaria y secundaria y durante la tarde con una serie de conferencias cortas dirigidas al público en general.

Este evento es una iniciativa del Basque Center for Applied Mathematics -BCAM, enmarcada en la celebración de su décimo aniversario, y de la Cátedra de Cultura Científica de la Universidad el País Vasco.

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo E-pi-logo (después de esto, mi carrera ha muerto) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El efecto Talbot: tejiendo alfombras con luz
  2. Sigue al conejo blanco
  3. Diagnóstico de enfermedades: una cuestión de probabilidades
Categorías: Zientzia

Ezjakintasunaren kartografia #266

Zientzia Kaiera - Sáb, 2019/06/15 - 09:00

“Ezagutza publikoa deitu daitekeen ezer ez da existitzen, iritzi subjektiboak dira”. Ados ala ez? Kafe baten inguruan elkarrizketa Jesús Zamora Bonillaren eskutik: The Italian coffee pot, a dialog on values in science (1): Individualism, values and preferences

Gure nerbio sistemaren funtzionamenduan oinarrizkoa prozesua da moldaketa neurologikoa. Autismoa duten pertsonek prozesu honetan aldaketak izan ditzakete. Moldaketa honen alderdia den usaimena aztertzen du José Ramón Alonsok Olfactory adaptation and autism

Atomoz atomoko eraikuntza nanometrikoei lotutako efektuak ezezagunak dira neurri handi batean. Zilarrezko gainazalean kobaltozko atomoak dituen egitura sinplean elektroiek duten masa baino mila aldiz handiagoa balute bezala jokatzen dutela frogatu dute DIPCn. Fermi astuna likidoa izena du. Finite size analogue of a heavy Fermi liquid in an atomic scale Kondo lattice

–—–

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #266 appeared first on Zientzia Kaiera.

Categorías: Zientzia

¿Existe algún fármaco que nos haga más inteligentes?

Cuaderno de Cultura Científica - Vie, 2019/06/14 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

En la serie Sin límites (Fox, 2016) creada a partir de la película homónima, el protagonista (Brian Finch) es un músico mediocre que ha perdido su talento y que su vida no parece conducir a ninguna parte. Siente que, de hecho, no es capaz de expresar adecuadamente sus habilidades y todo su potencial mental. Todo esto cambia cuando toma una pastilla transparente y completamente ilegal (la NZT), que lo hace más inteligente. Bajo la influencia de la pastilla, sus habilidades de procesamiento mental se vuelven más eficaces y rápidas e incluso recuerda hechos y eventos que creía perdidos en su memoria. Este nuevo talento lo lleva a trabajar para el FBI y resolver complejos crímenes que otros detectives no habían podido descifrar.

¿Es esta fantasía, que la mayoría de nosotros compartimos, ser más inteligente y mejorar el potencial de nuestro cerebro, posible?

En los últimos años ha habido un tremendo progreso en la comprensión de los mecanismos responsables del aprendizaje, la memoria y otros componentes de la cognición humana. Comenzamos, ahora, a comprender los procesos cognitivos a nivel celular, molecular y sináptico (sinapsis = conexiones entre las células nerviosas). Los modernos métodos de análisis de imagen permiten identificar en tiempo real los circuitos que participan en diferentes tipos de memoria y aprendizaje, tanto en animales como en personas. Además, con técnicas de modificación genéticas sofisticadas, hoy en día es posible crear memorias artificiales en ratones mediante la manipulación de circuitos cerebrales específicos y de células nerviosas en el cerebro.

Póster de la película «Sin Límites». Fuente: © 2011 Relativity Media Ltd. All Rights Reserved. Reproducido bajo los términos de fair use de la United States copyright law

¿Qué es la mejora cognitiva?

Antes de describir algunos de los compuestos utilizados para mejorar las capacidades mentales, explicaremos qué es la mejora cognitiva. Sería esta una mejora en nuestra capacidad para procesar datos, aprender cosas nuevas, llegar a conclusiones correctas, recordar detalles del pasado y usarlos de la manera correcta en el presente. Hay intentos de alcanzar estos resultados mediante el uso de compuestos químicos (drogas o medicamentos), dispositivos y manipulaciones genéticas. Este artículo lo dedicaremos a los posibles compuestos químicos capaces de mejorar la memoria.

¿Cómo se forman los recuerdos?

Para saber cómo mejorar la memoria, primero debemos entender cómo se crean los recuerdos. En las células cerebrales y las sinapsis de las células nerviosas, millones de procesos bioquímicos ocurren de maneras sucesivas o paralelas. Sabemos que algunos de estos procesos, amplificados o debilitados por diferentes estímulos y experiencias, contribuyen a la creación de recuerdos, pero estamos muy lejos de estar familiarizados con todo el proceso. Sin embargo, ya existe un conocimiento considerable de varias docenas de moléculas clave que se consideran críticas para la creación o retención de memorias. Estas moléculas se han encontrado utilizando métodos sofisticados, que incluyen ingeniería genética, registro eléctrico de células nerviosas, imágenes de alta resolución y el uso de virus modificados genéticamente.

Una forma importante de desarrollar fármacos para el mejoramiento cognitivo es comprender por qué algunos ratones transgénicos muestran capacidades cognitivas deficientes y otros muestran capacidades cognitivas mejoradas en relación con los ratones normales. Resulta que la mayoría de los «súper-ratones» expresan diferentes niveles de proteínas que de alguna manera están relacionadas con la función de las sinapsis. En otras palabras, la capacidad de mejorar la transmisión de información entre una neurona y otra es probablemente crítica para el buen aprendizaje y la memoria.

Cuando se identifica una molécula o ruta bioquímica que tiene un impacto significativo en el aprendizaje o la memoria, se intenta transformar ese conocimiento en un medicamento que mejorará la función cognitiva al modificar la actividad de esta molécula crítica o de la ruta bioquímica.

Imagen promocional de la serie de televisión Limitless (Sin límites). Fuente: © 2015 CBS Television Studios, Inc. All Rights Reserved. Reproducida bajo los términos de fair use de la United States copyright law

FGL – para mejorar el aprendizaje y la memoria

FGL es un ejemplo clásico de desarrollo de un fármaco que mejora el aprendizaje y la memoria. La proteína NCAM se conoce desde hace décadas como una proteína cuya función en los procesos de aprendizaje y memoria es crucial para la comunicación celular, entre otras cosas, a través de la activación de un receptor llamado FGFR. Investigadores en Dinamarca asilaron la parte de NCAM que se une al receptor de FGFR y sintetizaron un análogo artificial que se denomino FGL.

Sorprendentemente, tras inyectar FGL en ratas mejoró su aprendizaje y memoria durante más de dos semanas. Es importante señalar que estas ratas no tenían deficiencias cognitivos antes del tratamiento , lo que indica que incluso cuando el cerebro funciona perfectamente, se puede mejorar su rendimiento.

En nuestro grupo de investigación y usando métodos de biología molecular y registros eléctricos de las células nerviosas, hemos podido descubrir por qué FGL mejora la capacidad cognitiva. Cuando se une al receptor FGFR, activa un complejo sistema de procesos bioquímicos en las células nerviosas y el resultado final es el fortalecimiento de las sinapsis entre las células nerviosas. (Enlace a la investigación completa sobre el tema). Este refuerzo aumenta la eficiencia de la transferencia de información entre las células nerviosas, lo que mejora el aprendizaje y la memoria. El FGL aún se encuentra en periodo de desarrollo. Los resultados de los ensayos clínicos son prometedores, pero aún faltan muchos años de trabajo para disponer de un potenciador cognitivo seguro y eficaz.

PDZ-PTEN – mecanismo de bypass del alzhéimer

PDZ-PTEN es una sustancia que hemos desarrollado después de varios años de investigando el porqué de la perdida de memoria en los pacientes de alzhéimer. Estos pacientes acumulan una proteína tóxica en el cerebro llamada beta amiloide. Esta proteína inicialmente interrumpe la comunicación entre las neuronas para finalmente causar su muerte. Durante mucho tiempo no se conocía exactamente cómo la beta amiloide interrumpe esta comunicación. Nuestras investigaciones descubrieron que la interrupción de la comunicación entre las células nerviosas se debe, al menos en parte, a la inserción de una proteína llamada PTEN en las sinapsis en respuesta al beta amiloide. El resultado final es el debilitamiento de las sinapsis y la interrupción de la transmisión de información de una neurona a otra.

Para contrarrestar este fenómeno, desarrollamos un compuesto que evita esta asociación entre PTEN y otros componentes sinápticos. Cuando inyectamos este compuesto en ratones transgénicos «modelos de alzhéimer», resultó que, aunque sus cerebros estaban llenos de beta amiloide, su capacidad cognitiva era similar a la de los ratones sanos. (Y aquí hay un enlace al estudio completo). De esta manera, logramos evitar el pernicioso efecto de la beta amiloide. Este compuesto se está desarrollando actualmente como medicamento para la enfermedad de Alzheimer. Esperamos que un futuro no muy lejano, nuestra investigación se transforme en una terapia real para el tratamiento de esta enfermedad

En la actualidad y conscientes del problema que supone para nuestra sociedad, muchos grupos de investigación y empresas farmacéuticas se han volcado a la investigación de nuevas terapias para el tratamiento del alzhéimer. Desgraciadamente la vacuna contra el amiloide beta o los medicamentos que reducen su cantidad en el cerebro no han de mostrado ser muy eficaces y su seguridad para el uso humano está en entredicho. A pesar de estos esfuerzo, creemos que en el futuro la enfermedad de Alzheimer se tratará no solo con un medicamento, sino con una combinación de varios, como ya se está realizando en el tratamiento del cáncer. Una posible combinación serían medicamentos que prevén la muerte de las células nerviosas, junto con los medicamentos que causan nuevas sinapsis y medicamentos que previenen el fallo sináptico.

¿Cuál es el peligro de usar potenciadores cognitivos?

Más allá de los efectos secundarios que pueden acompañar el uso de cualquier medicamento, las mejoras cognitivas pueden tener efectos secundarios únicos y desconocidos. Teóricamente, el potenciador cognitivo puede mejorar los recuerdos deseables, como el temario para un examen, pero existe el peligro de que también aumente los recuerdos sin importancia y que nuestro cerebro se inunde de recuerdos que no necesitamos, causándonos una gran confusión y posiblemente una disfunción mental.

Peor aún, un potenciador cognitivo puede amplificar los recuerdos traumáticos que de otro modo y en un cerebro normal estarían suprimidos. Aumentar recuerdos dolorosos puede ser devastador para algunas personas. La conclusión obvia es no apresurarse a probar los potenciadores cognitivos, incluso si los ensayos clínicos han tenido éxito. Por más atractivo que pueda ser el uso de estos compuestos, su empleo debería restringirse a personas con un problema real de memoria, por ejemplo, pacientes con Alzheimer y no por personas con un funcionamiento cognitivo normal.

¿Es ético usar potenciadores cognitivos?

En la actualidad asistimos a un amplio debate sobre las posibles consecuencias derivadas del uso de potenciadores cognitivos. Por ejemplo, ¿Debería exigirse la supervisión legal de tales materiales? ¿Un estudiante que consuma potenciador cognitivo engaña realmente? ¿Qué pasa con aquellos que no pueden permitirse comprar estos compuestos? ¿Habrá presión, por ejemplo, en pilotos, soldados, médicos e incluso en trabajadores de oficina para que tomen estos fármacos para mejorar su eficiencia en el trabajo? Aunque en los medicamentos utilizados hoy en día, su eficacia como potenciadores cognitivos es cuestionable, no es imposible que pronto nos encontremos con medicamentos mas efectivos y todas estas cuestiones éticas se pondrán a prueba en la realidad.

Desde 2013, la Unión Europea ha gastado más de 3 millones de euros en esfuerzos para elaborar códigos de empleo para el futuro uso de los fármacos capaces de mejorar los procesos cognitivos, pero cada país debe formular posiciones que tengan en cuenta las ventajas y desventajas de vigilar los potenciadores cognitivos.

Conclusión:: La mejora cognitiva se puede lograr a través de varias tecnologías y conlleva la promesa (o amenaza) de cambiar nuestras vidas por completo. Estamos avanzando en pasos gigantes hacia un tiempo nuevo, sorprendente, desafiante, pero al mismo tiempo aterrador, en el que no estaremos satisfechos con las capacidades mentales que la naturaleza nos ha dado, pero intentaremos con todas nuestras fuerzas romper los límites de la capacidad humana. ¿Esto nos hará más felices? El tiempo lo dirá.

Sobre los autores: La profesora Ikerbasque Shira Knafo y Miguel Morales son neurocientificos en el Instituto Biofisika (UPV/EHU-CSIC) y colaboran con el departamento de Bioquimica y Biología Molecular de la Facultdad de Ciencia y Tecnología de la UPV/EHU.

El artículo ¿Existe algún fármaco que nos haga más inteligentes? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un nuevo fármaco revierte el déficit cognitivo asociado a esquizofrenia
  2. Máquinas inteligentes (I): Del molino de viento al test de Turing
  3. Máquinas inteligentes (y III): Deep blue, HAL 9000 y más allá
Categorías: Zientzia

Oier Suarez: “Europa osoan ez dago Bardeetan dagoen bezain erregistro fosil hain ona eta jarraia” #Zientzialari (117)

Zientzia Kaiera - Vie, 2019/06/14 - 09:00

Antzinako gizaki bizidunek utzitako aztarnak aztertzen ditu paleontologiak, hain zuzen ere, eremu jakin bateko fosilak. Miozeno garaiko fosilak ardatz hartuta informazio ugari lor daiteke gaur egun; hala nola, arroken adina zein den jakin daiteke, baita iraganeko klima eta ingurunea nolakoa zen ere.

Gainera, informazio hori abiapuntutzat hartuta, etorkizunean klimak izango duen joera ere ezagutu dezakegu. Nafarroako Errege Bardeetan, zehazki, fosil ugari aurkitu daitezke eta elementu horiek izan dira Oier Suarez ikertzaileak bere tesian aztertu dituenak. Hala, duela 15 eta 20 milioi urteko aztarnak ikertu ditu, Miozeno garaikoak.

Fosil horien azterketan gehiago sakontzeko, UPV/EHUko Estratigrafia eta Paleontologia saileko ikertzaile den Oier Suarezekin hitz egin dugu.

“Zientzialari” izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.

The post Oier Suarez: “Europa osoan ez dago Bardeetan dagoen bezain erregistro fosil hain ona eta jarraia” #Zientzialari (117) appeared first on Zientzia Kaiera.

Categorías: Zientzia

Piensa bien y acertarás: los casos de Pfizer e Isdin

Cuaderno de Cultura Científica - Jue, 2019/06/13 - 11:59

En el periodo de una semana los grandes medios de comunicación difundieron informaciones falsas en contra de dos importantes laboratorios farmacéuticos: Isdin y Pfizer. Isdin fue acusado de comercializar un producto de protección solar pediátrica con un SPF menor al indicado. Pfizer fue acusado de ocultar pruebas que indicaban que uno de sus fármacos previene el alzhéimer.

Cuesta encontrar alguna razón coherente por la que estos laboratorios tendrían interés en engañar con un factor de protección solar o en ocultar ni más ni menos que un fármaco contra el alzhéimer. Sin embargo, estas informaciones falsas fueron reproducidas en los principales medios de comunicación en televisión, radio, prensa y redes sociales. Ante informaciones tan descabelladas como estas, deberían saltar todas las alarmas de que estamos ante fake news. Sí, estamos ante fake news, pero muchos lo pasaron por alto.

Ni Isdin, ni ningún otro laboratorio, mienten acerca del factor de protección solar

Ningún producto cosmético puede salir al mercado indicando un factor de protección solar si antes no ha sido validado por las autoridades sanitarias.

Cualquier producto cosmético en el que se indique un factor de protección solar (SPF), sea de la magnitud que sea, ha tenido que certificarlo ante las autoridades sanitarias mediante ensayos clínicos tipificados. En el caso de España, el resultado de estos ensayos clínicos ha de ser validado por la Agencia Española del Medicamento y el Producto Sanitario (AEMPS). Una vez validados los resultados del ensayo clínico, el laboratorio puede incluir en indicativo del SPF correspondiente en su producto. Estos ensayos se hacen producto por producto, individualmente y en el producto acabado.

Para certificar el SPF se hace un ensayo in vivo, el generalmente tipificado bajo la norma ISO 24444:2010 (equivalente al International Sun Protection Factor Test Method o método COLIPA). En este ensayo se cubre una zona de piel con el producto a evaluar a razón de 2 mg/cm2. Se mide por cuánto se multiplica el tiempo de exposición a la radiación UV hasta la aparición de enrojecimiento o eritema con y sin el producto aplicado. La principal radiación responsable de las quemaduras (eritemas) es la UVB, por eso el SPF es realmente una medida de protección contra la radiación UVB. Así, un SPF 30 significa que se multiplica al menos por 30 el tiempo al que la piel puede estar expuesta al sol sin sufrir quemaduras. Un SPF 50+, que actualmente es el mayor factor de protección solar, indica que la protección ante las quemaduras dura por encima de 50 veces más que la piel sin protección. Los productos pediátricos suelen tener SPF 50+.

La validación por parte de la AEMPS y el coste del ensayo clínico, que no es precisamente barato, es el mismo para cualquier SPF.

Para certificar la protección frente a la radiación UVA, el llamado UVA-PF, se hace un ensayo diferente, generalmente el tipificado bajo la norma ISO 24443:2012 (equivalente in vitro al PDD, Persistent Pigment Darkening). El PDD se calcula por medio del cociente entre la dosis mínima de UVA necesaria para inducir un oscurecimiento pigmentario persistente de la piel protegida por un producto de protección solar y la dosis mínima de UVA necesaria para inducir el oscurecimiento mínimo de la misma piel sin proteger. Si el cociente entre el SPF y el UVA-PF es de 1/3 o inferior, el fabricante podrá incluir el indicativo de protección solar frente al UVA. Este indicativo no es numérico, sino el del UVA rodeado con un círculo.

La última semana de mayo de 2019, la Organización de Consumidores y Usuarios (OCU), una organización privada cuyo objetivo es defender los derechos del consumidor, envió una nota de prensa a los medios de comunicación indicando que habían hecho un estudio con 17 productos de protección solar pediátrica, de los cuales dos de ellos no llegaban al SPF indicado. El de los laboratorios Isdin fue el peor parado: según la OCU, uno de sus productos con SPF 50+ solo llegaba a SPF 15. La nota de prensa fue reproducida en los principales medios de comunicación, acaparando la atención durante días.

Isdin hizo públicos los estudios y resultados que certifican que ese producto cumple con el SPF y con el UVA-PF indicados, que en su día fueron facilitados a la AEMPS. La OCU no hizo públicos sus estudios, alegando que no podían desvelar la identidad de su laboratorio. Este dato ya debería ser suficiente para que los medios de comunicación decidiesen no publicar la nota de prensa. En cambio, la nota se publicó sin que nadie antes pudiese comprobar que ese estudio existía o que era veraz.

Si un cosmético es defectuoso, causa algún tipo de alergia o reacción adversa, tenemos la sospecha de que no protege del sol como debería, no tiene buen aspecto u olor… debemos notificarlo. Debemos notificarlo directamente en la AEMPS a través de su servicio de cosmetovigilancia, o podemos notificarlo a personal sanitario, a los distribuidores del producto o en la farmacia. Las farmacias tienen la obligación de notificar cualquier incidencia tanto al laboratorio como a la AEMPS. A partir de ese momento se pondrá en marcha un proceso de análisis del producto para detectar si se trata de una alerta real, de una alerta concreta o bien de una alerta extensible a un lote de productos defectuosos. Si se tratase de una alerta real, se procedería a la retirada inmediata del producto en todos los puntos de venta.

Si un cosmético es defectuoso o tenemos la sospecha de que así lo sea, hay que notificarlo primero y en exclusiva a las autoridades sanitarias, en este caso la AEMPS. Lo que no hay que hacer es enviar una nota de prensa a los medios de comunicación antes de que la AEMPS verifique si estamos ante un producto defectuoso, ni siquiera antes de que la AEMPS decida cuál es la mejor forma de proceder: enviar una circular a los puntos de venta, crear una alerta para que la difundan los medios de comunicación, retirada inmediata del producto, etc. Lo que ha hecho la OCU es precisamente lo que no hay que hacer. Se han saltado el procedimiento y han creado una alerta sin supervisión de la AEMPS. Para más inri, todo esto este disparate fue promovido y agitado por los medios de comunicación.

Pfizer no ocultó un medicamento contra el alzhéimer

El 4 de junio The Washington Post publicaba que el laboratorio farmacéutico Pfizer tenía pistas de que su fármaco superventas podía prevenir el alzhéimer y que las ocultó al mundo. En pocas horas la prensa española reproducía el artículo acompañado de titulares desinformadores y demagógicos. Aunque el cuerpo de la mayor parte de estos artículos era una reproducción del original, algunos medios argüían sobre las posibles razones que llevarían a Pfizer a ocultar tremendo descubrimiento: que si la patente estaba a punto de expirar y no sería rentable, que es más rentable la enfermedad que la cura… Razones absolutamente delirantes. Obviando las cuestiones éticas, descubrir un fármaco que cura o previene el alzhéimer es, a todas luces, muy rentable.

El principio activo del medicamento Enbrel de Pfizer es etanercerp. El etanercerp es una proteína quimérica que inhibe la acción de la TNF-α, una molécula que produce el organismo que promueve los procesos inflamatorios. Esta molécula se lleva comercializando desde 1998 para el tratamiento de la artritis reumatoide por una compañía que desde 2009 pertenece a Pfizer.

Desde hace años sabemos que uno de los síntomas del Alzhéimer es la inflamación, pero desconocemos cuál es el papel de la inflamación en esta enfermedad, y si su supresión palía sus síntomas o si frena su progresión. Esta es una de las líneas de investigación. Es por ello que los antiinflamatorios, entre ellos el etanercerp y otra veintena de moléculas biosimilares a esta, se hayan estudiado como posibles fármacos contra el alzhéimer.

En 2006 se publicó un estudio piloto que evaluó el uso de etanercerp contra el alzhéimer. Aunque los resultados eran altamente preliminares, sí parecían prometedores. Más adelante se descubrió que estos antiinflamatorios curaban el alzhéimer en animales (al menos una réplica de la enfermedad) pero desgraciadamente no funcionaba así con humanos.

En 2015 se hizo el primer ensayo clínico doble ciego, aleatorizado y controlado con placebos, para evaluar el etanercerp contra el alzhéimer. Este estudio fue financiado por Pfizer. Los resultados de eficacia fueron decepcionantes, no distinguibles del placebo. La conclusión del estudio es que el etanercerp no cura ni previene el alzhéimer.

El periodista que escribió para The Washington Post relataba que había llegado a sus manos un power point en el que figuraban datos cruzados de compañías de seguros. Según estos datos, había una menor incidencia de alzhéimer entre personas con artritis reumatoide tratadas con etanercept, que entre personas con artritis reumatoide sin tratar. Se acusó a Pfizer de ocultar esta información. Pero ni siquiera estos datos se ocultaron: en 2016 ya se había publicado un estudio en el que se cruzaban datos de pacientes con artritis reumatoide tratados con etanercept relacionándolos con la incidencia de alzhéimer.

No sabemos si hay una relación causa-efecto, ya que correlación no implica causalidad. La realidad es que, de confirmarse esa relación causa-efecto, solo sería aplicable a personas que padecen artritis reumatoide y con carácter preventivo. No sería ni efectivo ni conveniente para personas sin esta enfermedad. La razón es que los efectos adversos del etanercerp sobre el sistema inmune hacen que sea impensable administrar este fármaco como tratamiento preventivo del alzhéimer. No se puede tratar a personas sanas con inmunosupresores como el etanercerp durante largos periodos de tiempo.

Pfizer declaró ante los medios de comunicación que rechazó continuar esa línea de investigación por razones estrictamente científicas. De hecho, la evidencia científica de la que disponemos nos indica que, desgraciadamente, etanercerp no sirve para prevenir el alzhéimer.

Algunos medios de comunicación acusaron a Pfizer de ocultar datos por razones económicas, en vista de que la patente sobre etanercerp estaba a punto de caducar. Aunque ya hemos visto que no han ocultado ningún dato relevante, tampoco es cierto que la patente estuviese a punto de caducar. La patente de este antiinflamatorio caducó en 2015, así que etanercerp ni siquiera es una molécula propiedad de Pfizer. Sin embargo, en EEUU la patente seguirá en vigor hasta 2028, ya que es propiedad de otra compañía, Amgen, que consiguió una prórroga. De todos modos, si Pfizer o Amgen descubriesen un nuevo uso clínico de la molécula, la patente podría extenderse hasta 20 años más, tiempo más que suficiente como para rentabilizar un descubrimiento de tal envergadura.

Consecuencias de estas fake news

No es la primera vez que los medios de comunicación, la OCU y otras empresas ponen en duda la efectividad y seguridad de los productos cosméticos. Y no es la primera vez que tienen que desdecirse. Ya ocurrió con las cremas solares, con las BB cream, con las hidratantes… Tras analizar estos productos, con metodologías puestas en cuestión por asociaciones como Stanpa, la compañía publica un ranking. Ranking al que solo se puede acceder previo pago de la cuota de socio. Casualmente la “compra maestra” de esos rankings siempre es la de un cosmético de marca blanca, de la misma marca blanca. Aun así, no podemos acusar a la OCU de mantener una relación comercial interesada con la distribuidora de esa marca blanca porque no hay pruebas de ello.

Una de las consecuencias es que el producto de marca blanca bate récord de ventas y se agota en unos días. Otra de las consecuencias es que la OCU recibe muchas visitas y atención por parte de todos los medios de comunicación. Es una gran estrategia de propaganda.

Toda aquella información que corrobora un prejuicio (en este caso en contra de los laboratorios cosméticos) y que nos dice lo que queremos oír (que es tan bueno el cosmético más barato como el más caro) es una garantía de éxito mediático. La realidad es que los productos cosméticos son seguros, funcionan y que, salvo contadas excepciones, cuestan lo que valen. Pero la verdad no genera tantos clics.

El caso reciente de la acusación pública de la OCU hacia los laboratorios Isdin es todavía más intolerable. Poner en cuestión la eficacia de los productos de protección solar tiene unas implicaciones sanitarias fatales. Según la Asociación Española Contra el Cáncer, actualmente tenemos unas muy buenas cifras de concienciación sobre protección solar. Estas cifras peligran cada vez que los medios de comunicación ponen en duda la eficacia de los productos de protección solar. Que los medios de comunicación compartan notas de prensa como las de la OCU, sin tan siquiera ponerse en contacto con expertos, con el laboratorio, con la AEMPS, sin solicitar los estudios que corroboran las acusaciones, es de una enorme irresponsabilidad.

Hay que considerar también las pérdidas económicas. Por un lado para las farmacias y parafarmacias, que es donde se comercializan los productos de Isdin. Por otro lado, Isdin es un laboratorio cosmético muy focalizado en los productos de protección solar. Precisamente esta oleada de desprestigio mediático llega en el momento clave de la campaña de solares. Por poner un ejemplo, el salario de los delegados comerciales de estos laboratorios está sujeto a objetivos, con lo que el descenso en las ventas y las devoluciones repercute directamente en el salario de estos trabajadores. Un descenso en ventas en España, donde este laboratorio es especialmente fuerte, repercutirá en los salarios y puestos de trabajo de muchos profesionales, entre ellos un gran número de científicos. Han ido a dar donde duele y cuando más duele, caiga quien caiga.

La OCU ha manifestado que los estudios sobre protectores solares que han hecho ya están en manos de la AEMPS. Hasta la fecha la AEMPS no ha iniciado ningún procedimiento de retirada de productos. Lo más probable es que los estudios de la OCU no estuviesen bien hechos, como ya ha ocurrido con anterioridad. También podría suceder que hubiese un producto o lote de productos defectuosos. Sea como fuere, esta no es la forma responsable de proceder, ni por parte de la OCU ni por parte de los medios de comunicación.

Con respecto a Pfizer, parece que de momento no ha habido consecuencias económicas reseñables. Las acciones de la compañía no se han visto afectadas por el incidente. La principal consecuencia de todo esto es la imagen desgastada de los laboratorios farmacéuticos, y con ello, de la investigación científica. De un caso anecdótico se ha hecho un juicio generalizado hacia un sector entero.

Con respecto a los medios de comunicación, muchos o no trabajan o trabajan mal. Y quienes leen y comparten lo que estos publican, tienen muy dañado su detector de desinformación.

La noticia de que Pfizer ocultó la cura del alzhéimer es tan rocambolesca como los delirios de los charlatanes que afirman que se ha encontrado la cura del VIH y que se oculta, o la cura del cáncer. Tan inverosímil como que las farmacéuticas son las que crean las enfermedades y otras conspiraciones de similar calibre.

Esta clase de noticias deberían hacer saltar todas las alarmas de detección de fake news. Ante la duda es recomendable preguntarse quién se beneficia. Desde luego no hay beneficio posible para Isdin. Comercializar protectores solares infantiles con menos SPF del indicado no beneficia a nadie, y menos al laboratorio. Si Pfizer hubiese descubierto una cura para el alzhéimer, ocultarlo sería la opción menos rentable. Sobre todo sabiendo lo rentable que sería para el laboratorio que una de sus moléculas sirviese para tal fin. Los únicos beneficiarios posibles son las empresas cuyos ingresos dependen del clic. De ahí el título de este artículo: piensa bien y acertarás. Antes de creer que los laboratorios farmacéuticos son el demonio, al menos parémonos a pensar si hacer el mal les beneficiaría de algún modo. De lo contrario, a cuento de qué iban a engañar. Es una sandez de tal magnitud, que dejar escrito este párrafo me parece una forma de insulto.

Las fake news no solo circulan a través de estrafalarias páginas y grupos de las redes sociales, ni por whatsapp. Las fake news más peligrosas son las que llegan a los grandes medios de comunicación.

La excusa de los medios de comunicación es la precariedad. Por eso se reproducen noticias publicadas en The Washington Post aunque el titular sea fehacientemente demagógico. Por eso se comparten notas de prensa de la OCU aunque no aporten como fuente ni el estudio al que se refieren. Todo esto aderezado con un titular jugoso que garantice un buen número de clics. Mejor pan para hoy.

Ofrecer información de calidad sobre estos temas de índole científica requiere tiempo y, sobre todo, requiere conocimientos de partida. Si eso no se respeta, va a ser imposible salir de esta crisis informativa y reconquistar la confianza.

Solo aquellos que ofrecen información de calidad tienen porvenir. Para los demás, hoy pan y mañana suerte.

Para más información:

La ciencia del protector solar. Deborah García Bello. Fronteras, Cuaderno de Cultura Científica. Junio-agosto de 2018.

No, Pfizer no ha ocultado al mundo un fármaco que cura o previene el alzhéimer (I) y (II). Javier Yanes. Ciencias mixtas, 20 Minutos. 6 y 7 de junio de 2019.

Nota de la autora:

Deliberadamente en este artículo no se han incluido enlaces a las fake news publicadas acerca de Isdin o Pfizer a fin de no contribuir más a su difusión.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Piensa bien y acertarás: los casos de Pfizer e Isdin se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La ciencia perdida: los curiosos casos de los protocolos de TDAH y de leer.es
  2. Los nórdicos no siempre hacen las cosas bien, o sí
  3. Casos de corrupción
Categorías: Zientzia

Hatz-markak, FBI eta Fourier modernizatua

Zientzia Kaiera - Jue, 2019/06/13 - 09:00
Javier Duoandikoetxea Hatz-markek identifikatu egiten gaituzte. Horregatik, hatz-marken bila ibiltzen dira detektibeak delitu bat gertatu den lekuan. Ez da inor harrituko, bada, esaten badugu hatz-marken bilduma erraldoiak daudela polizien artxiboetan.

FBI 1924an hasi zen hatz-markak hartzen. Tintan bustita uzten zuten atzamarrek marka kartoizko fitxetan. FBIk 25 milioi fitxatik gora zituen gordeta 1993an. Ordurako, ordenagailuen erabilera hedatzen hasia zen eta argi zegoen artxibo digitalak izatea onura handikoa izango zela, bai hatz-markak gordetzeko, bai bilaketak egiteko. Hortaz, digitalizazioari ekin zioten.

1. irudia: hatz-markak fitxetan gordetzen ziren lehen. (Argazkia: Alan Levine / CC BY 2.0 lizentziapean)

Garrantzitsua da ahalik eta zehaztasun handienaz ziurtatzea norena den hatz-marka bat. Horregatik, digitalizazioa egiteko hazbete bakoitzeko 500 puntuko irudia aukeratu zuten, 8 byteko kolore grisen eskalan. Horrek hatz-marken fitxa bakoitzetik 10MBko fitxategi bat sortzen zuen. Artxibo osoaren digitalizazioak izugarrizko tamaina hartu behar zuen! Gainera, duela 25 urteko tresnen biltegiratze-gaitasuna gaurkoena baino askoz txikiagoa zen. Zer egin? Aurreko artikulu batean argazkietarako esan genuen moduan, hemen ere konpresioan zegoen gakoa. Gogoan izan konprimatzea fitxategiaren tamaina txikitzea dela eta hori, baliagarria izateko, informazio esanguratsua galdu barik egin behar dela.

Argazkietarako azaldu genuen JPEG konpresio-sistema 1992an kaleratu zen eta horixe erabiltzeko hautua egin zuten FBIko adituek. Hala ere, ez ziren gustura gelditu, konprimatu ondoko irudia ez baitzitzaien egokia iruditu.

Gehienetan, pixel batetik albokora igarotzean kolore-aldaketa txikia egoten da eta hori baliatzen du JPEG sistemak. Horregatik, ertzak dauden tokietan emaitza ez da hain ona, inguruko pixeletan kolore-aldaketa handiak gerta daitezkeelako. Esan daiteke, neurri batean, hatz-marken irudietan ertzak (marrak) direla garrantzia duten bakarrak.

Arazoa gainditzeko, Estatu Batuetako zenbait unibertsitate eta gobernu-agentziatako ikertzaile elkarlanean aritu ziren hatz-marken irudien konpresiora egokitutako algoritmo on baten bila.

Bitarte matematikoa

1984an Yves Meyer matematikari frantsesa Paris-Orsay unibertsitateko irakaslea zen. Lankide fisikari batek artikulu bat erakutsi zion, interesgarria izango zitzaiolakoan. Egileak Jean Morlet eta Alex Grossmann ziren, Elf Aquitaine enpresako ingeniari geofisikaria lehena eta Marseillako unibertsitateko fisikaria bigarrena.

Artikuluak gasa eta petrolioa bilatzeko bide berri bat proposatzen zuen. Lur azpiko gas-poltsak eta petrolioa detektatzeko, uhin bat igortzen da eta zenbait geruza zeharkatu ondoren itzultzen den seinalea aztertuz, barneko konposizioari buruzko informazioa lortzen da. Morletek hori egiteko teknika berri bat aurkeztu zuen eta Grossmannekin landu zuen arlo matematikoa. Ez zuen arrakasta handirik izan enpresan eta, diotenez, Morletek jubilazio aurreratua baino ez zuen lortu. Aitzitik, zientziaren mundutik iritsi zitzaion ospea.

Yves Meyer harrituta gelditu zen artikuluan ikusi zuenarekin: formula ezagunak aurkitu zituen, ederto ezagutzen zuen alor batekoak, eta bide emankorra izan zitekeela iritzi zion. Berak dioenez, Marseillarako trena hartu zuen Grossmannen bila. Urte gutxiren buruan, Meyer eta haren lankide eta ikasleek hasierako urrats baldar haiek teoria matematiko bihurtu zuten.

2. irudia: Alex Grossmann (1930-2019) eta Jean Morlet (1931-2007), 1991n. (Argazkia: Centre de Physique Théorique, Marsellako unibertsitatea)

Fourieren teoria klasikoan funtzio bat garatzeko oinarrizko osagaiak funtzio trigonometrikoak dira. Teoria berrian, oinarrizko osagai horiek aldatu egiten dira eta funtzio ama baten dilatazioak eta translazioak erabiltzen dira. Hori bai, ama horrek propietate egokiak behar ditu erabilgarria izateko. Dena dela, aukera asko daude eta erabileraren arabera zein hartu erabaki daiteke. Horixe bera abantaila bihurtzen da aplikazioetan.

Objektu berriari frantsesez jarri zion izena Morletek: ondelette. Gero, ingelesera heldu zenean, wavelet bihurtu zen eta gehienbat horrela egin du bidea mundu zientifikoan. Erabiltzaile askok mailegua bere horretan (wavelet) hartu badute ere, badira hizkuntza bakoitzari egokitutako terminoak: ondícula (esp.), ondeta (cat.), onduleta (port.), adibidez. Euskaraz, horien antzeko izan daitekeen uhinxka hautatu nuen nik [1].

3. irudia: Stéphane Mallat, Yves Meyer, Ingrid Daubechies eta Emmanuel Candès, uhinxken teoria eta aplikazioen garapenean garrantzi handikoak izan dira. (Argazkia: S. Jaffard, La lettre d’infos du CMLA, 2017ko ekaina)

Fourieren analisi tradizionalak ez ditu ondo antzematen tarte txiki batean gertatzen diren funtzio baten aldaketa handiak, osagai modura erabiltzen dituen funtzio trigonometrikoak ez daudelako lokalizatuta. Uhinxkak, aldiz, lokalizatu egiten dira eta hobeto moldatzen dira funtzioen aldaketa zorrotzak aztertzeko. Gainera, zertan erabili nahi dugun, uhinxka ama egokia hartzea komeni da. Horrek kostu matematiko handiagoa izan dezake eta, aplikatzeko bada, agian kostu ekonomikoa ere, baina nahi edo behar dugun lana hobeto egingo du.

WSQ eta JPEG2000 konpresio-sistemak

Uhinxken teoriak, aurrekari zuen Fourieren serieen teoriak ez bezala, aldi berean jorratu ditu arlo matematiko hutsa eta aplikazioak. Berehala hasi ziren seinaleen prozesamendurako erabiltzen eta ohiko teknikak arlo berrira egokitu ziren. Lehen urrats haietatik mundu errealerako jauziak ez zuen itxaron behar izan. Are gehiago, teoria matematikoa bera elikatu dute aplikazioek, problema berriak plazaratuz.

4. irudia: Ingrid Daubechiesek aurkitutako uhinxka bat erabiltzen da WSQ konpresiorako.

Uhinxkak erabilita asmatu zuten FBIren beharretarako WSQ (Wavelet Scalar Quantization) konpresio-sistema. Libre jarri zuten, gainera, edozeinek erabiltzeko moduan. Matematikoki uhinxka amen bikote bat erabiltzen du, bata deskonposizioa egiteko, eta bigarrena irudia berreraikitzeko. Funtsean, konpresiorako gauza bera egiten da beti: gorde nahi dugun informazioa oinarrizko osagaien (kasu honetan, uhinxken) errezeta baten bidez eman eta garrantzi gutxiko osagaien koefizienteak 0 egin. Horrela, gorde beharreko informazioan 0 asko lortzen dira, eta zeroen zerrenda horiek modu laburrean gordetzeko bideak asmatu dira.

Ez zen horretan geratu uhinxken konpresiorako erabilera. Argazkietarako JPEG asmatu zuen talde berak beste estandar bat sortu zuen uhinxken bidez: JPEG2000. Hau ere erabiltzen da hatz-marken konpresiorako, hazbeteko 1000 puntuko irudiak hartzen direnean. Eta ez horretarako bakarrik: JPEG2000 erabiltzen da zinema digitalean, sateliteek hartzen dituzten irudietan eta irudi medikoen DICOM protokoloan, esaterako.

Fourier modernoa vs. Fourier klasikoa

Fourieren analisia matematika teorikoaren esparruan bizi zen XIX. mendean eta XX. mendearen hasieran. Gero, ordea, mundu errealean erabiltzeko arlo ugari aurkitu zizkioten eta ordenagailuen kalkulu-ahalmena handitzearekin batera are gehiago zabaldu ziren aukerak: seinaleak, soinuak, irudi medikoak, espektrometria, kristalografia, telekomunikazioa, astronomia, ikusmen artifiziala, ahots-ezagutzea…

Uhinxken teoriak, geuk sortzen eta garatzen ikusi dugun arlo berriak, beste bultzada bat eman die aplikazioei. Aipatu dugun hatz-marken kasuan, bide klasikoak baino emaitza hobeak ematen ditu. Beti mereziko du uhinxkak erabiltzea funtzio trigonometrikoen ordez? Ez, egin nahi dugunaren arabera erabakiko dugu. Esaterako, gure argazki-kameretan JPEG erabiltzen dugu, ez du merezi argazki arruntetarako beste konpresio-sistema batera jotzea. Teoria berriak aurrekoa osatu egiten du, ez ordezkatu.

Matematikan gaur egun dagoen saririk handiena Abel saria da. 2017ko saritua Yves Meyer izan zen, “haren funtsezko lanagatik, uhinxken teoria matematikoaren garapenean”.

Oharrak:

[1] Norbaitek mailegua erabili nahiko balu, jatorrizko frantses izenetik hartutako ondeleta hobetsiko nuke, zaila egiten baitzait wavelet euskaraz modu egokian ematea.

Gehiago jakiteko:

——————————————-
Egileaz: Javier Duoandikoetxea Analisi Matematikoko Katedraduna da UPV/EHUn.

——————————————-

The post Hatz-markak, FBI eta Fourier modernizatua appeared first on Zientzia Kaiera.

Categorías: Zientzia

La geometría poética del cubo

Cuaderno de Cultura Científica - Mié, 2019/06/12 - 11:59

La sala Kubo Kutxa de Donostia-San Sebastián acoge estos días, desde el 23 de mayo al 25 de agosto de 2019, la exposición LANTEGI, José Ramón Anda, una exposición retrospectiva del escultor navarro José Ramón Anda (Bakaiku, Navarra, 1949), una de las figuras fundamentales de la escultura vasca contemporánea.

El título de la exposición, “lantegi”, es decir, taller en euskera (aunque el término también está relacionado con la gestión de la madera de los árboles en una comunidad, como puede leerse en el catálogo de la exposición), destaca un elemento fundamental para el escultor de Bakaiku, su taller, el lugar en el cual se crea la magia del arte, el espacio en el que José Ramón Anda piensa y trabaja, donde construye sus pequeñas maquetas de arcilla (buztina, en euskera), algunas de las cuales luego se harán mayores realizadas en madera, o en otros materiales, como hierro, bronce, aluminio, hormigón o piedra.

Las personas que tengan el privilegio de visitar su taller en Bakaiku podrán disfrutar de la belleza y originalidad de sus maquetas de buztina, materialización de muchas de las ideas geométrico-escultóricas del artista, y que, aunque nunca se hagan mayores, son hermosas obras de arte por sí mismas.

Fotografía de las maquetas de arcilla/buztina en el taller del escultor navarro José Ramón Anda. Imagen de la página web del artista

Empecemos esta entrada del Cuaderno de Cultura Científica con algunas pinceladas sobre el artista y su obra.

– José Ramón Anda procede de una familia de tallistas y ebanistas, lo cual explica su profundo conocimiento de la madera, su respeto hacia ella y la delicadeza con la que la trabaja. Este es el material fundamental con el que realiza su trabajo el escultor de Bakaiku. Normalmente madera de los montes de Urbasa y Aralar, en Navarra, como roble, nogal, boj, castaño, tejo, cerezo o plátano.

– Estudió en la Escuela Superior de Bellas Artes de San Fernando (Madrid), entre los años 1970 y 1974. Después obtuvo una beca para completar su formación en la Academia Española de Bellas Artes de Roma, donde conectó con destacados artistas italianos contemporáneos, como Giacomo Manzú, Marino Marini y Arturo Martini, y una beca del Ministerio de Cultura, para la promoción de las Artes Plásticas y la Investigación de nuevas formas expresivas. Además, durante algún tiempo fue profesor de la Escuela de Bellas Artes de la Universidad del País Vasco.

– Entre las referencias artísticas de José Ramón Anda podemos citar como fundamental al artista suizo Max Bill (1908 – 1994), uno de los máximos exponentes del arte concreto, o al escultor rumano Constantin Brancusi (1876 – 1957). Así como a los escultores vascos Jorge Oteiza (1908 – 2003) y Eduardo Chillida (1924 – 2002), máximos representantes de la Escuela Vasca de Escultura, en la que podemos enmarcar también al escultor navarro.

– Dentro de su arte conviven dos grandes corrientes artísticas como son la abstracción geométrica, con una fuerte influencia del arte concreto (recordemos que este movimiento propone que el arte debe ser creado enteramente en la mente humana, sin referencias externas, no debe inspirarse en la naturaleza, la sensualidad o el sentimentalismo, utilizando las matemáticas –en particular, elementos geométricos básicos como el cuadrado, el círculo y el triángulo– como herramienta creativa), y la escultura orgánica, en la cual la naturaleza y sus formas, en particular, la madera, como material e inspiración, reivindican su importancia.

Escultura Ikutu/Tocar (2007 – 2012), realizada cn madera de roble, tejo, boj y nogal, del artista José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl Ibáñez

Siento una profunda admiración por la obra escultórica de José Ramón Anda, quizás por mi doble condición de persona interesada por el arte contemporáneo y matemático, lo cual me ha animado a compartir en esta entrada del Cuaderno de Cultura Científica, que espero se convierta en una serie, mi visión personal de su trabajo artístico.

Muchas son las referencias geométricas y matemáticas que nos encontramos en la obra del escultor navarro, aunque en esta entrada vamos a centrarnos en la figura geométrica del cubo. Este, aparentemente, sencillo objeto, símbolo de las tres dimensiones del espacio, ha sido fundamental, pero sobre todo una rica herramienta de creación artística, en el arte de José Ramón Anda. Empezó a trabajar con el mismo en los últimos años de su formación, cuando empezaba a dar sus primeros pasos en la abstracción geométrica, y continúa trabajando en la actualidad. A lo largo de todo este tiempo, este genial escultor ha investigado, desde diferentes perspectivas, la estructura geométrica que subyace a la figura del cubo, en particular, distintas descomposiciones del mismo, así como sus posibilidades plásticas.

De este análisis del cubo surgen obras muy dispares, como Descomposición del cubo (1973), Nahi eta ezin [Querer y no poder] (1975), Zazpiak bat [Las siete, una] (1976), Preso jaioa [Nacido preso] (1978), Homenaje a Juan de Antxieta (1979 – 1986), Haizean [Al viento] (1978 – 2002) Pilotara [A la pelota] (1980), Basaldeko ateak [Las puertas del bosque] (2011 – 2017), o Acotar el vacío I, II y III (2019), entre otras, así como una gran cantidad de potentes maquetas de buztina.

Escultura Nahi eta ezin [Querer y no poder] (1975), de José Ramón Anda, en posición cerrada, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl IbáñezEscultura Nahi eta ezin [Querer y no poder] (1975), de José Ramón Anda, en posición abierta en la que se ve una esfera en su interior, en la exposición LANTEGI, José Ramón Anda, en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl IbáñezDos de las primeras descomposiciones del cubo en las que trabajó el artista, en el año 1973, son las siguientes. Para entenderlas bien, debemos de pensar en el cubo como formado por 27 cubos pequeños, es decir, cada lado del cubo está formado por 3 de estos cubos (siendo el cubo grande una estructura 3 x 3 x 3), como ocurre, por ejemplo, en el cubo de Rubik, y podemos pensar que las piezas de la descomposición están formadas por la unión de algunos de estos cubos pequeños (este tipo de piezas se conocen en matemáticas como “policubos”).

Estas dos descomposiciones del cubo cuentan con tres piezas cada una, dos exteriores e iguales entre sí (simétricas), con 7 cubos pequeños cada una, y una interior, comprendida entre las dos anteriores, con 27 – 14 = 13 cubos pequeños. En ambos casos, los dos elementos exteriores están formados por tres lados del cubo, representando las tres dimensiones del espacio, y colocados en posición simétrica respecto al centro.

En una de las descomposiciones (véanse las imágenes siguientes) cada una de las piezas externas son tres lados que convergen en un mismo vértice, que nos recuerda la típica imagen de los ejes x, y, z, que confluyen en el origen, en el espacio de coordenadas cartesianas tridimensional. Y cada una de las dos piezas está apoyada en vértices opuestos, de forma que no se tocan entre sí.

Primera maqueta de arcilla de una descomposición del cubo en tres piezas, dos exteriores y una interior, realizada por José Ramón Anda, en el año 1973, y que forma parte de las maquetas del taller del artista. Fotografías de Raúl Ibáñez

En la otra descomposición del cubo, los dos elementos exteriores están formados también por tres lados cada uno, pero son elementos “continuos”, sin puntos “múltiples”.

Segunda maqueta de arcilla de una descomposición del cubo en tres piezas, dos exteriores y una interior, realizada por José Ramón Anda, en el año 1973, y que forma parte de las maquetas del taller del artista. Fotografías de Raúl Ibáñez

Las dos descomposiciones gozan de una cierta simetría, aunque quizás encierra una mayor simetría la primera de ellas. Por ejemplo, si nos fijamos en la pieza central (en la imagen de abajo he reproducido ese elemento central con piezas cúbicas del material LiveCube y lo he colocado tumbado respecto a la primera imagen en la que se mostraba) tiene una simetría rotacional de 120 grados respecto a un eje que pasa por el centro y es perpendicular a la mesa en la que se apoya, es decir, si la giramos un tercio de vuelta sobre la mesa en la que se apoya, la pieza se queda colocada de la misma forma (aparentemente, en la misma posición), además de una simetría rotacional de 180 grados, respecto a un eje perpendicular al anterior (eje izquierda-derecha en la imagen), es decir, si damos la vuelta a la pieza de la imagen queda, de nuevo, la misma forma (aparentemente, en la misma posición).

Pieza central de la primera descomposición del cubo, que posee dos tipos de simetrías rotacionales, de 120 grados y de 180 grados

Mientras que el elemento central de la segunda descomposición (de nuevo, lo he realizado con las piezas del LiveCube) si lo tumbásemos podríamos ver que tiene dos simetrías rotacionales similares a las anteriores, pero ahora ambas de 180 grados (media vuelta). Aunque quizás lo más peculiar estéticamente es que esta pieza está formada por dos partes con direcciones perpendiculares (en la imagen la parte de arriba está dispuesta en dirección izquierda-derecha, mientras que la de abajo, lo está en la dirección adelante-atrás), es decir, está como retorcida.

Pieza central de la segunda descomposición

Jose Ramón Anda se percató de que esta segunda descomposición le brindaba una mayor riqueza plástica y realizó la obra Descomposición del cubo (1973), de un tamaño de 19 x 18 x 18 centímetros. Esta escultura tiene algunas peculiaridades importantes, que han seguido formando parte de su filosofía artística. La primera peculiaridad de esta obra de arte, que comparten muchas de las obras de este escultor vasco, es que se puede, y se debe, tocar, no es solamente una escultura estática para ser admirada. Pero, de hecho, no solo se puede tocar, como ocurre con muchas otras esculturas (por ejemplo, más arriba hemos mostrado una obra que lleva por nombre Ikutu/Tocar, invitando a las personas a que la toquen para poder captar la esencia de esa escultura), sino que se pueden mover los tres elementos que la componen, invitando al público a que los disponga de la manera, o maneras, que le parezcan estéticamente más bellas o sugerentes. Es decir, la escultura se transforma en una obra dinámica, en un “juego” artístico que requiere que el público no sea meramente un espectador, sino que tome una actitud activa ante la creación artística.

Escultura Descomposición del cubo (1973), realizada en madera de roble, del artista navarro José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl Ibáñez

La obra está formada por tres elementos geométricos que interaccionan entre sí, pero José Ramón Anda no elige una relación estética fija entre ellas para crear una obra impactante y única, sino que crea una obra que es al mismo tiempo todas las variaciones posibles, tanto las que se le han podido ocurrir a él mismo, como las que se les han ido ocurriendo a todas las personas que han interaccionado con la misma, e incluso, las que están por venir, que existen solo en potencia.

Precisamente, en la exposición LANTEGI, José Ramón Anda, en la Sala Kubo Kutxa, en la que está expuesta esta genial obra de arte, se incluye una serie de fotografías, del fotógrafo Juantxo Egaña, con una serie de posiciones de las tres piezas de la escultura de una enorme potencia estética, de una gran belleza. La escultura del artista de Bakaiku son todas ellas, y muchas más.

Fotografía del interior de la cubierta del catálogo de la exposición LANTEGI, José Ramón Anda (Sala Kubo Kutxa, 2019), que incluye 30 fotografías, de Juantxo Egaña, con otras tantas variaciones de la escultura Descomposición del cubo (1973), de José Ramón Anda

El recorrido artístico de esta descomposición del cubo no termina con esta escultura, sino que José Ramón Anda, consciente de las posibilidades plásticas que esta le brinda, sigue trabajando con la misma.

Los tres elementos de la descomposición son piezas “rectas”, con ángulos de noventa grados, ángulos rectos. El artista suaviza esos ángulos creando piezas más suaves y redondeadas, lo que confiere a la descomposición un mayor dinamismo. Después de alguna pieza intermedia, realiza una escultura muy potente, Homenaje a Juan de Antxieta (1979 – 1986), con una versión en bronce de 1979, de un tamaño de 33 x 33 x 33 centímetros, y una versión en piedra caliza de Lastur, de un tamaño aproximado de 2 x 2 x 2 metros, que se instala en 1986 en el Parque de Irubide (Pamplona).

Escultura Homenaje a Juan de Antxieta (1979), realizada en bronce, de José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl Ibáñez

La siguiente serie de obras que surgen de esta peculiar descomposición del cubo tienen como protagonista a la pieza central tras la eliminación de los ángulos, que la convierten en una pieza curva retorcida. José Ramón Anda continúa trabajando con esa pieza central redondeada, seguramente con el objetivo de extraer la esencia de la forma de la misma, y decide “adelgazarla” transformándola en una superficie, que resulta ser lo que, en la parte de las matemáticas conocida como “geometría diferencial de superficies”, se conoce como una superficie de curvatura (de Gauss) negativa, y como consecuencia, una superficie llamada de doble curvatura. Esa superficie nos recuerda, por esa propiedad geométrica de la curvatura, a otra de curvatura negativa muy importante en Arquitectura (por ejemplo, en la obra del arquitecto catalán Antoni Gaudí (1852 – 1926)), el paraboloide hiperbólico, aunque sean superficies diferentes.

Superficie de un paraboloide hiperbólico, realizada con el programa Python por Nicoguaro para Wikimedia Commons

Expliquemos de forma visual qué significa que la superficie sea de curvatura (de Gauss) negativa. Significa que para cada punto de la superficie (aunque se observa muy bien en el punto central, tanto en la imagen anterior del paraboloide hiperbólico, como en las siguientes esculturas generadas por la superficie que se obtiene de la pieza central de la descomposición del cubo), si se toma el plano tangente a la superficie en dicho punto (en el centro del paraboloide hiperbólico de la imagen es el plano horizontal), parte de la superficie queda a un lado de la misma y parte al otro. Más aún, existe una dirección (en el punto) en la que la superficie es cóncava y otra, perpendicular a la anterior, en la que es convexa. Es decir, que en cada punto parte de la superficie se dobla en un sentido (en la imagen del paraboloide hiperbólico, si estamos en el centro, en una dirección la superficie se curva hacia arriba, sería cóncava), mientras que otra parte, perpendicular a la anterior, se dobla en el sentido opuesto (en el centro del paraboloide sería la parte que se curva hacia abajo, convexa).

En una superficie de curvatura (de Gauss) positiva, como es la esfera, no ocurre lo anterior, sino todo lo contrario. En cada punto de la esfera, esta queda situada por entero a un lado de su plano tangente. Es decir, esta siempre se dobla, se curva, en el mismo sentido, siempre “alejándose” (convexa), si se mira desde fuera, o siempre “acercándose” (cóncava), si se mira desde dentro.

Por otra parte, para explicar esta serie de obras necesitamos tener en cuenta dos aspectos más. El primero es la importancia de la cultura vasca para el artista de Bakaiku y su interés por el juego de la pelota mano, o pelota vasca, en el cual el objeto central del juego es la pelota, es decir, un objeto esférico, lo cual nos enlaza con la segunda cuestión que quería mencionar, a la figura geométrica del cubo se le añade ahora la de la esfera. Para generar esta serie de obras el escultor introduce mentalmente la superficie obtenida a partir de la pieza central en una esfera imaginaria y se queda solo con lo que está dentro, es decir, el borde de la superficie es una curva dentro de la superficie esférica.

Esta es la forma que José Ramón Anda utiliza en las siguientes esculturas, Airean (omenaldia pilotara) [Al aire (homenaje a la pelota)] (1978 – 2000), realizada en aluminio, Pilotara [A la pelota] (1980), realizada en madera de boj, y la escultura pública Haizean [Al viento] (1978 – 2002), realizada en acero y aluminio, que se encuentra instalada en la plaza del Trinkete, en Tolosa (Gipuzkoa).

Escultura Pilotara [A la pelota] (1980), realizada en madera de boj, del escultor navarro José Ramón Anda. Imagen perteneciente al catálogo de la exposición José Ramón Anda. Causa formal y materia – Kausa formala eta materia, que tuvo lugar en el Museo Oteiza, en 2017Escultura pública Haizean [Al viento] (1978 – 2002), realizada en acero y aluminio, instalada en la plaza del Trinkete, en Tolosa. Imagen de la página web del artistaLos nombres de estas esculturas, Airean [Al aire] o Haizean [Al viento] describen otra peculiaridad de estas obras, que son esculturas móviles, es decir, que se mueven con el aire o el viento, dando vueltas alrededor de su eje vertical. Más aún, cuando la superficie de Anda gira media vuelta, con el viento, está generando toda la esfera. Es decir, que si viésemos juntas todas las posiciones de la superficie en ese giro veríamos realmente la esfera.

Pero existe otra serie de esculturas más recientes que tienen como idea generadora la descomposición del cubo analizada en esta entrada. José Ramón Anda regresa a la idea matriz, a la descomposición del cubo originaria, pero fija ahora su atención en los laterales de las piezas de la descomposición, trabajando a partir de algunos de ellos para crear obras tan impactantes y singulares como las siguientes.

Esculturas Basaldeko ateak [Las puertas del bosque] (2011 – 2017), del artista José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl IbáñezEscultura Acotar el vacío III [Hutsa mugatzea III] (2019), del artista José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl IbáñezConjunto de obras Acotar el vacío I, II y III [Hutsa mugatzea I, II eta III] (2019), del artista José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Juantxu EgañaLa otra descomposición del cubo vista en esta entrada también formó parte de una escultura, en concreto Pesadilla de mili (1979), en la cual permanecen las dos piezas exteriores, mientras que la pieza interior es sustituida por una masa informe que representaría el cerebro de la persona que ha ido a la mili. Esta escultura se basa en la maqueta de arcilla que se muestra a continuación.

Maqueta de buztina, base de la obra Pesadilla de mili (1979), de José Ramón Anda

En mi siguiente colaboración en la sección Matemoción del Cuaderno de Cultura Científica continuaremos analizando las diferentes investigaciones plásticas de José Ramón Anda sobre la geometría del cubo, así como las esculturas, o maquetas de buztina, que ha realizado a partir de las mimas.

Fotografía de Juanjo Egaña con algunas de las esculturas de la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián, entre las que destacan, en el centro, dos versiones de Ikusmira [Perspectiva]No me gustaría terminar esta entrada sin expresar mi más profundo y sincero agradecimiento a José Ramón Anda, por las interesantes conversaciones que hemos mantenido, desde que nos conocimos hace unos años, sobre su obra artística y la relación de la misma con la geometría y las matemáticas, así como por permitirme utilizar las imágenes de sus bellas e impactantes esculturas en esta publicación.

Bibliografía

1.- Jose Ramón Anda (escultor), Javier Balda (comisario), Lantegi, José Ramón Anda (catálogo), Sala Kubo Kutxa (Donostia-San Sebastián), 23 de mayo – 25 de agosto de 2019, Kutxa Fundazioa, 2019.

2.- Página web de la Sala Kubo Kutxa

3.- Página web del artista José Ramón Anda

4.- Jose Ramón Anda (escultor), Javier Balda (comisario), José Ramón Anda. Causa formal y materia – Kausa formala eta materia, Museo Oteiza (Alzuza, Navarra), 21 de junio – 1 de octubre de 2017, Fundación Museo Oteiza, 2017.

5.- Jose Ramón Anda (escultor), Javier Balda (comisario), José Ramón Anda, Denboraren aurkako formak, Formas contra el tiempo, Museo de Bellas Artes de Bilbao, 7 de mayo – 9 de septiembre de 2012, Museo de Bellas Artes de Bilbao, 2012.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo La geometría poética del cubo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El cubo soma: diseño, arte y matemáticas
  2. La geometría de los ‘cristaloides’, según Léopold Hugo
  3. La botella de Klein: geometría ‘palindrómica’
Categorías: Zientzia

‘Infernuan’ ere bizia garaile ateratzen dela egiaztatu dute

Zientzia Kaiera - Mié, 2019/06/12 - 09:00
Juanma Gallego Planetako toki muturrenetakoa den Dallol basamortuan mikroorganismoak aurkitu dituzte, mineralez osatutako kapsuletan sartuta. Tenperatura altuak, gatza eta azidotasuna, horiek dira bizidun ñimiño hauek gehien gustuko dituzten baldintzak.

Uda hurbiltzen den aldiro munduko bulego gehienetan dagoen eztabaida da. “Haize girotua ipini”. “Igo, mesedez”. “Jaitsi”. “Ireki leihoa, haize girotuari alergia diot”. “Eta nik alergia polenari”. “Itxi, arren, euliak sartzen dira eta”. “Ezetz ba, bestela hau infernua da”. Halako egoera batean zure burua ikusten duzun hurrengoan, pentsa gauzek txarrenera jo lezaketela. Kaferako tartean hain jatorra den lankide horren ordez filia hirukoitza duen arkeobakterio bat izan zenezake alboan. Baina arkeobakterio itxurako lankidea ez da arazo bakarra: 30 gradu horiek beharrean, 50-60 gradu izango zenituzke; eta, kafearen ordez… tira, azido sulfhidrikoaren antzeko edaberen bat.

Bulego hori daukate organismo estremofiloen bila ari diren zientzialariek, landa lanean daudenean bederen. Etiopiako Afar eskualdean kokatuta dagoen Dallol basamortuaz ari gara, Dalakill sakonunean. Planetako eskualde muturrenetakoa da bertakoa, eta tenperatura ez da, inolaz ere, arazo bakara. Azidotasun handiko eremua da ere, pH eskalan zerotik gertu edo balio negatiboetan, hain zuzen; eta, hori gutxi balitz, gazitasun altua dago bertan.

1. irudia: hiru plaka tektonikoren artean egoteagatik, eta iraganean Itsaso Gorriak bertan gatza utzi zuelako, oso baldintza bereziak daude Dallol eskualdean. Hala izanik ere, bertan bizia aurkitzea lortu dute. (Argazkia: A. Savin / WikiCommons)

Planetaren indarrek sortu dituzte baldintza berezi horiek. Hiru plaka teknotikok bat egiten dute bertan, eta horregatik bertako lurrazala oso mehea da, 15 bat kilometrokoa. Historia geologikoan Itsaso Gorriak egin dituen joan-etorriek utzi dute zorua gatzez beterik. Azkenik, errezeta osatzeko, azpian magma beroa dago. Ura lurpean sartzen denean, magma horrekin topo egitean berehalakoan berotu eta askatu egiten da, tximinia hidrotermalen bidez. Urarekin batera doazen mineral eta gatz guztiak askatzen dira, eta bilduta geratzen dira bertan, paleta koloretsu bezain pozoitsua sortuz.

2015ean Martek duela 3.000 milioi urte zituen antzeko baldintzen analogoaren bila joana zen bertara CAB Madrilgo Astrobiologia Zentroko zientzialari talde bat; baldintza zail horietan ikerketa tresnak jarri dituzte eta aurkikuntza garrantzitsua egin dute: muturreko baldintza hauetan muturreko bizia ere badago. Scientific Reports aldizkarian kontatu dute.

Zehazki, geruza koloretsu horretako lehen milimetroetan aurkitu dituzte mikroorganismoak, mineralez osatutako oskola bitxi batzuetan txertatuta. Hala egonik, fosilak direla ematen du hasiera batean, baina orain egiaztatu ahal izan dute nanobakterioak direla. Horietatik, batzuk ohiko bakterioak baino askoz txikiagoak dira, 50 nanometro ingurukoak. Lehen aldia da bertan bizia aurkitzen dena, eta, gainera, oso bizi berezia da. Zenbait haloarchaearen antzekoak dira, baina ez dira haloarchaeak. Horregatik uste dute mikroorganismo berriak izan daitezkeela, momentuz hori zientzia-artikulu baten bitartez demostratzeko modurik izan ez badute ere. Termo-halo-azidofiloak dira, hurrenez hurren beroan, gazitasunean eta azidotasunean moldatzen direlako. Haien metabolismoari dagokienez, konposatu inorganikoen oxidazioa egiten dute “elikatzeko”, bereziki burdina eta sufrea.

CAB zentroko ikertzaile Felipe Gomezek aurkikuntzari buruzko azalpenak eman ditu La mecánica del caracol irratsaioan. “Kontua ez da bakterioak inguru horretara egokitu direnik; osterantzean, kontua da hori dela bakterio hauek duten egoerarik hoberena; haien optimoan daudela, hain zuzen”.

2. irudia: SEM eta TEM motako mikroskopia elektronikoa baliatu dute harrian txertatutako bakterioak ikertzeko. Txikienek 50 nanometroko luzera dute. (Irudia: CAB)

Gauzak horrela, aurkikuntzak bizigarritasunaren mugak ulertzeko beste aurrerapauso bat da hau. Gomezek azaldu duenez, erronka zaila da horrelako inguruetan izaten diren prozesuak ikertzea, ohiko kimikaren mugan ere daudelako. Gogora ekarri du zientzia komunitatean aspaldi piztu zen eztabaida bat, Antartikan aurkitutako ALH84001 meteoritoaren harira. “Meteorito horretan aurkitutakoa fosila ez zela esateko argudiorik handiena izan zen estruktura horiek txikiegiak zirela bizia bertan kabitzeko”, azaldu du adituak. Haren irudikoz, orain egindako aurkikuntzak babesten du biziak halako estrukturak sor litzakeela. Norabide horretan, aitortu du aukera bat dela etorkizunean meteoritoak berraztertzea, antzeko estrukturak aurkitzeko esperantzan, baina ezbaia asko sortzen duen gaia denez, ez dutela aipatu zientzia-artikuluan.

A hombros de gigantes irratsaioan ikerketa prozesuan jarraitu duten ibilbidean sakondu du Gomezek. Oso protokolo zuhurrak erabili behar izan dituztela nabarmendu du. Mikroskopia elektronikoa erabili dute, eta modu horretan ikusi ahal izan dute mintzen geruzak badirela. Azkenik, DNA erauzteko eta sekuentziatzeko gai izan dira. Izan ere, zientzia-artikuluaren ebaluatzaileak eskatu zien baieztatzea bakterio horiek jatorrizkoak zirela eta bizirik zeudela. Horretarako, in situ hibridazioa egin zuten. Teknika horrek DNA-zundak erabiltzen ditu, ezaguna den kanpoko DNA sartuta, laginaren DNAren azido nukleikoekin batu dadin; ikertzaileek hibridazio horren emaitza ikus dezakete, kolore jakin batzuen arabera. “Bakterioa metabolizatzen ari denean baino ez da gertatzen hibridazio hori”, argitu du CABeko adituak.

Mikroorganismo horiek tximinia hidrotermal batean aurkitu izanagatik, bizitza estruktura horietan sortu zelako hipotesia babesten dutenentzako beste argudio bat da. Unibertsoan bizia topatzeko esperantza ere sustatzen du aurkikuntzak, noski. “Estremofiliaren munduan izan dudan esperientziak esaten dit ur likidoa egonez gero bizia badagoela; beste parametroek ez dute axola”, esan du Gomezek. “Faktore nagusia da bizirako beharrezkoak diren erreakzio kimikoak ahalbidetuko duen disolbagarri bat egotea”.

Erreferentzia bibliografikoa:

Gómez, F. et al., (2019). Ultra-small microorganisms in the polyextreme conditions of the Dallol volcano, Northern Afar, Ethiopia. Nature Scientific Reports, 9, 7907. DOI: https://doi.org/10.1038/s41598-019-44440-8

———————————————————————————-

Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.

———————————————————————————-

The post ‘Infernuan’ ere bizia garaile ateratzen dela egiaztatu dute appeared first on Zientzia Kaiera.

Categorías: Zientzia

El modelo atómico de Thomson

Cuaderno de Cultura Científica - Mar, 2019/06/11 - 11:59

¿Cómo es el átomo? A principios del siglo XX se disponía de suficiente información química y física para que muchos físicos pudieran diseñar modelos de átomos. Se sabía que las partículas negativas con propiedades idénticas (electrones) se podían obtener de muchas sustancias diferentes y de diferentes maneras. Esto sugería que los electrones son componentes de todos los átomos.

Pero los electrones están cargados negativamente mientras que las muestras de un elemento son eléctricamente neutras. Por lo tanto, los átomos que constituyen tales muestras también serán probablemente eléctricamente neutros. Si es así, y en los átomos hay electrones con carga negativa, esto indicaría que en un átomo es necesaria la presencia de una cantidad igual de carga positiva.

Mencionamos al hablar de los electrones como las partículas de los rayos catódicos que los átomos de hidrógeno tienen unas 1800 veces más masa que los electrones, que tienen una masa de 9,109·10-31 kg. De aquí se sigue que los electrones constituyen una parte muy pequeña de la masa total de un átomo.

Así pues, cualquier modelo de átomo que se proponga debía tener en cuenta la siguiente información:

  • un átomo eléctricamente neutro debe contener la misma cantida de cargas positivas y negativas:
  • la carga negativa está asociada con solo una pequeña parte de la masa total del átomo, y la aportan los electrones

Adicionalmente cualquier modelo atómico tenía que ser capaz de responder a dos preguntas básicas:

  1. ¿Cuántos electrones hay en un átomo? [1]
  2. ¿Cuál es la disposición de los electrones y la carga positiva en el átomo?

Durante los primeros 10 años del siglo XX se propusieron varios modelos atómicos, pero ninguno fue satisfactorio. Hasta 1911, el modelo más popular para el átomo fue el propuesto por J.J. Thomson en 1904. Thomson sugirió que un átomo consistía en una esfera de electricidad positiva en la que se distribuía una cantidad igual de carga negativa en forma de pequeños electrones. A partir de los estudios electroquímicos a lo largo del XIX y por los realizados con radiación X [2], la cantidad de carga positiva en cada átomo se supuso que era igual al número atómico del átomo Z (un número entero) multiplicado por la magnitud de la carga del electrón e, es decir, la carga positiva de un átomo es igual a Z·e. Para cumplir con la condición de que el átomo sea eléctricamente neutro debe haber un número igual de electrones cargados negativamente.

Con estas suposiciones, el átomo de Thomson era como un «pudín de pasas» de electricidad positiva, con los electrones negativos esparcidos en él como ciruelas o pasas. Así, el hidrógeno (Z=1) consistía en un electrón, carga -1e, incrustado en una esfera de carga positiva +1e. El helio (Z=2) consistía en dos electrones incrustados en una esfera de carga positiva +2e, y así sucesivamente.

Modelo de pudin de pasas para los seis primeros elementos. Fuente: Cassidy Physics Library

Thomson asume en este modelo que «la masa del pudin» positiva actúa sobre los electrones negativos, manteniéndolos en el átomo solo por fuerzas eléctricas [3] y que el radio de los átomos tendría que ser de un orden de magnitud de 10-10 m, basándose para ello en información de la teoría cinética de los gases [4] y otras consideraciones.

Sin embargo, Thomson no podía explicar cómo se mantenía unida «la masa del pudin» positiva, ya que lo que se sabía de electricidad indicaba que debería desmoronarse debido a la repulsión eléctrica. Tampoco podía explicar las propiedades químicas ni el sistema de periodos.

Se requería mucha más información experimental y un nuevo concepto radical, el concepto de cuanto de energía, para construir un modelo del átomo mucho más satisfactorio. Este concepto se introdujo mediante el uso de los resultados obtenidos al estudiar un conjunto de problemas completamente diferente, la radiación térmica y el enigma del efecto fotoeléctrico, de eso se encargarían Max Planck y Albert Einstein [5].

Notas:

[1] Démonos cuenta que a principios del siglo XX la respuesta a esta pregunta no era en absoluto evidente. Menos cuando aun había gente que negaba la existencia de los átomos. Recordemos que hasta 1908 no se demostró más allá de toda duda razonable su existencia, como vimos aquí.

[2] Volveremos sobre esto más adelante en la serie.

[3] Hoy sabemos que en un átomo actúan fuerzas adicionales además de las eléctricas.

[4] Véase a este respecto El tamaño de las moléculas

[5] No nos olvidaremos de Rutherford. Baste mencionar ahora que el modelo atómico de Rutherford no es más que un caso particular del de Thomson.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El modelo atómico de Thomson se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. 1913-2013: del modelo atómico de Bohr al Higgs
  2. Del modelo estándar
  3. La ley del gas ideal a partir del modelo cinético
Categorías: Zientzia

Karea: etxetresnen erraiak jaten dituen piztia

Zientzia Kaiera - Mar, 2019/06/11 - 09:00
Ainhoa Lekuona eta Sara Pavo Esan ohi da Euskal Herriko ura kalitate onekoa dela inguruko herrietakoekin alderatuta. Jakina da gainera hemengo ura biguna izatea dela horren gakoa. Hala ere, zer eragiten ote du egunerokoan iturriko ura biguna edo gogorra izateak?

Ur bigunaren onurak baino ezagunagoak izango dira ziur aski ur gogorrak etxetresnetan zein industrian eragiten dituen kalteak. Kalte horietako bat, esaterako, karearen metaketa hodietan gertatzen da. Hortaz, etxeko garbigailuak eta berogailuak bizitza laburragoa izango dute. Hala ere, egon lasai, osasunean ez baitu kalterik eragiten.

1. irudia: Sarritan entzun izan ditugu “ur biguna” eta “ur gogorra” terminoak. Bat eta bestearen artean badago desberdintasun bat: mineralen maila. Zehazki kaltzio eta magnesio kopurua hartzen da kontua uraren sailkapena egiteko. (Argazkia: Skitterphoto / Pixabay.com – domeinu publikoko lizentziapean)

Ur bigunaren eta gogorraren sailkapen hori ulertzeko, abstrakzioa egin eta pentsatu beharko da gizakiak ikusten duen likidoa milioika partikulez dagoela osaturik. Ur edangarrian badira ur molekulak ez diren zenbait partikula gogortasun horretan eragina dutenak, besteak beste, kaltzioa eta magnesioa. Bi elementu horien kopurua zein den ikusita esan daiteke ura nolakoa den. Horretarako, litro bat uretan dauden kaltzio eta magnesio partikulak batu behar dira lehenik. Ondoren, kontuan hartu behar da partikula kantitate hori kaltzio karbonatoari dagokiola. Hain zuzen ere, karea hitza kaltzio karbonato gisa ezagutzen da kimikarien artean. Hor dago, beraz, karea eta uraren gogortasunaren arteko harremana. Kaltzioaren kontzentrazioa handia bada, karearena ere handia izango da, eta ur hori gogorra izango da.

Esan beharrik ez dago uretan dauden partikulak begi hutsez ezin direla bereizi. Kontzentrazio horiek neurtzeko bide bat baino gehiago badaude ere, horietako bat kaltzioarekin edo magnesioarekin erreakzionatuko duen zerbait gehitzea izango da. Horrela, gehitzen den horren kantitateak emango du uretan dagoenaren berri. Baloratzaile esaten zaio gehitutako horri. Eta nola lortuko dugu kanpotik erreakzio hori ikustea? Horretarako, disoluzioaren kolore-aldaketa bat gertatuko da, baina zerk eragingo du kolore-aldaketa hori? Adierazleak. Konposatu koloredun bat sortuko da uretako kaltzioaren (edo magnesioaren) eta adierazlearen arteko erreakzioan. Adierazleak kolore bat du kaltzioarekin lotuta dagoenean eta beste bat aske dagoenean. Noiz egongo da aske? Baloratzailea gehitu eta kaltzio/adierazle lotura hausten denean.

2. irudia: Karearen metaketa kanila batean. (Argazkia: Hustvedt / Wikipedia – CC BY-SA 3.0 lizentziapean)

Neurketa egiten hasteko, laborategia sukalde modura irudikatu behar da, bere ontzia, sua, mahai-tresna eta kozinatzeko beharko diren osagaiak eta guzti. Ontzi batean iturriko ura jarriko da, eta bertan zenbat kaltzio (edo magnesio) dagoen jakitea izango da helburua. Horretarako, ontziko ura gatzozpindu beharko da lehenik. Laborategian erabiliko den ozpina azido klorhidrikoa izango da. Zenbait osagai gehitu eta ontzian dagoen nahastea kozinatuko da, hainbat minutuz sutan bor-bor egiten utziz. Sutik aldendu eta nahastea hozten utzi behar da. Behin guztiz hotza dagoenean, adierazlea gehitu behar da. Hara, sukaldatutako nahaste gardenak kolore arrosa hartu du…

Hurrengo helburua kolore hori aldatzea izango da eta horretarako, baloratzailea pixkanaka gehitu behar da. Baloratzaile horren lana adierazleari bere lekua kentzea izango da. Gainera, erraz egingo du hori, adierazlearekin baino lotura sendoagoa eratzen baitu kaltzioak baloratzailearekin. Adierazle-kaltzio lotura hautsi eta baloratzaile-kaltzio lotura gauzatuko da, beraz. Noiz arte gehitu? Bexamela egiten den moduan, baloratzailea irina izanik, poliki-poliki gehituko da testura jakin bat lortu arte, kasu honetan disoluzioak kolore urdina hartu arte. Une horretan kaltzio guztia baloratzaileari lotuta egongo denez, adierazlea aske geratuko da eta horrek eragingo du nahastea urdina izatea.

Nahasteak kolore urdina hartu duenean, amaitutzat emango da sukaldatze-prozesua, baina zenbat baloratzaile erabili den apuntatuko da. Erabili den baloratzaile kantitatetik abiatuta zuzenean kalkula daiteke zenbat kaltzio eta magnesio duen iturriko urak. Eta jada jakina da kaltzio eta magnesio kantitate horien baturak karearen kantitatea emango duela.

Kantitate horren arabera jakingo da, beraz, etxetresnak fabrikatzaileak zehaztutako epea beteko duen ala lehenago kareak erraiak jango dizkion.

———————————————————————————-

Egileez: Ainhoa Lekuona eta Sara Pavo Gipuzkoako Campuseko Kimika Graduko ikasleak dira UPV/EHUn.

Artikulua, Maxux Aranzabe irakasleak Euskararen Arauak eta Erabilerak ikasgaian bultzatutako Laborategietako praktiketan oinarrituta idatzitako zabalkunde-testuak jardueraren harira idatzitako lana da.

———————————————————————————-

The post Karea: etxetresnen erraiak jaten dituen piztia appeared first on Zientzia Kaiera.

Categorías: Zientzia

Lo que Venus, el gemelo infernal de la Tierra, podría enseñarnos sobre lo que hace a un planeta habitable

Cuaderno de Cultura Científica - Lun, 2019/06/10 - 11:59
Comparación de Venus con la Tierra. Fuente: Wikimedia Commons

Empiezo pidiendo perdón por haber insultado así a Venus, llamándole infernal, algo inmerecido para un planeta que ya tuvo que sufrir a Mecano. Pero Venus tendrá que reconocer que no nos lo pone fácil para adjetivarle con amabilidad: 400 grados de temperatura, una presión atmosférica capaz de aplastar cualquier cosa y nubes de ácido sulfúrico pululando de aquí para allá. Como para darse un paseíto por allí una tranquila mañana de primavera.

Pero no siempre fue así. Venus fue una vez un planeta muy similar a la Tierra y algunos investigadores sugieren que durante tres mil millones de años, Venus fue un planeta cubierto por grandes océanos capaces de albergar vida. Eso lo convertiría en el primer planeta habitable del sistema solar, un punto con las mismas probabilidades que la Tierra de desarrollar formas de vida. Algunas de sus similitudes aún persisten hoy: ambas se parecen en tamaño, densidad y composición química. Otras como los océanos y la atmósfera habitable, no tanto…

El caso es que algo ocurrió y cambió Venus de un lugar no quizá parecido a la tierra a una suerte de su Mr. Hyde, y por eso, cuenta Nature en un detallado reportaje, equipos de científicos de distintas agencias espaciales de todo el mundo quieren saber qué fue. Esto, además de profundizar en el conocimiento sobre nuestro planeta vecino y con él sobre nuestro sistema solar, puede servirnos para determinar en cuáles de los cientos de planetas rocosos que seguimos descubriendo más allá del sistema solar puede haber vida.

Las agencias espaciales ponen los ojos en Venus

Venus en color a partir de imágenes de la sonda Mariner 10. Fuente: Wikimedia Commons

India es la primera que va a probar suerte. La Organización India de Investigación Espacial lanzará su sonda en 2023 que pasará varios meses orbitando alrededor de Venus. Estados Unidos podría seguirla de cerca; varios grupos de científicos propondrán misiones a Venus a la NASA con la idea de partir en 2025. La Agencia Espacial Europea está considerando enviar su propio orbiter en 2032, y la agencia espacial rusa Roscosmos trabaja ya en colaboración con la NASA para enviar una ambiciosa misión entre 2026 y 2033 que incluiría una sonda para orbitar, otra para aterrizar que envíe mediciones a corto plazo y una estación de investigación que permanecería sobre Venus más tiempo.

Todo son pretendientes para Venus… ahora. Esto no siempre ha sido así: Venus ha sido durante décadas la gran olvidada frente a Marte. En los últimos 65 años, la NASA ha enviado 11 sondas a orbitar en torno al planeta rojo y 8 misiones que han aterrizado. En comparación, solo 2 naves han sido enviadas a orbitar alrededor de Venus, y la última fue en 1994. No ha sido en cualquier caso una falta de interés científico lo que ha detenido a la agencia espacial estadounidense, ya que sus equipos de investigación han propuesto cerca de 30 misiones a Venus en todos esos años, pero ninguna ha sido aprobada.

Las tornas han cambiado, y mientras tanto muchos de esos equipos científicos y técnicos han desarrollado los métodos y la tecnología para estudiar y sobrevivir en un entorno tan destructivo.

Venus fue nuestro primer destino… con poco éxito

Venus captado por el telescopio Hubble el 24 de enero de 1995. Fuente: Wikimedia Commons

Probablemente esa desafección de las agencias por Venus comenzó en los inicios de la exploración espacial. Porque en aquellas primeras etapas sí que pusieron los ojos allí: Venus fue el escenario de la primera prueba interplanetaria (EEUU en 1962), el primer planeta en el que se estrelló una misión (la URSS en 1965) y el primer planeta extraterrestre en el que una misión aterrizó con éxito (también la URSS en 1966). Pero ya en aquellos años las observaciones que pudieron hacerse revelaron que Venus era un planeta asfixiante y tórrido: era difícil imaginarlo como un lugar en el que la raza humana fuese a establecer colonias, y tampoco un sitio donde la búsqueda de formas de vida resultase muy prometedora. Era difícil incluso estudiar sus condiciones con detalle.

Sin embargo, está claro que tenemos que volver allí. Algunas teorías, como decíamos, apuntan a que Venus pudo ser el primer lugar habitable del sistema solar pero, en algún momento, algo fue mal, muy mal, y toda esa habitabilidad se fue al garete. Quizá no haga tanto tiempo de aquello, quizá fue hace apenas 700 millones de años. Saber qué y cuándo ocurrió puede ayudarnos a entender mejor qué hace de la Tierra un lugar especial donde la vida apareció y se ha desarrollado, en principio el único lugar con estas características que conocemos hasta ahora.

Es una pregunta aun más importante ahora que la cuenta de planetas rocosos que orbitan en torno a estrellas en las llamadas zonas de habitabilidad (lo suficientemente cerca pero lo suficientemente lejos como para que la temperatura de la atmósfera permita la presencia de agua líquida) más allá de nuestro sistema solar no para de aumentar. Muchos de esos exoplanetas podrían ser muy similares a Venus. Cuanto más sepamos de nuestro extraño vecino, más sabremos sobre esos mundos lejanos.

Aparatos que sobrevivan (y funcionen)

Superficie de Venus obtenida por la sonda Magallanes. Fuente: Wikimedia Commons

Algo que es un desafío tecnológico considerable. Muchos de los equipos que quieren ir allí a echar un vistazo no se conformarían con orbitar alrededor de Venus: quieren un módulo aterrizando en su superficie, algo que no se ha conseguido en 35 años. Y de aquellos que lo hicieron con éxito tampoco se pudo extraer mucho más, ya que la presión en la superficie es demoledora. La misión que más tiempo sobrevivió lo hizo durante poco más de 2 horas, 127 minutos en total.

Desde entonces ha pasado mucho tiempo y la tecnología y el conocimiento han avanzado considerablemente, así que los equipos que están proponiendo las nuevas misiones creen que sus dispositivos podrán aguantar allí varios meses. Una de las alternativas propuestas por científicos de la NASA sugiere que en vez de blindar el equipamiento con escudos gruesos y resistentes para que absorban el calor y le hagan frente a base de equipos de refrigeración, los sensores se construyan a base de electrónica sencilla hecha con carburo de silicio, un híbrido de silicio y carbono utilizado habitualmente para fabricar diamantes falsos que podría aguantar las duras condiciones del entorno venusiano.

Utilizando esos materiales, testados en cámaras que reproducen las condiciones de ese entorno, han diseñado una estación de prueba, del tamaño de una tostadora y que será capaz de medir la temperatura, la presión, la dirección y velocidad del viento, la cantidad de radiación solar en la superficie y la presencia de determinadas sustancias químicas en la zona más baja de la atmósfera durante varios meses. El resultado debería estar listo a mediados de la década de 2020 y que ofrecerá a otros países si quieren utilizarlo en sus propias misiones.

De una forma u otra, parece que Venus va a ser un lugar concurrido en los próximos 10 o 20 años, rectificando así un olvido histórico y abriendo, si lo conseguimos, un nuevo mundo a explorar con mucha información interesante. Quien sabe si, finalmente (disculpadme un último chascarrillo ochentero), no terminaremos yendo a Venus en un barco…

Referencias:

Venus is Earth’s evil twin — and space agencies can no longer resist its pull – Nature

Was Venus the First Habitable World of our Solar System? – Arxiv.org, Cornell University

Shukrayaan-1 – Wikipedia

Rusia y EEUU completan el diseño de su misión al infierno de Venus – Europa Press

Medio siglo desde el primer aterrizaje en un planeta extraterrestre – El País

Long-Lived In-Situ Solar System Explorer (LLISSE) – NASA

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Lo que Venus, el gemelo infernal de la Tierra, podría enseñarnos sobre lo que hace a un planeta habitable se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El pueblo que hablaba con las ballenas, ¿podría enseñarnos su idioma a los demás?
  2. Matemáticas del Planeta Tierra (MPE2013), en Bilbao
  3. Planeta X, en busca del inquilino invisible del sistema solar
Categorías: Zientzia

Zeintzuk dira zabor-janaren ondorioak osasunean?

Zientzia Kaiera - Lun, 2019/06/10 - 09:00

Badira “janari lasterra” deitzen diotenak, beste batzuk “zabor-jana” deritzote. Izen bat zein bestea emanda ere, kontuan izan behar dugu astean birritan janez gero gizenduko garela. Izan ere, martxa horretan hamar urtean, zabor-jana astean behin jaten duenak baino 4-5 kg gehiago hartuko ditugu. Eta pisua ez da “irabaziko” dugun gauza bakarra…

Maiz egiten diren galderak ataleko bideoek labur eta modu entretenigarrian aurkeztu nahi dituzte, agian, noizbait egin ditugun galderak eta hauen erantzunak. Bideoak UPV/EHUko Kultura Zientifikoko Katedrak eginak daude eta zientzia jorratzen duen Órbita Laika (@orbitalaika_tve) telebista-programan eman dira gaztelaniaz.

The post Zeintzuk dira zabor-janaren ondorioak osasunean? appeared first on Zientzia Kaiera.

Categorías: Zientzia

Páginas