Dorothy Crowfoot Hodgkin (1910-1994): ikusezina ikusgai egin zuen emakumea
Liburu horretan, Bernard Le Bovier de Fontenelle filosofoaren hitzak biltzen ditu autoreak, zeinak esaten duen mundua ulertzeko sortu dituzten teoriak bi ezaugarriri esker egin ditugula: kuriositatea eta bista txarrekoak izatea. Gaineratzen du, gure arazoa betidanik izan dela ikusten ditugun baino gauza gehiago jakin nahi ditugula.

1. irudia: Dorothy Crowfoot Hodgkin kristalografoa 1964. urtean, Kimikako Nobel saria irabazi zuenenean. (Argazkia: Wikipedia – Domeinu publikoko argazkia)
Zientzialari batzuek arazo hori abantaila bihurtu dute, Dorothy Crowfootek kasu. Kimikari honek begi-bistan ez zuena ikusi eta ulertu nahi zuen. Harentzat beharrezkoa zen molekulak ikustea eta horien egitura zehaztea, organismoan nola funtzionatzen zuten jakiteko. Ikusmin horrek eraman zuen Kimikako Nobel saria irabaztera, 1964an. X izpien difrakzio teknikaren bidez molekula organiko konplexuen hiru dimentsioko egitura zehazteagatik lortu zuen, hain zuzen. Ikertu zituenen artean zeuden pepsina, esterolak (kolesterola, adibidez), penizilina, B12 bitamina (90 atomo baino gehiagoko egitura du, konplexuenetarikoa da) eta geroxeago, intsulina, bere proiektu nagusietako bat. Atomoen disposizioa ikertzeko une hartako teknikarik berriena eta zehatzena erabili zuen: kristalografia. Hala, substantzia horien egitura ezagutzeak lagundu zuen hainbat gaixotasuni aurre egiteko tratamendu berriak diseinatzen, diabetesarena, esaterako.
Kristalografiaz maitemindutaDorothy Crowfoot Hodgkin 1910ean jaio zen El Cairon baina Ingalaterran bizi izan zen txikitatik. Liburu batek piztu zuen bere zientziarako grina. 15 urterekin William H. Bragg (Fisikako Nobel saria irabazi zuen 1915ean) kristalografia kimikoan aditu zenaren The Nature of the Things irakurri egin zuen. Hori gutxi balitz bezala, hamar urterekin jada esperimentuak egiten omen zituen bere etxean. Unibertsitatera joateko unea heldu zenean, Oxforden kimika ikasi nahi zuela erabaki zuen. 1928tik 1932ra bitartean egin zituen ikasketak eta azken urtean X izpien kristalografian espezializatu zen.
Irakasle esanguratsu mordoa izan zuen inguruan, hala nola Robert Robinson (Kimikako Nobel saria 1947an), Cyril N. Hishelwood (1956ko Fisikako Nobel saria) eta beste hainbat hizlari gonbidatu: Ernest Rutherford (Kimikako Nobel saria 1908an), Niels Bohr (Fisikako Nobel saria 1922an) eta Peter Debye (Kimikako Nobel sariduna 1936an). Halere, gehien gustatu zitzaion hitzaldia John D. Bernal kristalografoarena izan zen. Horiek hola, tesia berarekin egitea erabaki zuen Cambridgeko Unibertsitatean, hari interesatzen zitzaion gaian aditua baitzen. Aipatzekoa da, graduatu ostean, zaila izan zela Crowfootentzat lana topatzea emakumea zelako; hainbatek sufritu zuten patua zen, zoritxarrez. Dena dela, Emakumeen Eskoletan eta Somerville Collegen kimikako irakasle izan zen. Geroxeago, unibertsitateko irakasle bihurtu zen baita hizlari ere. Esan bezala, tesian esterolak izan zituen ikergai eta 1934an amaitu zuen doktoregoa. Hori egiten zuen bitartean, bere lehenengo artikulua publikatu zuen Herbert Marcus Powellekin batera.

2. irudia: Oxforden Dorothy Crowfoot ikertzailearen oroimenez jarrita dagoen plaka. (Argazkia: Owen Massey McKnight / Wikimedia CC BY-SA 2.0 lizentziapean)
Molekulak ikusi nahi ditutCrowfootek ez zuen bide erraza izan inondik inora, X izpien difrakzioaren teknikak buruhauste franko sortu zizkion. Oso pertsona metodikoa zen bere lanean: kristal bakoitzaren argazkiak egiten zituen, plaka fotografikoetan argi-punturen intentsitatea eta disposizioa zehazten saiatzen zen eta, horretaz gain, kalkulu matematiko amaigabeak ebazten zituen. Horrek denbora eskatzen zuen, jakina, une hartan ez zuelako lagungarria izan zitekeen ordenagailurik. Bestalde, artritis erreumatoidea diagnostikatu zioten; bere eskuak tolesten eta deformatzen hasi zitzaizkion. Dena dela, lanean jarraitu zuen; doktoregoa lortu ondoren, Oxfordera itzuli zen ikerketarako lanpostu bat lortu zuelako.
Bertan, substantzia biokimiko garrantzitsu batzuen hiru dimentsioko egitura zehaztea lortu zuen X izpien difrakzio teknika onduz. Horien artean, pepsina, kolesterola, penizilina, B12 Bitamina eta intsulina, besteak beste. Konturatu zen molekula horien arkitekturak zerikusia izugarria zuela euren jokabide eta funtzioekin. Hortaz, horien egitura ezagutzeak gaixotasun batzuk tratatzen lagunduko zuela iritzi zion. Lortutako ezagutza oro bildu zuen Sobre los esteroles, vitaminas y antibióticos liburuan.
Nobel saria lortzeaz gain, 1947an Londresko Royal Society-ko kide izendatu zuten eta 1958an, Arteen eta Zientzien Ameriketako Estatu Batuetako Akademiakoa. 1977tik aurrera, erretiroa hartu zuen eta ikerketa-lana utzi bazuen ere, asko bidaiatu eta anitz konferentziatan esku hartu zuen. Dorothy Crowfootek taxutu zuena magiatik oso hurbil dagoela pentsa dezakete gehienek. Bere lana egiteko baina ez zuen trikimailurik erabili, hark zientzia egin zuen.
Iturriak:
- Biografias y Vidas: Dorothy Crowfoot Hodgkin
- Los avances de la química: Dorothy Crowfoot-Hodgkin: científica excepcional
- Mujeres con ciencia: Capturada por la química: Dorothy Crowfoot Hodgkin
- The Nobel Prize: Dorothy Crowfoot Hodgkin
———————————————————————–
Egileaz: Uxue Razkin (@UxueRazkin) kazetaria da.
———————————————————————–
The post Dorothy Crowfoot Hodgkin (1910-1994): ikusezina ikusgai egin zuen emakumea appeared first on Zientzia Kaiera.
Experimentación y evidencia: dos visiones opuestas

Anteriormente, hablábamos de estándares de evidencia científica y del problema filosófico de la inferencia inductiva; de cómo Ronald Fisher, hace un siglo, promovió métodos —como los contrastes de hipótesis— que evaden el problema, y adelantábamos que dichos métodos suponen una aproximación frecuentista a la realidad. A continuación abundaremos en el problema metodológico que plantean la medida y la estimación estadística de la (in)certidumbre, y que tiene su raíz en el concepto mismo de probabilidad. Esto da lugar a dos visiones opuestas aunque, como veremos, estrechamente relacionadas, lo que en estadística se denomina frecuentismo vs. bayesianismo.
La probabilidad, en su definición más básica, es una medida de la certidumbre asociada a un suceso futuro. Aquí por suceso entendemos eventos que bien pueden ser simples, como la probabilidad de obtener “cara” al lanzar una moneda, o complejos, como la probabilidad de que un jugador de fútbol marque un penalti. Esta es la única definición operativa para la aproximación frecuentista, en la que la probabilidad de un suceso es simplemente la frecuencia relativa de dicho suceso cuando el experimento se repite infinitas veces. Es decir, si tirásemos infinitas veces una moneda ideal, obtendríamos “cara” la mitad de las veces, por lo que decimos que la probabilidad de “cara” (dada una moneda ideal) es de 0.5.
Por tanto, la aproximación frecuentista se dedica a responder a Pr(D | H), esto es, la probabilidad de ciertos datos asumiendo cierta hipótesis: ¿es normal obtener 58 caras y 42 cruces en 100 lanzamientos si la moneda no está trucada? Las limitaciones saltan a la vista: ¿qué me dice esto respecto a asumir que la moneda está trucada?, ¿cómo de trucada?, ¿cómo cambia mi conocimiento sobre esta cuestión si hago otros 100 lanzamientos y obtengo, por ejemplo, 47 caras y 53 cruces? Como vimos al hablar de p-valores, lo más a lo que podemos aspirar es a rechazar que no esté trucada, y si no lo logramos, no obtenemos ninguna información.
¿Podemos hacerlo mejor? Así lo afirma la aproximación bayesiana. Para ello, necesitamos extender la definición de probabilidad, que ahora pasa a ser la certidumbre asociada a una hipótesis dada cierta evidencia disponible: ¿qué certidumbre tengo de que la moneda (no) está trucada si obtengo 58 caras y 42 cruces en 100 lanzamientos? Dicho de otra manera, el enfoque bayesiano se ocupa de Pr(H | D), de las preguntas de la ciencia. No obstante, resulta paradójico que ambas corrientes —deductiva vs. inductiva— se encuentren irreconciliablemente unidas mediante un resultado fundamental de teoría de la probabilidad: el teorema de Bayes.
La probabilidad frecuentista se transforma en la probabilidad bayesiana, o a posteriori, simplemente multiplicando por Pr(H), que no es otra cosa que la información a priori que disponemos del problema en cuestión. La inclusión de este factor, que no está exento de sutilezas, pone muy nerviosos a los frecuentistas, ya que lo ven como una fuente de subjetividad y de sesgos que no tiene lugar en un análisis estadístico. A esto, los bayesianos replican que el frecuentismo no soluciona este problema, sino que simplemente evita la pregunta.
Así pues, el enfoque frecuentista puede verse como un caso particular del bayesiano con un conjunto de suposiciones implícitas que no son necesariamente buenas. Por el contrario, a través del teorema de Bayes se hace explícita esta elección, lo que da enormes ventajas tanto filosóficas (se responde directamente a la pregunta que nos interesa) como metodológicas (por ejemplo, es sencillo y directo actualizar mi grado certidumbre sobre la hipótesis cuando obtengo nuevos datos o nueva información), ventajas que se hacen más evidentes cuando las preguntas que nos hacemos y los modelos que planteamos son más y más complejos.
Entonces, ¿cuál es la moraleja? ¿Es el frecuentismo erróneo? No necesariamente. Pero sí es cierto que sus métodos, numerosos y diversos, se prestan con más facilidad a una elección, uso o interpretación incorrectos, incluso entre expertos, y en determinados contextos esto lleva a conclusiones erróneas. Es por ello que muchos de sus detractores lo consideran perjudicial para la ciencia y promueven el bayesianismo como solución. No obstante, hoy en día, todavía los cursos introductorios a la estadística de cualquier carrera universitaria siguen siendo superficialmente frecuentistas.
Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute
El artículo Experimentación y evidencia: dos visiones opuestas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Prohibir los herbicidas con glifosato es anteponer la ideología a la evidencia científica
- Galileo vs. Iglesia Católica redux (VI): Visiones
- Algunas visiones en filosofía de la ciencia sobre sus valores
A new hero is born: Masa-espektrometria justiziaren zerbitzura
Oinordeko izan zitezkeen gainerako senitartekoek, aldiz, testamentu hori faltsua zela argudiatu zuten, eta zenbait hamarkada lehenago notarioaren aurrean egindako testamentu ofiziala aurkeztu zuten, non aitonak bere aberastasunak denen artean banatzen zituen modu orekatuan. Ez zuten zalantzan jartzen testamentu olografoa nork egin zuen (peritu kaligrafoek berretsi zuten aitonak egina zela), baizik eta noiz egina izan zen. Testamentu olografoa adierazitako datan egina izan zela frogatuz gero, indarrean zegoela eta baliagarria zela esan nahiko zuen, notarioaren aurrean egindakoa baino berriagoa baina aitonak bere gaitasunak galdu baino lehenagokoa zelako.
Deskribaturikoa bezalako kasuak edo antzekoak behin baino gehiagotan gertatzen dira gure gizartean. Formatu elektronikoko gizarte baterantz goazen arren, ondorio indibidual, sozial edota ekonomiko garrantzitsuak dituzten itun edo akordio gehienak eskuz idazten dira, idazteko tresnekin (boligrafoak, adibidez). Horregatik, dokumentuen ikerketa forentseak indarrean jarraitzen du. Adibidez, Finlandiako polizia zientifikoak 2015ean jasotako datuek frogatzen dutenez, ikerketa forentsea erabakigarria izan zen epai irmo batera iristeko, dokumentuekin erlazionatutako kasu judizialen % 40an.

1. irudia: Matilde Corcho-ren amodio-gutuna, lehenengo testamentu olografoa izan zena, 1918an Auzitegi Gorenak emandako epaiaren ostean. (Iturria: Valladolideko Artxibo Historiko Probintziala – SER irrati katearen bidez)
90eko hamarkadaz geroztik, hainbat metodologia analitiko daude dokumentuak datatzeko. Baina hasieratik hasteko, galdera hauei erantzun beharko diegu: Zertan daude oinarrituta dokumentuak datatzeko metodologia gehienak? Nola jakin dezakegu dokumentu bat bertan jartzen duen datan idatzia izan dela? Funtsean, datazio zuzenak egiteko metodologia gehienak denboraren poderioz tintan gertatzen diren aldaketei behatzen saiatzen dira. Pentsa daitekeenez, ez da lan erraza, nazioarteko merkatuan hamaika tinta-mota baitaude. Gainera, boligrafo-marka batean tinta-mota bat baino gehiago erabil daitezke. Adibidez, munduan zeharreko ekoizpen-planta batzuetan eta besteetan edo lote batzuetan eta besteetan tinten konposizioa desberdina izan daiteke, propietate desberdinak dituzten idazteko tresnak merkaturatzeko helburuarekin. Horregatik, osagai desberdinak dituzten ezin konta ahala tinta daude eta ezinezkoa litzateke banan-banan aztertzea. Jarri dugun adibidean, inoiz ez zen jakin zer boligrafo erabili zuen aitonak bere testamentua egiteko, eta are gutxiago zer marka edo lotekoa zen. Arazo horri aurre egiteko, boligrafoetako tintan ohikoa den konposatu-familia baten azterketan oinarritzen dira datazio-metodologia gehienak: disolbatzaile organikoen azterketan. Konposatu horiek eramaile gisa eransten zaizkie koloratzaileei eta erretxinei, eta trazuan gelditzen diren unetik bertatik lurruntzen hasten dira. Badiren arren disolbatzaile gisa ura erabiliz egindako boligrafoak (gel erakoak), idazteko tresna ohikoenetan konposatu organiko hegazkorrak erabiltzen dira disolbatzaile gisa: alkoholak, aldehidoak edo zetonak. Ohikoena 2-fenoxyetanol izenekoa da (tinta likatsua duten boligrafoen % 80 baino gehiagotan erabiltzen da), eta horixe bera da gehien aztertu izan dena portaera zinetikoari dagokionez.
Eta adierazitakoa kontuan hartuta, hauxe galdetu dezakegu: zertarako izan daiteke lagungarria masa-espektrometria dokumentuen datazioan? Zergatik da gaur egunera arte garatu diren datazio-metodologietan gehien erabiltzen denetako bat? Masa-espektrometria teknika nahiko berria da, eta asko erabiltzen da hainbat arlotako analisiak egiteko, hala nola elikagaigintzan, industrian, farmazian edo analisi forentsean. Oso aplikagarria da, besteak beste, konposatu ezezagunak identifikatzeko aukera ematen duelako konposatu horiek espektroen liburutegi batekin alderatuta.
Teknika nahiko sinplea da: masa-espektrometrora (MS) iristen diren molekula organikoak elektroi-kopuru handi batek “bonbardatzen” ditu, potentzial-diferentzia kontrolatu baten pean (70 eV). Elektroi-talka horren eraginez konposatua zatitan apurtzen da eta, potentziala aldatzen ez den bitartean, zatiak beti berdinak dira (2. irudia). Horrela, substantzia puruen zatiketa kontrolatuari esker konposatu organiko askoren espektroen liburutegiak dauzkagu (306 622 konposaturenak 2017ko azken bertsioan), ezezagunak zaizkigun molekulen espektroak haiekin alderatu eta konposatu ezezagunak identifikatu ahal izateko. Datu-basean ez dauden konposatu ezezagunak konposatu puruen espektroekin alderatuta lehenak identifika ditzakegu, konfiantza-ehuneko jakin batekin. Horregatik, masa-espektrometria funtsezko tresna da dokumentuen datazio-metodologien baitan. Eta are gehiago aldez aurretik substantzia organiko hegazkorrak bereizteko teknika bat erabiltzen bada: gas-kromatografia (GC). Beste edozein detektatzaile kimiko unibertsalek bezalaxe, MSari esker jakin dezakegu konposatu baten zer kantitate daukagun analizatutako laginean (nanogramo-mailan) baina, horrez gain, tresna bikaina da konposatu ezezagunak identifikatzeko.
Lehengo adibidera bueltatzen bagara, gas-kromatografia eta masa-espektrometria uztartuta (GC/MS) jakin genezake zenbat disolbatzaile gelditu den testamentu olografoko tinta-trazuetan eta, gainera, jakin genezake ere tintak zer konposatu-mota dituen. Informazio hori guztia oso garrantzitsua da dokumentuak datatzeko garaian: jakin dezakegu aztertutako trazuan ba ote dagoen zinetika aztertuta duen disolbatzaile organikorik eta, bestalde, neurketa kuantitatiboaren bidez jakin dezakegu zer konposatu-kantitate dagoen. Bi datu horiek baliagarriak izan daitezke kalkulatzeko tinta hori noiz erabili zen. Gainera, konposatuak identifikatzeko gaitasun horri esker zeharkako datazioak ere egin daitezke, konposizioan anakronismoak aurkituz gero. Hau da, konposizio komertzialetan oraintsu erabiltzen hasi den konposatu bat identifikatzea lortuko balitz, horrek esan nahiko luke testua ez zutela idatzi lehenago.

2. irudia: 2-fenoxyetanol molekularen masa-espektroa. Berdez, ioi molekularra, eta laranjaz eta urdinez, ioi-zatiak. (Argazkia: Luis Bartolomé)
Gaur egun, datazio-metodoek erreparoak eragiten jarraitzen dute zientzialarien artean eta gizarte zibilean (perituak eta epaileak), haien inguruan arazo eta eragozpen ugari egoten direlako. Hauek dira agertzen diren arazo ohikoenetako batzuk: tintaren euskarri den paperak eragina duela tinten bilakaera zinetikoan bere ezaugarriak direla eta (dentsitatea, konposizioa…), tinta baten adina zehazteko orduan masak garrantzi handia duela (gogoan izan behar da denok ez genukeela tinta-kantitate bera utziko une berean egindako trazu batean), edo dokumentuak kontserbatuta egon diren erak ere eragina duela (ez da gauza bera dokumentu bat idazmahai bateko tiradera batean gordeta egon izatea baldintza kontrolatuetan edo auto baten barruan egon izatea hondartzan). Konponbide konplexua duten arazo horiez gain, badaude ohikoak diren beste arazo batzuk ere: dagoen lagin-kantitatea (batzuetan milimetro eskas batzuk bakarrik egoten dira analizatzeko) edo 2 urte baino gehiagoko dokumentuak datatu ezin izatea, adibidez. Euskal Herriko Unibertsitateak (UPV/EHU) aktiboki parte hartu du datazio-metodologia berrien garapenean eta bilakaeran, deskribaturiko arazo horiek minimizatzearren. 2015az geroztik, Zientzia eta Teknologia Fakultateko Kimika Analitikoa Saileko (FCT/ZTF) ikertzaile-talde batek, Ikerkuntzarako Zerbitzu Orokorrekin (SGIker) batera, DATINK izeneko datazio-metodo berritzailea garatu du. Metodologia horrek masa-espektrometriaren potentzialtasuna eta 2-fenoxyetanol ondoz-ondoko etapetan mikro-erauzteko prozesu bat (3. irudia) eta eredu matematiko original bat konbinatzen ditu, eta haren bidez lortu da datazioa lagin-kantitate txikiago batekin egin (1,2 mm-ko trazu bat nahikoa da) eta 5 urtera arteko laginak aztertu ahal izatea. Gainera, metodo berriak badu beste berrikuntza bat ere orain artekoekin alderatuta: data zehatz bat kalkulatzen du (%20ko errore-tartearekin). Deskribaturiko testamentuaren kasuan, adibidez, hori funtsezkoa izan zen. Zalantzan jartzen zen dokumentua notario aurrean egindako testamentuaren ondoren baina gizona gaixotasunagatik desgaituta gelditu aurretik egin zela frogatu behar zen. Eta pentsatu baduzue aitonak modu orekatuan banatu nahi izan zituela bere aberastasunak oinordekoen artean, esango dizuet oker zabiltzatela.

3. irudia: DATINK metodoaren oinarri diren seinale kromatografikoak. Erauzketa bakoitzean fenoxyetanol-kantitatea txikiagoa da. (Argazkia: Luis Bartolomé)
Beraz, masa-espektrometria da dokumentuen azterketan egoten diren arazoen konponbidea? Heroi bat jaio da? Esango bagenu horrelako tresnei esker ez dela errazagoa arazo analitikoen ebazpenean helburu berriak garatzea eta betetzea, tentelak izango ginateke. Azterketa forentsearen kasuan, masa-espektrometria oinarrizko tresna bihurtu da, dokumentuak datatzeko metodologia berrien garpenean ez ezik, baita beste aplikazio-arlo batzuetan ere. Baina irmotasun osoz esan daiteke ere detekzio-metodo hau ez dela panazea eta ez dela izango gure gaitz guztien konponbidea, non eta ez dugun jartzen ikertzaile berritzaileen eta sortzaileen zerbitzura. Normalean, I+G+b garapenaren ardura detekzio-metodo horien gaitasunen eta haien hobetzeko aukera etengabearen esku uzteko joera izaten dugu ikertzaileok, eta ahaztu egiten zaigu gurea dela ardura eta bi alderdiak modu egokian konbinatuta lortzen direla emaitzarik onenak. Esan beharrik ere ez dago UPV/EHUk eta Zientzia eta Teknologia Fakultateak, ahalmen handiko prestakuntzarako sarearen parte diren aldetik, ardura oso handia izan dutela, dutela eta izaten jarraitu beharko dutela konbinazio horretan etekin maximoa lortzeko.
—————————————————–
Egileaz: Luis Bartolomé SGIker zerbitzuko (Ikerkuntzarako Zerbitzu Orokorrak) teknikaria da UPV/EHUko Zientzia eta Teknologia Fakultatean.
—————————————————–
Hizkuntza-begiralea: Juan Carlos Odriozola
——————————————–
Masa-espektrometriari buruzko artikulu-sorta
- Masa-espektrometria (I). Neoi isotopoetatik elefante hegalariengana
- A new hero is born: Masa-espektrometria justiziaren zerbitzura
The post A new hero is born: Masa-espektrometria justiziaren zerbitzura appeared first on Zientzia Kaiera.
La notación polaca, la de Jan Łukasiewicz
La notaciones de prefijo (o polaca, en homenaje a Jan Łukasiewicz), de infijo y de postfijo (o polaca inversa) son formas de escritura de expresiones algebraicas que se diferencian por la posición relativa que toman los operadores y los operandos. En la notación de prefijo, el operador se escribe delante de los operandos (+ 3 4), entre los operandos en la notación de infijo (3 + 4) y tras los operandos en la de posfijo (3 4 +).
La notación de prefijo fue propuesta en 1924 por el matemático, lógico y filósofo polaco Jan Łukasiewicz (1878-1956), de allí el nombre alternativo por la que se conoce.

Al igual que la de postfijo, la notación polaca permite prescindir de los paréntesis en el caso de operadores de aridad fija conocida. Por ejemplo, la operación 5 * (12 + 4).puede escribirse en prefijo como: * 5 (+ 12 4); o sencillamente: * 5 + 12 4 (y como 5 12 4 + *en postfijo).
Łukasiewicz introdujo esta notación con la intención de simplificar la lógica proposicional. El matemático y lógico Alonzo Church la mencionaba en su libro clásico Introduction to Mathematical Logic (1956) como una notación digna de observación. Aunque dejó pronto de utilizarse en lógica, encontró su lugar en las ciencias de la computación. Por ejemplo, el lenguaje de programación LISP basa precisamente su sintaxis en la notación polaca.
Las calculadoras Hewlett-Packard usan la notación polaca inversa, económica en número de entradas, pero que requiere un esfuerzo adicional para la interpretación del resultado. Esta empresa utilizó este sistema por primera vez en 1968, en la calculadora de sobremesa HP-9100A. Y fue también ésta la notación de la primera calculadora científica de bolsillo, la HP-35, usada entre 1972 y 1975.

En ciencias de la computación, la notación de postfijo se usa en lenguajes de programación orientados a pila y en sistemas basados en tuberías.
Pero volvamos, para finalizar, a Jan Łukasiewicz, al que rendimos hoy homenaje porque falleció un 13 de febrero, en Dublin, donde emigró tras la Segunda Guerra Mundial.
Como ya hemos comentado, trabajó fundamentalmente en lógica proposicional, sistema formal en el que pensaba realizar innovaciones. Estudió los sistemas axiomáticos de la lógica e impulsó las lógicas multivaluadas, dando una interpretación de la lógica modal.
Hoc est falsum (Esto es falso).
No, no, lo que he comentado arriba no es falso. Esta sentencia es la versión de Girolamo Savonarola de la famosa paradoja del mentiroso. Jan Łukasiewicz dio una solución de esta paradoja en los siguientes términos:
Todo principio lógico contiene variables. Estas variables, como las variables en matemáticas, pueden tener varios valores. Existe una ley lógica que dice que todos los principios lógicos se refieren solo a aquellos objetos que pueden ser valores de variables. Se puede demostrar que la frase anterior que contiene la contradicción no puede ser el valor de una variable. Por lo tanto, los principios lógicos no se aplican a esta oración. Esta construcción está fuera de la lógica.
Más información:
-
Jan Lukasiewicz et la notation polonaise inverse, Almanac mathématique
-
O’Connor, John J.; Robertson, Edmund F., Jan Łukasiewicz, MacTutor History of Mathematics archive, University of St Andrews
-
Curriculum Vitae of Jan Łukasiewicz, Metalogicon VII (2), 133-137, 1994
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo La notación polaca, la de Jan Łukasiewicz se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Nitrogenoaren zikloa (ere) zoratzen hasia zaigu
Burua altxatu eta gorantz begiratu. Orain eskumara. Ezkerrera gero. Inguruan ikusten den gehiena nitrogenoa da. Egia esanda, ikusten ez den gehiena. Funtsean, nitrogenozko sopa batean murgilduta bizi gara Lurrean bizi garen izaki lehortarrok, baina gutxitan izan ohi dugu horren kontzientzia. Kopurua ez da hutsala: atmosferaren % 78 nitrogenoa da. Beraz, arnasa hartzen dugun aldiro, birikietan sartzen dugun airearen hiru laurden baino gehiago nitrogeno purua da. Gas egonkorra da normalean, baina elementu hori finkatu daiteke ere, aldaera erreaktiboa sortuta.

1. irudia: Karbonoaren ziklo bat dagoen modu berean, nitrogenoaren ziklo bat badago planetan, eta bereziki landareetan du eragin handiena. (Argazkia: Alessandro Capuzzi / Unsplash)
Gu gas horretaz ia-ia konturatzen ez bagara ere, nitrogenoa nutriente garrantzitsua da landareentzat. Naturan soilik entzima talde bat da gai atmosferan dagoen gas hori kopuru handietan finkatzeko, eta gasa ez den konposatu bat bihurtzeko (amonioa, hain zuzen). Bereziki, lekaleen sustraietan bizi diren zenbait bakteriotan daude entzima horiek, eta, milioika urtez, lekale horiek izan dira gainerako landareak nitrogenoarekin “elikatzeko” gaitasuna (eta ardura) izan dutenak. Lekaleek lurzorua ongarritzeko duten ahalmen izugarri horren berri aspalditik daukate nekazariek, ezagutza enpirikoari esker, eta horregatik lekaleek toki bat izan ohi dute errotazio laborantzetan.
Ohi bezala, Ronaldinho edota Beyonce bezalako heroien parean ia ezagutzen ez den kimikari bati zor zaio jendearen bizitza aldatuko zuen aurkikuntza: Justus von Liebig kimikaria konturatu zen nitrogenoa, fosforoa eta potasioa direla landareen oinarrizko nutrienteak. Garai horretan, guanoa zen nitrogeno horren iturri bakarra, eta hegaztien kakaren inguruan izugarrizko merkataritza sarea osatu zen. Beste bi lagunei zor zaie kaka urri horrekiko dependentzia apurtu eta zuzenean airetik nitrogenoa nahieran lortzeko prozesua abiatzea: Fritz Haber eta Carl Bosch kimikariei. Euren izana daraman Haber-Bosch prozesuan oinarritu zen, hain zuzen, iraultza berdea.
Karbonoaren zikloa bezain ezaguna ez bada ere, nitrogenoaren ziklo bat dago planetan. Eta, hemen ere, giza jarduerak ziklo hori kolokan jarri du: adituek diotenez, azken urteotan nabarmen handitu da giza jardunaren ondorioz ingurumenera iritsi den nitrogeno erreaktiboaren kopurua. 1900-1980 epean, hiru edo lau aldiz handitu da atmosferan bildu den oxidatutako nitrogenoaren kopurua (NOx eta N20, kasurako), eta nitrogenoa erreduzituaren (amoniakoa edo NH3) kopurua bikoiztu egin da ere. Urte bakoitzeko, 210 Tg nitrogeno erreaktibo sortzen ditu gizakiak. Modu naturalean, berriz, 203 Tg sortzen dira.
Arazo honen inguruan hausnarketa egin du Science aldizkarian Carly J. Stevens landare ekologoak, gaiaren inguruan izan diren azken ikerketa nabarmenenen errepasoa eginez. Stevensek munduan gertatzen den nitrogenoaren banaketan jarri du arreta berezia. Garatutako herrialdeetan nitrogeno asko egoteak aniztasun biologikoan, giza osasunean eta kliman arazoak sortzen dituen bitartean, garapen bidean dauden herrialdeetan kontrakoa gertatzen da, nitrogeno gutxi duten lurrak dituztelako, eta horrek herrialde horietako biztanleen elikadura-segurtasuna kinkan jar dezakeelako. Halere, ohi bezala, bi arazo hauek ez daude sakabanatuta, nitrogenoari bost axola zaizkiolako gizakiek ezarritako muga politikoak.
Landareetan, gutxiagoNitrogeno erreaktiboaren kopurua asko handitu den arren, landareen ehunetan jasotako nitrogenoaren kopurua jaitsi da 1980-2017 tartean, eta hori landareek hartzen duten nitrogenoaren adierazletzat hartu izan da: ondorioztatu daiteke landareek nitrogeno gutxiago daukatela eskura. Stevensen hitzetan, “1980tik garatutako hainbat herrialdetan nitrogenoaren isuria gutxitu den arren, hau ez da joera globala izan; hortaz, zaila da ulertzea nola eman daitezkeen batera landareetako nitrogenoaren erreserben ahitzea eta nitrogeno erreaktiboaren isurien handitzea”.

2. irudia: nitrogenoa modu masiboan finkatzeko ahalmenari esker posible izan zen abiatzea munduko populazioa elikatzea ahalbidetu zuen iraultza berdea. (Argazkia: Ricardo Gomez / Unsplash)
Zientzialarien irudikoz, paradoxa horren atzean dauden arrazoiak izan daitezke CO2 isuriak handitu direla eta laborantza sasoiak luzatu egin direla, azken honek biomasaren ekoizpena handitu duelarik. Misterio txiki honen inguruan informazio gehiago eskuratzeko, isotopo egonkorretara jo dute zientzialariek. Lagin jakin batean dauden isotopo astun eta arinen proportzioa ezagutzean datza teknika hau. Atmosferan dauden nitrogeno iturriak isotopo arinak izan ohi dira. Horregatik, landareetako isotopoen analisien oinarrituta, zientzialariek ondorioztatzen dute atmosferan nitrogeno gehiago dagoela.
Mendi harritsuetan urtez egindako esperimentu baten berri eman du egileak. Bertako larre batean 12 urtez nitrogeno erreaktiboaren mailak nahita handitu zituzten, eta horrek bertako landare espezieen osaketan eragina izan zuen: ordura arte zabalduen zegoen Cyperus rotundus belarrak atzera jo zuen, eta beste hainbat espezie nagusitu ziren. Horrez gain, lurraren PHan, onddoetan eta bakterioetan ikusi zuten eragina, eta nitrogenoa sartzeari utzi eta bederatzi urtera ere aldaketa horiek oraindik ez ziren bueltatu jatorrizko mailetara.
Oxidatutako nitrogenoaren isuria batez ere erregaiei zor zaie, eta Europan 1980. urtearen bueltan iritsi ziren goreneko mailetara, ordudanik hona kopurua gutxitu delarik. Nitrogeno erreduzituari dagokionez, gehienbat nekazaritzan dago jatorria, eta kopuruak ez dira batere gutxitu, bereziki isuri hauen gaineko erregulazioa askoz txikiagoa izan delako herrialde gehienetan. Horretan ere, dieta ohiturak aldatu eta elikagaien ekoizpena optimizatzearen beharra aldarrikatu du Stevensek. “Planetari dagokionez, gizateriak muga batzuen barruan mantendu nahi badu bere burua, –tartean, nitrogenoaren mugak– gure dietak aldatu beharra dago, elikagaien ekoizpenean hobekuntza teknologikoak ezarri eta horien kudeaketa okerra gutxitu behar da”.
Erreferentzia bibliografikoa:
Stevens, Carly J., (2019). Nitrogen in the environment. Science 363 (6427), 578-580. DOI: 10.1126/science.aav8215
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Nitrogenoaren zikloa (ere) zoratzen hasia zaigu appeared first on Zientzia Kaiera.
Sonido (y 2)

Siempre ha sido bastante obvio que el sonido emplea un tiempo para viajar desde la fuente hasta el receptor. Cronometrando los ecos en una distancia conocida, el matemático Marin Mersenne calculó por primera vez en 1640 la velocidad del sonido en el aire. Pasaron otros 70 años antes de que William Derham, comparando el flash y el ruido de los cañones a 20 km de distancia, se acercara a las mediciones modernas. El sonido en el aire al nivel del mar a 20 ° C se mueve a unos 344 m/s. Al igual que para todas las ondas, la velocidad de las ondas de sonido depende de las propiedades del medio: la temperatura, la densidad y la elasticidad. Las ondas de sonido generalmente viajan más rápido en líquidos que en gases, y más rápido todavía en sólidos. En el agua de mar su velocidad es de unos 1500 m/s; en el acero unos 5000 m/s; en el cuarzo unos 5500 m/s.
La interferencia de las ondas de sonido se puede mostrar de varias maneras. Una de las consecuencias de las características de las interferencias es que, en una sala grande con superficies duras que reflejen el sonido, habrá puntos “muertos”. En estos puntos, las ondas de sonido interfieren con las reflejadas, con lo que tienden a cancelarse entre sí. Los ingenieros acústicos deben considerar esto al diseñar la forma, la posición y los materiales de un auditorio.
Otro ejemplo interesante y bastante diferente de la interferencia de sonido es el fenómeno conocido como batimento. Cuando dos notas de frecuencia ligeramente diferente se escuchan juntas, interfieren. Esta interferencia produce batimentos, una pulsión rítmica de la intensidad del sonido (trémolos). Los afinadores de piano y los músicos de instrumentos de cuerda utilizan este hecho para afinar dos cuerdas al mismo tono. Simplemente ajustan una cuerda u otra hasta que los batimentos desaparecen.
La refracción del sonido por diferentes capas de aire explica por qué a veces no se puede escuchar el trueno después de ver un rayo. Una refracción similar del sonido ocurre en capas de agua de diferentes temperaturas. Los geólogos utilizan la refracción de las ondas de sonido para estudiar la estructura profunda de la Tierra y para localizar combustibles fósiles y minerales. Por ejemplo, se crean ondas de sonido muy intensas en el suelo (explosiones de dinamita, por ejemplo). Las ondas de sonido viajan a través de la Tierra y son recibidas por dispositivos de detección en diferentes ubicaciones. La trayectoria de las ondas, al ser refractadas por las capas del terreno, se puede calcular a partir de las intensidades de sonido relativas y los tiempos alas que son recibidas. A partir del conocimiento de las trayectorias se pueden hacer estimaciones de la composición de las capas.
Como exlicamos en su momento, la difracción es una propiedad de las ondas sonoras. Las ondas de sonido doblan las esquinas y barreras para llegar al oyente.
Las ondas sonoras se reflejan, al igual que las ondas en una cuerda o en el agua, cada vez que se encuentran con un límite entre diferentes medios. Las características arquitectónicas llamadas “galerías o gabinetes de secretos” muestran vívidamente cómo se puede enfocar el sonido mediante el reflejo en superficies curvas. Un uso inteligente de la sala de los secretos se atribuye a Juan de Herrera mientras se construía el Real Monasterio y Sitio de San Lorenzo de El Escorial, como puede leerse aquí. Pero ya eran conocidas siglos antes: la de la Alhambra, por ejemplo, data de 1358.
Todos estos efectos son de interés en el estudio de la acústica. Además, el buen diseño acústico de los edificios públicos se reconoce actualmente como una factor importante para distinguir un buen diseño arquitectónico.
Hasta ahora hemos visto los fenómenos básicos de las ondas mecánicas, que terminan con la teoría de la propagación del sonido. Las explicaciones de estos fenómenos se consideraron el triunfo final de la mecánica newtoniana aplicada a la transferencia de energía de las partículas en movimiento. La mayoría de los principios generales de la acústica se descubrieron en la década de 1870. Desde ese momento tal vez su influencia más importante en la física moderna fue su efecto en la mentalidad de las personas de ciencia. Los éxitos de la acústica las alentaron a tomarse en serio el poder del punto de vista ondulatorio, incluso en campos alejados del original: el movimiento mecánico de las partículas que se mueven adelante y atrás o arriba y abajo en un medio. Pero en nada tuvo más importancia que en el estudio de un fenómeno importantísimo: la luz.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Sonido (y 2) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Hotz-boladak eta poloetako zurrunbiloa

1. irudia: Airearen tenperatura 2 metrora 2019ko urtarrilaren 31n. (Iturria: climatereanalyzer.org)
Poloetako Zurrunbiloa oso aire hotzez osaturiko zonaldea da eta Poloen inguruan biraka dabil. Baina ez dago lurrazaletik gertu: 30 bat kilometroko altueran dago, estratosferan alegia. Atmosferaren lehen geruzari troposfera deritzo eta bertan gertatzen dira fenomeno meteorologiko guztiak; ondorengo geruza estratosfera da, 10 eta 50 kilometro arteko altitudean kokatzen dena. Negua hurbildu ahala, egunak laburtzen doaz eta, beraz, Eguzkitik jasotzen dugun energia txikiagoa da. Ondorioz, Poloetan tenperatura asko jaisten da, eta horri esaten zaio hain zuzen ere Poloetako Zurrunbiloa, Poloen inguruan neguan egoten den aire hotzari. Estatu Batuetara iritsi den aire hotza, beraz, ez dator zurrunbilo edo bortize horretatik zuzenean.
Poloetako Zurrunbiloaren baitan tenperaturak zikloak jarraitzen ditu; hoztu egiten da udazkenetik negua bitartean eta, ondoren, berotu egiten da.
Horixe izaten da ohiko egoera, baina neguaren gordinean, unerik hotzenean egon behar denean, bat-batean asko berotzen da (-70 edo -80°C-tik -10 edo -20°C-ra alda daiteke egun batzuen buruan). Horri, Estratosferako Bat-bateko Berotzea esaten zaio.
Estratosferan gertatzen den beroketa horrek eragina izan dezake (baina ez beti) altitude baxuagoetan, hau da, troposferan. Nola?
Eguraldian eragin zuzena duen Jet korrontea deritzonari begiratu behar diogu, antizikloiak eta ekaitz gogorrak mugiarazten dituenari alegia. 10-12 kilometroko altitudean dagoen haize-korrontea da. Ibai zabal bat balitz bezala, bertatik airea oso abiadura handian mugitzen da Poloen inguruan. Hegazkinak, batzuetan, korronte horretaz baliatzen dira bidaia askoz azkarrago egiteko, Ameriketatik Europara bidaiatzean, adibidez.
Poloetako aire hotzaren eta Tropikoetako aire beroaren arteko muga ezartzen du Jet korronteak, edo, beste era batera esanda, aire hotza goi latitudeetan egotera behartzen du. Korronte hori sendoago edo ahulago izan, gorago edo beherago kokatu, horrek baldintzatuko du, neurri handi batean, latitude ertainetan izango dugun eguraldia.

2. irudia: Poloetako Zurrunbiloa eta Jet korrontea. Ohiko egoera ezkerraldean eta ez ohikoa eskuman. (Iturria: National Oceanic and Atmospheric Administration, NOAA)
Estratosferan gertatzen denak troposferan izan dezake erantzuna. Horrela, 30 bat kilometrora gertatzen den tenperatura-igoera horrek Poloetako Zurrunbiloa ahuldu dezake eta horrek beherago dagoen Jet korrontean eragina izan dezake, bertako airearen mugimendua moteldu edo desbidera dezakeelako.
Abiadura moteltze horrek Jet korrontean ondulazioak eragiten ditu eta, ondorioz, aire hotza latitude baxuagoetara iristen da, hain aire hotza egoten ez den lekuetara, alegia. Era berean, aire beroa latitude altuagoetara iristen da.
Hotz-bolada guztien jatorria ordea, ez dago beti estratosferako bat-bateko berotze horretan. Ondorioetariko bat besterik ez da, hau da, estratosferan eta troposferan dauden bi korronte handi horien arteko elkarrekintzaren ondorioetariko bat.
Informazio osagarria:
- Meteo France: Tout Savoir: Le Vortex Polaire
- National Oceanic and Atmospheric Administration (NOAA): The science behind the polar vortex
————————————————————————————
Egileaz: Onintze Salazar Pérez (@onintzesalazar) fisikaria da eta Euskalmet-Tecnaliako meteorologoa.
————————————————————————————
The post Hotz-boladak eta poloetako zurrunbiloa appeared first on Zientzia Kaiera.
Nire alabak ingeniaria izan nahi du
Txostenak dakarrenaren arabera, neska askok ikasketa horiek ez egiteko hartzen duten erabakia beren gizarteko egoeren ondorioz egiten den autohautaketarako joeraren ondorioa da. Karrera hautatzeko orduan, neskatoei kontzienteki edo inkontzienteki transmititutako estereotipoek izan dezakete eragina, nagusiki familia ingurunean transmititutakoek, baina baita gizarte testuinguru zabalagoetan transmititutakoek ere.
Eskola eremuko ezaugarriak ere, antza denez, garrantzitsuak dira; izan ere, neskek zientzia eta teknologia eremuko gero eta karrera gehiago hautatzen dituzte, irakasgai horietako irakasleen artean gero eta emakume gehiago dagoelako. Izan ere, emakumezko irakasleak –irakasle onak, batez ere– erreferentziazko ereduak dira, eta neskek ikasketa horiek hautatzea sustatzen dute.
Aurreko batean esan genuenez, UPV/EHUko Zientzia Kulturako Katedraren eginkizuna ez da mugatzen herritarren arteko zientzia ezagutza sustatzera, eginkizun hori hutsean garatu eta berez justifikatuko balitz bezala. Eginkizun hori du beste interes nagusiago bategatik, zientzia kultura gehiago zabaltzeak herritar libreagoak eta beren destinoan eta beren gizartearen etorkizunean eragina izateko gaitasun handiagoa duten herritarrak egotea dakarrelako. Hori horrela, zientzia eremuan gizon eta emakumeen arteko aukera berdintasuna sustatzeak gizon eta emakumeek askatasun eremu berak eta erabakitzeko gaitasun bera izateko bide ematen du.
Testuinguru horretan oinarritzen da emakumeak zientzia eta teknologia arloetako kultura eta lanbide inguruneetan sartzea zailtzen duten oztopoak kentzeko dugun interesa. Helburu horrekin argitaratzen dugu Mujeres con Ciencia eta Zientzia Kaieran “Emakumeak Zientzian” atala, besteak beste, horren bidez, emakumeek zientzia eta teknologia eremuetan egiten duten lana ezagutzera eman nahi dugu eta, horrela, emakumezko gazte ikasleen, beren familien eta, oro har, publikoaren esku jarri nahi ditugu erreferentziazkoak izan daitezkeen ereduak. Horretan datza gure eguneroko eginkizuna.
Eta, motibo beragatik, otsailaren 11 guztietan bat egiten dugu Zientziaren arloko Emakume eta Neskatoen Nazioarteko Egunarekin. 2017an, horretarako, etorkizuneko emakume zientzialarietan zentratu ginen; 2018an, merezi duten aintzatespena izan ez duten emakumeak ekarri genituen gogora. Eta, aurten, ingeniaritzako karreretara jotzeko orduan mutil eta nesken artean dagoen alde handian zentratu nahi izan dugu, bai eta arrail horretan estereotipoek duten eraginean ere.
Datuak biribilak dira: UPV/EHUn -ingeniaritzetan gehienbat- ikasketa teknologikoetan matrikulatzen direnen % 25 baino ez da emakumea. Aldiz, osasun zientzietan matrikulatzen direnen ehunekoa oso bestelakoa da (% 75). Eta, halaber, letra eta arte ikasketetan (% 60), gizarte eta lege zientzietan (% 57) eta saiakuntza eta natura zientzietan (% 50) matrikulatzen den ehunekoaren bestelakoa da, baina ez neurri beretan. Nahiz eta ehuneko horiek eta Espainiako beste unibertsitate batzuetakoak edo mendebaldeko beste herrialde batzuetakoak desberdinak izan, ziurrenik guztietan egongo dira mota horretako eta antzeko neurriko desberdintasunak. Izan ere, deskribatzen duen fenomenoa oso orokorra da.
Aurreko urteetan bezala, “Zientziaren arloko Emakume eta Neskatoen Nazioarteko Eguna” ospatuko dugu eta, horretarako, “Nire alabak ingeniaria izan nahi du” bideo laburra argitaratu dugu. Bideoa Iberdrolaren laguntza jaso du, K2000k ekoitzi eta Aitor Gutiérrezek zuzendu du, José A. Pérez Ledoren gidoi batean oinarrituta.
———————————————————————————-
Egileaz: Juan Ignacio Pérez Iglesias (@Uhandrea) UPV/EHUko Fisiologiako katedraduna da eta Kultura Zientifikoko Katedraren arduraduna.
———————————————————————————
The post Nire alabak ingeniaria izan nahi du appeared first on Zientzia Kaiera.
Mi hija quiere ser ingeniera
La UNESCO publicó en 2017 el informe Cracking the Code: Girls’ and women’s education in science, technology, engineering and mathematics (STEM), en el que se analizan los factores que dificultan o facilitan la participación, logros y progreso de las mujeres en las disciplinas científicas y tecnológicas, así como las medidas que pueden promover el interés de las chicas en los correspondientes estudios.
Según el informe, la decisión de muchas de ellas de no cursarlos es la consecuencia de un sesgo de auto-selección derivado de las circunstancias en que se han socializado. En la elección de la carrera incidirían estereotipos transmitidos a las niñas consciente o inconscientemente, principalmente en el entorno familiar pero también en contextos sociales más amplios.
Las características del ámbito escolar también parecen ser importantes pues la elección por las chicas de carreras del campo científico y tecnológico se ve favorecida por la presencia en el personal docente de profesoras en esas materias. Porque la profesoras -las buenas sobre todo- constituyen modelos de referencia que promueven la elección por las chicas de esos estudios.
Como hemos señalado en una ocasión anterior, la función de la Cátedra de Cultura Científica de la UPV/EHU no se limita a la promoción del conocimiento científico entre la ciudadanía como si esta tarea se desarrollase en el vacío y se justificase por sí misma. Desempeña esa labor al servicio de un interés superior, porque una mayor extensión de la cultura científica favorece la existencia de una ciudadanía más libre y capacitada para incidir en su propio destino y en el devenir de la sociedad a la que pertenece. En ese sentido, la promoción de la igualdad de oportunidades entre hombres y mujeres en el ámbito científico ayuda a que hombres y mujeres disfruten de los mismos ámbitos de libertad y misma capacidad de decisión.
En ese contexto ha de enmarcarse nuestro interés por remover los obstáculos que dificultan el acceso de las mujeres a entornos culturales y profesionales científico-tecnológicos. Con ese objetivo en mente publicamos Mujeres con Ciencia; lo hacemos con el propósito, entre otros, de dar a conocer el trabajo de las mujeres en los ámbitos científico y tecnológico, y poner así a disposición de las jóvenes estudiantes, de sus familias y del público en general modelos que puedan servir de referencia. En eso consiste nuestra tarea de todos los días.
Y por lo mismo, cada 11 de febrero nos sumamos a la celebración del Día Internacional de la Mujer y la Niña en la Ciencia. En 2017 lo hicimos poniendo el foco en las científicas del futuro, en 2018 recordamos a las que no han tenido el reconocimiento que merecían. Y este año nos hemos querido fijar en la gran diferencia que hay entre chicos y chicas en el acceso a carreras de ingeniería y en la incidencia de los estereotipos en esa brecha.
Los datos son contundentes: tan solo un 25% de quienes se matriculan en estudios tecnológicos en la UPV/EHU -ingenierías, principalmente- son chicas. Ese porcentaje contrasta sobremanera con el de quienes lo hacen en ciencias de la salud (75%). Y también se diferencia, aunque no en una medida similar, de quienes cursan estudios de letras y artes (60%), ciencias sociales y jurídicas (57%) y ciencias experimentales y naturales (50%). Aunque seguramente esos porcentajes son diferentes de los de otras universidades en España o en otros países occidentales, lo más probable es que en todos ellos se produzcan diferencias de ese tipo y similar magnitud. Porque el fenómeno que describe es de carácter muy general.
Como en años anteriores, celebraremos el “Día Internacional de la Mujer y la Niña en la Ciencia” con la publicación de un vídeo de corta duración: Mi hija quiere ser ingeniera. Este vídeo ha contado con la colaboración de Iberdrola y ha sido producido por K2000 y dirigido por Aitor Gutiérrez, sobre un guion de José A. Pérez Ledo.
—————————————————————–
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
El artículo Mi hija quiere ser ingeniera se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El alma de plantas, las esencias de las aromáticas
Emilio Lizarraga
Las plantas aromáticas fueron empleadas desde tiempos remotos con el fin de mejorar el sabor de los alimentos, obtener perfumes y curar enfermedades. Estos vegetales poseen estructuras especializadas que producen y vierten al exterior sustancias conocidas como esencias o aceites esenciales. En la naturaleza cumplen un rol importante en la defensa de los vegetales como constituyentes antibacterianos, antivirales, antifúngicos e insecticidas, además de jugar un rol ecológico como agentes para evitar el ataque de herbívoros y como atrayentes de insectos para favorecer la dispersión de polen.
Una trágica historia de amor…
Las esencias ó aceites esenciales, son sustancias producidas por las plantas aromáticas en determinadas estructuras celulares. Las aromáticas como se las conoce habitualmente, son plantas que estuvieron prácticamente presentes en la vida de los humanos desde la noche de los tiempos.
La mitología griega por ejemplo, relata a su modo, como surge la primera planta de menta (Mentha sp.), quien tiene de protagonista a la ninfa Menthe quien vivía un ilícito romance con Hades “el Dios del Inframundo”. Como ya es conocido, muchas de estas historias suelen tener un trágico final, y, este romance no es la excepción. Démeter (suegra de Hades) descubre este amorío y le comunicó a Perséfone (esposa de Hades) la desafortunada novedad. Y, aún hasta hoy no se tiene la certeza, si Démeter o su hija es quien golpea a Menthe hasta matarla. El cuerpo desintegrado de la ninfa fue descubierto por Hades y este haciendo uso de sus poderes, logró que a partir de los restos de su amada brotaran plantas de menta.
Es sumamente representativa esta historia y su relación con la planta de menta, ya que es sin lugar a dudas la especie aromática más conocida y ampliamente usada desde tiempos remotos.

Algo huele bien
Las plantas aromáticas están definidas por sus caracteres organolépticos, es decir, impresionan los sentidos del olfato y el gusto. Esta caracterización, que se ajusta a la percepción humana tiene origen en componentes propios de las plantas: diferentes sustancias que les confieren aroma y sabor.
Las especies aromáticas, poseen en sus tejidos, o vierten al exterior sustancias líquidas volátiles denominadas aceites esenciales, esencias o aceites volátiles. Y, de acuerdo al uso que se les dé, se las puede agrupar en: perfumíferas, terapéuticas y condimenticias.
Se estima que el interés por los aceites esenciales tuvo su origen en Oriente, concretamente, en Egipto, Persia e India, donde se desarrolló la destilación simple como el método para su extracción del material vegetal. Mas tarde, a principios de la Edad Media, se comercializaban aceites perfumados y ungüentos naturales que no eran exactamente aceites esenciales. Estas mezclas se guardaban en recipientes traslúcidos y se sometían a la acción de luz del sol o a calentamiento, logrando finalmente la separación de los aceites esenciales y de los constituyentes sólidos de la mezcla.
Por otra parte, ciertas flores se maceraban con vino antes de adicionarle grasas, y el producto de esa extracción conocida como digestión, se filtraba y calentaba con el fin de obtener las esencias (Jirovetz y Buchbaver, 2005). También se recurrió a exprimir los órganos vegetales mediante el uso de telas o lienzos y mas tarde se perfeccionaron prensas para obtener mayor cantidad de esencia pura.
El alma de las plantas
Se cree que el término aceite esencial fue propuesto en el siglo XVI por Theophrastus Phillippus Aureolus Bombastus von Hohenheim, el alquimista conocido como Paracelso (Figura 2). Este es quien denominó a las esencias como el alma de las plantas, denominación algo romántica, quizás por el carácter etéreo de estas sustancias.

Los primeros estudios detallados de las esencias son los realizados por J.J. Houton de Labillardière, quien en 1818 realizó el análisis elemental del aceite de trementina. Mas tarde, J. Berzelius, J.B. Dumas, J. von Liebig y F. Wöhler estudiaron las esencias aplicando diversos métodos a los fines de separar y analizar individualmente sus constituyentes (Pearce, 1997).
Hay muchas definiciones para caracterizar una esencia ya que puede conceptualizarse de acuerdo al punto de vista físico, químico y/o biológico. Un amplio y complejo concepto dice que: “un aceite esencial es parte del metabolismo de un vegetal, compuesto generalmente por terpenos, que están asociados o no a otros componentes, la mayoría de ellos volátiles, y generan en conjunto el aroma de dicho vegetal” (Bandoni, 2000). Se trata de sustancias límpidas, raramente coloreadas, liposolubles, aromáticas, volátiles y con una densidad menor que el agua. Se sintetizan en diferentes órganos de las plantas: yemas, flores, hojas, tallos, ramas pequeñas, semillas frutos, raíces y/o corteza. Se almacenan en células secretoras, cavidades, canales, células epidérmicas o tricomas glandulares.
Se conoce actualmente la composición de unos 3000 aceites esenciales, de los cuales un poco mas de 300 poseen importancia comercial como saborizantes y en la industria de la perfumería.
Están ampliamente distribuidos en aproximadamente unas 60 familias de plantas, que incluyen principalmente a Lamiaceae, Apiaceae, Asteraceae, Mirtaceae, Rosaceae, Lauraceae y Rutaceae (Stashenko, 1996).
La síntesis y almacenamiento de una esencia es llevada a cabo por células epidérmicas modificadas, que dependiendo de la familia o género pueden ser cualquier órgano de una planta.
El contenido total de aceite esencial en una planta es igual o menor al 1%. La composición es por lo general muy compleja, llegando a estar constituida por una mezcla de hasta cien o más constituyentes. En su composición, la gran proporción corresponde a hidrocarburos terpénicos, acompañados o no por compuestos aromáticos, alifáticos de cadena recta y ocasionalmente compuestos sulfurados y/o nitrogenados.
Los monoterpenos (Figura 3) representan la fracción “liviana” o más volátil, son por lo general los componentes mejor representados y los que percibimos inmediatamente ante el contacto con una esencia. Conforman lo que se conoce como las notas de entrada de una esencia.

Los sesquiterpenos, representan la fracción de mayor peso molecular y por supuesto los componentes con menos volátiles (Figura 4). Se tratan de las aromas de una esencia que se perciben luego de estar un tiempo en contacto con ella, a menudo se los define como las notas de salida o de fondo. A modo de ejemplo se pueden mencionar:

Otros compuestos presentes en algunas esencias son los aromáticos que se caracterizan por tener un anillo aromático unido a una cadena lateral de diferente tamaño y cantidad de sustituyentes (Figura 5). Su presencia en un aceite esencial es más restringida, limitándose a algunas especies de aromáticas. Por ejemplo el perfume que nos recuerda al clavo de olor o al anís estrellado se debe a la existencia de este tipo de compuestos.

En menor medida, los compuestos alifáticos de cadena recta pueden estar presentes en un aceite esencial (Figura 6). Se destacan hidrocarburos lineales, de número variable de átomos de carbono y con diferente grado de oxidación.

Por último, un grupo de compuestos no terpenoides muy característicos incluye a sustancias alifáticas o aromáticas con azufre y/o nitrógeno. No son tan importantes como los terpenoides en cuanto a sus usos y aplicaciones, además su presencia está restringida a escasas familias botánicas, tal es el caso del ajo o el brócolis.
La proporción de los constituyentes es variable ya que en determinadas circunstancias, ciertos componentes experimentan transformaciones en la planta ya sea, en el momento de desarrollo de la misma o bien en el momento del día de la recolección. Otros cambios estructurales se deben a la acción de microorganismos, lo que al igual que otros factores (ambiente, tipo de cultivo, modo de almacenamiento, época de recolección, modo de obtención de la esencia, edad y fenología del vegetal) genera esencias con una marcada variación su composición y por ende con distintacalidad, bioactividad e importancia comercial.
Una manera de clasificarlas
Las esencias se clasifican en esencias fluidas, resinas y oleorresinas. Las esencias fluidas son líquidos volátiles a temperatura ambiente como por ejemplo el aceite de limón. Las resinas son de consistencia más espesa, volátiles y propensas a experimentar reacciones de polimerización, ejemplos: el bálsamo de copaiba que se extrae de Copaifera officinalis (especie que crece en las Antillas y Brasil) o el benjuí que se extrae de especies del género Styrax. Las oleorresinas se definen como líquidos muy viscosos o sustancias semisólidas que poseen el aroma del vegetal en forma concentrada, es decir una combinación más o menos fluida de una resina y un aceite esencial. La trementina es un ejemplo y se obtiene a partir de diversas especies de coníferas.
Finalmente, de acuerdo a su origen un aceite volátil puede ser natural, artificial y/o sintético. Una mezcla natural se obtiene mediante métodos industriales o de laboratorio a partir de material vegetal fresco. El enriquecimiento de la esencia en uno a algunos de sus componentes genera un aceite artificial, dicho enriquecimiento se logra mediante diversos métodos de fraccionamiento. La esencia de anís por ejemplo, esta enriquecida con anetol.
Productos obtenidos mediante síntesis o semi-síntesis genera un aceite sinético, el cual en algunos casos suele tener mayor interés comercial debido a los bajos costos para obtenerlos. Por lo tanto son más económicos y poseen un amplio uso como aromatizantes de ambientes y saborizantes de alimentos.
Sólo mediante el análisis con la tecnología adecuada permite observar las diferencias en cuanto al origen de las esencias.
Referencias Bibliográficas
Bandoni, A. (Ed). 2000. Los recursos vegetales aromáticos en Latinoamérica, su aprovechamiento industrial para la producción de aromas y sabores. Argentina: Red de Editoriales Universitarias.
Jirovetz, L.; Buchbacer, G. 2005. Processing, analysis and application of essential oils. Recent Res. Devel. Agron. Horticulture 21: 22 -28.
Pearce, S. 1997. What are essential oils and how do they work? in: Milchard M. (Ed.). Essential Oils World. Editorial Cotswold Publishing Company: Sevilla, p. 212.
Stashenko, E.; 1996. Memorias del IV Congreso Nacional de Fitoquímica, Universidad Industrial de Santander, Escuela de Química, Bucaramanga, p. 29-53
Sobre el autor: Emilio Lizarraga es doctor en Bioquímica, profesor adjunto de Química Orgánica y Biológica, Facultad de Ciencias Naturales e Instituto Miguel Lillo, Universidad Nacional de Tucumán (Argentina).
El artículo El alma de plantas, las esencias de las aromáticas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las plantas como aislantes acústicos
- ¿Y si convertimos a las plantas en fábricas de plásticos?
- Sistemas antena artificiales inspirados en el de las plantas
Asteon zientzia begi-bistan #241
Beti izan da gizakiontzat desiragarria pertsonen pentsamenduak irakurtzeko ahalmena izatea. Ildo horri jarraiki, Gorka Azkune EHUko Konputazio Zientzien eta Adimen Artifizialaren saileko irakasleak aurrerapen bat ekarri digu. Columbiako Unibertsitateko ikertzaile batzuek gizakien pentsamenduak irakurri eta hitz bilakatzen dituen teknologia garatu omen dute. Kasu honetan, teknologia hori garatzen adimen artifiziala beharrezkoa izan da. Aurrerapen honek, adibidez, hainbat ate ireki ditzake ahots bidez komunikatu ezin diren pertsonentzat. Ez galdu Azkuneren zutabe interesgarri hau!
MedikuntzaOlga Peñagarikano EHUko Medikuntza eta Erizaintza Fakultateko ikertzaile burua elkarrizketatu dute Berrian. Frantziako, Belgikako eta Alemaniako lau talde koordinatuko ditu 2021 urtera arte, autismoaren kausa neurologikoa identifikatzen saiatzeko ikerketan. ERA-NET Neurom sareak 800.000 euro eman dizkio ikerketa garatu ahal izateko. AEBetan ikasi zuen Peñagarikanok eta hamar urte pasa ditu han autismoaren inguruan lanean. Orain egingo duten ikerketari buruz dio, diziplinarteko taldea izango dela: “Guk portaerak ikertuko ditugu, eta haiei dagozkin neurona zirkuituak modulatzeak duen eragina. Beste talde batek garunaren garapena ikertuko du”. Talde guztiek esperientzia handia dutela gaineratzen du. Azkenik, ikertzaileak dio ez dagoela autismoaren kausa bakarra, baizik eta hainbat. Beraz, euren helburua kausa horiek zehazten joatea izango da.
KimikaZiortza Guezuraga kazetariak azaldu digu artikulu interesgarri honetan itsaskien ontziratzerako itsaski hondakinak baliatzea aukera izan daitekeela ekonomia zirkular testuinguruan. Horri buruzko azterketa egin dute eta bertan, bi substantzia mota kontuan hartu dituzte: gelatinak eta kitosanoak. Lehenengoa eskuratzeko, bi metodo erabil daitezke: hidrolisi basikoa eta hidrolisi azidoa. Biak ala biak erabilita lortzen diren gelatina filmak egokiak dira janarien ontziratzean erabiltzeko. Kitosanoa ere bada interesgarria. Izan ere, elikagaiak kontserbatzeko egokia da, gaitasun kelantea du eta biodegradagarria da.
FisikaBilboko Zientzia Fakultatearen 50.urtemuga ospatzeko, bost hamarkada hauetan zientziak eta teknologiak gizarteari egindako ekarpen garrantzitsuak plazaratuko dira Zientzia Kaieran eta Cuaderno de Cultura Científica blogetan. Gaurkoan masa-espektrometria teknikari buruz hitz egin dute. Egungo analisi-teknika moldakorrena eta ahaltsuena da; aukera ematen du oso kantitate txikietan dauden konposatuen kontzentrazioa zehazteko, alegia. Gainera, molekula berriak identifikatzen ditu. Baina zeintzuk izan ziren teknika honen hastapenak? Eman ziren lehenengo urratsetan, aipatzekoa da Arthur Jefrreyen lana adibidez, sekzio magnetikoko lehenengo espektrometroak diseinatu baitzituen.
Talboten efektua aurkeztu ziguten joan den astean. Gaurkoan, Youngen esperimentua azaldu digute. Thomas Young fisikaria eta egiptologo britainiarra izan zen. Ur-uhinetan sortzen ziren interferentzia fenomeno berberak behatu zituen argiarekin esperimentatzean eta, beraz, interferentzia uhinen ezaugarria izanik, argiak uhina izan behar zuela ondorioztatu zuen. Bere omenez, egindako esperimentuak bere izena darama. Hori ulertuta, Talboten alfonbra deritzona ulertzeko gai izango gara. Ez galdu!
AstronomiaEsne Bidearen bihurdura neurtu dute zientzialari txinatar eta australiar batzuek. Zefeida izarretara dauden distantziak neurtuz egin dute 3dko mapa. Guztira, 1339 zefeida kokatu dituzte. Gainera, ikusi dute Esne Bidearen gas-diskoa guztiz bat datorrela zefeiden banaketarekin. Elhuyar aldizkarian zehaztasun gehiago topatuko dituzue!
ArkeologiaNeandertalen eta denisovarren aterpe izan zen Denisova haitzuloari (Siberia, Errusia) buruzko ikerketa berriak ezagutarazi dituzte. Haitzulo horretan egin zituzten duela 40 urte lehen indusketak. Berezia dela esan daiteke, izan ere, denisovarrek eta neandertalek denboran kointziditu zuten eta hori argitzen duen ikerketa bat plazaratu dute joan de urtarrilean: emaitzen arabera, gurutzaketa hori modu masiboan eman zela egiaztatu ahal izan dute, egungo Asiako gizakien DNAren analisiari esker. Bi espezie horien gurutzaketatik giza espezie ezezagun bat jaio zela ondorioztatu zuten ikertzaileek. Orain, Nature aldizkarian publikatu duten bi artikuluk hobeto zehaztu dute Denisova haitzuloaren kronologia. Horretarako, puntako teknologiak erabili dituzte.
–——————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
———————————————————————–
Egileaz: Uxue Razkin kazetaria da.
——————————————————————
The post Asteon zientzia begi-bistan #241 appeared first on Zientzia Kaiera.
Arquitectura y geología: materialidad y emplazamiento
Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.
Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.
La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.
Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.
La profesora del departamento de Arquitectura de la Escuela de Ingeniería de Gipuzkoa de la UPV/EHU, Maialen Sagarna, explica la estrecha relación que existe entre la arquitectura y la geología, y de la importancia que el emplazamiento geológico de las construcciones tiene desde el punto de vista de la durabilidad, seguridad y la eficiencia energética.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Arquitectura y geología: materialidad y emplazamiento se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Geología: la clave para saber de dónde venimos y hacia dónde vamos
- Patrimonio geológico: la otra mitad del ambiente
- El (Paleo)Clima y ¿el frío que vendrá?
Ezjakintasunaren kartografia #248

Irudia: Exterme Tech
Molekulen arteko ezagutzea kritikoa da sistema biologikoetan. Ivan Coluzzaren taldeak ordenagailu simulazioa garatu du, proteinen sekuentzia peptidikoaren eta proteinak elkar ezagutzen duten tokien egituren arteko harremanaren arazoa ebazten duena. Ikertzaile nagusiak berak Design of protein-protein binding sites suggests a rationale for naturally occurring contact areas
Bioerregaiak ez dira iraganeko kontua, duten ingurumen-ekonomia inpaktua gora behera. Bereziki, norbaitek biogasolina lortzeko gai bada, biodiesela barik, zelulosa lehengaiak erabilita eta dagoeneko dauden findegiak baliatuta. Pablo Ortizen Biogasoline production and integration into current petrorefinery process.
Etorkizuneko elektronika, aldaera guztietan, eskala industrialean material egokiak modu efizientean lortzearen araberakoa izango da. Grafenoan eta bere aldaeretan oinarritutako elektronikaren kasuan, lehengai oirganikoetaik ekoiztu beharko dira eta, horretarako, haien sintesi eta katalisi erreakzioen ezagutza ezinbestekoa da. DIPCkoek aurrerapausua eman dute: The role of copper in the Ullmann reaction.
–—–
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #248 appeared first on Zientzia Kaiera.
¿Quién se encuentra en el lado oculto del iceberg?
La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebrará dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Durante las próximas semanas en el Cuaderno de Cultura Científica y en Zientzia Kaiera se publicarán regularmente artículos que narren algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas. Comenzamos con la serie “Espectrometría de masas”, técnica analítica que supone el ejemplo perfecto del incesante avance de la Ciencia y la Tecnología.
El desarrollo de la actividad humana y el aumento de la contaminación van de la mano, ya que el ser humano ha contaminado el medioambiente desde sus inicios. El punto de inflexión en el nivel de contaminación lo marca la revolución industrial, pero los seres humanos como sociedad no le han dado importancia a este trascendental problema hasta alcanzar su bienestar social y económico. “El ser humano es parte de la naturaleza y la lucha contra ésta es una lucha contra sí mismo”. Así reflexionaba Rachel Carson entorno a este problema en 1962 en su libro “Primavera Silenciosa”, que se puede considerar la primera obra del ecologismo.
De la misma época (1960-1980) son las primeras legislaciones sobre la contaminación medioambiental y también durante el siglo XX se instalaron las primeras depuradoras para tratar las aguas residuales industriales y urbanas. Si bien las primeras normativas y legislaciones se centraron en el control de patógenos y metales, no fue hasta más tarde cuando el control de los compuestos orgánicos adquirió importancia. En un principio, se impuso el control prioritario de los contaminantes orgánicos persistentes o POPs (persistent organic pollutants) debido a su capacidad de acumularse y su toxicidad. En la convención de Estocolmo se recopiló un listado de 12 compuestos, entre los que se encontraban 9 pesticidas clorados, los bifenilos policlorados, las dioxinas y los furanos. Si bien el listado se ha ampliado a 28 compuestos en años sucesivos, existen aún otros en lista de espera. Además de la convención de Estocolmo, la europea Directiva Marco de Aguas o WFD (Water Framework Directive) y la Agencia para la Protección del Medioambiente estadounidense (Environmental Protection Agency, EPA) tienen sus propios listados de contaminantes prioritarios, que incluyen hasta 129 compuestos. Todos ellos conocidos, todos controlados, todos esperables. Pero, ¿son esos los únicos compuestos preocupantes o perjudiciales para el medioambiente? Los contaminantes conocidos y regulados son solo la punta del iceberg. Muchos de los contaminantes que llegan al medioambiente surgen de la actividad diaria del ser humano; sin embargo, es poco lo que conocemos sobre la presencia o efectos nocivos que pueden causar en el medioambiente los más de 70 millones de compuestos que podemos encontrar en bases de datos como Pubchem o Chemspider.
Por tanto, ¿merece la pena husmear en el lado oculto del iceberg? ¿Nos deben preocupar esos compuestos no legislados? Durante los últimos años, la curiosidad de la comunidad científica se ha dirigido a ese lado oculto del iceberg con el objetivo de detectar en el medioambiente compuestos farmacéuticos y de higiene personal, pesticidas no clorados y/o químicos industriales emergentes, entre otros. Así, en lugar de realizar el seguimiento exclusivo de los cientos de compuestos en la punta del iceberg, el reto es ahora monitorizar los miles de compuestos desconocidos que aún están en el lado oculto. ¡Y vaya reto el de las y los “submarinistas” que se dedican a desarrollar métodos analíticos para detectar esos compuestos!

El reto de estos submarinistas lo hacemos nuestro en la química analítica, separando, identificando y cuantificando los compuestos desconocidos de la materia mediante el uso de técnicas instrumentales. De hecho, los retos analíticos y el avance de los métodos de análisis instrumentales van de la mano. Así, hasta hace no mucho, los métodos de análisis desarrollados en los laboratorios de química analítica eran métodos dirigidos; es decir, lejos de ser magos, hemos desarrollado métodos para analizar unos pocos compuestos conocidos. El reto anteriormente mencionado, sin embargo, plantea un nuevo paradigma que supone dar el salto del análisis dirigido al análisis no dirigido para poder abordar el análisis de miles de compuestos emergentes y desconocidos. En el análisis dirigido, debemos elegir previamente qué queremos analizar; en el análisis no dirigido, sin embargo, lo analizamos todo y, posteriormente decidimos qué es lo que nos interesa de toda esa información. De ese modo, el análisis no dirigido, es una herramienta que permite identificar compuestos desconocidos sin tener un conocimiento previo de la composición de la muestra. Como la cantidad de información que se logra en el análisis no dirigido es gigantesca, su tratamiento de datos puede llevar meses. Más aún, en un futuro se puede regresar a esa información y buscar nuevos compuestos interesantes. Entre las herramientas más importantes para la identificación de contaminantes emergentes y desconocidos encontramos la espectrometría de masas de alta resolución o HRMS (high resolution mass spectrometry).

La espectrometría de masas es una técnica analítica que nos ayuda a identificar la huella dactilar de los átomos y las moléculas. Para obtener esa huella dactilar, la espectrometría de masas mide las relaciones masa/carga (m/z) de los átomos/moléculas ionizados en fase gaseosa. De los espectros de masas se puede conocer la masa exacta de átomos y moléculas, determinar la presencia de isótopos y, en los casos en los que ocurra la fragmentación de las moléculas, disponer de la información estructural sobre ellas.
Los espectros de masas se consideran la huella dactilar de los compuestos y se pueden obtener en alta o baja resolución. Pero, ¿para qué necesitamos espectros de masas de alta resolución? Estos últimos, frente a los espectros de masas de baja resolución, miden la relación m/z con mayor exactitud y precisión, permitiendo la diferenciación de moléculas con masas muy próximas. Así, en el ejemplo de la Figura 3, encontramos los insecticidas thiamethoxam y parathion, cuya diferencia de masa es muy pequeña (0,01375 Da), mientras que su fórmula molecular y estructura química es totalmente distinta. Si bien mediante espectrometría de masas de baja resolución somos incapaces de distinguir ambos compuestos (ver Figura 3 arriba), sí lo somos mediante espectrometría de masas de alta resolución (ver Figura 3 abajo).

Nuestro submarinista puede dedicar meses a identificar los compuestos en la zona oculta del iceberg. Es común acoplar la espectrometría de masas a técnicas cromatográficas para separar e identificar los compuestos en el lado oculto del iceberg. Para identificar esos compuestos hay que buscar y entender las huellas dactilares, paso a paso, como si de un puzle se tratara, buscando y uniendo de manera sistemática todas las piezas, hasta completar el puzle. Hasta identificar el compuesto. Veamos un ejemplo.
Supongamos que hemos realizado el análisis no dirigido del agua residual de una depuradora. La cromatografía líquida acoplada a la espectrometría de masas de alta resolución nos ha proporcionado 1000 picos cromatográficos, 1000 posibles compuestos de interés. Disponemos de su masa exacta y perfil isotópico (las masas y relaciones relativas de los isótopos correspondientes a una fórmula química dada). De entre esos 1000 compuestos uno de ellos corresponde a la masa exacta de 345,11443 Da. Con esa masa exacta y gracias al perfil isotópico podemos deducir que algunas de las fórmulas moleculares posibles son: C17H19N3O3S, C11H20N7O2PS, C19H16N5P y C15H24NO4PS. Si comparamos la masa exacta teórica de esas fórmulas moleculares y la masa exacta experimental, el error más pequeño (de -0,000028 Da) corresponde a la fórmula molecular de C17H19N3O3S. Pero, ¿qué es C17H19N3O3S? De acuerdo a las bases de datos que contienen millones de compuestos, existen 14 compuestos con esa fórmula molecular. Entre ellos, es posible que nuestro compuesto desconocido sea el antiácido omeprazol. Sigamos. Ahora nos fijaremos en la fragmentación (los fragmentos significativos de masa exacta obtenidos tras aplicar energía a los compuestos). La fragmentación del compuesto y la del omeprazol coinciden en un 97 %; por tanto, parece que nuestra sospecha es certera, pero, ¿cómo podemos asegurar que el compuesto desconocido corresponde al omeprazol? En una etapa final nuestro submarinista comparará el tiempo de retención (el tiempo que un compuesto de interés requiere para atravesar la columna cromatográfica utilizada para separar los compuestos presentes en una mezcla) obtenido para el compuesto desconocido con el correspondiente al reactivo puro de omeprazol y, ¡voilá!, como coinciden, sin saber que había omeprazol en la muestra, el submarinista ha podido identificarlo entre otros 1000 picos cromatográficos. Y, ¿ahora? Llevar a cabo el mismo proceso con los otros 999 picos cromatográficos aún sin identificar…Ooops, pobre submarinista, ¡aún le resta un largo viaje a nuestro amigo identificando todos los compuestos en el lado oscuro del iceberg!
En el viaje realizado hasta ahora, nuestro submarinista ha centrado su atención en millones de compuestos recopilados en bases de datos debido a su uso y/o toxicidad. Sin embargo, existen otros compuestos de interés que no están recogidos en las bases de datos, como pueden ser los productos de transformación, entre otros. Los productos de transformación pueden surgir de diversas fuentes, tanto de los tratamientos que se dan en las plantas depuradoras como de las reacciones químicas y biológicas que pueden ocurrir al llegar al medioambiente. El examen de los productos de transformación tiene también su importancia, ya que en algunos casos la toxicidad del producto de degradación es superior a la del contaminante de partida. Por ejemplo, según estudios realizados en animales, el filtro UV habitualmente utilizado en cremas solares benzofenona-3 (BP3) se degrada al compuesto desmetilado benzofenona-1 o dihidroxibenzofenona (DHB), cuya actividad estrogénica es mayor que la del producto de partida.
La identificación de los productos de transformación se puede realizar mediante espectrometría de masas. En estos casos, sin embargo, no podremos hacer uso de las bases de datos, ya que en la mayor parte de los casos son desconocidos. En este caso, para poder dirigir la identificación, debemos centrarnos en las transformaciones que puede sufrir un contaminante en concreto. Así, como hemos visto en el ejemplo anterior, de la masa exacta y del perfil isotópico podemos deducir la fórmula molecular. De todas las fórmulas posibles, las candidatas corresponderán a transformaciones (reacciones de fase I o II como oxidación, metilación, glucuronización…) posibles del contaminante estudiado. Una vez identificada la transformación ocurrida, deberemos identificar en qué posición de la molécula ha ocurrido esa transformación. Y, ¿dónde puede encontrar el submarinista esa información? Descifrar la huella dactilar del espectro de masas puede proporcionarle información relevante, concretamente el espectro de masas correspondiente a la fragmentación. Intentemos entenderlo con un ejemplo una vez más.
El filtro UV BP3 que hemos mencionado anteriormente tiene una masa exacta de 229,0859 Da, una fórmula molecular C14H12O3 y en su estructura dos anillos aromáticos (A y B), además de un grupo hidroxilo (-OH) y un grupo metoxi (CH3O-) en el anillo A (ver Figura 4). El espectro de masas correspondiente a la fragmentación de BP3 se puede observar en la Figura 4. Pero, ¿qué le puede ocurrir al BP3 en agua de mar y en presencia de peces, como por ejemplo doradas? La respuesta no es simple ya que, además de acumularse en los distintos tejidos y fluidos biológicos de la dorada, se puede transformar debido a distintas reacciones. Por ejemplo, la masa exacta de uno de los subproductos observados corresponde a 215,0703 Da y, según el perfil isotópico, corresponde a una fórmula molecular de C13H10O3. Si tenemos en cuenta la fórmula molecular de BP3 (C14H12O3 ) original y la del subproducto (C13H10O3) podemos deducir la pérdida de un metilo (–CH3). El lugar más probable para perder ese grupo metilo es el grupo metoxi anteriormente mencionado y, por tanto, el subproducto propuesto (ver Figura 4) corresponde, concretamente, a la dihidroxibenzofenona o DHB anteriormente mencionada.

Y repitiendo este procedimiento, se pueden determinar hasta 18 subproductos diferentes de BP3 en distintos tejidos de dorada y en el agua de mar que es su hábitat (ver Figura 5). De todos ellos caben destacar la dihidroxibenzofenona (DHB) y la dihidroximetoxibenzofenona (DHMB) que dada la estrogenicidad y androgenicidad que presentan pueden ser incluso más tóxicas que BP3. Por tanto, es imprescindible identificar los subproductos nuevos para poder posteriormente estudiar su toxicidad y evaluar el riesgo medioambiental que suponen.

Tal y como hemos visto, con la espectrometría de masas como compañera de viaje, el submarinista tiene la oportunidad de obtener una foto más completa de lo que se ve y de lo que está oculto. El avance de la química, y de la ciencia en general, nos permite sumergirnos en retos mayores para obtener una foto más definida de lo que nos rodea, pasando de la identificación de cientos o miles de compuestos a la de millones.
Para saber más:
Kepner, W. 2016. EPA and a Brief History of Environmental Law in the United States. International Visitor Leadership Program (IVLP), Las Vegas, NV.
Kim S, Choi K. 2014. Occurrences, toxicities, and ecological risks of benzophenone-3, a common component of organic sunscreen products: A mini-review. Environ. Int. 70:143–157.
Ziarrusta H, Mijangos L, Montes R, Rodil R, Anakabe E, Izagirre U, Prieto A, Etxebarria N, Olivares M, Zuloaga O. 2018. Study of bioconcentration of oxybenzone in gilt-head bream and characterization of its by-products. Chemosphere. 208:399-407.
Milman B.L, Zhurkovich I.K. 2017. The chemical space for non-target analysis. Tr. Anal. Chem. 97: 179-187.
Milman B. 2015. General principles of identification by mass spectrometry. Tr. Anal Chem. 69: 24-33.
Sobre las autoras: Haizea Ziarrusta, Maitane Olivares y Olatz Zuloaga. Departamento de Química Analítica Facultad de Ciencia y Tecnología de la UPV/EHU y Estación Marina de Plentzia (UPV/EHU).
El artículo ¿Quién se encuentra en el lado oculto del iceberg? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- A new hero is born: La espectrometría de masas al servicio de la justicia
- Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
- El lado oscuro del bosón de Higgs
Josu Doncel: “Sarean informazioa ahalik eta lasterren bidaltzeko eredu matematikoak erabiltzen dira” #Zientzialari (109)
Ordenagailu batetik bestera informazioa bidaltzen dugunean elkarri datu-paketeak bidaltzen dizkietela esaten dugu. Gailu desberdinen arteko kalitatezko komunikazioa bermatzeko ezinbestekoa da pakete desberdinak sareko bide arinetatik bidaiatzea, hots, bide optimotik.
Eredu matematikoei esker ikertzaileek gailu desberdinen arteko komunikazioa bizkortzeko bideak aurkitu ditzakete. Besteak beste, Bide Optimoaren Aurkikuntza (BOA) deritzon izeneko eredu matematikoa erabiliz.
Sarea handitzen doan heinean, konplexutasun honek bide optimoak aurkitzea zailtzen du. Gai honen inguruan sakontzeko Josu Doncel UPV/EHUko Matematika Aplikatua, Estatistika eta Ikerkuntza Operatibo saileko irakaslearekin izan gara.
“Zientzialari” izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.
The post Josu Doncel: “Sarean informazioa ahalik eta lasterren bidaltzeko eredu matematikoak erabiltzen dira” #Zientzialari (109) appeared first on Zientzia Kaiera.
Los cosméticos no se testan en animales
Hace diez años se prohibió la experimentación animal para testar cosméticos. A pesar de ello, sigue habiendo dudas constantes sobre el tema. Ni se testan en China para luego venderlos en Europa, ni se importan cosméticos fruto del testado animal. En este artículo aclaramos estas y otras dudas frecuentes.
-
¿Cómo se regula el testado de los cosméticos?
Todo lo que atañe a la formulación, fabricación, ensayo y distribución de productos cosméticos está recogido en el REGLAMENTO (CE) No 1223/2009 DEL PARLAMENTO EUROPEO Y DEL CONSEJO de 30 de noviembre de 2009 sobre los productos cosméticos. El capítulo V está dedicado a la experimentación animal.
El reglamento prohíbe «la introducción en el mercado de productos cosméticos cuya formulación final haya sido objeto de ensayos en animales (…) y la introducción en el mercado de productos cosméticos que contengan ingredientes o combinaciones de ingredientes que hayan sido objeto de ensayos en animales». También prohíbe «la realización de ensayos en animales de productos cosméticos acabados y (…) la realización de ensayos en animales con ingredientes o combinaciones de ingredientes». Dichos ensayos fueron sustituidos por otros métodos alternativos propuestos en el reglamento que no involucran a animales. El periodo de aplicación fue limitado al 11 de marzo de 2009. Para los ensayos toxicológicos por exposición repetida, debido a su mayor complejidad, el período de aplicación tuvo como fecha límite el 11 de marzo de 2013.
Desde ese momento está totalmente prohibido testar en animales ni ingredientes ni productos acabados. También está prohibido comercializar productos cuya fórmula o cuyos ingredientes hayan sido fruto de la experimentación animal. Tanto es así que el fabricante ha de cubrir un documento que garantiza que su producto no ha sido fruto de la experimentación animal.
Desde entonces, para que un producto cosmético pueda salir al mercado, ha de pasar una evaluación de seguridad ingrediente por ingrediente y del producto terminado. Para evaluar la seguridad de cada uno de los ingredientes existen diferentes bases de datos que ofrecen las medidas toxicológicas, las opiniones de los paneles de expertos (como el SCCS), las restricciones y las incompatibilidades. Para los ingredientes cosméticos tradicionales y de uso habitual se suele recurrir tanto al CosIng como a la ECHA. En productos más complejos, de origen natural o de menor usabilidad hay que recurrir a la bibliografía u otras bases de datos como la del CIR.
En los anexos del reglamento aparece la lista de ingredientes permitidos en cosmética, así como sus usos, su concentración permitida, restricciones y posibles incompatibilidades.
-
Fuera de la Unión Europea, ¿se testa en animales?
Estados Unidos y Europa no permiten la comercialización de cosméticos que se hayan ensayado en animales. Latinoamérica aplica el Reglamento Europeo, por lo que tampoco. En los países asiáticos este tema no está consensuado y depende de cada país. Por ejemplo en China los ensayos con animales son obligatorios en algunos casos. No es necesario testar todos los cosméticos ni todos los ingredientes, pero sí es obligatorio en el caso de nuevos principios activos.
-
¿Se puede testar en China para luego vender en la Unión Europea?
No se puede. Además de estar prohibido, es absurdo. No se pueden utilizar los datos de los ensayos en animales para verificar la seguridad de un producto. Esto es así porque para vender en la Unión Europea (o en los países que se ajustan al mismo reglamento) está prohibido comercializar productos e ingredientes fruto de la experimentación animal.
Así que para un fabricante de cosméticos sería contraproducente ir a China a hacer ensayos en animales, primero porque no podría usar los resultados de esos análisis, y segundo porque los ingredientes que solo se hayan ensayado en China no podrán venderse en Europa.
-
¿Se pueden importar cosméticos chinos?
Se pueden importar cosméticos chinos siempre y cuando se adapten al reglamento europeo. Ni sus ingredientes ni el producto terminado ha podido ser fruto de la experimentación animal. Por lo tanto, fabricar en China únicamente significa que se fabrica en suelo chino. Esto ha de hacerse con los métodos e ingredientes que se permiten en el reglamento europeo, por lo que tienen que cumplir los mismos requisitos que los cosméticos fabricados en cualquier otro país que se quieran vender en Europa.
-
Si un laboratorio europeo quiere comercializar sus cosméticos en China, ¿tienen que testarlos con animales allí?
No, al menos no siempre. Se estudia caso a caso. Son las autoridades de China quienes deciden qué cosméticos requieren el ensayo en animales para poder ser vendidos en su país. El laboratorio es quien decide si quiere venderlos a pesar del ensayo en animales que le exijan o no. Por lo tanto, que un laboratorio cosmético venda productos en el mercado chino, no implica que estos hayan tenido que pasar por un ensayo en animales.
-
¿Cómo se testan los cosméticos?
El SCCS (Scientific Committee on Consumer Safety), la CEVMA (European Centre for the Validation of Alternative Methods) y otras asociaciones trabajan conjuntamente para generar guías como esta y bases de datos actualizadas sobre la situación de métodos y modelos disponibles, que permiten ensayar sustancias individualmente y productos acabados: pieles sintéticas, cultivos de células humanas, sistemas bacterianos, membranas que son similares a la conjuntiva del ojo, etc. Y obviamente ensayos clínicos en personas.
Estos métodos permiten verificar tanto la seguridad como la eficacia de los cosméticos. Para que un producto pueda comercializarse es obligatorio demostrar que su uso es completamente seguro. También ha de acreditar con estudios de eficacia que su producto sirve para lo que dice que sirve. Por ejemplo, una crema hidratante ha de tener una formulación que se corresponda con la de un producto hidratante. También deben demostrarse todos los reclamos que se le adjudiquen al producto. Esto se hace principalmente por medio de ensayos clínicos, es decir, con personas que testan el producto. También para esto existen diferentes métodos.
-
Los sellos que certifican que el producto no ha sido testado en animales son una farsa
Ninguno de los certificados del tipo not tested on animals o cruelty free son oficiales. Es decir, no sirven para acreditar nada diferente a lo que ya de por sí tiene que acreditar cualquier producto para salir al mercado europeo. Todos los cosméticos son por definición cruelty free. Solo que algunos fabricantes deciden pagar para usar alguno de estos sellos a las empresas que los han inventado, principalmente porque estiman que estos sellos mejoran su imagen de marca.
Cualquier cosmético vendido en Europa podría tener el sello cruelty free si así lo desease, sin demostrar absolutamente nada. Por eso es una farsa.
Este tipo de sellos han hecho mucho daño al sector de la cosmética. Principalmente porque muchos consumidores asumen que los productos que llevan este sello son los únicos que no experimentan en animales y que por tanto el resto sí lo hacen, de una manera u otra. Es una deducción lógica, aunque incorrecta. Por esa razón el uso de este tipo de sellos debería prohibirse, principalmente porque confunde al consumidor y pone en duda el cumplimiento del reglamento por parte de la competencia.
Algunas de las compañías que venden este tipo de sellos (las cuales no voy a enlazar en este artículo) facilitan una lista de laboratorios cosméticos y marcas a las que acusan de hacer experimentación animal. Es decir, difaman.
Estos sellos se aprovechan de los consumidores que pretenden ser más responsables, que escogen productos cruelty free por cuestiones éticas muy legítimas y que invierten su tiempo en investigar qué productos se adaptan a su sistema de valores. Estos sellos les hacen sentir que su compra es juiciosa y que responde a un bien mayor. Cuando lo que ocurre en realidad es que estos sellos están convirtiendo a estos compradores en cómplices de la treta.
-
Reflexiones finales
Desde 2009 está totalmente prohibido testar cosméticos en animales. Diez años después de la publicación del reglamento sigue habiendo dudas sobre esto. Esto quiere decir que no se ha divulgado como es debido, o al menos no con el impacto necesario. Algunos lo han aprovechado para hacer negocio con la desinformación, como los sellos tipo cruelty free. Otros lo han aprovechado para atacar al sector cosmético o a laboratorios concretos, cada cual según su animadversión particular.
A pesar de los esfuerzos por compartir información veraz, siguen existiendo dudas y mitos acerca de este tema. La desconfianza está inundando sectores enteros. El negocio no ha sido el engaño en sí. El verdadero negocio de algunos está siendo el hacernos creer que estamos siendo engañados.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Los cosméticos no se testan en animales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Adiós a las microesferas de plástico en los cosméticos
- Estimada OCU: recuerda que NO se pueden utilizar las cremas solares del año pasado
- La función respiratoria depende del tamaño de los animales
Masa-espektrometria (I). Neoi isotopoetatik elefante hegalariengana


1. irudia: Karbono monoxidoaren (CO) espektroa, historian egin zen lehenengoetariko bat. (Argazkia: Rays of positive electricty and their applications to chemical Analysis, J.J. Thomsonen 1921eko lanetik hartua / Iturria: Archive.org)
Egungo analisi-teknika moldakorrena eta ahaltsuena dugu masa-espektrometria. Izan ere, aukera ematen digu oso kantitate txikietan dauden konposatuen kontzentrazioa zehazteko, eta horretarako erabiltzen da hain zuzen ere analisi forentsean, edo elikagaien eta kutsatzaileen analisian. Gainera, molekula berriak identifikatzen ditu, eta horrek laguntza handia ematen du botika berrien sintesian. Areago, aurrerapen handiak eragiten ari da medikuntzan eta fisiologian, posible egiten baitu organo bitaletan molekula jakin batzuk nola banatzen diren jakitea. Artikulu sorta honetan zehar, aplikazio ugari hauen artetik ibiliko gara liluraturik. Hori egin baino lehen, ikus dezagun 100 bat urtean nola iritsi garen honelako egoerara.
Lehenengo urratsakGoazen Cambridgeko Unibertsitatera, bertan Thomson zegoen lanean haren begikoa zen Francis William Astonekin batera, eta berari zor diogu esparru honetako ekarpenik handienetakoa. 2. irudian ikus daitezke garai hartako hastapenezko espektrometroetan lortzen ziren emaitzak. Orduan, parabola-espektometro esaten zitzaien horrelakoei. Plaka fotografikoan ikus daiteke nolako markak zeuden, masa/karga erlazioen arabera jarrita. Argi esan beharrekoa da atomoaren edo molekularen masa / karga kopurua, besterik ez dagoela tartean. Esaterako, CO+ ioirako 28 da zenbakia: 12-karbonoaren masa + 16-oxigenoaren masa zati bat. Hg+ ioirako, 100 dugu zenbakia, atomo horren masa / 2 egiten delako. Jakingarri gisa esango dugu Th unitatea esleitu zitzaiola parametro horri, Thomsonen omenez. Hala ere, unitatea ez da nazio artean onartu, eta m/z gisa azaltzen da, Th eraren lilura bazter utzita.

2. irudia: Karbono monoxidoaren (CO) espektroa, historian egin zen lehenengoetariko bat. (Argazkia: Rays of positive electricty and their applications to chemical Analysis, J.J. Thomsonen 1921eko lanetik hartua / Iturria: Archive.org)
Astonek ikusi zuen neoiaren (20 m/z) seinalearekin batera beste seinale txiki bat azaltzen zela (22 m/z). Zer ote zen hori? Zientzialari onak ziren eta hainbat saio eginda, hasiera mailako hipotesi batzuk baztertzen joan ziren: ez ziren ez CO2 molekulak (44/2 karga bikoiztunak), ez eta NeH2 molekulak. Gas noble hau aztertzen zen bakoitzean azaltzen zen seinale bitxi hura, bederatzi aldiz txikiagoa zena. Besterik ezin zen izan: bera ere neoia zen. 1913.ean, proposatu zuten neoia agian masa desberdinetako bi atomoz osatua egon litekeela: 20 eta 22 pisukoak, 9:1 proportzioan. Hori onartuta, erraz uler zitezkeen intentsitate desberdinetako seinaleak, bai eta 20.2 pisu atomiko ertaina (bi atomoen proportzioa kontuan hartuta). Astonek isotopo berri bat aurkitua zen. “Isotopo” terminoa Frederick Soddyk sortu berria zen garai hartan, Margarett Toddek iradokita. Propietate berdinak baina masa ezberdinak dituzten atomoei erreferentzia egiteko asmatu zen terminoa. Egun, gauza arrunta iruditzen zaigu kontua, baldin eta kimika pixka bat jakinda kontuan hartzen badugu isotopoek neutroi kopuru desberdinak izan ditzaketela, baina garai hartan atomo azpiko partikula horiek aurkitu gabe zeuden artean! Gerra ostean, Astonek hobetu egin zuen bere tresna, eta lehenengo “masa-espektrometroak” garatu zituen (3. Irudia). Horrela, 212 isotopo natural aurkitu zituen. Kimika Nobel saria lortu zuen 1922. urtean. Soddyk aurreko urtean irabazia zuen saria.
Espektrometriaren hastapen garai horretan, Arthur Jefrrey Dempster goraipatu behar da. Berak, Chicagoko Unibertsitatean, sekzio magnetikoko lehenengo espektrometroak diseinatu zituen. Azken hauetan oinarrituta daude egungo tresna asko, eta haietan oinarrituta aurkitu zen 235-uranioa.

3. irudia: Astonek gauzatutako hirugarren masa-espektrometroaren erreplika. (Argazkia: Jeff Dahl / Wikimedia Commons CC BY-SA 3.0 lizentziapean)
Gerrak, aurrerapenak eta hedaduraHain zuzen ere 235-uranioa da espektrometria honen aplikazioen lehenengoetako baten eragile nagusia. Zoritxarrez. Manhattan egitasmoan ari zirelarik, Alfred Nierrek irauli egin zuen espektrometria. Izan ere, esparru horretako tresna berriak sortu zituen, Little Boy izenekoan erabilitako isotopoa islatzeko eta hobeto ezagutzeko. Ez litzateke ordea bidezkoa izango bere aurrerapenei eman zitzaien aplikazioagatik epaitzea. Zientzialari honek ulertu zuen espektrometria honek garrantzi handia hartuko zuela, eta berez, musu-truk zabaldu zuen bere aurkikuntza beste esparru batzuetara: biologia (13-karbonoaren aberastea) edo geologia (lur-geruzaren isotopo bidezko datazioa).
40 eta 50.eko hamarkadetan zehar hobekuntza handiak eginda, printzipio berrietan oinarritutako tresnak sortu ziren, ioiak banatzeko. Oso garrantzitsuak eta goraipatzekoak dira “hegaldi” motako tresnak”, W.E. Stephensek proposatuak. Honelakoetan, inpultso batek molekula ezberdinetan eragindako abiadura ezberdinen bidez banatzen dira molekulak. Sistema hau da hain zuzen irudikatzen errazena: zenbat eta astunagoak, hainbat eta beranduago iritsiko dira molekulak detektagailura. Aurrerapen handia izan zen era berean kuadripolo motako tresnak asmatzea. Horrelakoetan, zilindroak erabiltzen dira, korronte jarraituaren eta erradiofrekuentzien aldaketak eginez ioiak banandu ahal izateko. Izan ere, Wolfgang Paul eta Hans Georg Dehmeltek Fisikako Nobel saria lortu zuten 1989.ean, ioi-tranpagatik. Tranpa horretan garatu ziren aipatu printzipioak hiru dimentsiotan.

4. irudia: “Hegalaldi” motako espektrometroaren Stephens espektrometroa, eta egungo espektrometro bat, “hegalaldi-tutua” agerian duena. (Argazkia: Kkmurray / Wikimedia Commons CC BY-SA 3.0 lizentziapean)
Joan gaitezen astiroago baina. Hasierako merkatuko espektrometroek ez zuten oso harrera onik izan. Hala gertatu zen neurri handi batean teknika oso ezezaguna zelako. Berez, aplikazio gehienak kuantitatiboak ziren, eta horrelakoa zen adibidez petrolio-findegian egiten den hidrokarburoen analisia. Hau da, konposatu jakin baten seinalea kontzentrazioarekiko proportzionala delarik, konposatuak lagin ezberdinetan zuen kontzentrazioa ezartzeko erabiltzen zen, eta horrela alferrik baztertzen zen masa-espektrometria metodoaren eskaintza onena: molekula ezezagunen identifikazioa. Molekula baten izaera ezagutzeko, funtsezkoa da masa molekularra ezagutzea. Areago, molekula tresnan bertan zatikatu daiteke eta beraz, zatien masa ere jakin daiteke, azkenean datu guztiak puzzle batean bezala uztartzeko. Hiru zientzialari ohartu ziren metodoaren aukera honetaz. Lehenengoa, Fred McLafferty izan zen. Zientzialari hau, bere berrantolaketa izenekoagatik egin zen ospetsu. Klaus Biemann eta Carl Djerassi izan ziren beste zientzialariak. Hala ere, Thomson izugarri aurreratu zitzaien beste guztiei, jadanik 1913.ean aurreikusi zuelako aplikazio hau. Edonola zientzialari hauei guztiei esker, Kimika Organikoaren arloan hedatu zen metodoa. Hasiera batean, alkaloideak eta esteroideak aurkitzeko erabili zen espektrometria hau. Izan ere, Djerassi pilula antisorgailua aurkitu zutenetako bat da. Horrela, erresonantzia magnetikoarekin batera, molekula berriak ezagutzeko metodo nagusia izatera iritsi zen masa-espektrometria.
Erabateko arrakastaEspektrometria goraka zihoan, baina artean gainditzeko eragozpen handia zuen aurrean: nola lortu molekula bat gas-ioi bihurtzea? Izan ere, oraindik masa-neurketaz baizik ez gara aritu, eta ez dugu bestelakorik jorratu. Gogoan izan behar dugu teknika honek masa/karga erlazioa neurtzen duela eta ezer gutxi lortuko dugula gure aztergaia ionizaturik ez badago. 60.eko hamarkadaren bukaera aurreko garaietan, metodoek ezin zituzten molekula ezlurrunkorrak erabili, edo batzuetan molekula erabat apurtzen zutelarik, galdu egiten zen masa molekularraren informazioa.
Gauzak horrela, biomolekulak ezin ziren aztertu, eta are gutxiago tamaina handiko proteinak. Aurrera egin behar zen eta bi ionizazio berri sortu ziren: Elektro-spray bidezko ionizazioa eta Matrizeak lagundutako Laser-Desortzioa/ionizazioa (euskaraz, MLDI). Horrela, hegoak jarri zitzaizkien “molekula elefanteei”. Hala esan zuen John B. Fennek Kimikako Nobel saria 2002.ean hartzean.

5. irudia: John Fennek Nobel Saria hartzeko eman zuen hitzaldiaren izenaren harira egindako marrazkia, Marianne Steinbergek National Science Academy izeneko erakundearentzat egina. (Ilustrazioa: Marianne Steinberg-ek egina National Science Academy-rako)
Fennek Koichi Tanaka japoniarrarekin partekatu zuen 2002.eko Nobel Saria, “makromolekula biologikoak analizatzeko ionizazio-metodo bigunen garapenagatik”. Lehenengoak ESI metodoa garatzegatik hartu zuen saria, baina esan beharrekoa da metodoa bera Malcom Dolek sortua zuela 1968.ean. Ionizazio metodo hau bakun samarra da: bere baitan lagina duen disolbatzaileak kapilar bat zeharkatzen du. Kapilar horri, molekulak ionizatzeko (karga positiboa edo negatiboa jartzeko) boltaje bat ezartzen zaio. Irtendakoan, likidoak aerosol bat sortuko du (spray bat), nebulizazio-gas baten laguntzaz. Disolbatzailea lurrintzen doan neurrian, tantak gero eta txikiagoak dira. Une jakin batean, tantak oso txikiak dira eta ondorioz, molekula kargatuen arteko aldaratze-indarra, azalezko tentsioa baino handiagoa da eta “leherketa” gertatzen da (6.irudia). Horrela, masa-analizagailura sartzeko moduko gas-ioiak lortzen dira. Ionizazio mota honek aukera ematen du molekula anitz aztertzeko, bai eta 100.000tik gorako pisu molekularra duten molekulak aztertzeko ere. Gainera, oso abantailatsua da, disolbatzaile likidoak erabiltzen direlako, eta horrek posible egiten du metodo hau kromatografia likidoarekin elkartzea. Esan beharrekoa da banaketa-teknikarik arruntenetako bat dela kromatografia likidoa.
Bestetik, Tanakak oso metodo desberdina erabili zuen proteinak ionizatzeko: laser bat. Bere lorpena ukaezina da, baina eman zioten Nobel Saria nahiko eztabaidatua izan zen. Izan ere, batzuek pentsatzen dute Hillenkamp eta Karasi eman beharko zietela saria, zeren eta haiek garatu baitzuten egun egun MLDI modura ezagutzen duguna, eta teknika hau ez da Tanakaren metodo berbera. Eztabaida alde batera utzita, ez dugu oraindik esan MLDI ionizazio-metodoa zeharkakoa dela. Laser bidez erraz ionizatzen den matrize bat gehitzen zaio laginari, eta matrize hori da molekuletara bere karga transferitzen duena. Ionizazio-metodo hau oso ona da, batez ere aukera ematen duelako, animalia ehunak bezalako azalen irudiak egiteko.

6. irudia: Ionizazio-eskemak: IE (ezkerrean) eta MLDI (eskubian). (Iturria: Eva Mason eta Mikayé)
XXI. mendean zehar, goraka joan dira masa-espektrometriaren aurrerapenak eta nagusi bilakatzen ari dira bereizmen handiko ekipoak (oso masa/karga erlazio antzekoak dituzten molekulak bereizten dituztenak). Horri begira gaudela, agian Orbitrap da azken urteotan egin izan den aurrerapen handiena: tranpa motako masa-espektrometroa, Fourier transformatua duena.
Baina aurrerantzean hitz egingo dugu espektrometriaren orainaz, teknika hau oso baliagarria suertatzen dela erakusten joango garelako hainbat esparrutan zehar.
Egilearen oharra: Masa atomikoa eta pisu atomikoa definitzeko era aldatzen joan da urteetan zehar. Esan beharrekoa da isotopo espezifiko baten masa dela masa atomikoa, eta elementu baten isotopo guztien pisu atomiko ertaina dela pisu atomikoa (elementuaren aniztasuna kontuan hartuta).
Erreferentzia bibliografikoak:
- Maher, Simon et al., (2015). Colloquium: 100 years of mass spectrometry: Perspectives and future trends. Reviews of Modern Physics, 87, 113-135. DOI: https://doi.org/10.1103/RevModPhys.87.113
- Griffiths, Jennifer et al., (2008). A Brief History of Mass Spectrometry. Analytical Chemistry, 80 (15), 5678-5683. DOI: 10.1021/ac8013065
- Borman, Stu et al., (2003). A Mass Spec Timeline. Today’s Chemist at Work, September, 47-49.
—————————————————–
Egileaz: Oskar Gonzalez (@Oskar_KimikArte) UPV/EHUko Kimika Analitikoa Saileko ikertzailea da eta Zientzia eta Teknologia Fakultateko eta Arte Ederretako Fakultateko irakaslea ere.
—————————————————–
Hizkuntza-begiralea: Juan Carlos Odriozola
——————————————–
The post Masa-espektrometria (I). Neoi isotopoetatik elefante hegalariengana appeared first on Zientzia Kaiera.
El teorema de Pitágoras en el arte
No es la primera vez que hablamos del famoso Teorema de Pitágoras en el Cuaderno de Cultura Científica y seguramente no será la última. Esto se debe a que este teorema es, sin lugar a dudas, el resultado matemático más conocido por todo el mundo. Además, se ha convertido en un símbolo de las propias matemáticas. El enorme interés que ha despertado este teorema geométrico en la sociedad ha sido tal que ha trascendido el ámbito de la investigación científica y la enseñanza de las matemáticas, para convertirse en fuente de inspiración en las artes, desde las artes plásticas hasta las artes escénicas, pasando por la literatura, la música o el cine.
Entre las entradas que hemos dedicado al teorema de Pitágoras en el Cuaderno de Cultura Científica, estaban Pitágoras sin palabras, Sin Noticias de Pitágoras (Pitágoras en la Literatura), en la cual presentamos algunas novelas con referencias al Teorema de Pitágoras, y más aún, un primer acercamiento a la pintura y la escultura que se han inspirado en este resultado matemático dentro del arte contemporáneo,Cultura pitagórica: arte.
Empecemos, como de costumbre, recordando el enunciado de este famoso teorema, que hemos aprendido en la escuela y que resuena en nuestra cabeza como si fuera el estribillo de una canción: “dado un triángulo rectángulo, entonces el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos”. De hecho, existen algunas canciones que hablan del mismo, como la canción Pitágoras del grupo Seguridad Social (que podéis escuchar aquí), que es una versión del tema de 1961 del grupo de rock español Los Milos.
Ese familiar estribillo del Teorema de Pitágoras “el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos” también lo hemos aprendido a través de su expresión algebraica, es decir, dado un triángulo rectángulo con catetos a y b, e hipotenusa c, entonces a2 + b2 = c2.

La entrada Cultura pitagórica: arte se iniciaba con una serie de obras del artista conceptual estadounidense Mel Bochner (nacido en Pittsburgh, Pensilvania, en 1940). Una parte importante de la obra de este artista está relacionada con los números y las matemáticas. Entre sus obras destacan algunas que reflexionan sobre el Teorema de Pitágoras, como puede verse en esa entrada. En particular, en ella mencionábamos una serie de obras titulada Meditación sobre el Teorema de Pitágoras, en la cual empezó a trabajar a principios de los años 1970 y sobre la que ha continuado trabajando hasta la actualidad.
En esta serie de obras aborda la representación gráfica de la terna pitagórica (3, 4, 5), que satisface la ecuación 32 + 42 = 52 (9 + 16 = 25), y su conexión con el asociado triángulo rectángulo, pero dando mayor importancia a los valores numéricos de la terna pitagórica, 3, 4 y 5, y el valor de sus cuadrados, que representa en sus esculturas con diferentes objetos, desde avellanas, guijarros o cristales, hasta fichas del juego Go.

El diagrama del triángulo de Pitágoras (véase la primera imagen de arriba) con los tres cuadrados adyacentes cuyas áreas simbolizan los cuadrados de los lados correspondientes del triángulo rectángulo y, por lo tanto, el área del cuadrado adyacente a la hipotenusa (c2) es igual a la suma de las áreas de los cuadrados adyacentes a los catetos (a2 + b2), es un diagrama que nos encontramos en muchas obras. Un ejemplo es la obra Pythagoras (1989) del compositor y artista coreano-americano Nam June Paik (Seúl, Corea del Sur, 1932 – Miami, EE.UU., 2006), uno de los creadores del videoarte.
La obra está formada por 16 televisores, que representan el triángulo rectángulo, con 1, 3, 5 y 7 televisores por fila, 5 tubos de neón azul, para el cuadrado de la hipotenusa, 3 tubos de neón rojo, para el cuadrado del cateto lateral, y 5 tubos de neón verde, para el cuadrado del cateto de la base. Además, las imágenes que se emitían en las televisiones procedían de tres lectores de dvd.

El artista plástico y matemático francés Pierre Gallais realizó dos instalaciones relacionadas con este diagrama del Teorema de Pitágoras en el año 1990, en el Centro de Arte Contemporáneo de Fleurs (Francia), Pythagore e Intersections.


Otro de los grandes artistas del siglo XX, el multifacético suizo Max Bill (Winterthur, Suiza, 1908 – Berlín, Alemania, 1994), artista, arquitecto, diseñador gráfico, diseñador industrial y tipógrafo, que estudió en la Bauhaus y fue uno de los máximos exponentes del arte concreto, también se interesó por el Teorema de Pitágoras. Este artista, que muchas personas del ámbito de las matemáticas relacionan con la banda de Moebius, por las hermosas esculturas que realizó con esta superficie, desarrolló una abstracción geométrica en la que las formas básicas, como el triángulo, tomaron un papel protagonista.

En este poster de la exposición organizada por el Museo de Arte Contemporáneo de Madrid (febrero de 1980), junto a la Fundación Joan Miró (marzo y abril de 1980), podemos observar una obra de Max Bill con el esquema del Teorema de Pitágoras para la terna pitagórica (3, 4, 5). El cuadrado superior es un cuadrado 5 x 5, correspondiente a la hipotenusa, mientras que los cuadrados de abajo son cuadrados 3 x 3 y 4 x 4, correspondientes a los catetos. La terna pitagórica (3, 4, 5) es la más sencilla de todas, por lo que es la más conocida y la que se suele utilizar de forma explícita en el arte.
Sobre el mismo tema Max Bill realiza también la obra Konstruktion um das thema 3-4-5 (1980), “Construcción sobre el tema 3-4-5”, en la cual nos encontramos de nuevo el triángulo rectángulo de la terna pitagórica (3, 4, 5), así como los tres cuadrados de lados 3, 4 y 5, cuyos lados están formados también por cuadraditos de cuatro colores distintos, como en el poster anterior, cuyos colores se van distribuyendo sobre el perímetro de los cuadrados de forma cíclica, y el centro es blanco. El número de cuadraditos del perímetro de los tres cuadrados es 8, 12 y 16, todos divisibles por 4, por lo cual cada color aparece el mismo número de veces en cada uno de ellos, 2, 3 y 4, respectivamente.

De esa misma serie de obras de la década de 1980 sobre el teorema de Pitágoras es la obra Pythagoräisches dreieck in quadrat II, “Triángulo pitagórico en el cuadrado II”.

Además, tiene toda una serie de obras sobre lo que denomina en los títulos de las mismas, triángulos pitagóricos, que suelen ser distintos triángulos rectángulos dispuestos de diferentes formas en un cuadrado, por ejemplo, Triángulos pitagóricos sobre un cuadrado rojo (1982).

Aunque ya trabajó con el teorema de Pitágoras y el esquema del triángulo rectángulos con los tres cuadrados cuatro décadas antes, hacia 1940. De esa época es la obra Konstruktion mit drei Quadratgrößen, Denkmal für Pythagoras (1939-1941), “Construcción con tres tamaños de cuadrados, homenaje a Pitágoras”.

La unión de diferentes copias de este diagrama para generar una estructura mucho mayor también ha sido utilizada en el arte por otros artistas. El artista holandés Herman van de Poll, que describe su trabajo como basado “en las formas matemáticas de la teoría del caos” y la “geometría fractal”, también ha utilizado este diagrama en sus obras para generar estructuras fractales. Como la serie Puzzle boom van Pythagoras, algo así como “Árbol con el rompecabezas de Pitágoras”.

O también la serie Fractalgeneratie, algo así como “Generación fractal”.

Esta misma idea de generar un fractal ha sido utilizada por otros artistas, como el austriaco Hartmut Skerbisch (Ramsau am Dachstein, Austria, 1942 – Schloss Kalsdorf, Austria, 2009), que genera un árbol fractal de Pitágoras tridimensional, es decir, formado por cubos en lugar de triángulos.

Crockett Johnson (Nueva York, 1906 – 1975) era el seudónimo del ilustrador de libros infantiles y humorista gráfico David Johnson Leisk, quien dedicó los diez últimos años de su vida a pintar cuadros relacionados con las matemáticas y la física matemática. Ochenta de estos cuadros pertenecen a la colección de The National Museum of American History (El Museo Nacional de Historia Americana), de la Institución Smithsonian.
Entre las obras matemáticas de Crockett Johnson podemos disfrutar de, al menos, dos de ellas relacionadas con el Teorema de Pitágoras. La primera es la obra Squares of a 3-4-5 Triangle in Scalene Perspective (Dürer), “Cuadrados de un triángulo 3-4-5 en perspectiva escalena (Durero)”, de 1965. Esta pintura es una versión con perspectiva del esquema del teorema de Pitágoras para el triángulo rectángulo (3, 4, 5). Los tres cuadrados asociados a los lados del triángulo (3, 4, 5) están pintados con un diseño ajedrezado, el primero con 9 cuadraditos, el siguiente con 16 y el tercero con 25, como se observa en la imagen del cuadro que mostramos más abajo. Además, los cuadrados no están colocados en el mismo plano que el triángulo rectángulo, sino perpendiculares al mismo, de forma que están en la dirección de la persona que observa el cuadro, y están pintados en perspectiva.


La otra obra es Proof of the Pythagorean Theorem (Euclid), “Demostración del Teorema de Pitágoras (Euclides)”, de 1965, y que fue la segunda obra que pintó de esta serie matemática. Como se menciona en el título de esta pintura se utiliza el diagrama de la demostración del Teorema de Pitágoras que aparece en Los Elementos de Euclides (aprox. 325-265 a.n.e.). Como se menciona en la entrada Pitágoras sin palabras, “los árabes llamaban al esquema de la demostración del Teorema de Pitágoras dado por Euclides, la silla de la novia, ya que al parecer se parece a la silla que en algunos países orientales llevaba un esclavo a la espalda para transportar a la novia a la ceremonia. También ha sido llamada calesa de la mujer recién casada, capucha de franciscano, cola de pavo real y figura del molino de viento. El filósofo Schopenhauer llamaba a la demostración de Euclides una prueba paseando en zancos y también prueba de la ratonera”.

Crockett Johnson pintó el esquema de la demostración de Euclides que había visto en el artículo Greek Mathematics, “La matemática griega”, de Ivor Thomas, perteneciente a la publicación The World of Mathematics (1956), editado por James R. Newman. Este esquema es el mismo que el de la ilustración anterior.

Las propias demostraciones del Teorema de Pitágoras también han tenido mucho interés para las personas que se han interesado por el resultado geométrico y algunas de ellas poseen una gran fuerza estética.
La siguiente obra del conservador, historiador del arte y artista Kesler Woodward (AIken, Carolina del Sur, EE UU, 1951), cuya obra está compuesta principalmente por paisajes, se basa en la conocida demostración del matemático indio Bhaskara (siglo XII).

Teniendo en mente esta demostración Kesler Woodward pinta la obra Bhaskara’s Birchbark, “El abedul de Bhaskara” (2018).

Pero no es la primera vez que nos encontramos la demostración de Bhaskara en una obra de arte. El propio artista Max Bill la utiliza en varias de sus obras, como por ejemplo, la pintura 12 vierergruppen in weissem feld, “12 grupos de cuatro en un campo blanco” (1982).

O la obra Rotation um sich ausdehnendes weiss “Rotación alrededor de un blanco expansivo” (1978-1981), que está por cuatro copias de la estructura de la demostración de Bhaskara.

Esta obra está compuesta por cuatro copias de la estructura de la demostración de Bhaskara, en las cuales el cuadrado central es cada vez más grande, en el sentido de las agujas del reloj, izquierda-arriba-derecha-abajo, como se puede observar mejor en la siguiente imagen en la que hemos separado las cuatro estructuras. Además, esos cuadrados centrales no están blancos, sino que a su vez contienen cuatro copias de una de las demostraciones clásicas, que es una adaptación de la que aparece en el texto clásico de la matemática china Zhoubi Suanjing (aprox. 200 a.c.) del teorema de Pitágoras.

En la siguiente imagen hemos trazado unas líneas en negro para distinguir las cuatro demostraciones de tipo Bhaskara y las cuatro de tipo Zhoubi Suanjing, en la obra de Max Bill.
Pero las demostraciones que utiliza el máximo exponente del arte concreto, Max Bill, en su trabajo no terminan ahí. En la serigrafía Vier sich durchdringende farben, “Cuatro colores que se interconectan”, de 1967, utiliza de nuevo dos demostraciones distintas del teorema de Pitágoras. El esquema de la parte interior, el cuadrado inclinado partido en cuatro trozos, se corresponde con la demostración visual atribuida al matemático recreativo estadounidense Henry E. Dudeney (1857-1930) del teorema de Pitágonas, mientras que en la parte exterior está la demostración visual que ya hemos visto basada en el Zhoubi Suanjing.

A continuación, mostramos el esquema de la demostración visual de H. E. Dudeney del Teorema de Pitágoras, del año 1917. Aunque como se apunta en el libro Dissections: plane and fancy la demostración fue publicada con anterioridad, en 1873, por el inglés Henry Perigal (1801-1898).

Vamos a finalizar esta entrada con un poema visual sobre el Teorema de Pitágoras, del ingeniero químico retirado estadounidense Li C. Tien, titulado Right Triangle.

Bibliografía
1.- Página web del artista conceptual estadounidense Mel Bochner
2.- Institut de Mathologie Pierre Gallais
3.- Página web del artista Herman van de Poll
4.- Página web de The National Museum of American History
5.- James R. Newman (editor), The World of Mathematics, editorial Simon and Schuster, 1956.
6.- Roger B. Nelsen, Demostraciones sin palabras (ejercicios de pensamiento visual), Proyecto Sur, 2001.
7.- Manuel Fontán del Junco, María Toledo (editores), catálogo de la exposición Max Bill, Fundación Juan March, Madrid(octubre 2015 – enero 2016), Fundación Juan March y Editorial de Arte y Ciencia, 2015.
8.- JoAnne Growney, Poetry with Mathematics
9.- Greg N. Frederickson, Dissections: plane and fancy, Cambridge Universuty Press, 1997.
10.- Catálogo de la exposición Max Bill, obras de arte multiplicadas como originales (1938-1994), Museu Fundación Juan March, Palma (febrero-mayo 2015) y Museo de Arte Abstracto Español, Cuenca (junio-septiembre, 2015). Fundación Juan March y Editorial de Arte y Ciencia, Madrid, 2015.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El teorema de Pitágoras en el arte se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Denisova haitzuloaren ‘egutegia’ askoz zehatzagoa da orain
Interneten bitartez erositako opari hori postetxean edo mezularitza enpresa batean hemendik-hara galduta dagoela esaten dizuten hurrengoan, pentsa ezazu gauzak larriagoak izan litezkeela. Benetan. Imajina ezazu hau: oraindik horretaz jabetu ez bazara ere, guztiz ezezaguna den gizateria galdu baten arrastoa aurkitu duzu. Munduaren beste punta batean dagoen laborategi espezializatu batera bidali duzu lagina. Eta bidean, galdu egin da. Ez da irudimen ariketa soila, horixe bera gertatu zitzaion Anatoli Derevianko antropologoari Denisova haitzuloan (Siberia, Errusia) 2008an aurkitutako falange fosil batekin.

1. irudia: Zientzialariek bost urte eman dituzte Denisovan orain arte egin den dataziorik zabalena osatzeko. Irudian, Natalia Belousova eta Tom Higham ikertzaileak, laginak eskuratzen. (Argazkia: Sergey Zelinski / Errusiako Zientzien Akademia)
Eskerrak aztarna osoa bidali ez zuen. Artean esku artean zer zuen ez bazekien ere, fosil hori bitan zatitu zuen, bi laborategitara bidaltzeko. Lehen zatia betiko galdu zen, baina bigarrena esku egokietara iritsi zen: Svante Päävo paleogenetista ospetsuaren laborategira, hain zuzen. Garai horretan laborategi horretan neandertalen lehen genoma sekuentziatzen ari zirenez, kasu askorik ez zioten egin errusiarrek bidalitako hezurtxo ñimiñoari. Baina handik urtebetera falangea aztertzeari ekin ziotenean, zur eta lur geratu ziren. Falange hori ez zen neandertala, ezta gizaki modernoa ere. Begi aurrean zutena giza espezie guztiz berria zen.
Hamar urte inguru igaro dira eureka txiki horretatik, eta, zorionez, aztarna gehiago aurkitu dira, bai denisovarrena zein neandertalena. Garai horretan gizaki modernoak baziren Asian, baina momentuz ez da argitu denisovarrekin kontaktuak egon ote ziren. Horren frogarik, bederen, ez da aurkitu orain arte.
Siberia hegoaldeko Altai mendietan dago Denisova haitzuloa. Duela 40 urte egin zituzten bertan lehen indusketak. Guztiz berezia da haitzulo hori, bai denisovarrek zein neandertalek denboran kointziditu zutelako. Jakina da paleoantropologian bi espezie kointziditu zirela ondorioztatzea oso arriskutsua izan daitekeela, egiten diren datazioek errore-marjina handia izan ohi dutelako: iberiar penintsulan erromatarrak eta arabiarrak batera egon zirela esatearen parekoa litzateke hau. Baina alor honetan ere Denisova berezia da, bi hominido horien arteko hibridazioaren frogak azaleratu direlako.
Iazko udan Denisovan aurkitutako hezur bati esker ezagutzen da denisovarrak eta neandertalak gurutzatu egin zirela, DNA bidezko analisiek hala erakutsi zutelako Denisova 11 edo Denny gisa izendatutako neska batek aita denisovarra eta ama neandertala izan zituela. Pixkanaka frogak pilatu dira, gainera. Aurtengo urtarrilean Nature Communications aldizkarian argitaratutako lan batean gurutzaketa hori modu masiboan eman zela egiaztatu ahal izan dute, egungo Asiako gizakien DNAren analisiari esker. Bi espezie horien gurutzaketatik giza espezie ezezagun bat jaio zela ondorioztatu zuten ikertzaileek, eta hirugarren espezie hori egungo gizakiekin gurutzatu zen ere. Kasu honetan ikaskuntza sakoneko algoritmoak baliatu dituzte informazio genetikotik ondorio baliagarriak erauzi ahal izateko.
Orain, Nature aldizkarian argitaratutako bi zientzia artikulutan [Douka et al., lehena; Jacobs et al., bigarrena] hobeto zehaztu dute Denisova haitzuloaren kronologia. Orokorrean, atera duten ondorioa da denisovarren okupazioa duela 287.000 urtetik duela 55.000 urtera izan zela, eta neandertalena duela 193.000 eta 97.000 urte artekoa izan zela. Ez da zehaztapen hutsala izan: datu berrien argitara, denisovarren presentzia 100.000 urte inguru atzeratu dutelako. Berez, denisovarrak gutxienez duela 200.000 urte bertan egon zirela frogatu dute, baina zaharragoak diren geruzetan duela 287.000 urteren buelta horretan landuak izan zitezkeen tresnak aurkitu dituzte ere, eta horiek denisovarrek sortu zituzteneko sumoa dute ikertzaileek. Bestetik, neandertalengandik kontserbatu izan diren aztarna gehienak duela 120.000 urteko dataren ingurukoak dira, Riss-Würn glaziazioartekoaren ingurukoak, hain justu.

2. irudia: Giza arrastoez gain, tresnak eta apaingarriak aurkitu dituzte Denisovan; tartean, hezurrezko puntak eta zulatutako hortzak. (Argazkia: Katerina Douka)
“Aurretik egindako ikerketek aurkituak zituzten objektu apaingarriak, hala nola zintzilikario gisa erabilitako hezurrak edo mamuten boliaz egindako objektuak, eta horiek hasierako Homo sapiens espezieari lotu izan dira”, azaldu du Robin Dennell paleoantropologoak bi zientzia artikulu horiek testuinguruan jartzeko Naturen argitaratutako iruzkin batean. “Halere, 2010ean haitzuloa hedabideetako tituluetara iritsi zen. Urte horretan, Erdi Paleolito aroko geruza batean aurkitutako hezur bateko antzinako DNAren analisiak zehaztu zuen espezimen hori artean ezagutzen zen hominido espezie batekoa zela, eta espezimen hori Homo sapiens espezietik gertu zegoela eboluzioaren zuhaitzean”.
Ohiko karbono-14 bidezko datazioaz gain, optikaren bidez estimulatutako luminiszentzia (OSL) bidezko datazioa erabili dute Denisovan. Teknika horrek aukera ematen du jakiteko kuartzo bezalako mineralak eguzkipean egon zireneko azken aldia zein izan zen. Teknika honen altzoan eraiki dute, besteak beste, haitzuloan aurkitutako arrastoen kronologia.
Ez da izan erabilitako teknika bakarra. Kolagenoaren azterketa oinarrituta, masa-espektrografia bidezko zooarkeologia (ZooMS) izeneko teknika erabili dute espezie desberdinak bereizteko. Kolagenoa DNA baino dezente hobekiago kontserbatzen da, eta teknika hori azkarra eta merkea omen da, gainera.
Hortaz, puntako teknologiak asko lagundu du iragana hobeto ezagutzen, baina betiko zailtasunak bere horretan mantentzen direla gogoratu beharra dago. Hala adierazi du Rennellek, hain zaharrak diren sedimentuak aztertzea oso zaila dela azalduz. “Animaliek egindako gordelekuek, subsidentziek edota izozte-urtze zikloek geruzak nahas ditzakete”, zehaztu du. “Hezur fosilen edo harrizko tresnen moduko objektu txikiak haien jatorrizko tokitik mugi daitezke, eta baliteke ez edukitzea aurkitu zuteneko geruzaren adin berdina”. Hortaz, argi dago tentuz ibili beharra dagoela; baina, gutxienez, orain esku artean dugun egutegia aurrekoa baina askoz txukunagoa da.
Erreferentzia bibliografikoa:
Dennell, Robin (2019). Dating of hominin discoveries at Denisova. Nature 565, 571-572. DOI: 10.1038/d41586-019-00264-0
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Denisova haitzuloaren ‘egutegia’ askoz zehatzagoa da orain appeared first on Zientzia Kaiera.
Sonido (1)

Las ondas sonoras son perturbaciones mecánicas que se propagan a través de un medio, como el aire. Típicamente, las ondas de sonido son ondas longitudinales, que producen cambios de densidad y presión en el medio en el que se propagan. El medio puede ser un sólido, un líquido o un gas. Si las ondas sonoras llegan al oído hacen que el tímpano vibre, lo que produce una señal en el nervio acústico que es lo que produce la sensación de audición. La biología y la psicología de la audición, así como la física del sonido, son igualmente importantes para la ciencia de la acústica. Nosotros nos concentraremos en el sonido como un ejemplo de movimiento ondulatorio.
El sonido tiene todas las propiedades del movimiento de las ondas que hemos visto hasta ahora. Presenta reflexión, refracción, difracción y las mismas relaciones entre frecuencia, longitud de onda y velocidad e interferencia de propagación. Solo falta la propiedad de la polarización, porque las ondas de sonido son longitudinales, no transversales. Además, las ondas sonoras viajan más rápido en el aire frío que en el aire caliente debido a la mayor densidad del medio, el aire, cuando hace frío.

Las fuentes de vibración para ondas de sonido pueden ser tan simples como un diapasón o tan complejas como la laringe humana y sus cuerdas vocales. Los diapasones y algunos dispositivos electrónicos producen un “tono puro” constante. La mayor parte de la energía en un tono de este tipo se encuentra en un movimiento armónico simple a una sola frecuencia. La frecuencia se mide en hertz (Hz), donde 1 Hz es un ciclo (u oscilación) por segundo; 1 Hz = 1 / s (no hay una unidad para el “ciclo”).
El oído humano normal puede escuchar ondas de sonido con frecuencias entre aproximadamente 20 Hz y 15.000 Hz. Los perros pueden escuchar en un rango mucho más amplio (15 Hz – 50.000 Hz). Los murciélagos, marsopas y ballenas generan y responden a frecuencias de hasta 120.000 Hz.
La sonoridad (o “volumen”) del sonido es, como el tono, una variable psicológica. La sonoridad está fuertemente relacionada con la intensidad del sonido. La intensidad del sonido sí es una variable física. Se define en términos de la energía transportada por la onda y generalmente se mide en el número de vatios por centímetro cuadrado transmitidos a través de una superficie perpendicular a la dirección del movimiento de un frente de onda.

El oído humano puede percibir una amplia gama de intensidades de sonido. Comienza a un nivel de 10-16 W / cm2. Por debajo de este nivel de “umbral”, el oído normal no percibe el sonido. Es costumbre medir la sonoridad en decibelios (dB) que es 10 veces el logaritmo de la intensidad relativa. Así, si al umbral de audición le asignamos una intensidad relativa de 1, le corresponde en decibelios un valor de 0 (Tabla 1), ya que 100 = 1 y 10×0=0. Si un avión al despegar decimos que produce un sonido de 130 dB, eso quiere decir que la intensidad es de 1013.
Los niveles de intensidad de ruido de aproximadamente 1012 veces la intensidad del umbral se pueden sentir como una sensación incómoda en el oído humano normal. A partir de ahí la sensación cambia a dolor y puede dañar el oído si no está protegido. Dado que muchos conciertos de música pop y rock producen niveles de sonido constantes a esta intensidad (y por encima de ellos para los intérpretes), hay muchos casos de discapacidad auditiva entre las personas expuestas habitualmente a esos niveles.

La forma más sencilla de reducir el ruido es absorbiéndolo después de que se produzca, pero antes de que llegue a tus oídos. Como todo sonido, el ruido es la energía del movimiento hacia adelante y hacia atrás del medio a través del cual viaja el ruido. La maquinaria ruidosa se puede amortiguar encerrándola en recintos acolchados en los que la energía del ruido se transforma en energía térmica, que luego se disipa. En una habitación, una alfombra gruesa puede absorber el 90% del ruido que se genera en la habitación. 30 centímetros de nieve fresca y esponjosa es un absorbente casi perfecto de los ruidos al aire libre.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Sonido (1) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Ecolocalización, la capacidad de ver a través del sonido
- Aplicaciones de la reflexión de ondas: el sonar
- Patrón de interferencia en ondas periódicas