Vega Asensio: “Ilustrazioek zientzia dibulgazioan mezua transmititzen laguntzen dute” #Zientzialari (110)
Ilustrazioak arte izateaz gain informazio iturri ere badira. Horregatik, zientziaren dibulgazioan oso tresna erabilgarriak dira, mezua aberasten laguntzen dutelarik. Izan ere, giza garunak irudiak arin ulertu eta oso ondo gogoratzen ditu.
Ilustrazio zientifikoek mezua ahalik eta hobeto transmititzen laguntzea xede duten heinean, arlo honek onura asko ekartzen ditu zientzia-dibulgazioan.
Ilustrazioek arlo zientifiko desberdinetan nola laguntzen duten jakiteko, Vega Asensio biologo, ilustratzaile eta diseinatzaile zientifikoarekin elkartu gara.
“Zientzialari” izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.
The post Vega Asensio: “Ilustrazioek zientzia dibulgazioan mezua transmititzen laguntzen dute” #Zientzialari (110) appeared first on Zientzia Kaiera.
Mamá, no quiero ser científica
El 11 de febrero es el Día Internacional de la Mujer y la Niña en la Ciencia. A lo largo de todo el mes se desarrollan actividades de visibilización de mujeres científicas con el fin de animar a las niñas a elegir carreras de ciencias si así lo desean. Si así lo desean.
- Las niñas estudian menos ingenierías
Actualmente en España hay más estudiantes mujeres en la universidad que hombres. Son el 55%. En las carreras denominadas STEM (por las siglas en inglés de ciencias, tecnologías, ingenierías y matemáticas) el cómputo es paritario, pero si lo analizamos especialidad por especialidad, observamos que en las ingenierías hay un 30% de mujeres matriculadas. La ingeniería informática es la que menos mujeres estudian, el 20%.
Sin embargo, en las ciencias aplicadas a la salud, el 75% de las matriculadas son mujeres. En otras carreras como biología, química, matemáticas o física, hombres y mujeres están prácticamente al 50%.
Según estos datos, de haber un problema de infrarrepresentación femenina, estaría solo en las ingenierías.
-
Visibilizar a mujeres de ciencia y despertar vocaciones
Las actividades que se desarrollan a lo largo del mes de febrero intentan, entre otras cosas, fomentar vocaciones científicas entre las niñas, bajo la asunción de que estas vocaciones están adormecidas o están censuradas por su entorno. Padres que no quieren que sus hijas ejerzan trabajos tradicionalmente masculinos, personas que minusvaloran las capacidades de las mujeres, niñas con un injusto concepto de sí mismas.
Para reducir el impacto de estas actitudes en las decisiones de las niñas, sobre todo científicas y divulgadoras se presentan como referentes. No sabemos hasta qué punto las referentes femeninas influyen en las decisiones de las niñas, pero la intuición nos dice que cuanto más visibilicemos a las mujeres de ciencia, más normalizaremos la decisión de que las niñas quieran ser mujeres de ciencia. No sabemos si esto funciona así, pero por si acaso.
La visibilización de las mujeres de ciencia es un ejercicio de justicia. No se trata solo de tratar de despertar vocaciones, sino de dar nombre a tantas mujeres de ciencia que son borradas de la historia. Que por fin aparezcan en las publicaciones de ciencias, en los libros de texto, en los documentales, que dejen de aparecer como personajes secundarios y que se les coloque en el papel de protagonistas cuando lo hayan sido, que se relaten las injusticias que han soportado y que las han colocado en posiciones de segunda. La mujer de, la ayudante de, la técnico de. Las que no se llevan el reconocimiento por ser mujeres, que ahora merecidamente se lo demos.
Algunos ponen en duda que la visibilización sirva para despertar vocaciones. Es una duda razonable. Despertar vocaciones dota de un sentido de utilidad a corto y medio plazo a gran parte de las acciones que se acometen en relación con el 11 de febrero. No estamos acostumbrados a poner tanto empeño en acciones simbólicas si estas no tienen un sentido útil, una respuesta medible: más niñas que quieren ser mujeres de ciencia. Estrictamente no tenemos ni idea de si la consecuencia será esa. A mí no me preocupa que no lo sea, porque lo verdaderamente poderoso de todo esto es su valor simbólico. Como una suerte de performance colectiva que pretende colocar a las mujeres en el lugar que merecen. La visibilización de las mujeres de ciencia es un ejercicio de justicia, y esto tiene valor en sí mismo, independientemente de si sirve o no para animar a las niñas a convertirse en mujeres de ciencia.
-
Despertar vocaciones o animar a ser como los chicos
Generalizando, hay tantas chicas como chicos matriculados en carreras de ciencias. A excepción de algunas ingenierías, que hay más chicos, y a excepción de las ciencias de la salud, que hay más chicas. Si las cifras son estas, ¿por qué tanto empeño en animar a las chicas a estudiar ciencias? Si ya estudian ciencias.
Sí, pero no estudian ingenierías.
Que haya menos mujeres en ingenierías se percibe como un problema. Que haya más mujeres en ciencias de la salud se percibe como un problema. Es por eso de que se perpetúa un estereotipo, y como estereotipo da la impresión de que tiene que ser naturalmente malo. Aunque esto no sea así per se.
Si asumimos que estas cifras son un problema estamos dando por hecho que los chicos escogen bien sus carreras y que las mujeres escogen mal. Como si las carreras masculinizadas fuesen de primera y las feminizadas fuesen de segunda. No animamos a los chicos a estudiar ciencias de la salud. No animamos a los chicos a estudiar enfermería y magisterio, donde sí están infrarrepresentados. Animamos a las chicas a estudiar ingeniería. ¿Acaso estamos dando por hecho que los hombres son los que validan las carreras?
Incluso damos por hecho que los hombres son los que validan las profesiones. Pensemos en la cocina. Cocinar es un trabajo tradicionalmente femenino. Y parece que no se ha mostrado como profesión de prestigio hasta que no hubo cocineros famosos. Las cocineras y los cocineros. Lo mismo ha ocurrido con la moda. Las modistas y los modistos. Se desprende una clase diferente según el género de la profesión.
Por todo esto, en todas las acciones relativas al 11 de febrero en las que he participado mi mensaje ha sido «Chica, haz lo que te dé la gana».
-
Chica, haz lo que te dé la gana
Si como mujer de ciencia te he servido como referente, estupendo. Si no, estupendo también. Si quieres estudiar ciencias, adelante. Si quieres estudiar ciencias de la salud, enfermería, magisterio, carreras tradicionalmente femeninas, hazlo. Que nadie te haga sentir que tu elección no es libre. Que nadie te haga sentir que tu elección es menos importante. Que nadie te haga sentir que eres un estereotipo. Eres un individuo, no eres un engranaje más de un organismo femenino. Si nadie te ha obligado a tomar esa decisión, disfruta de ser un individuo que elige libremente su camino. Si quieres abanderar alguna lucha, que sea la tuya.
Si alguien te dice que tu elección no es libre porque está condicionada te diré que todas las elecciones están condicionadas, de una manera u otra. Las de los chicos y las de las chicas.
Que es igual de guay jugar con barbies que con robots. Y no me refiero a jugar con la Barbie laboratorio de ciencia, sino con la Barbie mil peinados, que es la mejor de todas. Disfrazarse de princesa es igual de divertido que disfrazarse de pirata. Y es lógico que no quieras disfrazarte de Marie Curie porque no era nada glamurosa. A ver si tampoco te vas a poder disfrazar de lo que te dé la gana. Que el problema no es a qué juegan las niñas. Solo faltaba.
Que si la ingeniería te da la turra, no estudies ingeniería. Si quieres estudiar ingeniería y te asusta que sea una «carrera de hombres» pues a pastar el cliché, que no hay nada que pueda hacer un hombre que no pueda hacer una mujer.
No tienes que demostrar nada ni ser adalid de nada. Que menuda responsabilidad. Que no defraudas a nadie si no quieres ser científica. Que hay algo más grande que formar parte de las mujeres de la ciencia, y eso más grande es tu vida.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Mamá, no quiero ser científica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Hacia la decisión compartida en los programas de cribado de cáncer de mama
- La humildad como virtud científica
- Verdad científica y verdad jurídica
Sexua, geneak eta osasun-arreta
Hortaz, badirudi sexuak eragina duela ezaugarri batzuen eta gaixotasun batzuen gene-oinarrian. Nolakoa da sexuaren eta geneen arteko elkarrekintza hori? Gaiari buruz ezaguna dena bildu dute berriki argitaratutako artikulu batean.
Sexua ezaugarri biologiko garrantzitsu bat bada ere, ez da guztiz ezaguna bere eragina gaixotasunak pairatzeko arriskuan, pronostikoan edota tratamenduen eraginkortasunean. Honek emakumeen osasun-arreta kaxkarragoa izatea eragin du. Ezaugarri eta gaixotasun batzuetan sexua faktore garrantzitsua da baina gaixotasun horien gene-oinarria ikertzerakoan, sexua lan gutxitan hartu izan da kontuan.
Izan ere, alde batetik sexu-kromosomak (X eta Y bezala izendatzen direnak) aztertzeko metodologia-eragozpenak daude; eta beste batetik estatistika-mugak daude. Muga hauek gainditzeko teknologiak eta teknikak egokitzen ari dira sexu-kromosomak dituzten berezitasunak kontuan hartzeko; eta biobankuen hazkundeari esker estatistika-mugak gainditzea espero da.

1. irudia: Sexuen arteko ezberdintasunek eragina izan dezakete gene mailan. (Argazkia: 5688709 – domeinu publikoko irudia. Iturria: pixabay.com)
Hiru eredu proposatu dira ezaugarrien eta gaixotasunen gene-oinarrian sexuak duen eragina azaltzeko. Kontuan izan behar da eredu hauek ez direla bateraezinak, hau da, ereduek batera eragingo dutela hein ezberdinean, ezaugarriaren edo gaixotasunaren arabera.
Lehen eredua Carterren efektuan datza da. 1960.eko hamarkadan Cedric Carterrek ikusi zuen emakumeek gutxiagotan pairatzen zutela estenosi pilorikoa delako gaixotasuna, baina gaixotasuna pairatzen zuten emakumeen ondorengoak gaixotasuna izateko probabilitate handiagoa zuela, gaitza zuten gizonen ondorengoak baino.
Hortaz, Carterrek proposatu zuen arriskua sortzen duten gene-aldaera gehiago behar zituztela emakumeek gaixotasuna garatzeko. Horrek eragiten zuen haien semeek gaixotasuna errazago garatzea, gaixotasuna garatzeko arriskua sortzen duten gene-aldaera gutxiago behar baitira gizonetan. Hortaz, eredu honetan, sexuaren arabera gaixotasuna garatzeko arrisku-ataria ezberdina da, gene-zamak modu ezberdinean eragiten baitu. Hau da, gaixotasun batzuetan, gaitza garatzeko sexu batean bestean baino mutazio gehiago behar direla.
Bigarren eredua sexu-kromosomek eragiten dute. Gonaden garapena eta sexu-hormonen adierazpena dira sexu-kromosomen eraginik nabarmenenak. Era berean, X eta Y kromosomak parekatzen ez diren eremuetan, emakumeetan X kromosomak hainbat gene-prozesu jasotzen ditu, bertan dauden geneen funtzionamendua erregulatzeko. Honek guztiak gene mailako ezberdintasunak eragiten ditu emakumeetan eta gizonetan. Gainera, sexu-kromosomak genoma-osoko asoziazio-analisietatik kanpo geratu ohi dira eta, hortaz, oso gutxi aztertu da ezaugarrietan eta gaixotasunetan izan dezaketen eragina.
Azken ereduan geneen eta ingurugiroaren arteko elkarrekintza gertatzen da. Sexua faktore biologiko bezala ez ezik ingurugiroa baldintzatzen duen faktore bat bezala ere ulertu behar da. Kanpoko faktoreak, sexuaren eta generoaren arabera ezberdinak izan daitezke, osasunean eragina duten heinean. Horrela, kontua garrantzitsua da antisorgailuen erabileran, lanarekin lotutako arriskuetan edota estresean. Gainera, hormonek bizitza osoan zehar eragiten dute eta sexuaren arabera hormonen maila eta zikloak ezberdinak dira. Izan ere, jakina da gaixotasun batzuen arriskurako inflexio-puntuak gertatzen direla hormona mailen aldaketak gertatzen diren garaietan (pubertaroan, haurdunaldian, erdiondoan edota menopausian). Esate baterako, gizonek probabilitate handiagoa dute pubertaroan asma garatzeko eta emakumeek pubertaroaren ostean.

2. irudia: Ezaugarrien eta gaixotasunen gene-oinarriaren puzzlea osatzeko, beharrezkoa da sexua kontuan hartzea. (Argazkia: qimono – domeinu publikoko irudia. Iturria: pixabay.com)
Eredu hauek molekula mailan gertatzen diren mekanismoak islatzen dituzte. Mekanismo hauek erabilgarriak zain daitezke sexua eta genetika nola lotzen diren ulertzeko.
Batetik, genomaren funtzioan sexu-ezberdintasunak ditugu. Ezaguna da geneen adierazpen kualitatibo eta kuantitatibo desberdinak gertatzen direla sexuaren arabera hainbat espezietan. Sexuaren araberako gene-funtzionamendu hori ehun, zelula eta gaixotasunetan ikusi da, sexu-kromosometan edo gainontzeko kromosometan kokatuta dauden geneetan. Ezberdintasun hori txikia bada ere, ikusi da emakumeetan eta gizonetan ezberdinak diren ezaugarriekin lotutako geneetan ere gertatzen dela.
Bestetik, gene-erregulazioan sexu-ezberdintasunak ditugu. Jakina da geneetatik gertu dauden gene-aldaerek eragina dutela gene–funtzionamenduan eta egituran. Eragin hori populazio, ehun, zelula mota eta zelularen egoeraren araberakoa izateaz gain, kasu batzuetan sexuaren araberakoa ere bada. Era berean, antzeko emaitzak lortu dira epigenetikoak diren erregulazio-mekanismoetan: DNAren metilazioaren patroian eta kromatinaren eskuragarritasunean ere sexuen arteko ezberdintasunak ikusi dira eta, horrek, geneen funtzionamenduan eragin dezake.
Azkenik, badugu hormonen eragina geneen funtzionamenduan. Zelulek inguruan dituzten hormonen arabera, mintzean dituzten hartzaile izeneko sentsoreei esker, geneen funtzionamendua doitzen eta moldatzen dute. Lehenago esan denez, hainbat genek sexuaren arabera adierazpena ezberdina dute: gene horietatik heren bat inguru hormonen eraginpean egon daitezke.
Oro har aipatutako ezberdintasunak txikiak edo sotilak badira ere, guztiak batzerakoan eragin argiak izan daitezke. Eragin horien artean nabarmenena osasun-arreta da. Sexuaren arabera gene-mekanismoak ezberdinak badira, itu terapeutikoak ezberdinak izango dira. Gainera, botiken garapenak ez ditu sexuaren araberako ezberdintasunak kontuan hartzen eta horrek eragin du emakumeetan botika batzuen eraginkortasuna mugatua izatea edota ondorio kaltegarri gehiago izatea. Botikei ematen zaion erantzunak gene-oinarria izan dezakeen heinean, beharrezkoa izango da botiken garapenean sexua kontuan hartzea. Gauza bera gertatzen da tratamenduak sexuaren arabera doitzeko edota osasuntsua dena definitzeko.
Laburbilduz, sexuak ezaugarri eta gaixotasun batzuen gene-oinarrian eragina duenez, ezaugarri horiek ikertzerakoan, gero eta ohikoagoa izango da sexua faktore gisa hartzea. Horri esker, etorkizunean, gene-mekanismoen ezagumenduan sakonduko da eta osasun-arretan hobekuntzak egongo dira, tratamenduak hobeto doituko baitira.
Erreferentzia bibliografia:
Khramtsova et al. (2018). The role of sex in the genomics of human complex traits. Nature Review Genetics 20, 173-190. DOI: https://doi.org/10.1038/s41576-018-0083-1
—————————————————–
Egileaz: Koldo Garcia (@koldotxu) Biodonostia OIIko ikertzailea da. Biologian lizentziatua eta genetikan doktorea da eta Edonola gunean genetika eta genomika jorratzen ditu.
—————————————————–
The post Sexua, geneak eta osasun-arreta appeared first on Zientzia Kaiera.
Personas famosas que estudiaron matemáticas: literatura y cine
El día de Reyes de este año 2019, como todos los años, se concedía en Barcelona el Premio Nadal de novela, que la editorial Destino (ahora perteneciente al grupo Planeta) concede, desde el año 1944, a la mejor novela inédita. El ganador de esta 75ª edición era el escritor argentino Guillermo Martínez, por su novela Los crímenes de Alicia, una novela de intriga en la que dos matemáticos investigan una serie de crímenes relacionados con Lewis Carroll, el autor de Alicia en el País de las Maravillas.

El escritor Guillermo Martínez (Buenos Aires, 1962), que muchas personas conocerán por su novela Los crímenes de Oxford (2003), que fue llevada al cine por el director bilbaíno Alex de la Iglesia, y que es el autor de otras novelas como Acerca de Roderer (1993), La muerte lenta de Luciana B. (2007) o Yo también tuve una novia bisexual (2011), de libros de cuentos, como Infierno Grande (1989) o Una felicidad repulsiva (2013), de libros de ensayos como La fórmula de la inmortalidad (2005) y La razón literaria (2016), muchos de ellos galardonados con diferentes premios, y que colabora con diferentes diarios argentinos, como La Nación o Clarín, es matemático.
Guillermo Martínez, se licenció en matemáticas por la Universidad Nacional del Sur, en Bahía Blanca, en 1984, se doctoró en Buenos Aires en Lógica en 1992 y posteriormente completó estudios posdoctorales en Oxford. Como podemos observar igual que el protagonista de sus dos novelas de intriga. De hecho, también tiene ensayos sobre matemáticas, como los libros Borges y la matemática (2006) o Gödel para todos (2009), este junto al matemático Gustavo Piñeiro. Ha sido profesor de Lógica Matemática y Álgebra en la Universidad de Buenos Aires, aunque ahora está de excedencia, dedicado por completo a la literatura.

Al igual que el escritor Guillermo Martínez, muchas otras personas que han sido conocidas, o famosas, en el mundo de la literatura, el arte, la música, el cine, el deporte o incluso la política, también estudiaron matemáticas, o más aún, se iniciaron en el mundo de esta ciencia, ya sea en la investigación, la empresa o la enseñanza.
En esta entrada del Cuaderno de Cultura Científica abrimos una pequeña serie dedicada a estas personas, que destacaron en otros ámbitos de la sociedad y la cultura, pero que se graduaron en matemáticas, e incluso realizaron un doctorado. Empezaremos, en la presente entrada, con la literatura y el cine.
Sin ir más lejos, el mencionado escritor inglés Lewis Carroll, autor de Alicia en el país de las maravillas, Alicia a través del espejo, Bruno y Silvia o La caza del Snark, entre otras, era también matemático. Trabajó en el campo de la lógica matemática, aunque publicó en muchos tópicos distintos. De hecho, Lewis Carroll era solo su seudónimo, y se llamaba realmente Charles Lutwidge Dogson (1832-1898).

Charles Dogson siempre estuvo ligado a la Universidad de Oxford, primero como estudiante, en el college Christ Church, donde se graduó en matemáticas con el mejor expediente de ese curso, y después como profesor, también en el college Christ Church. Fue autor de varios libros de matemáticas, aunque no muy importantes, sobre geometría, trigonometría, aritmética o algebra. El más destacado por su interés histórico fue Euclides y sus rivales modernos (1879). Sobre lógica publicó dos libros: El juego de la lógica (1887) y Lógica simbólica (1896). Además, publicó libros de problemas de ingenio, como Problemas de almohada (que la editorial Nivola publicó en español en 2005) o Un cuento enmarañado (Nivola, 2002).

Pero hay más ejemplos, algunos fueron Premio Nobel de Literatura, como el español José de Echegaray (1832-1916), conocido por su carrera literaria como dramaturgo y poeta que le valió el Premio Nobel de Literatura en 1904, convirtiéndose en el primer español en obtener un Premio Nobel, y también por su paso por la política, fue Ministro de Fomento (1869-1870 y 1872) y de Hacienda (1872-1873).
Sin embargo, el madrileño José de Echegaray era ingeniero y matemático. Realizó importantes contribuciones a las matemáticas y a la física, de hecho, según algunos autores es considerado el mejor matemático del siglo XIX. Algunas de sus obras científicas fueron: i) Cálculo de Variaciones (1858), que era un tema casi desconocido en España; ii) Problemas de Geometría plana (1865); iii) Problemas de Geometría analítica (1865), calificada de obra maestra por el matemático Zoel García de Galdeano; iv) Teorías modernas de la Física (1867); v) Introducción a la Geometría Superior (1867), exponiendo en el mismo la geometría de Chasles; vi) Memoria sobre la teoría de los Determinantes (1868) , primera obra en España sobre este tema; vii) Tratado elemental de Termodinámica (1868), breve ensayo sobre una ciencia que estaba naciendo entonces.

José de Echegaray fue presidente del Ateneo de Madrid (1888); director de la Real Academia Española (1896); senador vitalicio (1900) y dos veces presidente de la Real Academia de Ciencias Exactas, Físicas y Naturales (1894-1896 y 1901-1916); primer Presidente de la Sociedad Española de Física y Química, creada en 1903; catedrático de física matemática de la Universidad Central (1905); presidente de la sección de Matemáticas de la Asociación Española para el Progreso de las Ciencias (1908); y primer Presidente de la Sociedad Matemática Española (1911).
También fue premio Nobel de Literatura, en 1950, el inglés Bertrand Russell (1872-1970). Betrand Russell es conocido por ser uno de los más grandes filósofos del siglo XX, escritor, pacifista controvertido y singular que se opuso a prácticamente todas las guerras modernas, así como al uso y posesión de armas nucleares, aunque en ciertos momentos también defendió la guerra preventiva contra la URSS.

Sin embargo, Bertrand Russell estudió matemáticas en el Trinity College de Cambridge y destacó por su trabajo en lógica matemática, en particular, por su estudio de los fundamentos de las matemáticas. Su gran contribución, en la ciencia de Pitágoras, fue la indudablemente importante obra Principia Mathematica (1910-1913) con su profesor de Cambridge Alfred N. Whitehead (1861-1947), libro en tres volúmenes en donde a partir de ciertas nociones básicas de la lógica y la teoría de conjuntos se pretendía deducir la totalidad de las matemáticas, mostrando así el poder de los lenguajes formales. Un libro profundamente influyente e importante que contribuyó al desarrollo de la lógica, la teoría de conjuntos, la inteligencia artificial y la computación, y que causó un impacto importante en pensadores de la talla de David Hilbert, Ludwig Wittgenstein, que fue su estudiante, Alan Turing, Willard Van Orman Quine y Kurt Gödel.
Otro ejemplo de matemático que obtuvo el Premio Nobel de literatura, en 1970, es el ruso Aleksandr Solzhenitsyn (1918-2008), cuya obra más conocida es el ensayo Archipiélago Gulag (1973), en la que denuncia la represión política de la antigua Unión Soviética. Otras de sus obras son las novelas Un día en la vida de Iván Denísovich (1962), Pabellón del cáncer (1968) o Agosto de 1914 (1971).

Aleksandr Solzhenitsyn estudió matemáticas y física en la Universidad de Rostov. Se graduó en 1941. Poco antes se había casado con la matemática Natalia Dmitrievna Svetlova. Empezó a servir ese mismo año en el ejército soviético hasta 1945 en el cuerpo de transportes primero y más tarde de oficial artillero. Participó en la mayor batalla de tanques de la historia (Batalla de Kursk) y fue detenido en febrero de 1945 en el frente de Prusia Oriental, cerca de Königsberg (hoy Kaliningrado) poco antes de que empezara la ofensiva final del ejército soviético que acabaría en Berlín. Fue condenado a ocho años de trabajos forzados y a destierro perpetuo por las opiniones antiestalinistas que había escrito a un amigo. Lo encerraron en la Lubyanka y los primeros años de su cautiverio los pasó en varios campos de trabajo, gulags, hasta que gracias a sus conocimientos matemáticos fue a parar a un centro de investigación científica para presos políticos vigilado por la Seguridad del Estado; eso le inspiró su novela El primer círculo (1968).
Fue liberado en 1956 y empezó a trabajar como profesor de matemáticas, al tiempo que se dedicaba a escribir y a publicar sus novelas. Tras ser investigado y perseguido por la KGB, sería expulsado de la Unión Soviética en 1974.

Aunque no fue premio Nobel de literatura, Bram Stoker, el autor de la famosa novela Drácula (1897), también era matemático. El escritor irlandés Bram Stoker (1847-1912) se graduó en matemáticas en el Trinity College de Dublín en 1870 y, aunque parece ser que no era verdad, él empezó a decir con el tiempo que se “graduó con honores en matemáticas”. Sin embargo, cediendo a los deseos paternos, Bram Stoker siguió la carrera de funcionario público en el Castillo de Dublín, entre 1870 y 1878. Aunque conseguiría su Master of Arts (posgrado) en 1875. En 1878 empezaría a trabajar como asistente del actor Sir Henry Inving y también como gerente del Lyceum Theatre, que pertenecía al mencionado actor.
Entre sus obras nos encontramos un cuento infantil titulado Cómo se volvió loco en número 7(que publicó la editorial Nivola en 2010 y la editorial Gadir en 2013).

Seguimos con más escritores famosos. El argentino Ernesto Sábato (1911-2011), autor de las célebres novelas El túnel (1948), Sobre héroes y tumbas (1961) o Abbadón el exterminador (1874), y también libros de ensayo como Uno y el Universo (1945), Hombres y engranajes (1951), o El escritor y sus fantasmas (1963), estudió físicas y matemáticas en la Universidad Nacional de La Plata, universidad en la que se doctoró en 1937 investigando en temas de física. Después obtuvo una beca para investigar sobre las radiaciones atómicas en el Laboratorio Curie, iría al MIT en 1939 y finalmente regresaría en 1940 a la Universidad Nacional de La Plata, donde trabajó como profesor. En 1943, tras una crisis existencial, abandonó definitivamente su carrera científica y se centró en la literatura y la pintura.

La novelista, guionista y directora de cine francesa Marguerite Duras (1914-1996), autora entre otras de las novelas El amante (1984), El arrebato de Lol V. Stein (1964), El vicecónsul (1965) o Los ojos azules pelo negro (1986), o del guion de la película Hiroshima Mon Amour (1960), del director francés Alain Resnais, también está conectada con las matemáticas. Para empezar, Marguerite G. M. Donnadieu, que era su verdadero nombre, nació en Saigón, la Indochina francesa, su padre era profesor de matemáticas y su madre maestra. Según se cuenta en sus biografías, ella tuvo muy claro desde el principio que quería ser escritora, pero su madre quería que estudiara matemáticas como su padre (que falleció cuando Marguerite tenía cuatro años). Con diecisiete años Marguerite Donnadieu viajó a Francia, donde empezó a estudiar el grado de matemáticas, pero lo abandonó para concentrarse en Ciencias Políticas, y después Derecho. En una entrevista ella afirmaba que abandonó las matemáticas porque en ese momento tenía un novio, del que estaba muy enamorada, que quería casarse con ella y este le expresó que tenía sus dudas de que una matemática pudiese cuidar de sus hijos. Aunque ella se dio cuenta de la estupidez de su pensamiento, terminó dejando los estudios de matemáticas.

En poesía nos encontramos algunos poetas que son también matemáticos. El gran poeta chileno Nicanor Parra (1944-2018), creador de la antipoesía (en la entrada del Cuaderno de Cultura Científica Los números poéticos 2 [https://culturacientifica.com/2018/07/25/los-numeros-poeticos-2/] incluíamos algunos pequeños poemas relacionadas con las matemáticas), estudió matemáticas y ejerció de profesor de matemáticas. Aunque todos le conocemos como poeta, uno de los grandes de la poesía del siglo XX, tuvo una larga carrera científica.
En 1937 se graduó en matemáticas por la Universidad de Chile y empezó a trabajar como profesor, primero en el Liceo de Santiago, después como profesor de física y matemáticas en el Liceo de hombres de Chillán, de donde procedía él, y de nuevo en Santiago, tras el terremoto de Chillán, dando clases de física en un internado y de matemáticas en la Escuela de Artes y Oficios. Después, en 1943 consiguió una beca para hacer un posgrado en Mecánica Avanzada en la Universidad de Brown, en EEUU, y a su regreso a Chile, en 1946, se incorporó como profesor de Mecánica Racional en la Universidad de Chile. Posteriormente fue director de la Escuela de Ingeniería. En 1949 se fue a estudiar cosmología a la Universidad de Oxford (en Inglaterra).
Por supuesto que, durante todo ese tiempo, en paralelo, desarrolló una fructífera carrera literaria, que es la que lo hice conocido mundialmente. Las décadas de los años 1950 y 1960 se dedicó en cuerpo y alma a la literatura y el arte. Los primeros años de la década de 1970, fueron políticamente complicados en Chile. En 1973, tras el golpe de estado de Pinochet, entró a formar parte del Departamento de Estudios Humanísticos de la Facultad de Matemáticas de la Universidad de Chile. Y con el regreso de la democracia, abandonó completamente su carrera científica y docente.
El poema Pensamientos…
Qué es el hombre
…………………….se pregunta Pascal:
Una potencia de exponente cero.
Nada
……… si se compara con el todo
Todo
……… si se compara con la nada:
Nacimiento más muerte:
Ruido multiplicado por silencio:
Medio aritmético entre el todo y la nada.
O, por ejemplo, en el mundo del teatro tenemos al dramaturgo español Juan Mayorga, autor de magníficas obras teatrales como El chico de la última fila (2006), La tortuga de Darwin (2008), El cartógrafo (2009), Reikiavik (2012), El arte de la entrevista (2014), o Intensamente azules (2018), que hemos podido disfrutar últimamente en nuestros teatros. Además, recibió el Premio Nacional de Teatro en 2007, Premio Nacional de Literatura Dramática en 2013 y en 2018 fue elegido Miembro de la Real Academia Española, letra M.

Este dramaturgo madrileño se licenció, en 1988, en Matemáticas en la Universidad Autónoma de Madrid y en Filosofía en la UNED. A partir de 1994 y durante cinco años fue profesor de matemáticas en diferentes institutos de Madrid y Alcalá de Henares. Desde entonces su carrera se ha centrado fundamentalmente en el teatro, como autor y como docente, pero también fundando compañías teatrales y teatros. Aunque, en 1997 se doctoró, por la UNED, en Filosofía.
A pesar de todo, como él mismo dice, las matemáticas son para él una pasión que descubrió en la adolescencia y nunca me le han abandonado, las matemáticas le han formado como hombre, pero también le forman como dramaturgo. Más aún, podemos encontrar rastros de matemáticas en algunas de sus obras, por ejemplo, en El chico de la última fila o en Intensamente azules. De esta última:
Siete pasos después me he cruzado con un hombre que llevaba puestas unas gafas de nadar intensamente amarillas. Lo he seguido con discreción hasta un bar de nombre El Número i desde cuyo exterior he observado el interior. […] “Este bar tiene forma de raíz cuadrada de menos uno”, me he dicho […]. En una pared del bar hay un retrato de Euler, inventor de los números imaginarios.
Bueno, hemos destacado algunos nombres dentro de la literatura, aunque hay más, como el novelista J. M. Coetzee, premio Nobel de Literatura en 2003, el escritor y guionista, por ejemplo, del programa de tv La bola de Cristal, Carlo Frabetti, el escritor Ricardo Gómez que escribe tanto literatura infantil y juvenil, como para adultos, el escritor de ciencia ficción Larry Niven, o la escritora Catherine Shaw (seudónimo de la matemática Leila Schneps) que ha escrito novelas de misterio relacionadas con las matemáticas como La incógnita Newton, entre otros.
Pero si pensamos en otros campos diferentes de la literatura y que podrían parecernos a priori más lejanos aún de las matemáticas, como puede ser el cine, ¿existirán también ejemplos de personas que se han hecho famosas dirigiendo o interpretando películas, pero que han estudiado matemáticas?
En esta parte, dedicada al cine, me gustaría empezar por una actriz que intervino en una maravillosa serie estadounidense de los años 1980, Aquellos maravillosos años. Entonces no me perdía un capítulo de esta serie cada semana. Los dos protagonistas principales eran un chico y una chica adolescentes. Ella estaba interpretada por la actriz Danica McKellar, que ha seguido apareciendo en diferentes series, como algunos capítulos de The Big Bang Theory, Cómo conocí a vuestra madre o Navy, Investigación criminal, en algunas películas para diferentes canales de televisión, o ha protagonizado la serie Proyecto MC2 de Netflix.

Danica McKellar se graduó, cum laude, en matemáticas por la Universidad de California, Los Ángeles (UCLA), en 1998, con 23 años (nació en 1975). Después empezó a investigar en matemáticas, llegando a publicar un artículo en el que se recoge el resultado conocido como “Teorema de Chayes-McKellar-Winn”.
Ha escrito cuatro libros, tres de los cuales han sido grandes éxitos. El libro Las matemáticas no apestan: cómo sobrevivir a las matemáticas en la educación secundaria sin perder la cabeza o romperte una uña (2008), fue todo un bestseller. También otros libros con títulos (en inglés) cuya traducción es más o menos… Besa mis matemáticas: enseñando quien manda en pre-álgebra (2009), X caliente: el álgebra al descubierto (2010) y Las chicas tienen curvas: la geometría da la forma (2012). En estos libros, la actriz y matemática busca acercar las matemáticas a las jóvenes adolescentes.

También ha publicado, en los últimos años, libros infantiles, como Buenas noches números (2017), Diez mariposas mágicas (2018) o Bathtime, Mathtime (Hora del baño, hora de las matemáticas, 2018) y No abras este libro de matemáticas, sumas y restas, (2018).
La actriz estadounidense Teri Hatcher (California, 1964) que muchas personas conocerán por su papel en la serie Mujeres desesperadas y que tiene una larga carrera entre el cine y la televisión, entre las que destacan, en popularidad, la serie Louis y Clark, Las nuevas aventuras de Superman, o la película El mañana nunca muere, también está conectada con las matemáticas.

Teri Hatcher estudió los grados de matemáticas e ingeniería en De Danza College en Cupertino (California), al mismo tiempo que estudiaba actuación en el American Conservatory Theather.
La actriz, escritora, productora y creadora de series web estadounidense Felicia Day (Alabama, 1979), que actuó en series como Buffy cazavampiros, Eureka o Sobrenatural, entre otras, se graduó en matemáticas y música en la Universidad de Texas en Austin. En una entrevista afirmó que siempre había adorado las matemáticas, pero que no eran su carrera definitiva y, de hecho, nunca se dedicó a esta ciencia tras sus estudios.

También estudió Matemáticas en la Universidad de Chicago la actriz Morgan Saylor (Chicago, 1994), de la serie Homeland, en la cual interpreta a Dana Brody. En una entrevista cuenta una anécdota compartida por todas las personas que hemos estudiado matemáticas. Explica que muchas veces al salir con amigos y amigas le piden a ella que haga la cuenta, y explica que su respuesta suele ser “he estudiado matemáticas, no aritmética”.

La actriz estadounidense Jane Alexander (Boston, 1939), que ha actuado en películas míticas como Todos los hombres del presidente (1976), Kramer vs Kramer (1979), Brubaker (1980) o Las normas de la casa de la sidra (1999), entre muchas otras, además de muchísimas series de televisión y obras de teatro, por las que ha recibido varias nominaciones y premios Tony, se graduó en matemáticas y también en teatro en el Sarah Lawrence College de Bronxville, Nueva York.

En España, la actriz madrileña Sofía Nieto (Alcorcón, 1984), de las series Aquí no hay quien viva y La que se avecina, estudió matemáticas en la Universidad Autónoma de Madrid, y luego se especializó en probabilidad, área a la que pertenece su tesis doctoral.

El año 2011, Sofia Nieto presentó uno de los desafíos matemáticos que se publicaron en la página web del periódico El País para celebrar el centenario de la Real Sociedad Matemática Española. Aquí tenemos el desafío que presentó:
Desafío 32: Partículas en movimiento
Solución del desafío 32 (el video de la solución está en la columna de la derecha)
El director de cine Paul Verhoeven (Amsterdam, 1938), que se hizo famoso con películas como Robocop (1987), Desafío Total (1990), Instinto Básico (1992), El hombre sin sombra (2000), entre otras, se graduó por la Universidad de Leiden en Matemáticas y Física. Se unió a la armada neerlandesa y fue allí donde empezó a rodar y a hacer sus primeros documentales, luego entró en la televisión y ya no dejaría su carrera de director.
Y como es bien conocido, dentro del equipo de guionistas y productores de Los Simpson y Futurama, hay muchas personas que han estudiado matemáticas, física u otras ciencias. En particular: A) J. Stewart Burns: Licenciado en Matemáticas por la Universidad de Harvard y Máster en Matemáticas por U.C. Berkeley. Productor y Guionista de Futurama (y de Los Simpsons desde 2002); B) Al Jean: Licenciada en Matemáticas por la Universidad de Harvard. Ha estado en el equipo de Los Simpsons desde el principio, aunque en la actualidad es Productora Ejecutiva y guionista de esta serie; C) Ken Keeler: Doctor en Matemática Aplicada por la Universidad de Harvard y Máster en Ingeniería Electrónica. Productor Ejecutivo y Guionista de Futurama, aunque antes había sido guionista para Los Simpsons.

Bibliografía
1.- Página web del escritor Guillermo Martínez [http://guillermomartinezweb.blogspot.com/]
2.- Página de Wikipedia sobre José de Echegaray [https://es.wikipedia.org/wiki/Jos%C3%A9_Echegaray]
3.- Página de Wikipedia de Bertrand Russell [https://es.wikipedia.org/wiki/Bertrand_Russell]
4.- Página de Wikipedia de Aleksandr Solzhenitsyn [https://es.wikipedia.org/wiki/Aleksandr_Solzhenitsyn]
5.- Página de Wikipedia de Ernesto Sábato [https://es.wikipedia.org/wiki/Ernesto_Sabato]
6.- Jean Vallier, C’était Marguerite Duras: Tome 1, 1914-1945, Fayard, 2006.
7.- Página de Wikipedia de Nicanor Parra [https://es.wikipedia.org/wiki/Nicanor_Parra]
8.- Página web de Juan Mayorga [https://es.wikipedia.org/wiki/Juan_Mayorga]
9.- Página de Wikipedia de Danica McKellar [https://es.wikipedia.org/wiki/Danica_McKellar]
10.- Página de Wikipedia de Teri Hatcher [https://es.wikipedia.org/wiki/Teri_Hatcher]
11.- Página de Wikipedia de Felicia Day [https://es.wikipedia.org/wiki/Felicia_Day]
12.- Página de Wikipedia de Morgan Saylor [https://es.wikipedia.org/wiki/Morgan_Saylor]
13.- Página de Wikipedia de Jane Alexander [https://es.wikipedia.org/wiki/Jane_Alexander]
14.- Página de Wikipedia de Paul Verhoeven [https://es.wikipedia.org/wiki/Paul_Verhoeven]
15.- Simon Singh, Los Simpson y las matemáticas, Ariel, 2013
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Personas famosas que estudiaron matemáticas: literatura y cine se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El rostro humano de las matemáticas
- Las dos culturas de las matemáticas: construir teorías o resolver problemas
- Un kilogramo de novelas y matemáticas
Bretainian kokatu dute megalitismoaren jaiolekua
Mendeetan zehar gizakiak liluratu dituzte Europako toki askotan aurkitutako harritzarrek. Jakina da herri bakoitzeko tradizioak munduan gertatzen diren kontuei azalpen bat ematen saiatu direla. Euskal Herriaren kasuan, tradizioak mairuei eta jentilei egotzi zien megalito horien eraikuntza, baina, tokian tokiko usadioek beste hainbat pertsonaia sartu dituzte aferan; tartean, sorginak.
Megalitismoa ez da, noski, Euskal Herri soilari dagokion fenomenoa: Europan 35.000 megalito inguru daudela uste da. Horietatik, gehienak Neolito eta Kalkolito aroetan datatuta daude, eta kostaldetik gertu kokatuta daude gehienak.

1. irudia: Megalitismoa Europa osoko kostaldeetan barreiatuta dago, eta horregatik aspalditik itsasoarekin lotu izan da. Ikerketa berri batean babestu dute ideia hori. Irudian, Sorginaren Txabola, Araban. (Argazkia: Juanma Gallego).
Orain arte, bi izan dira kultura megalitikoaren sarrera Europan azaltzeko gehien zabaldu diren teoriak. Batetik, XIX. mendean eta XX. mendearen hasieran sustraituen zegoen teoriak zioen kultura hori Ekialde Hurbiletik etorritakoa zela, eta Mediterraneoko eta Ozeano Atlantikoko kostaldeak jarraituta hedatu zela. Ondoren garatutako beste teoria batek zioen kultura hori aldi berean eta toki desberdinetan garatu zela. Gaiari egindako hurbilketa berri honek 1970ko hamarkadan hasi zen finkatzen, ordurako garatuta baitzeuden karbono-14 bidezko datazioak.
Zabaldu berri diren datuen argitara, ordea, baliteke batak zein besteak arrazoirik ez izatea. “Arkeologoen aurreko belaunaldiak arrazoia zuen megalitismoaren kontzeptua itsasoaren bitartez hedatu zela esatean. Oker zegoen, baina, horren jatorriari eta norabideari dagokionez”, idatzi du Göteborgeko Unibertsitateko (Suedia) arkeologo Bettina Schulz Paulssonek PNAS aldizkarian argitaratutako ikerketa artikulu batean.
Zientzialariak megalitoetan eta horien inguruetan dauden hilobietan hartutako karbono-14 bidezko 2.410 datazio aztertu ditu, eta estatistika erabili du megalitismoaren inguruko kronologia bat osatzeko. Datuak eskutan, egileak ondorioztatu du Bretainian eraiki zituztela lehen megalitoak, duela 6.500 urte inguru, eta ondoren barreiatu zirela Europako kostaldeetatik, eta baita Ingalaterrara, Irlandara eta Eskandinaviara ere. Zabalpen hori elkarren segidako hiru fase nagusitan gertatu zela ondorioztatu du ere.
Hasierako fasean (Kristo aurreko 4.700 urtearen bueltan), ehiza-bilketan eta arrantzan aritzen zen kultura zegoen gaur egungo Frantziako ipar-mendebaldean. Inguru eta garai berean, gainera, oso hilobi garatuak eraiki zituzten. Garai horretako lehen megalitoak trikuharri xumeak ziren, baina denborarekin estruktura horiek dezente garatu ziren, zirkulu itxurako harrespilak sortzeraino.

2. irudia: Kultura megalitikoaren zabalpena ikertzeko kontuan hartu diren datazio multzoak agertzen dira mapa honetan. (Ilustrazioa: Bettina Schulz Paulsson)
K.a. 4.300. urterako Frantzia hegoaldeko kostaldetik, Mediterraneoko eta Iberiar penintsulako Atlantikoko kostaldetik hedatuta zegoen megalitismoa. Hedapen hori hain azkar gertatu zen ezen egileak uste baitu kultura hori itsasoaren bidez zabaldu zela. Ez da argudio bakarra. Beste adierazle bat da korridore motako hilobiak kostaldeetan biltzen direla, eta ez lur barrenean. Egileak dio horretarako ezinbestean nabigazio gaitasun garatua zuen teknologia bat beharrezkoa zela. Azkenik, hirugarren olatu batek Eskandinaviara eta gaur egungo Alemaniara eraman zuen megalitismoa. Ez da lehen aldia megalitismoa eta itsasoa lotzen dena, baina bada datu andana batekin hipotesi hori babesten den lehen ikerketa garrantzitsua. Ikerketa artikuluaren muga hertsietatik kanpo, fenomenoaren ikuspegi globala izateko beharra aldarrikatu du egileak. Hamarkada bat eman omen du Europa osoko zientzialariekin solasean eta hizkuntza desberdinetan idatzitako artikuluak irakurtzen. “Jendeak beren eskualdetan zentratzeko joera du”; esan dio egileak Smithsonian aldizkariari. “Hau guztia elkartzea lan nekeza izan da, eta baziren ere esaten zutenak pixka bat erotuta nengoela ardura hau hartu izanagatik”.
Dibulgazio artikulu horretan azaldutakoaren arabera, Paulsson ez da datazioak biltzera mugatu, eta datu-basea txukuntzen ere ibili da: kalibrazioak ere sartu ditu, eta akatsak konpondu ditu ere. “Hemen arazoa da megalito bat eraikitzen duzunean, lurrean egiten den sarketa bat egiten duzula”, azaldu du. Egilearen arabera, zenbait kasutan horrek datazio desegokiak egitea eragin du. “Iraganean, zenbait ikertzailek lagin zaharragoak eta goragokoak nahasi dituzte, eta, ondorioz, haien datuek ez zuten zerikusirik megalitoen eraikuntzaren garaiarekin, zaharragoak zirelako”.
Egileak berak aitortu du beste zeregin bati heldu behar zaiola oraindik. Izan ere, bere ikerketak babesten du orain arte isolatutzat hartzen ziren tokien arteko harremana bazegoela, baina oraingo erronka da lotura horiek nola funtzionatzen zuten argitzea.
Erreferentzia bibliografikoa:
Schulz Paulsson, Bettina, (2019). Radiocarbon dates and Bayesian modeling support maritime diffusion model for megaliths in Europe. PNAS. DOI: https://doi.org/10.1073/pnas.1813268116
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Bretainian kokatu dute megalitismoaren jaiolekua appeared first on Zientzia Kaiera.
La luz como onda
La convicción de que el mundo y todo lo que contiene es materia en movimiento llevó a los científicos anteriores al siglo veinte a buscar modelos mecánicos para la luz y el calor; es decir, intentaron imaginar cómo los efectos de la luz, el calor y otros fenómenos podrían explicarse en detalle como la acción de objetos materiales. Por ejemplo, pensemos la forma en la que la luz rebota en un espejo. Un modelo para este efecto podría representar a la luz como si consistiera en partículas de materia que se comportan de alguna manera como pequeñas bolas de ping-pong. Sin embargo, la luz exhibe interferencia y difracción, sugiriendo un modelo que involucra ondas. Estos modelos mecánicos fueron útiles durante un tiempo, pero a la larga demostraron ser demasiado limitados. Con todo, la búsqueda de estos modelos llevó a muchos nuevos descubrimientos, que a su vez provocaron cambios importantes en la ciencia, la tecnología y la sociedad.
En términos más básicos posibles, la luz es una forma de energía. El físico puede describir un haz de luz estableciendo valores para su velocidad, longitud de onda o frecuencia e intensidad. Pero para los científicos, como para todas las personas, “luz” también significa brillo y sombra, la belleza de las flores de verano y las hojas del otoño, de las puestas de sol rojas y de los lienzos pintados por los grandes maestros. Son formas diferentes de apreciar la luz. La primera se concentra en los aspectos mensurables de la luz, un enfoque enormemente fructífero en física y tecnología. La otra forma se refiere a las respuestas estéticas ante la luz en la naturaleza o el arte. Otra forma de considerar la luz es el proceso neuro-biofísico de la visión. E incluso otra más es la consideración filosófica de nuestra propia y personal interpretación de los efectos de la luz en nosotros a consecuencia de estos procesos.
Estos aspectos de la luz no se separan fácilmente. Así, en la historia temprana de la ciencia, la luz presentaba problemas más sutiles y más esquivos que la mayoría de los otros aspectos de la experiencia física. Algunos filósofos griegos creían que la luz viaja en línea recta a alta velocidad y contiene partículas que estimulan el sentido de la visión cuando entran en el ojo. Durante siglos después de la era griega, este modelo de partículas sobrevivió casi intacto. Alrededor de 1500, Leonardo da Vinci, observando una similitud entre los ecos del sonido y el reflejo de la luz, especuló que la luz podría ser una onda.
La filosofía de la naturaleza, y los filósofos, se dividió en dos bandos a cuenta de la naturaleza de la luz durante el siglo XVII. Algunos, incluido Newton, favorecieron un modelo basado en gran medida en la idea de la luz como una corriente de partículas. Otros, incluido Huygens, apoyaron un modelo de onda. A finales del siglo XIX, parecía haber pruebas incontrovertibles que apoyaban el modelo de onda. De ahí que en próximas entregas abordemos la cuestión: ¿hasta qué punto un modelo de onda explica el comportamiento observado de la luz? El modelo de onda se tomará como una hipótesis y examinaremos las pruebas que lo respaldan. Veremos que el modelo de onda funciona espléndidamente para todas las propiedades de la luz conocidas antes del siglo XX. En una próxima serie veremos que para otros fenómenos es necesario usar un modelo de partículas y que, finalmente, la física actual adopta una solución salomónica, completamente anti-intuitiva, en lo que conocemos como mecánica cuántica.
En próximas entregas de esta serie, pues, veremos los distintos aspectos de la luz. Ya hemos mencionado la antigua opinión, más tarde probada experimentalmente, de que la luz viaja en línea recta y a alta velocidad. El uso diario de los espejos muestra que la luz también puede reflejarse. La luz también puede refractarse y muestra los fenómenos de interferencia y difracción, así como otros fenómenos característicos de las ondas, como la polarización y la dispersión. Todas estas características son las que prestaron un fuerte apoyo al modelo de onda de la luz.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La luz como onda se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Talidomida 60 urte beranduago
Baina, zerk eragin zituen eztabaida horiek? Bada, bere kimikaren ezjakintasunak. Izan ere, ondoren ikusiko den bezala, konposatu honek kimika jakin bat du eta azken horren ezjakintasunak sortu zituen eztabaidak. Talidomida farmakoari buruz asko hitz egin da, baina orokorrean, jendeak ez daki zein den ematen zaion erabilera eta zein alde txar dituen.
Historian zehar segurtasunik gabeko erabilera eman zaio farmako honi. N-(2,6-dioxo-3-piperidil)ftalamida formula kimikoa duen konposatu sintetiko hau hipnotikoen familiakoa da. Bere egituran karbono asimetriko bat du, hau da, bere lau ordezkatzaileak ezberdinak dira, eta horrek bi enantiomero kiralen nahaste errazemikoa (elkarrekin gainjarri ezin diren bi ispilu-irudi, kantitate berdinetan) sortzen du: S eta R talidomidak (1. irudia). Ikusi da S enantiomeroak efektu teratogenoa daukala eta Rk, aldiz, lasaigarri-efektua. Hala ere, geroago egindako ikerketek zehaztu dute norberaren organismoak, R enantiomeroa S enantiomeroa bihurtzen duela [2] baldintza fisiologikoetan. Ondorioz, kutsadura kimikoa (substantzia kimiko batek eragindakoa) sortzen da eta, horren ondorioz, gaitza.

1. irudia: Talidomidaren egitura geometrikoa: ezkerrean, S talidomida eta eskuinean, R talidomida. (Argazkia: Wikimedia / Domeinu publikoko irudia)
1954. urtean Chemie Grünental farmazeutika alemaniarrak talidomida molekula sintetizatzea lortu zuen [3]. Hiru urte beranduago, 1957. urteko urriaren 1ean, haurdun zeuden emakumeek pairatzen zuten antsietatearen, loezinaren eta goragaleen aurka merkaturatu zen konposatua Contergan izenarekin.
Talidomida denboraldi luze batean zehar hartzen bazen, neuropatia periferikoa sortzen zela aldarrikatzen zen ikerketa baten arabera [4]. Urtebete beranduago hainbat haurrek beren gorputz-adarretan malformazioak zituztela ikusi zen. Horietako gehienak enborreko gorputz-adarretan azaltzen ziren, eskuen zatiak sorbaldei lotuta agertzen ziren eta itsas txakurren antzerako hegalen itxura hartzen zutenez, malformazio mota horiei “focomelia” izena jarri zitzaien (2. irudia).

2. irudia: “Focomelia” malformazioaren lau kasu desberdinen erradiografia. (Argazkia: Journal of the Association of Children’s Prosthetic-Orthotic Clinics (JACPOC) / Iturria: www3.uah.es)
Hala ere, konposatu honek beste gaixotasun batzuen ikerkuntzan lagundu zuen, gaixotasun horien irtenbide edo sendagai bezala jokatuz. 1964. urtean, bukaerako fasean zegoen legenarra jasaten ari zen emakume batek talidomida-konprimatu batzuk hartu zituen lasaigarri eta hanturaren aurkako efektuak zituztelako. Handik hilabete batera gaixotasunak erregresioa jasan zuela ikusi zuen, eta aurkikuntza horrek ildo bereko gaitzen aurkako sendabideak ikertzera bultzatu zuen zientzia mundua.
Azken urteotan, talidomida beste gaixotasun batzuk tratatzeko erabili da (hurrengo parrafoan azalduko dira gaixotasun horiek). Horrez gain, gaixotasun horien prebentziorako erabilgarritasuna ere ikertzen ari da. Gogoratu beharrekoa da konposatu honek ez duela soilik eragin teratogenoa (S enantiomeroak sortzen duena); bere aktibitatea eremu zabalekoa da, eta horrek hainbat esparrutan erasotzea ahalbidetzen du.
Esparru horietako bat tumore-nekrosi faktorearen (TNF-α) inhibizioa da eta talidomidari esker tumore batzuen aktibitatea eta hantura gutxitzea lortu da. Hala ere, hori ez da gaur egun ikertzen den aplikazio bakarra; badaude beste batzuk garrantzi handia hartzen ari direnak, hala nola mieloma anizkoitzaren tratamendua, eritema korapilodun legenarraren tratamendua, Crohn gaitza, artritis reumatoidea, hezur-muineko transplantearen errefusa gaitza, minbizia, IHESa, etab.
Mieloma anizkoitzaren tratamenduan [5], esaterako, talidomidak gaixotasunaren hasierako fasean hartzen du bere garrantzia. Hain zuzen ere, ikusi da talidominak fase horretan erakusten duela bere aktibitatea. Tratamendu hori jasotzen dutenen artean, adineko gaixoak dira, batez ere, horren aurkako efektuak pairatzen dituztenak. Efektu horiek tratamendua behar baino lehenago hasteagatik gertatzen dira (talidomida goizegi dosifikatzeagatik), eta ondorioz, neurotoxizitatea eragiten da.
Beste adibide bat Crohn gaixotasuna da; kasu honetan gaixoen %70ean izan du erantzuna tratamenduak.
Konposatu hau IHESAren tratamendurako ere erabiltzen hasi dira; izan ere, birus horren erreplikazioa eragiten duen molekula inhibitzen duela ikusi da. Dena den, tratamendu hori ez da guztiz abian jarri eta oraindik saiakera klinikoak [6] baino ez dira egiten.
Tratamendu horietaz gain , gaur egun dagoen beste ikerketa-egitasmo bat da talidomidaren erabilera gaixotasunen prebentziorako. 2015. urtetik aurrera, ikertzen ari dira da arratoien biriketan zigarroen keak nola eragiten duen [7]. Zigarroen kea arnastean sortzen den gaixotasun ohikoena da birikako buxadura kronikoaren gaitza (chronic obstructive pulmonary disease, COPD). COPD izeneko honetan, airearen buxadura progresiboa gertatzen da eta hori ez da guztiz itzulgarria.
Lehen esan bezala, talidomidak hainbat gaixotasunen tratamenduan eragina duela ikusi da eta, horrez gain, beste hainbesterekin saiakera klinikoak gauzatzen ari dira. Talidomidaren efektu teratogenoa alde batera utzita, gaur egun medikuntza-ikerketetan erabiltzen den konposatu nagusietarikoa da. Horrek ikerketa horien segurtasuna handitzea ekarri du; ondorioz, alde batetik, ez da berriro “focomelia” kasu berririk gertatuko enantiomeroen sorrera kontrolpean dagoelako eta beste alde batetik, ez da kutsatzaile bat izango, har daitekeen dosi maximoa erregulatuta dagoelako.
Erreferentzia bibliografikoak:
[1] Greenwood, N. N. & Earnshaw, A., (1997). Chemistry of the Elements (2nd Edn.). Butterworth-Heinemann, Oxford
[2] Romaguera Bosch, C., (2012). Estudio sobre la utilización de la talidomida desde los trágicos años sesenta hasta la actualidad. Análisis desde la perspectiva legal y ética. Universitat de Barcelona. Gradu amaierako lana.
[3] Chávez Viamontes, J.A., Quiñones Hernández, J. & Bernárdez Hernández, O., (2009). Talidomida, contextos históricos y éticos. Humanidades Médicas, 9(3). 2019ko urtarrilaren 18an kontsultatua.
[4] McBride WG., (1961). Thalidomide and congenital abnormalities. Lancet, 278(7216), 2:1358. DOI:https://doi.org/10.1016/S0140-6736(61)90927-8
[5] Efstathios Kastritis, Meletios A.Dimopoulos, (2007). Thalidomide in the treatment of multiple myeloma. Best Practice & Research Clinical Haematology, 20(4), 681–699. DOI: https://doi.org/10.1016/j.beha.2007.09.001
[6] «Further Evaluation of Thalidomide’s Ability to Potentiate the Immune Response to HIV-Infected Patients», (2005). Ikerketa esperimentala.
[7] Chiharu Tabata, Rie Tabata, Yuta Takahashi, Kazuki Nakamura, Takashi Nakano, (2015). Thalidomide prevents cigarette smoke extract-induced lung damage in mice. International Immunopharmacology, 25(2), 511–517. DOI: 10.1016/j.intimp.2015.02.036
———————————————————————————-
Egileez: Sandra Galán eta Idoia Jimenez Kimika Graduko ikasleak dira UPV/EHUn.
———————————————————————————-
The post Talidomida 60 urte beranduago appeared first on Zientzia Kaiera.
Por qué en Alemania los lobos se sienten más seguros en territorio militar

Es la de los lobos una historia trágica en Europa, donde fueron empujados casi a la extinción durante el siglo XX. Su convivencia con una sociedad que dependía de la ganadería para sobrevivir se convirtió en algo casi imposible y poco deseable incluso para muchos que, con la intención de defender su modo de vida, prácticamente acabaron con ellos en el continente. Su imagen pública contribuyó a que esto no le pareciese del todo mal a casi nadie. Poco importa que sean un antecesor del perro, el mejor amigo del hombre, porque también son el malo en muchos cuentos infantiles populares. “El hombre es un lobo para el hombre”, decimos cuando nos referimos a la maldad entre humanos. Qué pobre metáfora para el lobo.
Frente a esto, el lobo ha mostrado ciertas capacidades admirables, y una de ellas se su habilidad para la resistencia, la adaptabilidad y la reconquista de sus territorios perdidos. Tras prácticamente desaparecer de Europa, en las últimas décadas el lobo está volviendo y ya cuenta con poblaciones silvestres que suman unos cuantos miles de ejemplares. Cambios en la legislación y en la opinión pública hacia la conservación, también la de los grandes carnívoros, así como un abandono de los entornos rurales que está permitiendo más y mayores manadas de hervíboros, son parte de la causa.
El caso de Alemania
En Alemania en concreto, donde los lobos fueron erradicados durante el siglo XIX, se ha observado un incremento del 36% anual en el número de lobos entre 2000 y 2015, y un reciente estudio ha podido observar que las áreas en torno a las bases militares han jugado un papel central en su crecimiento. Esas zonas han servido como lugares para la avanzadilla de esta recolonización, mucho más que las áreas protegidas de carácter civil, según ese estudio, publicado en la revista Conservation Letters y del que se hace eco Science.
Igual que en muchas otras zonas de Europa central, Alemania instauró leyes de protección de la biodiversidad en los años 80 y 90, poniendo las bases de la recuperación del lobo y su hábitat. El abandono de los entornos rurales y de las tierras de cultivo también suponía una ventaja para estos animales: menos humanos y más caza. A finales de los 90, los lobos comenzaron a retornar al país desde los bosques de Polonia. Durante varios años solo eran detectados ya muertos a manos de un cazador o por un atropello, pero en 2001 se registró el nacimiento de la primera camada de lobos en la región de Sajonia-Brandenburgo, y desde entonces se han expandido al menos a otros seis estados alemanes.
Su éxito en la reentrada es un ejemplo de su éxito adaptándose a nuevos entornos, así como de su carácter explorador de nuevos territorios. Resulta especialmente llamativo que en esa exploración, las bases militares y sus áreas alrededor les resulten especialmente atractivas. Según los resultados de esos estudios, la primera pareja de lobos que se encuentra en un nuevo estado, lo hace siempre en territorio de entrenamiento militar, así como la segunda y normalmente también la tercera. Después de eso, las siguientes parejas se van encontrando en áreas civiles protegidas y otros hábitats.
Fue precisamente en terrenos del ejército donde nacieron los lobeznos de 2001. Los oficiales pudieron observar primero a una pareja de lobos, probablemente llegados del oeste de Polonia, y en el verano cómo estaban acompañados de cuatro cachorros. Poco después aparecieron otros dos pequeños. Eran los primeros lobos nacidos en Alemania en más de un siglo.
Por qué en zonas militares
¿Por qué ese gusto por los terrenos pertenecientes al ejército? Según los investigadores, no hay indicadores de que esos hábitats fuesen mejores que otras reservas naturales en cuanto a la densidad forestal o de carreteras, pero al comparar las tasas de mortalidad, descubrieron sorprendidos que éstas eran más altas en las zonas de protección civil que en las de entrenamiento en las bases militares.
La clave es la caza ilegal. Las áreas de entrenamiento del ejército no están valladas, lo cual quiere decir que lobos y ciervos (sus presas) pueden entrar y salir a voluntad, pero sí están señalizadas y cerradas al público. En su interior las poblaciones de ciervos y similares son controladas por agentes forestales federales y la caza privada está estrictamente regulada. Eso supone menos oportunidades para la caza ilegal de lobos.

Sin embargo, en otros espacios las poblaciones de ciervos y su regulación están en manos privadas. Suelen ser áreas más pequeñas con mayor movimiento de cazadores, así que hay una mayor probabilidad de que alguien con inquina a los lobos (siguen teniendo mala imagen para mucha gente, y al fin y al cabo se les puede considerar competidores en la caza) se encuentre con uno y le dispare.
Mantener esas áreas de conservación
A día de hoy, explica Ilka Reinhardt, bióloga del Instituto Alemán de Monitorización e Investigación del Lobo, la caza ilegal no es una gran amenaza para las poblaciones de lobos, que son lo suficientemente numerosas en la mayoría de las regiones de Alemania donde están presentes como para soportar algunas muertes puntuales, pero sí que ha podido ser un impedimento para que las primeras parejas que llegaron se asentasen en reservas naturales civiles.
Por eso, esta investigadora y sus colegas proponen que cuando esas zonas militares sean reasignadas a otros usos, se conviertan en grandes reservas naturales que mantengan sus estrictas regulaciones cinegéticas, ya que, sin pretenderlo, han actuado como áreas de conservación de la biodiversidad de forma más eficaz que otras que sí tenían en principio ese objetivo.
Referencias:
Wolves reappear in Germany – Science
Military training areas facilitate the recolonization of wolves in Germany – Conservation Letters
Germany’s wolves are on the rise thanks to a surprising ally: the military – Science
El artículo Por qué en Alemania los lobos se sienten más seguros en territorio militar se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Cómo sienten y piensan los bilingües?
- El territorio económico de los cazadores-recolectores del Paleolítico Superior
- Los parabenos usados en cosmética son seguros
Nor dago icebergaren alde ezkutuan?

1. irudia: Rachel Louise Carson (1907-1964) biologoa. (Argazkia: Flickr/ U.S. Department of Agriculture. Domeinu publikoko argazkia)
“Gizakia naturaren parte da eta haren kontrako guda norberaren kontrako guda da”. Horrela hausnarrarazten zigun arazo honen inguruan Rachel Carsonek 1962. urtean “Udaberri Isila” liburuan, ekologismoaren lehen lan bezala kontsidera daitekeen horretan. Garai berekoak dira (1960 – 1980) ingurumeneko kutsaduraren lehen araudiak eta XX.mendean instalatu ziren hiri zein industriaren ur zikinak garbitzeko lehen araztegiak. Hasiera batean metalek eta patogenoek eragindako kutsadura gutxitzera eta arautzera bideratu baziren ere, konposatu organikoak ez ziren berandu arte urgaineratu.
Hasiera batean, konposatu organiko iraunkorren (persistent organic pollutant, POP, direlakoen) kontrola jarri zen lehentasun gisa, euren metatze-gaitasuna eta toxikotasuna dela eta. Stockholmeko hitzarmenak 12 POP bildu zituen hasierako zerrendan, besteak beste 9 pestizida kloratu, bifenilo polikloratuak, dioxinak eta furanoak. Urteek aurrera egin duten heinean, zerrenda hau 28 konposatura hedatu da baina, beste hainbat daude zerrenda horretan sartzeko zain. Stockholmeko hitzarmenaz gain, Europako Ur Esparruen Zuzentarauak (Water Framework Directive, WFD, delakoak) edota Ameriketako Estatu Batuetako Ingurumenaren Babeserako Agentziak (Environmental Protection Agency, EPA, delakoak) bestelako lehentasunezko konposatuak definitu dituzte, 129 konposatu zerrendatu arte. Denak ezagunak, denak kontrolatuak, denak esperotakoak. Baina, horiek al dira ingurumenera heltzen diren konposatu kezkagarri edota kaltegarri bakarrak? Ezagunak eta araututa dauden kutsatzaile hauek icebergaren punta baino ez dira. Ingurumenera heltzen diren kutsatzaile asko eta asko gizakiaren eguneroko jarduerak sortuak dira, baina ezagutza txikia dugu Pubchem edo Chemspider bezalako datu-baseetan aurki ditzakegun 70 milioitik gorako konposatuek ingurumenean eragiten dutenaz eta sor ditzaketen gaitzez.
Konposatuen jarraipena erronka bihurtutaBeraz, merezi al du icebergaren alde urperatu ezkutuan zer dagoen kuxkuxeatzea? Kezkatu behar al gaituzte arautu gabe dauden konposatu horiek? Azken urteotan, zientzia-komunitatearen ikusmira icebergaren alde ezkutu horretara bideratu da, besteak beste konposatu farmazeutikoak, garbiketa eta zaintza pertsonalerako konposatuak, kloratuak ez diren pestizidak edota bestelako kimiko industrial emergenteak detektatzera. Horrela, icebergaren puntako ehunaka konposatuen segimendua egin beharrean, alde ezkutuko milaka konposatuen jarraipenean dago orain erronka. Eta, ez da erronka makala kutsatzaile horien detekziorako metodoak garatzen dituzten urpekarientzat!

2 irudia: Orain arte lehentasunezko kutsatzaileak aztertu baditugu ere, horiek ingurumenean dauden kutsatzaileen icebergaren punta baino ez dira. (Iturria: Uwe Kils / Wikimedia CC BY-SA 3.0 lizentziapean)
Urpekari hauen erronka hartzen dugu kimika analitikoan, eta ezezagunak diren konposatuak aurki ditzakegu, materiaren osagaiak banatu, identifikatu eta kuantifikatzeko instrumentuak erabilita.
Kimika analitikoaren erronkak eta garatutako analisi-metodoak instrumentazioaren garapenaren eskutik doaz. Horrela, orain dela gutxi arte, kimika analitikoko laborategietan garatutako analisi-metodoak bideratu dira; hots, magoak izatetik urruti, konposatu ezagun batzuen analisirako metodoak garatu ditugu. Banaka zein ehun bat konposatu determina ditzakegu aldi berean.
Arestian aipatutako erronkak ordea, bestelako paradigma bat azaltzen du eta analisi bideratutik bideratu gabeko analisirako jauzia egin da, kimika analitikako laborategietan milaka konposatu emergenteren eta ezezagunen analisia egiteko.
Analisi bideratuak eta ez-bideratuakAnalisi bideratuan aldez aurretik erabaki behar dugu zer analizatu nahi dugun; analisi ez-bideratuan, aldiz, guztia analizatzen dugu eta ostean erabakiko dugu informazio horretatik guztitik.
Horrela, analisi bideratugabea izeneko tresnak konposatuen identifikazioa bermatzen du, laginaren konposizioa aurretik ezagutu gabe. Analisi ez-bideratua aurrera eramaten dugunean lortzen dugun informazio kantitatea oso handia denez, haren analisiak hilabeteak eraman ditzake. Are gehiago, etorkizunean datuetara itzuli eta konposatu interesgarri berrien bila joatea ere bermatzen du. Bereizmen altuko masa-espektrometria (high resolution mass spectrometry, HRMS, delakoa) daukagu ingurumeneko kutsatzaile organiko emergenteen eta ezezagunen identifikaziorako garatutako erreminta garrantzitsuenen artean.

3. irudia: Analisi ez-bideratuarekin ahalik eta informazio gehien lortu nahi dugu/dute, ondoren informazio hori denboran zehar poliki poliki aztertzeko. (Iturria: Slane.co.nz)
Masa-espektrometria izeneko analisi teknikak laguntzen gaitu atomoen zein molekulen hatz-marka identifikatzen. Hatz-marka hori lortzeko masa-espektrometroak gas-fasean dauden atomo/molekula ionizatuen masa/karga (m/z) erlazioak neurtzen ditu. Masa-espektrotik atomoen zein molekulen masa zehatza ezagutu daiteke, isotopoen presentzia determinatu eta, molekulen kasuan, apurketa gertatuz gero egitura kimikoaren inguruko informazioa lor daiteke.
Gure hatz-marka izango diren masa-espektroak bereizmen baxu zein altuan lor daitezke. Baina zergatik behar dugu bereizmen altuko masa espektrometroa? Azken horrek, gaitasuna du bereizmen baxuko masa-espektrometroarekin alderatuta m/z erlazioa zehaztasun eta doitasun handiz neurtzeko. Horrek oso gertuko masa duten molekulak desberdintzeko aukera ematen digu. Horrela, 4. irudiko adibidean, thiamethoxam eta parathion intsektizidak ditugu. Konposatu hauen masen arteko desberdintasuna oso txikia bada ere (0,01375 Da), euren formula molekularra eta egitura kimikoa guztiz desberdina da. Bereizmen baxuko instrumentu batekin ezingo genituzke bi konposatu horiek bereizi (ikus 4. irudia, goian), baina bereizmen altuko batekin, ordea, bai (ikus 4. irudia behean)

4. irudia: Thiamethoxam eta parathion intsektiziden nahastearen bereizmen baxuko eta altuko masa-espektroak (goian eta behean hurrenez hurren). (Argazkia: Haizea Ziarrusta, Maitane Olivares eta Olatz Zuloaga)
Hilabeteak eman ditzake gure urpekariak ezkutatuko icebergaren aldean dauden konposatuak identifikatzen. Ohikoa da masa-espektrometria delako kromatografia banaketa-teknikei lotzea icebergaren alde ezkutuan dauden konposatuak banatu eta identifikatzeko. Konposatu horiek identifikatzeko, behar diren hatz-markak bilatu eta ulertu behar ditu, urratsez urrats, puzzle bat izango balitz bezala, modu sistematikoan pieza guztiak aurkitu, lotu eta puzzlea osatu arte. Alegia, konposatua identifikatu arte. Ikus dezagun adibide bat.
Konposatuen analisirako adibideaDemagun araztegiko ur-lagin baten analisia ez-bideratua egiten dugula. Likido-kromatografiari akoplatutako bereizmen altuko masa-espektrometroak 1000 kromatografia-gailur detektatu ditu, 1000 konposatu interesgarri posible. Baditugu euren masa zehatza eta profil isotopikoak (formula kimiko zehatz bati dagokion isotopoen masak eta ugaritasun erlatiboak). 1000 konposatu horietatik baten m/z 345,11443 Da-ekoa da. Masa horrekin eta bere profil isotopikoari esker, ondoriozta dezakegu molekula ezezagun hori formula molekular hauetako bat dela: C17H19N3O3S, C11H20N7O2PS, C19H16N5P eta C15H24NO4PS. Formula molekular horien guztien masa teorikoa eta lortutako masa esperimentala konparatzen baditugu, errorerik txikiena (-0,00028 Da-ekoa) C17H19N3O3S formula molekularrari dagokio. Baina zer da C17H19N3O3S? Milioika konposaturen informazioa biltzen duten datu-baseen arabera, badira formula molekular hori duten 14 konposatu.
Haien artean, litekeena da gure konposatu ezezaguna azidotasunaren aurkako omeprazola izatea. Egin dezagun aurrera. Oraingoan, masa-espektroan behatzen den apurketari erreparatuko diogu (hau da, konposatuari energia aplikatu ondoren lortzen diren masa zehatzeko pusketa esanguratsuei).
Konposatu ezezagunak eta omeprazol purua nola apurtzen diren aztertuta, %97ko antzekotasuna dutela ikus daiteke; beraz, badirudi gure susmoa zuzena dela, baina nola ziurtatu benetan gailur ezezagun hori omeprazola dela?
Azken urratsean, gure urpekariak laginean behatutako gailurraren erretentzio-denbora (konposatuen banaketa kromatografikoa egitean, intereseko konposatuak banaketarako erabiltzen den zutabea zeharkatzeko behar duen denbora) omeprazol erreaktibo puruarekin konparatu eta, voila!, bat datozenez, laginean omeprazolik dagoela jakin ez arren, konposatu hori identifikatu ahal izan du urpekariak 1000 seinaleen artean. Eta orain? Prozesu bera egin beharko da beste 999 gailurretan
Hara, urpekari gaixoa! Bidai luzea du gure lagunak icebergaren alde ezkutuko konposatu horiek guztiak identifikatzen!
Orain arte egindako bidaian, gure urpekaria datu-baseetan euren erabileraren edota toxikotasunaren arabera sailkatuta dauden konposatuetara mugatu den arren, badira ordea data-baseetan bilduta ez dauden bestelako konposatu interesgarri batzuk, hala nola transformazio-produktuak.
Transformazio-produktuakTransformazio-produktuak iturri desberdinetatik sor daitezke: araztegietako ur-tratamendutik zein ingurumenera heldu eta bertan gerta daitezkeen erreakzio kimikoetatik edo biologikoetatik. Transformazio-produktuen azterketak badu bere garrantzia, zenbait kasutan euren toxikotasuna jatorrizko kutsatzailearen baino handiagoa delako. Esaterako, zaintza pertsonalerako produktuen artean, animalietan egindako ikerketa batzuen arabera, eguzkirako kremetan horren ohikoa den benzofenona-3 (BP3) ultramore iragazkiak baino estrogeno-aktibitate altuagoa du benzofenona-1 edo dihidroxibenzofenona (DHB) gisa ezagunagoa den BP3-aren azpiproduktu metilogabetua.
Transformazio-produktuen identifikazioa bereizmen altuko masa-espektrometriaren bidez ere bidera daiteke. Kasu honetan, ordea, ezin izango dugu beti datu-baseetan informaziorik bilatu, erabat ezezagunak direlako gehienetan eta transformazio-produktu horien identifikazioa nolabait bideratu behar delako, adibidez, kutsatzaile jakin baten eraldaketa kimiko posibleen ondorioz sor daitezkeen produktuak aztertuta. Horrela, aurreko adibidean ikusi dugun moduan, masa zehatzetik eta profil isotopikotik formula molekularrak lortuko ditugu.
Formula molekular guztietatik hautagaiak hartzeko, gure jatorrizko konposatuaren eta haren eraldaketa probableetan oinarrituko gara (hau da, I. eta II. faseko oxidazio-, metilazio-, glukuronidazio-… erreakzioetan).
Behin emandako eraldaketa-erreakzioa identifikatuta, molekularen zein gunetan gertatu eman den zehaztu behar da. Eta non auki dezake urpekariak informazio hori? Hain zuzen, apurketari dagokion masa-espektroan. Saia gaitezen adibide batekin berriro ere.
Arestian aipatutako BP3 ultramore-iragazkiak 229,0859 masa zehatza eta C14H12O3 formula molekularra du, eta bere egituran bi eraztun aromatiko ditu (A eta B), A eraztunean hidroxilo (-OH) eta metoxi (CH3O-) talde banarekin (ikus 4. irudia). BP3-ari dagokion apurketaren masa-espektroa 4. irudian ikus daiteke. Baina zer gerta dakioke urraburu arrainak bizi diren itsasoko uretan dagoen BP3-ari? Erantzuna ez da hain erraza, BP3 kutsatzailea arrainen ehun eta jariakin biologiko desberdinetan metatzeaz gain eraldatu egin baitaiteke erreakzio desberdinak pairatuta. Esaterako, behatutako azpiproduktu baten masa zehatza 215,0703 Da-ekoa izan da, eta haren profil isotopikoa kontuan hartuta, C13H10O3 dela ondorioztatu da. Jatorrizko BP3-aren (C14H12O3) eta azpiproduktuaren (C13H10O3) formula molekularrak kontuan hartuta, –CH3 baten galera dagoela ondorioztatu da. Metilo hori galtzeko leku probableena arestian aipatutako metoxi taldean dago eta azpiproduktuarentzako proposatzen den egitura 4. irudian ikus daiteke, dihidroxibenzofenona (DHB), hain zuzen ere.

5. irudia: Benzofenona-3 (BP3) ultramore-iragazkiaren eta dihidroxibenzofenona (DHB) azpiproduktuaren apurketa-espektroak. (Argazkia: Haizea Ziarrusta, Maitane Olivares eta Olatz Zuloaga)
Prozedura hori behin eta berriz errepikatuta, 5. irudian ageri diren BP3 konposatuaren 18 azpiproduktu determinatu dira urraburu-arrainen ehun desberdinetan eta beraien bizileku den itsasoko uretan. Horretatik guztitik esan beharrekoa da DHB eta dihidroximetoxibenzofenona (DHMB) azpiproduktuek aktibitate estrogenikoak eta antiandrogenikoak dituztela eta BP-3 bera baino toxikoagoak direla. Beraz, ezinbestekoa da icebergaren alde ezkutuan azpiproduktu horiekin nahasita dauden azpiproduktu berriak identifikatzea, ondoren euren toxikotasuna ikertu eta ingurumeneko arriskuen ebaluazio osoa egin ahal izateko.

6. irudia: Benzofenona-3 ultramore-iragazkiaren eraldaketa-bidea urraburu arrainen presentzian. (Argazkia: Haizea Ziarrusta, Maitane Olivares eta Olatz Zuloaga)
Masa-espektrometria bidelagun izanik, urpekariak icebergaren argazki osotuago bat jasotzeko aukera du, ikusten dena eta baita ezkutuan murgilduta dagoena ere. Kimika, eta zientzia orokorra aurrera doazen heinean, erronka handiagotan murgiltzeko aukera izango dugu eta gure inguruan dagoenaren argazki definituago bat izateko aukera izango dugu, ehunka edo milaka konposaturen identifikaziotik milioika konposaturen zalantzarik gabeko identifikazioa posible izateraino.
Erreferentzia bibliografikoak:
- Sujin Kim and Kyungho Choi, (2014). Occurrences, toxicities, and ecological risks of benzophenone-3, a common component of organic sunscreen products: A mini-review. Environment International. 70, 143–157. DOI: https://doi.org/10.1016/j.envint.2014.05.015
- Milman B., (2015). General principles of identification by mass spectrometry. Trends in Analytical Chemistry, 69, 24-33. DOI: https://doi.org/10.1016/j.trac.2014.12.009
- Kepner, W., (2016). EPA and a Brief History of Environmental Law in the United States. International Visitor Leadership Program (IVLP), Las Vegas, NV.
- Milman B.L., Zhurkovich I.K., (2017). The chemical space for non-target analysis. Trends in Analytical Chemistry, 97, 179-187. DOI: https://doi.org/10.1016/j.trac.2017.09.013
- Ziarrusta H, Mijangos L, Montes R, Rodil R, Anakabe E, Izagirre U, Prieto A, Etxebarria N, Olivares M, Zuloaga O., (2018). Study of bioconcentration of oxybenzone in gilt-head bream and characterization of its by-products. Chemosphere, 208, 399-407. DOI: https://doi.org/10.1016/j.chemosphere.2018.05.154
—————————————————–
Egileaz: Haizea Ziarrusta, Maitane Olivares eta Olatz Zuloaga, UPV/EHUko Zientzia eta Teknologia Fakultateko Kimika Analitikoa Saileko, eta Plentziako Itsas Estazioko (PIE) ikertzaileak dira.
—————————————————–
Hizkuntza-begiralea: Juan Carlos Odriozola
——————————————–
Masa-espektrometriari buruzko artikulu-sorta
- Masa-espektrometria (I). Neoi isotopoetatik elefante hegalariengana
- A new hero is born: Masa-espektrometria justiziaren zerbitzura
- Nor dago icebergaren alden ezkutuan?
The post Nor dago icebergaren alde ezkutuan? appeared first on Zientzia Kaiera.
En busca de la identidad personal

Para los adolescentes, la aceptación por el grupo del que se consideran parte es de importancia capital. Tienen una gran preocupación por la imagen que proyectan, sobre todo hacia quienes forman su círculo social. Por esa razón se avergüenzan con facilidad, incluso, por el mero hecho de saberse observados.
Sufren más que niños y adultos al sentirse excluidos de un grupo, y ese sufrimiento tiene un correlato neurológico. Cuando un adulto se siente excluido, se activan las áreas del encéfalo implicadas en la percepción del dolor, el enfado y el disgusto, sí, pero a continuación se activa una zona de la corteza cerebral que relativiza la importancia de la exclusión. En adolescentes, sin embargo, esta última zona apenas se activa, y las anteriores lo hacen en mayor medida que en niños y adultos. Por tanto, no debe extrañar que los amigos tengan un gran ascendiente sobre ellos.
En ninguna otra etapa de la vida importan tanto las amistades como en la adolescencia, ni se otorga tanta importancia a sus opiniones como en esos años. Por eso, los adolescentes asumen más riesgos en presencia de amigos que cuando están solos. Es más, el circuito de recompensa encefálico se activa más y las regiones cerebrales implicadas en el autocontrol responden en menor medida cuando están en compañía de amigos; en los adultos no se observa eso. Y es que los adolescentes experimentan una fuerte necesidad de pertenencia al grupo, y por esa razón sus decisiones se ven muy afectadas por la presencia de sus “colegas”.
Hasta la pubertad, el comportamiento prosocial es bastante indiscriminado. Sin embargo, entre los 16 y los 18 años se va haciendo más selectivo. Los amigos pasan a ser los máximos beneficiados en confianza, reciprocidad y generosidad. En otras palabras, los adolescentes dan cada vez más importancia a la identidad de las personas con las que se relacionan, probablemente por las mismas razones por las que les valoran cada vez más su propia identidad y cómo les ven los demás conforme se van considerando miembros de un grupo.
Por otro lado, durante la adolescencia se sigue desarrollando la “teoría de la mente”, esa facultad de adoptar el punto de vista mental de otros individuos que probablemente compartimos con otras especies, como chimpancés, orangutanes y ciertos cuervos. Y de modo similar, la capacidad para la introspección y el análisis del estado mental propio no se desarrolla de forma completa hasta mediada la tercera década de vida. En parte por estas razones, durante esta etapa cambia también la forma en que los adolescentes se relacionan con los demás.
En la niñez no se diferencia con nitidez el daño accidental del intencionado, pero esa distinción se acentúa de la pubertad en adelante. Conforme pasan los años, al presenciar un daño accidental, las áreas del encéfalo que procesan el dolor se activan cada vez menos y, por comparación, al presenciar un daño causado de forma intencionada, se activan cada vez más las áreas de la corteza prefrontal que valoran y hacen juicios. La valoración de la intencionalidad dañina de una acción es el punto de partida de los juicios morales, por lo que durante la adolescencia esos juicios se hacen cada vez más sofisticados.
Como afirma la neuropsicóloga Sarah-Jay Blakemore, durante la adolescencia nos inventamos a nosotros mismos; en eso, precisamente, consiste ser adolescente. Ese largo viaje nos proporciona un sentido de la identidad personal y una comprensión de los demás que nos capacita para, al llegar a la edad adulta, ser independientes de nuestros progenitores y estar más integrados en el grupo de nuestros pares.
——————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo En busca de la identidad personal se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Blogueando desde la Universidad: una experiencia personal
- “La cultura científica o la misteriosa identidad del señor Gauss” por Raúl Ibáñez
- Planeta X, en busca del inquilino invisible del sistema solar
Asteon zientzia begi-bistan #242

Zer dira Poloetako zurrunbiloak eta zer harremana dute Estatu Batuetan urtarrilaren amaieran izandako hotz-boladarekin? Hasteko, Poloetako Zurrunbiloa oso aire hotzez osaturiko zona da eta Poloen inguruan biraka dabil. Fenomeno hau estratosferan gertatzen da. Gure burua kokatzeko, Onintze Salazarrek azaltzen digu Atmosferaren lehen geruza troposfera dela eta bertan gertatzen direla fenomeno meteorologiko guztiak. Ondorengo geruzan aurkitzen dugu estratosfera. Hortaz, Estatu Batuetara iritsi den aire hotza ez dator zurrunbilo horretatik. Hotz-boladak zeren ondorio dira orduan? Erantzuna jakiteko, irakur ezazue artikulua osorik.
Lau gradu igoko da tenperatura mende bukaerarako, Ihobe ingurumen sozietateak azaldu duenez. Atlas klimatikoa osatu du eta IPCC klima aldaketarako gobernu arteko panelaren jarraibideak erabilita, datozen hamarkadetarako aurreikuspenak osatu ditu Araba, Bizkai eta Gipuzkoarako. Bilbo, Donostia eta Gasteizko hiriburuetan urteko hamar egunetan 35 gradutik gora neurtuko dira. Neguan ere beroago egingo du: 2020tik aurrera, neguan izotza egingo duen egunen kopurua erdira murriztuko da.
Euriari dagokionez, gutxiago egingo du, baina euri jasak ugaritu egingo dira. Berrian irakur daiteke gehiago.
Bi pertsonen arteko elkarrizketa ematen denean bi garunak sinkronizatu egiten dira. Bada, garunen arteko aktibitatea desberdin konektatzen da atzerriko hizkuntzan aritzen bagara. BCBLk egin du ikerketa eta ondorioztatu du desberdintasunak daudela elkarrizketa ama-hizkuntzan edo atzerriko hizkuntzan ematen bada. Unibertsitate.net-en honen ingurukoak.
Emakumeak zientzianPasa den astelehenean izan zen Zientziaren arloko Emakume eta Neskatoen Nazioarteko Eguna. Aurten, Kultura Zientifikoko Katedran ingeniaritzako karreretara jotzeko orduan mutil eta nesken artean dagoen alde handian zentratu dira, zehazki estereotipoek duten eragina azpimarratu dute. Datuak oso argigarriak dira: UPV/EHUn -ingeniaritzetan gehienbat- ikasketa teknologikoetan matrikulatzen direnen %25 baino ez da emakumea. Aldiz, osasun zientzietan, %75. Aurten egun hori ospatzeko, umorez betetako bideo bat argitaratu dute egoera hori salatzeko. Artikuluan topa dezakezue bideoa! Ez galdu!
Emakumeen zientziari buruz aritu da ere Josu Lopez Gazpio. Artikulu honetan, egileak gogoratzen digu oraindik ere asko direla emakumeak diziplina honetan erabat aritzea eragozten duten mugak. Testuan azpimarratzen da estereotipoek duten eragina diziplinak aukeratzerako orduan. Izan ere, neskek mutilek baino neurri txikiagoan aukeratzen dute zientziarekin edo teknikarekin lotutako formakuntza. Egoera hori eragiten duen arrazoi bat aipatzen du Lopez Gazpiok: erreferente eskasak, hau da, eskolan eta hedabideetan zientzialari ezagunak edo ospetsuak aipatzen direnean, ia guztiak gizonak dira.
Asteon, Dorothy Crowfoot kimikariaren lana ezagutu dugu, Nobel saria 1964an irabazi zuena. Hain zuzen, X izpien difrakzio teknikaren bidez molekula organiko konplexuen hiru dimentsioko egitura zehaztegatik eman zioten saria. Ikertu zituenen artean zeuden pepsina, esterolak (kolesterola, adibidez), penizilina, B12 bitamina eta geroxeago, intsulina. Atomoen disposizioa ikertzeko une hartako teknikarik berriena eta zehatzena erabili zuen: kristalografia. Substantzia horien egitura ezagutzeak lagundu zuen hainbat gaixotasunei aurre egiteko tratamendu berriak diseinatzen.
Unibertsitatea.net-ek, Emakume eta Neska Zientzialarien Nazioarteko Eguna ospatzeko, 62 ikertzaileen elkarrizketak bildu ditu. Arlo ezberdinak, baina denak interesgarriak! Ez galdu euskal emakume ikertzaile hauen lanak!
Kanadan egin duten azterketa batek agerian utzi du ikerketak finantziatzean okerrago baloratzen direla emakumeek aurkeztutako lanak, gizonezkoenak baino, eskatzailearen profila aintzat hartzen denean. Horretarako, CIHR Kanadako Osasun Ikerketarako Institutuen beka-eskaerak aztertu dituzte, 2011tik 2016ra. Ikertzaileek ondorioztatu dute epaileek ez dutela berdin jokatzen eskatzailearen generoaren arabera eta beraz, neurriak hartu behar direla. Elhuyar aldizkarian topa dezakezue informazioa.
EkologiaIkusten ez dugun arren, atmosferaren % 78 nitrogenoa da. Normalean gas egonkorra da baina existitzen da ere nitrogeno erreaktiboa. Gu ez gara konturatzen baina landareentzat nutriente garrantzitsua da nitrogenoa. Juanma Gallegok testuan azaltzen digu nitrogenoaren ziklo bat badagoela planetan eta hori giza jarduerak kolokan jarri duela. Adituek diotenez, azken urteotan nabarmen handitu da giza jardunaren ondorioz ingurumenera iritsi den nitrogeno erreaktiboaren kopurua. Baina landareen ehunetan jasotako nitrogenoaren kopurua, aldiz, jaitsi da 1980-2017 tartean.
Adimen artifizialaNafarroako Unibertsitate Publikoko (NUP) eta Australiako eta Taiwango ikertzaileak, elkarlanean, pentsamendua irakurtzen duen sistema adimendun bat garatu dute, Elhuyar aldizkariak kontatu digunez. NUPeko ikertzaileen esanean, azken helburua da, adimen artifizialean oinarrituta, zehaztasun handiko garuna-ordenagailua interfazeen sistemak sortzea, komunikatzeko ezintasuna dutenak laguntzeko.
IngurumenaItoitz-Nafarroako Kanalak nekazaritzan izan dituen ondorioak aztertu dituzte BC3-ko ikertzaileek eta ondorioztatu dute ureztatze-sistema horrek zaurgarriagoa egin dituela bai nekazari txikiak baita handiak ere. Nafarroako Erdialdeko eta Goi Erriberako 22 herritan bildutako datuak aztertu dituzte eta ikusi dute nekazariek bi mehatxu nagusi dituztela: aldakortasun klimatikoa eta barazkien prezioen hegakortasuna. Elhuyar aldizkarian ikus daiteke.
Kimika90eko hamarkadaz geroztik, hainbat metodologia analitiko daude dokumentuak datatzeko. Masa-espektrometria dokumentuen datazioan lagungarria izan daiteke eta teknika nahiko berria den arren, askotan erabiltzen da alor ezberdinetan. Alabaina, datazio-metodoek erreparoak eragiten jarraitzen dute zientzialarien artean eta gizarte zibilean (perituak eta epaileak), haien inguruan arazo eta eragozpen ugari egoten direlako. Adibidez, azterketa forentseetan, oinarrizko tresna bihurtu da, dokumentuak datatzeko metodologia berrien garapenean ez ezik, baita beste aplikazio-arlo batzuetan ere. Teknika honi buruz gehiago jakiteko, jo ezazue artikulu honetara.
–——————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
———————————————————————–
Egileaz: Uxue Razkin kazetaria da.
——————————————————————
The post Asteon zientzia begi-bistan #242 appeared first on Zientzia Kaiera.
Otra mirada al planeta: arte y geología
Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.
Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.
La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.
Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.
El geólogo Joaquín del Val, autor del blog “Arte y Geología”, analiza la relación existente entre arte contemporáneo y geología. A lo largo de los últimos quince años numerosos artistas han encontrado su fuente de inspiración y creatividad en las ciencias de la Tierra y, en especial, en la geología.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Otra mirada al planeta: arte y geología se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Patrimonio geológico: la otra mitad del ambiente
- Geología: la clave para saber de dónde venimos y hacia dónde vamos
- Arquitectura y geología: materialidad y emplazamiento
Ezjakintasunaren kartografia #249
Zonako medikuntza popularra ikertu, ebaluatu eta katalogatzeko proiektua jarri du abian 2015ean sortutako Antilletako Unibertsitateak, Frantziarren Antilletan eta Guyanan dagoena. Proiektuko bi partehartzailek azaltzen dute. TRAMIL: Program of Applied Research to Popular Medicine in the Caribbean
Badaude drogak, laket-drogak, erabilera erlijiosoko laket-drogak. Eta ayahuaska, depresioa tratatzeko balio lezakeen erabilera erlijiosoko laket-droga. José Ramón Alonsoren Ayahuasca in the treatment of depression
Ogi gogorrari, agin zorrotza. Ezin dela urrean edo semieroaletan oinarritutako ohiko nanozunda erabili zelulak leherrarazten dituelako eta biobateragarria ez delako? Bada, DIPCkoek zelula biziekin egiten du nanozunda. Bionanospear, a living nanoprobe with subwavelength resolution
–—–
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #249 appeared first on Zientzia Kaiera.
En busca del compuesto perdido
La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebrará dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Durante las próximas semanas en el Cuaderno de Cultura Científica y en Zientzia Kaiera se publicarán regularmente artículos que narren algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas. Comenzamos con la serie “Espectrometría de masas”, técnica analítica que supone el ejemplo perfecto del incesante avance de la Ciencia y la Tecnología.
Las series de policías e investigadores han puesto en nuestras vidas el laboratorio científico y con él, la espectrometría de masas. La realidad es algo diferente a la ficción, pero en ambos casos es cierto que la espectrometría de masas es una técnica muy habitual cuando se trata de buscar moléculas, tanto si sabemos lo que estamos buscando como si no.
Pondré un ejemplo en el que la espectrometría de masas ha sido una técnica clave. Todos sabemos que está prohibido conducir bajo los efectos de sustancias estupefacientes. En caso de sospecha o simplemente en un control rutinario se realiza un test “in situ”. Se toma una muestra de saliva y mediante una reaccion enzimática (inmunoensayo) se obtendrá un resultado positivo o negativo. En ocasiones, moléculas similares a las buscadas pero que podrían no estar prohibidas presentan reactividades cruzadas, por lo que los resultados positivos se confirman en el laboratorio, principalmente mediante espectrometría de masas. En estos casos es importante corroborar la identidad de la molécula (lo que se conoce como análisis cualitativo). En segundo lugar, se procede al análisis cuantitativo, es decir, a calcular la concentración del compuesto en el organismo.
¿Pero qué sucede si el resultado del primer test es negativo, pero el comportamiento del individuo indica claramente el consumo de algún tipo de droga? En este caso hay que poner a trabajar la mente y la maquinaria científica.
Hace algunos años, irrumpieron en el mercado unas mezclas de plantas, declaradas como incienso, que fumadas, provocaban efectos similares a los del cannabis (Imagen 1). A pesar de que la policía había detectado el consumo de estos productos, no se encontraban en ellos ninguna de las drogas incluídas en los analísis de rutina de los laboratorios de toxicología forense. Después de que un par de adolescentes acabaran en urgencias estaba claro que teníamos que cambiar la estrategia de búsqueda.

En la mayoría de los laboratorios de toxicología los análisis de basan en una estrategía de tipo dirigido (“target”), es decir, sólo se ve lo que se busca. Traducido al idioma de la espectrometría de masas significa que el instrumento solo registra las relaciones masa/carga (m/z) que nosotros hayamos incluído en el método de análisis. Para todo lo demás, el instrumento es ciego. Esta es la principal desventaja de esta estrategia. La principal ventaja es la sensibilidad, es decir, así alcanzamos a detectar compuestos en concentraciones más bajas y evitar falsos resultados negativos.
Punto uno: abrir horizontes
Partiendo de la base de que se nos estaba escapando algo, conseguimos concentrar una muestra del extracto de las plantas y utilizamos un modo de análisis no dirigido con el que, gracias a la espectrometría de masas, pudiésemos encontrar compuestos que el modo dirigido nos impedía ver.
Comparando los espectros de masas, que son como la huella dactilar de una molécula (Imagen 2). pudimos identificar algunos de los compuestos mayoritarios. Para otros, en cambio, fue necesario usar información complementaria como la resonancia magnética nuclear. Gracias a estos análisis, se pudo comprobar que en esa mezcla de incienso había cannabinoides sintéticos, que en muchos casos habían sido desarrollados por la industria farmaceútica, pero no habían llegado al mercado de los medicamentos por diferentes razones. Estas sustancias producen efectos similares a los del cannabis pero no estaban incluídas en ninguna base de datos y por eso pasaban totalmente desapercibidas en los análisis rutinarios. Además, no existían datos sobre toxicidad o efectos secundarios.

Punto dos: definir nuevas metas
Una molécula interactúa con su receptor mediante una unión de tipo llave-cerradura. Esto quiere decir que, conociendo la parte estructural que interactúa con el receptor, se pueden realizar cambios en el resto de la molécula manteniendo su función. En este principio se basa el desarrollo de fármacos y la mayoría de modificaciones van destinadas a aumentar la solubilidad, la permeabilidad o mejorar la farmacocinética. Sin embargo, en el caso de los cannabinoides sintéticos usados en estos “inciensos”, esos cambios consiguen que, manteniendo el efecto sobre el sistema nervioso central, las moléculas no sean detectadas en los análisis rutinarios. El peligro de estas modificaciones radica en la posibilidad de potenciar los efectos centrales de estas sustancias y en la falta de estudios toxicocinéticos. Y aquí vuelve a entrar en juego la espectrometría de masas. Es necesario cuantificar estas sustancias y correlacionar estas concentraciones con los efectos que experimentan los consumidores.
Para poder calcular la concentración de un compuesto es necesario construir una curva de calibrado. En ésta se representa gráficamente la señal obtenida para una seria de muestras en función de la concentración del compuesto en esas muestras (que nosotros hemos elegido y preparado). En espectrometría de masas la construcción de la curva de calibrado es un poco más compleja, ya que es necesaria la adición de otra sustancia (el estándar interno) para corregir efectos de la técnica. Así, conociendo la señal obtenida para una muestra de concentración desconocida se puede obtener el valor de su concentración (flecha azul). En el caso de los cannabinoides sintéticos, calcular las concentraciones es una forma de relacionar dosis y efectos de estas sustancias en el organismo y evaluar su perfil toxicocinético, es decir, a partir de qué concentraciones comienzan los efectos tóxicos y con qué velocidad el cuerpo humano es capaz de eliminarlos del organismo.

La espectrometría de masas se emplea también en el desarrollo de medicamentos para establecer los perfiles farmacocinéticos de las sustancias objeto de estudio. O lo que es lo mismo: qué le pasa a un fármaco desde el momento en que entra en contacto con el organismo (por vía oral, parenteral…) hasta su eliminación del mismo. Hay que recordar que un fármaco es activo mientras sus concentraciones en sangre permanezcan dentro de una determinada ventana terapeutica. Concentraciones menores al límite inferior de la ventana implican inactividad y mayores, toxicidad.
De igual modo que se monitorizan las constantes vitales, se pueden monitorizar las concentraciones de los medicamentos en los pacientes. En la práctica clínica es un proceso habitual para estimar las dosis adecuadas de los medicamentos, sobre todo para compuestos con una estrecha ventana terapéutica o en casos en los que la respuesta del paciente no es la esperada. La monitorización de fármacos es un proceso indispensable en el desarrollo de medicamentos, antes de que puedan ser comercializados. También permite construir perfiles farmacocinéticos, es decir, medir las concentraciones en sangre de un determinado compuesto desde la aplicación hasta la eliminación, que permiten conocer parámetros indispensables (Imagen 4) para comprender su comportamiento. Para ello se emplea mayoritariamente la espectrometría de masas por la selectividad y sensibilidad que aporta. Además permite el desarrollo de métodos rápidos y robustos de análisis. Este conocimiento es esencial para poder utilizar los medicamentos o cualquier otro tipo de sustancias de forma segura.

Punto tres: buscar una aguja en un pajar
No sólo es importante saber qué buscar, sino que en muchos casos es necesario determinar mínimas cantidades de los compuestos a analizar, sobre todo en el caso de compuestos de elevada potencia. Un resultado positivo o negativo, por ejemplo en casos de consumo de drogas al volante, va a determinar el tipo y la cuantía del castigo. Lo mismo pasa en el deporte. La aparición de sustancias prohibidas es indicativo de dopaje, con sus múltiples consecuencias. Por todo ello, la cuantificación de sustancias tiene que ser lo más fiable posible y poder medir concentraciones, que en algunos casos, rondan los límites que permite la tecnología. Y la espectrometría de masas es una técnica de análisis selectiva y que permite determinar concentraciones del orden de las partes por billón, dependiendo de los compuestos a analizar y la matriz en la que se encuentran. Para que nos hagamos una idea, sería como encontrar un determinado grano en un metro cúbico de arena.
En definitiva, se puede afirmar que los espectrómetros de masas son los ojos del investigador para poder ver todos esos compuestos perdidos, los que aún no conocemos y los que sí, para obtener información que nos ayude a entender mejor diferentes procesos y a dar respuesta a múltiples preguntas, permitiendo el avance del conocimiento científico.
Sobre la autora: Nerea Ferreirós Bouzas se doctoró en la Facultad de Ciencia y Tecnología de la UPV/EHU y es investigadora en el Instituto de Farmacología Clínica de la Goethe-Universität de Fráncfort del Meno, Alemania.
El artículo En busca del compuesto perdido se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Quién se encuentra en el lado oculto del iceberg?
- Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
- A new hero is born: La espectrometría de masas al servicio de la justicia
Dorothy Crowfoot Hodgkin (1910-1994): ikusezina ikusgai egin zuen emakumea
Liburu horretan, Bernard Le Bovier de Fontenelle filosofoaren hitzak biltzen ditu autoreak, zeinak esaten duen mundua ulertzeko sortu dituzten teoriak bi ezaugarriri esker egin ditugula: kuriositatea eta bista txarrekoak izatea. Gaineratzen du, gure arazoa betidanik izan dela ikusten ditugun baino gauza gehiago jakin nahi ditugula.

1. irudia: Dorothy Crowfoot Hodgkin kristalografoa 1964. urtean, Kimikako Nobel saria irabazi zuenenean. (Argazkia: Wikipedia – Domeinu publikoko argazkia)
Zientzialari batzuek arazo hori abantaila bihurtu dute, Dorothy Crowfootek kasu. Kimikari honek begi-bistan ez zuena ikusi eta ulertu nahi zuen. Harentzat beharrezkoa zen molekulak ikustea eta horien egitura zehaztea, organismoan nola funtzionatzen zuten jakiteko. Ikusmin horrek eraman zuen Kimikako Nobel saria irabaztera, 1964an. X izpien difrakzio teknikaren bidez molekula organiko konplexuen hiru dimentsioko egitura zehazteagatik lortu zuen, hain zuzen. Ikertu zituenen artean zeuden pepsina, esterolak (kolesterola, adibidez), penizilina, B12 bitamina (90 atomo baino gehiagoko egitura du, konplexuenetarikoa da) eta geroxeago, intsulina, bere proiektu nagusietako bat. Atomoen disposizioa ikertzeko une hartako teknikarik berriena eta zehatzena erabili zuen: kristalografia. Hala, substantzia horien egitura ezagutzeak lagundu zuen hainbat gaixotasuni aurre egiteko tratamendu berriak diseinatzen, diabetesarena, esaterako.
Kristalografiaz maitemindutaDorothy Crowfoot Hodgkin 1910ean jaio zen El Cairon baina Ingalaterran bizi izan zen txikitatik. Liburu batek piztu zuen bere zientziarako grina. 15 urterekin William H. Bragg (Fisikako Nobel saria irabazi zuen 1915ean) kristalografia kimikoan aditu zenaren The Nature of the Things irakurri egin zuen. Hori gutxi balitz bezala, hamar urterekin jada esperimentuak egiten omen zituen bere etxean. Unibertsitatera joateko unea heldu zenean, Oxforden kimika ikasi nahi zuela erabaki zuen. 1928tik 1932ra bitartean egin zituen ikasketak eta azken urtean X izpien kristalografian espezializatu zen.
Irakasle esanguratsu mordoa izan zuen inguruan, hala nola Robert Robinson (Kimikako Nobel saria 1947an), Cyril N. Hishelwood (1956ko Fisikako Nobel saria) eta beste hainbat hizlari gonbidatu: Ernest Rutherford (Kimikako Nobel saria 1908an), Niels Bohr (Fisikako Nobel saria 1922an) eta Peter Debye (Kimikako Nobel sariduna 1936an). Halere, gehien gustatu zitzaion hitzaldia John D. Bernal kristalografoarena izan zen. Horiek hola, tesia berarekin egitea erabaki zuen Cambridgeko Unibertsitatean, hari interesatzen zitzaion gaian aditua baitzen. Aipatzekoa da, graduatu ostean, zaila izan zela Crowfootentzat lana topatzea emakumea zelako; hainbatek sufritu zuten patua zen, zoritxarrez. Dena dela, Emakumeen Eskoletan eta Somerville Collegen kimikako irakasle izan zen. Geroxeago, unibertsitateko irakasle bihurtu zen baita hizlari ere. Esan bezala, tesian esterolak izan zituen ikergai eta 1934an amaitu zuen doktoregoa. Hori egiten zuen bitartean, bere lehenengo artikulua publikatu zuen Herbert Marcus Powellekin batera.

2. irudia: Oxforden Dorothy Crowfoot ikertzailearen oroimenez jarrita dagoen plaka. (Argazkia: Owen Massey McKnight / Wikimedia CC BY-SA 2.0 lizentziapean)
Molekulak ikusi nahi ditutCrowfootek ez zuen bide erraza izan inondik inora, X izpien difrakzioaren teknikak buruhauste franko sortu zizkion. Oso pertsona metodikoa zen bere lanean: kristal bakoitzaren argazkiak egiten zituen, plaka fotografikoetan argi-punturen intentsitatea eta disposizioa zehazten saiatzen zen eta, horretaz gain, kalkulu matematiko amaigabeak ebazten zituen. Horrek denbora eskatzen zuen, jakina, une hartan ez zuelako lagungarria izan zitekeen ordenagailurik. Bestalde, artritis erreumatoidea diagnostikatu zioten; bere eskuak tolesten eta deformatzen hasi zitzaizkion. Dena dela, lanean jarraitu zuen; doktoregoa lortu ondoren, Oxfordera itzuli zen ikerketarako lanpostu bat lortu zuelako.
Bertan, substantzia biokimiko garrantzitsu batzuen hiru dimentsioko egitura zehaztea lortu zuen X izpien difrakzio teknika onduz. Horien artean, pepsina, kolesterola, penizilina, B12 Bitamina eta intsulina, besteak beste. Konturatu zen molekula horien arkitekturak zerikusia izugarria zuela euren jokabide eta funtzioekin. Hortaz, horien egitura ezagutzeak gaixotasun batzuk tratatzen lagunduko zuela iritzi zion. Lortutako ezagutza oro bildu zuen Sobre los esteroles, vitaminas y antibióticos liburuan.
Nobel saria lortzeaz gain, 1947an Londresko Royal Society-ko kide izendatu zuten eta 1958an, Arteen eta Zientzien Ameriketako Estatu Batuetako Akademiakoa. 1977tik aurrera, erretiroa hartu zuen eta ikerketa-lana utzi bazuen ere, asko bidaiatu eta anitz konferentziatan esku hartu zuen. Dorothy Crowfootek taxutu zuena magiatik oso hurbil dagoela pentsa dezakete gehienek. Bere lana egiteko baina ez zuen trikimailurik erabili, hark zientzia egin zuen.
Iturriak:
- Biografias y Vidas: Dorothy Crowfoot Hodgkin
- Los avances de la química: Dorothy Crowfoot-Hodgkin: científica excepcional
- Mujeres con ciencia: Capturada por la química: Dorothy Crowfoot Hodgkin
- The Nobel Prize: Dorothy Crowfoot Hodgkin
———————————————————————–
Egileaz: Uxue Razkin (@UxueRazkin) kazetaria da.
———————————————————————–
The post Dorothy Crowfoot Hodgkin (1910-1994): ikusezina ikusgai egin zuen emakumea appeared first on Zientzia Kaiera.
Experimentación y evidencia: dos visiones opuestas

Anteriormente, hablábamos de estándares de evidencia científica y del problema filosófico de la inferencia inductiva; de cómo Ronald Fisher, hace un siglo, promovió métodos —como los contrastes de hipótesis— que evaden el problema, y adelantábamos que dichos métodos suponen una aproximación frecuentista a la realidad. A continuación abundaremos en el problema metodológico que plantean la medida y la estimación estadística de la (in)certidumbre, y que tiene su raíz en el concepto mismo de probabilidad. Esto da lugar a dos visiones opuestas aunque, como veremos, estrechamente relacionadas, lo que en estadística se denomina frecuentismo vs. bayesianismo.
La probabilidad, en su definición más básica, es una medida de la certidumbre asociada a un suceso futuro. Aquí por suceso entendemos eventos que bien pueden ser simples, como la probabilidad de obtener “cara” al lanzar una moneda, o complejos, como la probabilidad de que un jugador de fútbol marque un penalti. Esta es la única definición operativa para la aproximación frecuentista, en la que la probabilidad de un suceso es simplemente la frecuencia relativa de dicho suceso cuando el experimento se repite infinitas veces. Es decir, si tirásemos infinitas veces una moneda ideal, obtendríamos “cara” la mitad de las veces, por lo que decimos que la probabilidad de “cara” (dada una moneda ideal) es de 0.5.
Por tanto, la aproximación frecuentista se dedica a responder a Pr(D | H), esto es, la probabilidad de ciertos datos asumiendo cierta hipótesis: ¿es normal obtener 58 caras y 42 cruces en 100 lanzamientos si la moneda no está trucada? Las limitaciones saltan a la vista: ¿qué me dice esto respecto a asumir que la moneda está trucada?, ¿cómo de trucada?, ¿cómo cambia mi conocimiento sobre esta cuestión si hago otros 100 lanzamientos y obtengo, por ejemplo, 47 caras y 53 cruces? Como vimos al hablar de p-valores, lo más a lo que podemos aspirar es a rechazar que no esté trucada, y si no lo logramos, no obtenemos ninguna información.
¿Podemos hacerlo mejor? Así lo afirma la aproximación bayesiana. Para ello, necesitamos extender la definición de probabilidad, que ahora pasa a ser la certidumbre asociada a una hipótesis dada cierta evidencia disponible: ¿qué certidumbre tengo de que la moneda (no) está trucada si obtengo 58 caras y 42 cruces en 100 lanzamientos? Dicho de otra manera, el enfoque bayesiano se ocupa de Pr(H | D), de las preguntas de la ciencia. No obstante, resulta paradójico que ambas corrientes —deductiva vs. inductiva— se encuentren irreconciliablemente unidas mediante un resultado fundamental de teoría de la probabilidad: el teorema de Bayes.
La probabilidad frecuentista se transforma en la probabilidad bayesiana, o a posteriori, simplemente multiplicando por Pr(H), que no es otra cosa que la información a priori que disponemos del problema en cuestión. La inclusión de este factor, que no está exento de sutilezas, pone muy nerviosos a los frecuentistas, ya que lo ven como una fuente de subjetividad y de sesgos que no tiene lugar en un análisis estadístico. A esto, los bayesianos replican que el frecuentismo no soluciona este problema, sino que simplemente evita la pregunta.
Así pues, el enfoque frecuentista puede verse como un caso particular del bayesiano con un conjunto de suposiciones implícitas que no son necesariamente buenas. Por el contrario, a través del teorema de Bayes se hace explícita esta elección, lo que da enormes ventajas tanto filosóficas (se responde directamente a la pregunta que nos interesa) como metodológicas (por ejemplo, es sencillo y directo actualizar mi grado certidumbre sobre la hipótesis cuando obtengo nuevos datos o nueva información), ventajas que se hacen más evidentes cuando las preguntas que nos hacemos y los modelos que planteamos son más y más complejos.
Entonces, ¿cuál es la moraleja? ¿Es el frecuentismo erróneo? No necesariamente. Pero sí es cierto que sus métodos, numerosos y diversos, se prestan con más facilidad a una elección, uso o interpretación incorrectos, incluso entre expertos, y en determinados contextos esto lleva a conclusiones erróneas. Es por ello que muchos de sus detractores lo consideran perjudicial para la ciencia y promueven el bayesianismo como solución. No obstante, hoy en día, todavía los cursos introductorios a la estadística de cualquier carrera universitaria siguen siendo superficialmente frecuentistas.
Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute
El artículo Experimentación y evidencia: dos visiones opuestas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Prohibir los herbicidas con glifosato es anteponer la ideología a la evidencia científica
- Galileo vs. Iglesia Católica redux (VI): Visiones
- Algunas visiones en filosofía de la ciencia sobre sus valores
A new hero is born: Masa-espektrometria justiziaren zerbitzura
Oinordeko izan zitezkeen gainerako senitartekoek, aldiz, testamentu hori faltsua zela argudiatu zuten, eta zenbait hamarkada lehenago notarioaren aurrean egindako testamentu ofiziala aurkeztu zuten, non aitonak bere aberastasunak denen artean banatzen zituen modu orekatuan. Ez zuten zalantzan jartzen testamentu olografoa nork egin zuen (peritu kaligrafoek berretsi zuten aitonak egina zela), baizik eta noiz egina izan zen. Testamentu olografoa adierazitako datan egina izan zela frogatuz gero, indarrean zegoela eta baliagarria zela esan nahiko zuen, notarioaren aurrean egindakoa baino berriagoa baina aitonak bere gaitasunak galdu baino lehenagokoa zelako.
Deskribaturikoa bezalako kasuak edo antzekoak behin baino gehiagotan gertatzen dira gure gizartean. Formatu elektronikoko gizarte baterantz goazen arren, ondorio indibidual, sozial edota ekonomiko garrantzitsuak dituzten itun edo akordio gehienak eskuz idazten dira, idazteko tresnekin (boligrafoak, adibidez). Horregatik, dokumentuen ikerketa forentseak indarrean jarraitzen du. Adibidez, Finlandiako polizia zientifikoak 2015ean jasotako datuek frogatzen dutenez, ikerketa forentsea erabakigarria izan zen epai irmo batera iristeko, dokumentuekin erlazionatutako kasu judizialen % 40an.

1. irudia: Matilde Corcho-ren amodio-gutuna, lehenengo testamentu olografoa izan zena, 1918an Auzitegi Gorenak emandako epaiaren ostean. (Iturria: Valladolideko Artxibo Historiko Probintziala – SER irrati katearen bidez)
90eko hamarkadaz geroztik, hainbat metodologia analitiko daude dokumentuak datatzeko. Baina hasieratik hasteko, galdera hauei erantzun beharko diegu: Zertan daude oinarrituta dokumentuak datatzeko metodologia gehienak? Nola jakin dezakegu dokumentu bat bertan jartzen duen datan idatzia izan dela? Funtsean, datazio zuzenak egiteko metodologia gehienak denboraren poderioz tintan gertatzen diren aldaketei behatzen saiatzen dira. Pentsa daitekeenez, ez da lan erraza, nazioarteko merkatuan hamaika tinta-mota baitaude. Gainera, boligrafo-marka batean tinta-mota bat baino gehiago erabil daitezke. Adibidez, munduan zeharreko ekoizpen-planta batzuetan eta besteetan edo lote batzuetan eta besteetan tinten konposizioa desberdina izan daiteke, propietate desberdinak dituzten idazteko tresnak merkaturatzeko helburuarekin. Horregatik, osagai desberdinak dituzten ezin konta ahala tinta daude eta ezinezkoa litzateke banan-banan aztertzea. Jarri dugun adibidean, inoiz ez zen jakin zer boligrafo erabili zuen aitonak bere testamentua egiteko, eta are gutxiago zer marka edo lotekoa zen. Arazo horri aurre egiteko, boligrafoetako tintan ohikoa den konposatu-familia baten azterketan oinarritzen dira datazio-metodologia gehienak: disolbatzaile organikoen azterketan. Konposatu horiek eramaile gisa eransten zaizkie koloratzaileei eta erretxinei, eta trazuan gelditzen diren unetik bertatik lurruntzen hasten dira. Badiren arren disolbatzaile gisa ura erabiliz egindako boligrafoak (gel erakoak), idazteko tresna ohikoenetan konposatu organiko hegazkorrak erabiltzen dira disolbatzaile gisa: alkoholak, aldehidoak edo zetonak. Ohikoena 2-fenoxyetanol izenekoa da (tinta likatsua duten boligrafoen % 80 baino gehiagotan erabiltzen da), eta horixe bera da gehien aztertu izan dena portaera zinetikoari dagokionez.
Eta adierazitakoa kontuan hartuta, hauxe galdetu dezakegu: zertarako izan daiteke lagungarria masa-espektrometria dokumentuen datazioan? Zergatik da gaur egunera arte garatu diren datazio-metodologietan gehien erabiltzen denetako bat? Masa-espektrometria teknika nahiko berria da, eta asko erabiltzen da hainbat arlotako analisiak egiteko, hala nola elikagaigintzan, industrian, farmazian edo analisi forentsean. Oso aplikagarria da, besteak beste, konposatu ezezagunak identifikatzeko aukera ematen duelako konposatu horiek espektroen liburutegi batekin alderatuta.
Teknika nahiko sinplea da: masa-espektrometrora (MS) iristen diren molekula organikoak elektroi-kopuru handi batek “bonbardatzen” ditu, potentzial-diferentzia kontrolatu baten pean (70 eV). Elektroi-talka horren eraginez konposatua zatitan apurtzen da eta, potentziala aldatzen ez den bitartean, zatiak beti berdinak dira (2. irudia). Horrela, substantzia puruen zatiketa kontrolatuari esker konposatu organiko askoren espektroen liburutegiak dauzkagu (306 622 konposaturenak 2017ko azken bertsioan), ezezagunak zaizkigun molekulen espektroak haiekin alderatu eta konposatu ezezagunak identifikatu ahal izateko. Datu-basean ez dauden konposatu ezezagunak konposatu puruen espektroekin alderatuta lehenak identifika ditzakegu, konfiantza-ehuneko jakin batekin. Horregatik, masa-espektrometria funtsezko tresna da dokumentuen datazio-metodologien baitan. Eta are gehiago aldez aurretik substantzia organiko hegazkorrak bereizteko teknika bat erabiltzen bada: gas-kromatografia (GC). Beste edozein detektatzaile kimiko unibertsalek bezalaxe, MSari esker jakin dezakegu konposatu baten zer kantitate daukagun analizatutako laginean (nanogramo-mailan) baina, horrez gain, tresna bikaina da konposatu ezezagunak identifikatzeko.
Lehengo adibidera bueltatzen bagara, gas-kromatografia eta masa-espektrometria uztartuta (GC/MS) jakin genezake zenbat disolbatzaile gelditu den testamentu olografoko tinta-trazuetan eta, gainera, jakin genezake ere tintak zer konposatu-mota dituen. Informazio hori guztia oso garrantzitsua da dokumentuak datatzeko garaian: jakin dezakegu aztertutako trazuan ba ote dagoen zinetika aztertuta duen disolbatzaile organikorik eta, bestalde, neurketa kuantitatiboaren bidez jakin dezakegu zer konposatu-kantitate dagoen. Bi datu horiek baliagarriak izan daitezke kalkulatzeko tinta hori noiz erabili zen. Gainera, konposatuak identifikatzeko gaitasun horri esker zeharkako datazioak ere egin daitezke, konposizioan anakronismoak aurkituz gero. Hau da, konposizio komertzialetan oraintsu erabiltzen hasi den konposatu bat identifikatzea lortuko balitz, horrek esan nahiko luke testua ez zutela idatzi lehenago.

2. irudia: 2-fenoxyetanol molekularen masa-espektroa. Berdez, ioi molekularra, eta laranjaz eta urdinez, ioi-zatiak. (Argazkia: Luis Bartolomé)
Gaur egun, datazio-metodoek erreparoak eragiten jarraitzen dute zientzialarien artean eta gizarte zibilean (perituak eta epaileak), haien inguruan arazo eta eragozpen ugari egoten direlako. Hauek dira agertzen diren arazo ohikoenetako batzuk: tintaren euskarri den paperak eragina duela tinten bilakaera zinetikoan bere ezaugarriak direla eta (dentsitatea, konposizioa…), tinta baten adina zehazteko orduan masak garrantzi handia duela (gogoan izan behar da denok ez genukeela tinta-kantitate bera utziko une berean egindako trazu batean), edo dokumentuak kontserbatuta egon diren erak ere eragina duela (ez da gauza bera dokumentu bat idazmahai bateko tiradera batean gordeta egon izatea baldintza kontrolatuetan edo auto baten barruan egon izatea hondartzan). Konponbide konplexua duten arazo horiez gain, badaude ohikoak diren beste arazo batzuk ere: dagoen lagin-kantitatea (batzuetan milimetro eskas batzuk bakarrik egoten dira analizatzeko) edo 2 urte baino gehiagoko dokumentuak datatu ezin izatea, adibidez. Euskal Herriko Unibertsitateak (UPV/EHU) aktiboki parte hartu du datazio-metodologia berrien garapenean eta bilakaeran, deskribaturiko arazo horiek minimizatzearren. 2015az geroztik, Zientzia eta Teknologia Fakultateko Kimika Analitikoa Saileko (FCT/ZTF) ikertzaile-talde batek, Ikerkuntzarako Zerbitzu Orokorrekin (SGIker) batera, DATINK izeneko datazio-metodo berritzailea garatu du. Metodologia horrek masa-espektrometriaren potentzialtasuna eta 2-fenoxyetanol ondoz-ondoko etapetan mikro-erauzteko prozesu bat (3. irudia) eta eredu matematiko original bat konbinatzen ditu, eta haren bidez lortu da datazioa lagin-kantitate txikiago batekin egin (1,2 mm-ko trazu bat nahikoa da) eta 5 urtera arteko laginak aztertu ahal izatea. Gainera, metodo berriak badu beste berrikuntza bat ere orain artekoekin alderatuta: data zehatz bat kalkulatzen du (%20ko errore-tartearekin). Deskribaturiko testamentuaren kasuan, adibidez, hori funtsezkoa izan zen. Zalantzan jartzen zen dokumentua notario aurrean egindako testamentuaren ondoren baina gizona gaixotasunagatik desgaituta gelditu aurretik egin zela frogatu behar zen. Eta pentsatu baduzue aitonak modu orekatuan banatu nahi izan zituela bere aberastasunak oinordekoen artean, esango dizuet oker zabiltzatela.

3. irudia: DATINK metodoaren oinarri diren seinale kromatografikoak. Erauzketa bakoitzean fenoxyetanol-kantitatea txikiagoa da. (Argazkia: Luis Bartolomé)
Beraz, masa-espektrometria da dokumentuen azterketan egoten diren arazoen konponbidea? Heroi bat jaio da? Esango bagenu horrelako tresnei esker ez dela errazagoa arazo analitikoen ebazpenean helburu berriak garatzea eta betetzea, tentelak izango ginateke. Azterketa forentsearen kasuan, masa-espektrometria oinarrizko tresna bihurtu da, dokumentuak datatzeko metodologia berrien garpenean ez ezik, baita beste aplikazio-arlo batzuetan ere. Baina irmotasun osoz esan daiteke ere detekzio-metodo hau ez dela panazea eta ez dela izango gure gaitz guztien konponbidea, non eta ez dugun jartzen ikertzaile berritzaileen eta sortzaileen zerbitzura. Normalean, I+G+b garapenaren ardura detekzio-metodo horien gaitasunen eta haien hobetzeko aukera etengabearen esku uzteko joera izaten dugu ikertzaileok, eta ahaztu egiten zaigu gurea dela ardura eta bi alderdiak modu egokian konbinatuta lortzen direla emaitzarik onenak. Esan beharrik ere ez dago UPV/EHUk eta Zientzia eta Teknologia Fakultateak, ahalmen handiko prestakuntzarako sarearen parte diren aldetik, ardura oso handia izan dutela, dutela eta izaten jarraitu beharko dutela konbinazio horretan etekin maximoa lortzeko.
—————————————————–
Egileaz: Luis Bartolomé SGIker zerbitzuko (Ikerkuntzarako Zerbitzu Orokorrak) teknikaria da UPV/EHUko Zientzia eta Teknologia Fakultatean.
—————————————————–
Hizkuntza-begiralea: Juan Carlos Odriozola
——————————————–
Masa-espektrometriari buruzko artikulu-sorta
- Masa-espektrometria (I). Neoi isotopoetatik elefante hegalariengana
- A new hero is born: Masa-espektrometria justiziaren zerbitzura
The post A new hero is born: Masa-espektrometria justiziaren zerbitzura appeared first on Zientzia Kaiera.
La notación polaca, la de Jan Łukasiewicz
La notaciones de prefijo (o polaca, en homenaje a Jan Łukasiewicz), de infijo y de postfijo (o polaca inversa) son formas de escritura de expresiones algebraicas que se diferencian por la posición relativa que toman los operadores y los operandos. En la notación de prefijo, el operador se escribe delante de los operandos (+ 3 4), entre los operandos en la notación de infijo (3 + 4) y tras los operandos en la de posfijo (3 4 +).
La notación de prefijo fue propuesta en 1924 por el matemático, lógico y filósofo polaco Jan Łukasiewicz (1878-1956), de allí el nombre alternativo por la que se conoce.

Al igual que la de postfijo, la notación polaca permite prescindir de los paréntesis en el caso de operadores de aridad fija conocida. Por ejemplo, la operación 5 * (12 + 4).puede escribirse en prefijo como: * 5 (+ 12 4); o sencillamente: * 5 + 12 4 (y como 5 12 4 + *en postfijo).
Łukasiewicz introdujo esta notación con la intención de simplificar la lógica proposicional. El matemático y lógico Alonzo Church la mencionaba en su libro clásico Introduction to Mathematical Logic (1956) como una notación digna de observación. Aunque dejó pronto de utilizarse en lógica, encontró su lugar en las ciencias de la computación. Por ejemplo, el lenguaje de programación LISP basa precisamente su sintaxis en la notación polaca.
Las calculadoras Hewlett-Packard usan la notación polaca inversa, económica en número de entradas, pero que requiere un esfuerzo adicional para la interpretación del resultado. Esta empresa utilizó este sistema por primera vez en 1968, en la calculadora de sobremesa HP-9100A. Y fue también ésta la notación de la primera calculadora científica de bolsillo, la HP-35, usada entre 1972 y 1975.

En ciencias de la computación, la notación de postfijo se usa en lenguajes de programación orientados a pila y en sistemas basados en tuberías.
Pero volvamos, para finalizar, a Jan Łukasiewicz, al que rendimos hoy homenaje porque falleció un 13 de febrero, en Dublin, donde emigró tras la Segunda Guerra Mundial.
Como ya hemos comentado, trabajó fundamentalmente en lógica proposicional, sistema formal en el que pensaba realizar innovaciones. Estudió los sistemas axiomáticos de la lógica e impulsó las lógicas multivaluadas, dando una interpretación de la lógica modal.
Hoc est falsum (Esto es falso).
No, no, lo que he comentado arriba no es falso. Esta sentencia es la versión de Girolamo Savonarola de la famosa paradoja del mentiroso. Jan Łukasiewicz dio una solución de esta paradoja en los siguientes términos:
Todo principio lógico contiene variables. Estas variables, como las variables en matemáticas, pueden tener varios valores. Existe una ley lógica que dice que todos los principios lógicos se refieren solo a aquellos objetos que pueden ser valores de variables. Se puede demostrar que la frase anterior que contiene la contradicción no puede ser el valor de una variable. Por lo tanto, los principios lógicos no se aplican a esta oración. Esta construcción está fuera de la lógica.
Más información:
-
Jan Lukasiewicz et la notation polonaise inverse, Almanac mathématique
-
O’Connor, John J.; Robertson, Edmund F., Jan Łukasiewicz, MacTutor History of Mathematics archive, University of St Andrews
-
Curriculum Vitae of Jan Łukasiewicz, Metalogicon VII (2), 133-137, 1994
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo La notación polaca, la de Jan Łukasiewicz se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Nitrogenoaren zikloa (ere) zoratzen hasia zaigu
Burua altxatu eta gorantz begiratu. Orain eskumara. Ezkerrera gero. Inguruan ikusten den gehiena nitrogenoa da. Egia esanda, ikusten ez den gehiena. Funtsean, nitrogenozko sopa batean murgilduta bizi gara Lurrean bizi garen izaki lehortarrok, baina gutxitan izan ohi dugu horren kontzientzia. Kopurua ez da hutsala: atmosferaren % 78 nitrogenoa da. Beraz, arnasa hartzen dugun aldiro, birikietan sartzen dugun airearen hiru laurden baino gehiago nitrogeno purua da. Gas egonkorra da normalean, baina elementu hori finkatu daiteke ere, aldaera erreaktiboa sortuta.

1. irudia: Karbonoaren ziklo bat dagoen modu berean, nitrogenoaren ziklo bat badago planetan, eta bereziki landareetan du eragin handiena. (Argazkia: Alessandro Capuzzi / Unsplash)
Gu gas horretaz ia-ia konturatzen ez bagara ere, nitrogenoa nutriente garrantzitsua da landareentzat. Naturan soilik entzima talde bat da gai atmosferan dagoen gas hori kopuru handietan finkatzeko, eta gasa ez den konposatu bat bihurtzeko (amonioa, hain zuzen). Bereziki, lekaleen sustraietan bizi diren zenbait bakteriotan daude entzima horiek, eta, milioika urtez, lekale horiek izan dira gainerako landareak nitrogenoarekin “elikatzeko” gaitasuna (eta ardura) izan dutenak. Lekaleek lurzorua ongarritzeko duten ahalmen izugarri horren berri aspalditik daukate nekazariek, ezagutza enpirikoari esker, eta horregatik lekaleek toki bat izan ohi dute errotazio laborantzetan.
Ohi bezala, Ronaldinho edota Beyonce bezalako heroien parean ia ezagutzen ez den kimikari bati zor zaio jendearen bizitza aldatuko zuen aurkikuntza: Justus von Liebig kimikaria konturatu zen nitrogenoa, fosforoa eta potasioa direla landareen oinarrizko nutrienteak. Garai horretan, guanoa zen nitrogeno horren iturri bakarra, eta hegaztien kakaren inguruan izugarrizko merkataritza sarea osatu zen. Beste bi lagunei zor zaie kaka urri horrekiko dependentzia apurtu eta zuzenean airetik nitrogenoa nahieran lortzeko prozesua abiatzea: Fritz Haber eta Carl Bosch kimikariei. Euren izana daraman Haber-Bosch prozesuan oinarritu zen, hain zuzen, iraultza berdea.
Karbonoaren zikloa bezain ezaguna ez bada ere, nitrogenoaren ziklo bat dago planetan. Eta, hemen ere, giza jarduerak ziklo hori kolokan jarri du: adituek diotenez, azken urteotan nabarmen handitu da giza jardunaren ondorioz ingurumenera iritsi den nitrogeno erreaktiboaren kopurua. 1900-1980 epean, hiru edo lau aldiz handitu da atmosferan bildu den oxidatutako nitrogenoaren kopurua (NOx eta N20, kasurako), eta nitrogenoa erreduzituaren (amoniakoa edo NH3) kopurua bikoiztu egin da ere. Urte bakoitzeko, 210 Tg nitrogeno erreaktibo sortzen ditu gizakiak. Modu naturalean, berriz, 203 Tg sortzen dira.
Arazo honen inguruan hausnarketa egin du Science aldizkarian Carly J. Stevens landare ekologoak, gaiaren inguruan izan diren azken ikerketa nabarmenenen errepasoa eginez. Stevensek munduan gertatzen den nitrogenoaren banaketan jarri du arreta berezia. Garatutako herrialdeetan nitrogeno asko egoteak aniztasun biologikoan, giza osasunean eta kliman arazoak sortzen dituen bitartean, garapen bidean dauden herrialdeetan kontrakoa gertatzen da, nitrogeno gutxi duten lurrak dituztelako, eta horrek herrialde horietako biztanleen elikadura-segurtasuna kinkan jar dezakeelako. Halere, ohi bezala, bi arazo hauek ez daude sakabanatuta, nitrogenoari bost axola zaizkiolako gizakiek ezarritako muga politikoak.
Landareetan, gutxiagoNitrogeno erreaktiboaren kopurua asko handitu den arren, landareen ehunetan jasotako nitrogenoaren kopurua jaitsi da 1980-2017 tartean, eta hori landareek hartzen duten nitrogenoaren adierazletzat hartu izan da: ondorioztatu daiteke landareek nitrogeno gutxiago daukatela eskura. Stevensen hitzetan, “1980tik garatutako hainbat herrialdetan nitrogenoaren isuria gutxitu den arren, hau ez da joera globala izan; hortaz, zaila da ulertzea nola eman daitezkeen batera landareetako nitrogenoaren erreserben ahitzea eta nitrogeno erreaktiboaren isurien handitzea”.

2. irudia: nitrogenoa modu masiboan finkatzeko ahalmenari esker posible izan zen abiatzea munduko populazioa elikatzea ahalbidetu zuen iraultza berdea. (Argazkia: Ricardo Gomez / Unsplash)
Zientzialarien irudikoz, paradoxa horren atzean dauden arrazoiak izan daitezke CO2 isuriak handitu direla eta laborantza sasoiak luzatu egin direla, azken honek biomasaren ekoizpena handitu duelarik. Misterio txiki honen inguruan informazio gehiago eskuratzeko, isotopo egonkorretara jo dute zientzialariek. Lagin jakin batean dauden isotopo astun eta arinen proportzioa ezagutzean datza teknika hau. Atmosferan dauden nitrogeno iturriak isotopo arinak izan ohi dira. Horregatik, landareetako isotopoen analisien oinarrituta, zientzialariek ondorioztatzen dute atmosferan nitrogeno gehiago dagoela.
Mendi harritsuetan urtez egindako esperimentu baten berri eman du egileak. Bertako larre batean 12 urtez nitrogeno erreaktiboaren mailak nahita handitu zituzten, eta horrek bertako landare espezieen osaketan eragina izan zuen: ordura arte zabalduen zegoen Cyperus rotundus belarrak atzera jo zuen, eta beste hainbat espezie nagusitu ziren. Horrez gain, lurraren PHan, onddoetan eta bakterioetan ikusi zuten eragina, eta nitrogenoa sartzeari utzi eta bederatzi urtera ere aldaketa horiek oraindik ez ziren bueltatu jatorrizko mailetara.
Oxidatutako nitrogenoaren isuria batez ere erregaiei zor zaie, eta Europan 1980. urtearen bueltan iritsi ziren goreneko mailetara, ordudanik hona kopurua gutxitu delarik. Nitrogeno erreduzituari dagokionez, gehienbat nekazaritzan dago jatorria, eta kopuruak ez dira batere gutxitu, bereziki isuri hauen gaineko erregulazioa askoz txikiagoa izan delako herrialde gehienetan. Horretan ere, dieta ohiturak aldatu eta elikagaien ekoizpena optimizatzearen beharra aldarrikatu du Stevensek. “Planetari dagokionez, gizateriak muga batzuen barruan mantendu nahi badu bere burua, –tartean, nitrogenoaren mugak– gure dietak aldatu beharra dago, elikagaien ekoizpenean hobekuntza teknologikoak ezarri eta horien kudeaketa okerra gutxitu behar da”.
Erreferentzia bibliografikoa:
Stevens, Carly J., (2019). Nitrogen in the environment. Science 363 (6427), 578-580. DOI: 10.1126/science.aav8215
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Nitrogenoaren zikloa (ere) zoratzen hasia zaigu appeared first on Zientzia Kaiera.
Sonido (y 2)

Siempre ha sido bastante obvio que el sonido emplea un tiempo para viajar desde la fuente hasta el receptor. Cronometrando los ecos en una distancia conocida, el matemático Marin Mersenne calculó por primera vez en 1640 la velocidad del sonido en el aire. Pasaron otros 70 años antes de que William Derham, comparando el flash y el ruido de los cañones a 20 km de distancia, se acercara a las mediciones modernas. El sonido en el aire al nivel del mar a 20 ° C se mueve a unos 344 m/s. Al igual que para todas las ondas, la velocidad de las ondas de sonido depende de las propiedades del medio: la temperatura, la densidad y la elasticidad. Las ondas de sonido generalmente viajan más rápido en líquidos que en gases, y más rápido todavía en sólidos. En el agua de mar su velocidad es de unos 1500 m/s; en el acero unos 5000 m/s; en el cuarzo unos 5500 m/s.
La interferencia de las ondas de sonido se puede mostrar de varias maneras. Una de las consecuencias de las características de las interferencias es que, en una sala grande con superficies duras que reflejen el sonido, habrá puntos “muertos”. En estos puntos, las ondas de sonido interfieren con las reflejadas, con lo que tienden a cancelarse entre sí. Los ingenieros acústicos deben considerar esto al diseñar la forma, la posición y los materiales de un auditorio.
Otro ejemplo interesante y bastante diferente de la interferencia de sonido es el fenómeno conocido como batimento. Cuando dos notas de frecuencia ligeramente diferente se escuchan juntas, interfieren. Esta interferencia produce batimentos, una pulsión rítmica de la intensidad del sonido (trémolos). Los afinadores de piano y los músicos de instrumentos de cuerda utilizan este hecho para afinar dos cuerdas al mismo tono. Simplemente ajustan una cuerda u otra hasta que los batimentos desaparecen.
La refracción del sonido por diferentes capas de aire explica por qué a veces no se puede escuchar el trueno después de ver un rayo. Una refracción similar del sonido ocurre en capas de agua de diferentes temperaturas. Los geólogos utilizan la refracción de las ondas de sonido para estudiar la estructura profunda de la Tierra y para localizar combustibles fósiles y minerales. Por ejemplo, se crean ondas de sonido muy intensas en el suelo (explosiones de dinamita, por ejemplo). Las ondas de sonido viajan a través de la Tierra y son recibidas por dispositivos de detección en diferentes ubicaciones. La trayectoria de las ondas, al ser refractadas por las capas del terreno, se puede calcular a partir de las intensidades de sonido relativas y los tiempos alas que son recibidas. A partir del conocimiento de las trayectorias se pueden hacer estimaciones de la composición de las capas.
Como exlicamos en su momento, la difracción es una propiedad de las ondas sonoras. Las ondas de sonido doblan las esquinas y barreras para llegar al oyente.
Las ondas sonoras se reflejan, al igual que las ondas en una cuerda o en el agua, cada vez que se encuentran con un límite entre diferentes medios. Las características arquitectónicas llamadas “galerías o gabinetes de secretos” muestran vívidamente cómo se puede enfocar el sonido mediante el reflejo en superficies curvas. Un uso inteligente de la sala de los secretos se atribuye a Juan de Herrera mientras se construía el Real Monasterio y Sitio de San Lorenzo de El Escorial, como puede leerse aquí. Pero ya eran conocidas siglos antes: la de la Alhambra, por ejemplo, data de 1358.
Todos estos efectos son de interés en el estudio de la acústica. Además, el buen diseño acústico de los edificios públicos se reconoce actualmente como una factor importante para distinguir un buen diseño arquitectónico.
Hasta ahora hemos visto los fenómenos básicos de las ondas mecánicas, que terminan con la teoría de la propagación del sonido. Las explicaciones de estos fenómenos se consideraron el triunfo final de la mecánica newtoniana aplicada a la transferencia de energía de las partículas en movimiento. La mayoría de los principios generales de la acústica se descubrieron en la década de 1870. Desde ese momento tal vez su influencia más importante en la física moderna fue su efecto en la mentalidad de las personas de ciencia. Los éxitos de la acústica las alentaron a tomarse en serio el poder del punto de vista ondulatorio, incluso en campos alejados del original: el movimiento mecánico de las partículas que se mueven adelante y atrás o arriba y abajo en un medio. Pero en nada tuvo más importancia que en el estudio de un fenómeno importantísimo: la luz.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Sonido (y 2) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: