Ezjakintasunaren kartografia #266

Zientzia Kaiera - sam, 2019/06/15 - 09:00

“Ezagutza publikoa deitu daitekeen ezer ez da existitzen, iritzi subjektiboak dira”. Ados ala ez? Kafe baten inguruan elkarrizketa Jesús Zamora Bonillaren eskutik: The Italian coffee pot, a dialog on values in science (1): Individualism, values and preferences

Gure nerbio sistemaren funtzionamenduan oinarrizkoa prozesua da moldaketa neurologikoa. Autismoa duten pertsonek prozesu honetan aldaketak izan ditzakete. Moldaketa honen alderdia den usaimena aztertzen du José Ramón Alonsok Olfactory adaptation and autism

Atomoz atomoko eraikuntza nanometrikoei lotutako efektuak ezezagunak dira neurri handi batean. Zilarrezko gainazalean kobaltozko atomoak dituen egitura sinplean elektroiek duten masa baino mila aldiz handiagoa balute bezala jokatzen dutela frogatu dute DIPCn. Fermi astuna likidoa izena du. Finite size analogue of a heavy Fermi liquid in an atomic scale Kondo lattice

–—–

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #266 appeared first on Zientzia Kaiera.

Catégories: Zientzia

¿Existe algún fármaco que nos haga más inteligentes?

Cuaderno de Cultura Científica - ven, 2019/06/14 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

En la serie Sin límites (Fox, 2016) creada a partir de la película homónima, el protagonista (Brian Finch) es un músico mediocre que ha perdido su talento y que su vida no parece conducir a ninguna parte. Siente que, de hecho, no es capaz de expresar adecuadamente sus habilidades y todo su potencial mental. Todo esto cambia cuando toma una pastilla transparente y completamente ilegal (la NZT), que lo hace más inteligente. Bajo la influencia de la pastilla, sus habilidades de procesamiento mental se vuelven más eficaces y rápidas e incluso recuerda hechos y eventos que creía perdidos en su memoria. Este nuevo talento lo lleva a trabajar para el FBI y resolver complejos crímenes que otros detectives no habían podido descifrar.

¿Es esta fantasía, que la mayoría de nosotros compartimos, ser más inteligente y mejorar el potencial de nuestro cerebro, posible?

En los últimos años ha habido un tremendo progreso en la comprensión de los mecanismos responsables del aprendizaje, la memoria y otros componentes de la cognición humana. Comenzamos, ahora, a comprender los procesos cognitivos a nivel celular, molecular y sináptico (sinapsis = conexiones entre las células nerviosas). Los modernos métodos de análisis de imagen permiten identificar en tiempo real los circuitos que participan en diferentes tipos de memoria y aprendizaje, tanto en animales como en personas. Además, con técnicas de modificación genéticas sofisticadas, hoy en día es posible crear memorias artificiales en ratones mediante la manipulación de circuitos cerebrales específicos y de células nerviosas en el cerebro.

Póster de la película «Sin Límites». Fuente: © 2011 Relativity Media Ltd. All Rights Reserved. Reproducido bajo los términos de fair use de la United States copyright law

¿Qué es la mejora cognitiva?

Antes de describir algunos de los compuestos utilizados para mejorar las capacidades mentales, explicaremos qué es la mejora cognitiva. Sería esta una mejora en nuestra capacidad para procesar datos, aprender cosas nuevas, llegar a conclusiones correctas, recordar detalles del pasado y usarlos de la manera correcta en el presente. Hay intentos de alcanzar estos resultados mediante el uso de compuestos químicos (drogas o medicamentos), dispositivos y manipulaciones genéticas. Este artículo lo dedicaremos a los posibles compuestos químicos capaces de mejorar la memoria.

¿Cómo se forman los recuerdos?

Para saber cómo mejorar la memoria, primero debemos entender cómo se crean los recuerdos. En las células cerebrales y las sinapsis de las células nerviosas, millones de procesos bioquímicos ocurren de maneras sucesivas o paralelas. Sabemos que algunos de estos procesos, amplificados o debilitados por diferentes estímulos y experiencias, contribuyen a la creación de recuerdos, pero estamos muy lejos de estar familiarizados con todo el proceso. Sin embargo, ya existe un conocimiento considerable de varias docenas de moléculas clave que se consideran críticas para la creación o retención de memorias. Estas moléculas se han encontrado utilizando métodos sofisticados, que incluyen ingeniería genética, registro eléctrico de células nerviosas, imágenes de alta resolución y el uso de virus modificados genéticamente.

Una forma importante de desarrollar fármacos para el mejoramiento cognitivo es comprender por qué algunos ratones transgénicos muestran capacidades cognitivas deficientes y otros muestran capacidades cognitivas mejoradas en relación con los ratones normales. Resulta que la mayoría de los «súper-ratones» expresan diferentes niveles de proteínas que de alguna manera están relacionadas con la función de las sinapsis. En otras palabras, la capacidad de mejorar la transmisión de información entre una neurona y otra es probablemente crítica para el buen aprendizaje y la memoria.

Cuando se identifica una molécula o ruta bioquímica que tiene un impacto significativo en el aprendizaje o la memoria, se intenta transformar ese conocimiento en un medicamento que mejorará la función cognitiva al modificar la actividad de esta molécula crítica o de la ruta bioquímica.

Imagen promocional de la serie de televisión Limitless (Sin límites). Fuente: © 2015 CBS Television Studios, Inc. All Rights Reserved. Reproducida bajo los términos de fair use de la United States copyright law

FGL – para mejorar el aprendizaje y la memoria

FGL es un ejemplo clásico de desarrollo de un fármaco que mejora el aprendizaje y la memoria. La proteína NCAM se conoce desde hace décadas como una proteína cuya función en los procesos de aprendizaje y memoria es crucial para la comunicación celular, entre otras cosas, a través de la activación de un receptor llamado FGFR. Investigadores en Dinamarca asilaron la parte de NCAM que se une al receptor de FGFR y sintetizaron un análogo artificial que se denomino FGL.

Sorprendentemente, tras inyectar FGL en ratas mejoró su aprendizaje y memoria durante más de dos semanas. Es importante señalar que estas ratas no tenían deficiencias cognitivos antes del tratamiento , lo que indica que incluso cuando el cerebro funciona perfectamente, se puede mejorar su rendimiento.

En nuestro grupo de investigación y usando métodos de biología molecular y registros eléctricos de las células nerviosas, hemos podido descubrir por qué FGL mejora la capacidad cognitiva. Cuando se une al receptor FGFR, activa un complejo sistema de procesos bioquímicos en las células nerviosas y el resultado final es el fortalecimiento de las sinapsis entre las células nerviosas. (Enlace a la investigación completa sobre el tema). Este refuerzo aumenta la eficiencia de la transferencia de información entre las células nerviosas, lo que mejora el aprendizaje y la memoria. El FGL aún se encuentra en periodo de desarrollo. Los resultados de los ensayos clínicos son prometedores, pero aún faltan muchos años de trabajo para disponer de un potenciador cognitivo seguro y eficaz.

PDZ-PTEN – mecanismo de bypass del alzhéimer

PDZ-PTEN es una sustancia que hemos desarrollado después de varios años de investigando el porqué de la perdida de memoria en los pacientes de alzhéimer. Estos pacientes acumulan una proteína tóxica en el cerebro llamada beta amiloide. Esta proteína inicialmente interrumpe la comunicación entre las neuronas para finalmente causar su muerte. Durante mucho tiempo no se conocía exactamente cómo la beta amiloide interrumpe esta comunicación. Nuestras investigaciones descubrieron que la interrupción de la comunicación entre las células nerviosas se debe, al menos en parte, a la inserción de una proteína llamada PTEN en las sinapsis en respuesta al beta amiloide. El resultado final es el debilitamiento de las sinapsis y la interrupción de la transmisión de información de una neurona a otra.

Para contrarrestar este fenómeno, desarrollamos un compuesto que evita esta asociación entre PTEN y otros componentes sinápticos. Cuando inyectamos este compuesto en ratones transgénicos «modelos de alzhéimer», resultó que, aunque sus cerebros estaban llenos de beta amiloide, su capacidad cognitiva era similar a la de los ratones sanos. (Y aquí hay un enlace al estudio completo). De esta manera, logramos evitar el pernicioso efecto de la beta amiloide. Este compuesto se está desarrollando actualmente como medicamento para la enfermedad de Alzheimer. Esperamos que un futuro no muy lejano, nuestra investigación se transforme en una terapia real para el tratamiento de esta enfermedad

En la actualidad y conscientes del problema que supone para nuestra sociedad, muchos grupos de investigación y empresas farmacéuticas se han volcado a la investigación de nuevas terapias para el tratamiento del alzhéimer. Desgraciadamente la vacuna contra el amiloide beta o los medicamentos que reducen su cantidad en el cerebro no han de mostrado ser muy eficaces y su seguridad para el uso humano está en entredicho. A pesar de estos esfuerzo, creemos que en el futuro la enfermedad de Alzheimer se tratará no solo con un medicamento, sino con una combinación de varios, como ya se está realizando en el tratamiento del cáncer. Una posible combinación serían medicamentos que prevén la muerte de las células nerviosas, junto con los medicamentos que causan nuevas sinapsis y medicamentos que previenen el fallo sináptico.

¿Cuál es el peligro de usar potenciadores cognitivos?

Más allá de los efectos secundarios que pueden acompañar el uso de cualquier medicamento, las mejoras cognitivas pueden tener efectos secundarios únicos y desconocidos. Teóricamente, el potenciador cognitivo puede mejorar los recuerdos deseables, como el temario para un examen, pero existe el peligro de que también aumente los recuerdos sin importancia y que nuestro cerebro se inunde de recuerdos que no necesitamos, causándonos una gran confusión y posiblemente una disfunción mental.

Peor aún, un potenciador cognitivo puede amplificar los recuerdos traumáticos que de otro modo y en un cerebro normal estarían suprimidos. Aumentar recuerdos dolorosos puede ser devastador para algunas personas. La conclusión obvia es no apresurarse a probar los potenciadores cognitivos, incluso si los ensayos clínicos han tenido éxito. Por más atractivo que pueda ser el uso de estos compuestos, su empleo debería restringirse a personas con un problema real de memoria, por ejemplo, pacientes con Alzheimer y no por personas con un funcionamiento cognitivo normal.

¿Es ético usar potenciadores cognitivos?

En la actualidad asistimos a un amplio debate sobre las posibles consecuencias derivadas del uso de potenciadores cognitivos. Por ejemplo, ¿Debería exigirse la supervisión legal de tales materiales? ¿Un estudiante que consuma potenciador cognitivo engaña realmente? ¿Qué pasa con aquellos que no pueden permitirse comprar estos compuestos? ¿Habrá presión, por ejemplo, en pilotos, soldados, médicos e incluso en trabajadores de oficina para que tomen estos fármacos para mejorar su eficiencia en el trabajo? Aunque en los medicamentos utilizados hoy en día, su eficacia como potenciadores cognitivos es cuestionable, no es imposible que pronto nos encontremos con medicamentos mas efectivos y todas estas cuestiones éticas se pondrán a prueba en la realidad.

Desde 2013, la Unión Europea ha gastado más de 3 millones de euros en esfuerzos para elaborar códigos de empleo para el futuro uso de los fármacos capaces de mejorar los procesos cognitivos, pero cada país debe formular posiciones que tengan en cuenta las ventajas y desventajas de vigilar los potenciadores cognitivos.

Conclusión:: La mejora cognitiva se puede lograr a través de varias tecnologías y conlleva la promesa (o amenaza) de cambiar nuestras vidas por completo. Estamos avanzando en pasos gigantes hacia un tiempo nuevo, sorprendente, desafiante, pero al mismo tiempo aterrador, en el que no estaremos satisfechos con las capacidades mentales que la naturaleza nos ha dado, pero intentaremos con todas nuestras fuerzas romper los límites de la capacidad humana. ¿Esto nos hará más felices? El tiempo lo dirá.

Sobre los autores: La profesora Ikerbasque Shira Knafo y Miguel Morales son neurocientificos en el Instituto Biofisika (UPV/EHU-CSIC) y colaboran con el departamento de Bioquimica y Biología Molecular de la Facultdad de Ciencia y Tecnología de la UPV/EHU.

El artículo ¿Existe algún fármaco que nos haga más inteligentes? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un nuevo fármaco revierte el déficit cognitivo asociado a esquizofrenia
  2. Máquinas inteligentes (I): Del molino de viento al test de Turing
  3. Máquinas inteligentes (y III): Deep blue, HAL 9000 y más allá
Catégories: Zientzia

Oier Suarez: “Europa osoan ez dago Bardeetan dagoen bezain erregistro fosil hain ona eta jarraia” #Zientzialari (117)

Zientzia Kaiera - ven, 2019/06/14 - 09:00

Antzinako gizaki bizidunek utzitako aztarnak aztertzen ditu paleontologiak, hain zuzen ere, eremu jakin bateko fosilak. Miozeno garaiko fosilak ardatz hartuta informazio ugari lor daiteke gaur egun; hala nola, arroken adina zein den jakin daiteke, baita iraganeko klima eta ingurunea nolakoa zen ere.

Gainera, informazio hori abiapuntutzat hartuta, etorkizunean klimak izango duen joera ere ezagutu dezakegu. Nafarroako Errege Bardeetan, zehazki, fosil ugari aurkitu daitezke eta elementu horiek izan dira Oier Suarez ikertzaileak bere tesian aztertu dituenak. Hala, duela 15 eta 20 milioi urteko aztarnak ikertu ditu, Miozeno garaikoak.

Fosil horien azterketan gehiago sakontzeko, UPV/EHUko Estratigrafia eta Paleontologia saileko ikertzaile den Oier Suarezekin hitz egin dugu.

“Zientzialari” izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.

The post Oier Suarez: “Europa osoan ez dago Bardeetan dagoen bezain erregistro fosil hain ona eta jarraia” #Zientzialari (117) appeared first on Zientzia Kaiera.

Catégories: Zientzia

Piensa bien y acertarás: los casos de Pfizer e Isdin

Cuaderno de Cultura Científica - jeu, 2019/06/13 - 11:59

En el periodo de una semana los grandes medios de comunicación difundieron informaciones falsas en contra de dos importantes laboratorios farmacéuticos: Isdin y Pfizer. Isdin fue acusado de comercializar un producto de protección solar pediátrica con un SPF menor al indicado. Pfizer fue acusado de ocultar pruebas que indicaban que uno de sus fármacos previene el alzhéimer.

Cuesta encontrar alguna razón coherente por la que estos laboratorios tendrían interés en engañar con un factor de protección solar o en ocultar ni más ni menos que un fármaco contra el alzhéimer. Sin embargo, estas informaciones falsas fueron reproducidas en los principales medios de comunicación en televisión, radio, prensa y redes sociales. Ante informaciones tan descabelladas como estas, deberían saltar todas las alarmas de que estamos ante fake news. Sí, estamos ante fake news, pero muchos lo pasaron por alto.

Ni Isdin, ni ningún otro laboratorio, mienten acerca del factor de protección solar

Ningún producto cosmético puede salir al mercado indicando un factor de protección solar si antes no ha sido validado por las autoridades sanitarias.

Cualquier producto cosmético en el que se indique un factor de protección solar (SPF), sea de la magnitud que sea, ha tenido que certificarlo ante las autoridades sanitarias mediante ensayos clínicos tipificados. En el caso de España, el resultado de estos ensayos clínicos ha de ser validado por la Agencia Española del Medicamento y el Producto Sanitario (AEMPS). Una vez validados los resultados del ensayo clínico, el laboratorio puede incluir en indicativo del SPF correspondiente en su producto. Estos ensayos se hacen producto por producto, individualmente y en el producto acabado.

Para certificar el SPF se hace un ensayo in vivo, el generalmente tipificado bajo la norma ISO 24444:2010 (equivalente al International Sun Protection Factor Test Method o método COLIPA). En este ensayo se cubre una zona de piel con el producto a evaluar a razón de 2 mg/cm2. Se mide por cuánto se multiplica el tiempo de exposición a la radiación UV hasta la aparición de enrojecimiento o eritema con y sin el producto aplicado. La principal radiación responsable de las quemaduras (eritemas) es la UVB, por eso el SPF es realmente una medida de protección contra la radiación UVB. Así, un SPF 30 significa que se multiplica al menos por 30 el tiempo al que la piel puede estar expuesta al sol sin sufrir quemaduras. Un SPF 50+, que actualmente es el mayor factor de protección solar, indica que la protección ante las quemaduras dura por encima de 50 veces más que la piel sin protección. Los productos pediátricos suelen tener SPF 50+.

La validación por parte de la AEMPS y el coste del ensayo clínico, que no es precisamente barato, es el mismo para cualquier SPF.

Para certificar la protección frente a la radiación UVA, el llamado UVA-PF, se hace un ensayo diferente, generalmente el tipificado bajo la norma ISO 24443:2012 (equivalente in vitro al PDD, Persistent Pigment Darkening). El PDD se calcula por medio del cociente entre la dosis mínima de UVA necesaria para inducir un oscurecimiento pigmentario persistente de la piel protegida por un producto de protección solar y la dosis mínima de UVA necesaria para inducir el oscurecimiento mínimo de la misma piel sin proteger. Si el cociente entre el SPF y el UVA-PF es de 1/3 o inferior, el fabricante podrá incluir el indicativo de protección solar frente al UVA. Este indicativo no es numérico, sino el del UVA rodeado con un círculo.

La última semana de mayo de 2019, la Organización de Consumidores y Usuarios (OCU), una organización privada cuyo objetivo es defender los derechos del consumidor, envió una nota de prensa a los medios de comunicación indicando que habían hecho un estudio con 17 productos de protección solar pediátrica, de los cuales dos de ellos no llegaban al SPF indicado. El de los laboratorios Isdin fue el peor parado: según la OCU, uno de sus productos con SPF 50+ solo llegaba a SPF 15. La nota de prensa fue reproducida en los principales medios de comunicación, acaparando la atención durante días.

Isdin hizo públicos los estudios y resultados que certifican que ese producto cumple con el SPF y con el UVA-PF indicados, que en su día fueron facilitados a la AEMPS. La OCU no hizo públicos sus estudios, alegando que no podían desvelar la identidad de su laboratorio. Este dato ya debería ser suficiente para que los medios de comunicación decidiesen no publicar la nota de prensa. En cambio, la nota se publicó sin que nadie antes pudiese comprobar que ese estudio existía o que era veraz.

Si un cosmético es defectuoso, causa algún tipo de alergia o reacción adversa, tenemos la sospecha de que no protege del sol como debería, no tiene buen aspecto u olor… debemos notificarlo. Debemos notificarlo directamente en la AEMPS a través de su servicio de cosmetovigilancia, o podemos notificarlo a personal sanitario, a los distribuidores del producto o en la farmacia. Las farmacias tienen la obligación de notificar cualquier incidencia tanto al laboratorio como a la AEMPS. A partir de ese momento se pondrá en marcha un proceso de análisis del producto para detectar si se trata de una alerta real, de una alerta concreta o bien de una alerta extensible a un lote de productos defectuosos. Si se tratase de una alerta real, se procedería a la retirada inmediata del producto en todos los puntos de venta.

Si un cosmético es defectuoso o tenemos la sospecha de que así lo sea, hay que notificarlo primero y en exclusiva a las autoridades sanitarias, en este caso la AEMPS. Lo que no hay que hacer es enviar una nota de prensa a los medios de comunicación antes de que la AEMPS verifique si estamos ante un producto defectuoso, ni siquiera antes de que la AEMPS decida cuál es la mejor forma de proceder: enviar una circular a los puntos de venta, crear una alerta para que la difundan los medios de comunicación, retirada inmediata del producto, etc. Lo que ha hecho la OCU es precisamente lo que no hay que hacer. Se han saltado el procedimiento y han creado una alerta sin supervisión de la AEMPS. Para más inri, todo esto este disparate fue promovido y agitado por los medios de comunicación.

Pfizer no ocultó un medicamento contra el alzhéimer

El 4 de junio The Washington Post publicaba que el laboratorio farmacéutico Pfizer tenía pistas de que su fármaco superventas podía prevenir el alzhéimer y que las ocultó al mundo. En pocas horas la prensa española reproducía el artículo acompañado de titulares desinformadores y demagógicos. Aunque el cuerpo de la mayor parte de estos artículos era una reproducción del original, algunos medios argüían sobre las posibles razones que llevarían a Pfizer a ocultar tremendo descubrimiento: que si la patente estaba a punto de expirar y no sería rentable, que es más rentable la enfermedad que la cura… Razones absolutamente delirantes. Obviando las cuestiones éticas, descubrir un fármaco que cura o previene el alzhéimer es, a todas luces, muy rentable.

El principio activo del medicamento Enbrel de Pfizer es etanercerp. El etanercerp es una proteína quimérica que inhibe la acción de la TNF-α, una molécula que produce el organismo que promueve los procesos inflamatorios. Esta molécula se lleva comercializando desde 1998 para el tratamiento de la artritis reumatoide por una compañía que desde 2009 pertenece a Pfizer.

Desde hace años sabemos que uno de los síntomas del Alzhéimer es la inflamación, pero desconocemos cuál es el papel de la inflamación en esta enfermedad, y si su supresión palía sus síntomas o si frena su progresión. Esta es una de las líneas de investigación. Es por ello que los antiinflamatorios, entre ellos el etanercerp y otra veintena de moléculas biosimilares a esta, se hayan estudiado como posibles fármacos contra el alzhéimer.

En 2006 se publicó un estudio piloto que evaluó el uso de etanercerp contra el alzhéimer. Aunque los resultados eran altamente preliminares, sí parecían prometedores. Más adelante se descubrió que estos antiinflamatorios curaban el alzhéimer en animales (al menos una réplica de la enfermedad) pero desgraciadamente no funcionaba así con humanos.

En 2015 se hizo el primer ensayo clínico doble ciego, aleatorizado y controlado con placebos, para evaluar el etanercerp contra el alzhéimer. Este estudio fue financiado por Pfizer. Los resultados de eficacia fueron decepcionantes, no distinguibles del placebo. La conclusión del estudio es que el etanercerp no cura ni previene el alzhéimer.

El periodista que escribió para The Washington Post relataba que había llegado a sus manos un power point en el que figuraban datos cruzados de compañías de seguros. Según estos datos, había una menor incidencia de alzhéimer entre personas con artritis reumatoide tratadas con etanercept, que entre personas con artritis reumatoide sin tratar. Se acusó a Pfizer de ocultar esta información. Pero ni siquiera estos datos se ocultaron: en 2016 ya se había publicado un estudio en el que se cruzaban datos de pacientes con artritis reumatoide tratados con etanercept relacionándolos con la incidencia de alzhéimer.

No sabemos si hay una relación causa-efecto, ya que correlación no implica causalidad. La realidad es que, de confirmarse esa relación causa-efecto, solo sería aplicable a personas que padecen artritis reumatoide y con carácter preventivo. No sería ni efectivo ni conveniente para personas sin esta enfermedad. La razón es que los efectos adversos del etanercerp sobre el sistema inmune hacen que sea impensable administrar este fármaco como tratamiento preventivo del alzhéimer. No se puede tratar a personas sanas con inmunosupresores como el etanercerp durante largos periodos de tiempo.

Pfizer declaró ante los medios de comunicación que rechazó continuar esa línea de investigación por razones estrictamente científicas. De hecho, la evidencia científica de la que disponemos nos indica que, desgraciadamente, etanercerp no sirve para prevenir el alzhéimer.

Algunos medios de comunicación acusaron a Pfizer de ocultar datos por razones económicas, en vista de que la patente sobre etanercerp estaba a punto de caducar. Aunque ya hemos visto que no han ocultado ningún dato relevante, tampoco es cierto que la patente estuviese a punto de caducar. La patente de este antiinflamatorio caducó en 2015, así que etanercerp ni siquiera es una molécula propiedad de Pfizer. Sin embargo, en EEUU la patente seguirá en vigor hasta 2028, ya que es propiedad de otra compañía, Amgen, que consiguió una prórroga. De todos modos, si Pfizer o Amgen descubriesen un nuevo uso clínico de la molécula, la patente podría extenderse hasta 20 años más, tiempo más que suficiente como para rentabilizar un descubrimiento de tal envergadura.

Consecuencias de estas fake news

No es la primera vez que los medios de comunicación, la OCU y otras empresas ponen en duda la efectividad y seguridad de los productos cosméticos. Y no es la primera vez que tienen que desdecirse. Ya ocurrió con las cremas solares, con las BB cream, con las hidratantes… Tras analizar estos productos, con metodologías puestas en cuestión por asociaciones como Stanpa, la compañía publica un ranking. Ranking al que solo se puede acceder previo pago de la cuota de socio. Casualmente la “compra maestra” de esos rankings siempre es la de un cosmético de marca blanca, de la misma marca blanca. Aun así, no podemos acusar a la OCU de mantener una relación comercial interesada con la distribuidora de esa marca blanca porque no hay pruebas de ello.

Una de las consecuencias es que el producto de marca blanca bate récord de ventas y se agota en unos días. Otra de las consecuencias es que la OCU recibe muchas visitas y atención por parte de todos los medios de comunicación. Es una gran estrategia de propaganda.

Toda aquella información que corrobora un prejuicio (en este caso en contra de los laboratorios cosméticos) y que nos dice lo que queremos oír (que es tan bueno el cosmético más barato como el más caro) es una garantía de éxito mediático. La realidad es que los productos cosméticos son seguros, funcionan y que, salvo contadas excepciones, cuestan lo que valen. Pero la verdad no genera tantos clics.

El caso reciente de la acusación pública de la OCU hacia los laboratorios Isdin es todavía más intolerable. Poner en cuestión la eficacia de los productos de protección solar tiene unas implicaciones sanitarias fatales. Según la Asociación Española Contra el Cáncer, actualmente tenemos unas muy buenas cifras de concienciación sobre protección solar. Estas cifras peligran cada vez que los medios de comunicación ponen en duda la eficacia de los productos de protección solar. Que los medios de comunicación compartan notas de prensa como las de la OCU, sin tan siquiera ponerse en contacto con expertos, con el laboratorio, con la AEMPS, sin solicitar los estudios que corroboran las acusaciones, es de una enorme irresponsabilidad.

Hay que considerar también las pérdidas económicas. Por un lado para las farmacias y parafarmacias, que es donde se comercializan los productos de Isdin. Por otro lado, Isdin es un laboratorio cosmético muy focalizado en los productos de protección solar. Precisamente esta oleada de desprestigio mediático llega en el momento clave de la campaña de solares. Por poner un ejemplo, el salario de los delegados comerciales de estos laboratorios está sujeto a objetivos, con lo que el descenso en las ventas y las devoluciones repercute directamente en el salario de estos trabajadores. Un descenso en ventas en España, donde este laboratorio es especialmente fuerte, repercutirá en los salarios y puestos de trabajo de muchos profesionales, entre ellos un gran número de científicos. Han ido a dar donde duele y cuando más duele, caiga quien caiga.

La OCU ha manifestado que los estudios sobre protectores solares que han hecho ya están en manos de la AEMPS. Hasta la fecha la AEMPS no ha iniciado ningún procedimiento de retirada de productos. Lo más probable es que los estudios de la OCU no estuviesen bien hechos, como ya ha ocurrido con anterioridad. También podría suceder que hubiese un producto o lote de productos defectuosos. Sea como fuere, esta no es la forma responsable de proceder, ni por parte de la OCU ni por parte de los medios de comunicación.

Con respecto a Pfizer, parece que de momento no ha habido consecuencias económicas reseñables. Las acciones de la compañía no se han visto afectadas por el incidente. La principal consecuencia de todo esto es la imagen desgastada de los laboratorios farmacéuticos, y con ello, de la investigación científica. De un caso anecdótico se ha hecho un juicio generalizado hacia un sector entero.

Con respecto a los medios de comunicación, muchos o no trabajan o trabajan mal. Y quienes leen y comparten lo que estos publican, tienen muy dañado su detector de desinformación.

La noticia de que Pfizer ocultó la cura del alzhéimer es tan rocambolesca como los delirios de los charlatanes que afirman que se ha encontrado la cura del VIH y que se oculta, o la cura del cáncer. Tan inverosímil como que las farmacéuticas son las que crean las enfermedades y otras conspiraciones de similar calibre.

Esta clase de noticias deberían hacer saltar todas las alarmas de detección de fake news. Ante la duda es recomendable preguntarse quién se beneficia. Desde luego no hay beneficio posible para Isdin. Comercializar protectores solares infantiles con menos SPF del indicado no beneficia a nadie, y menos al laboratorio. Si Pfizer hubiese descubierto una cura para el alzhéimer, ocultarlo sería la opción menos rentable. Sobre todo sabiendo lo rentable que sería para el laboratorio que una de sus moléculas sirviese para tal fin. Los únicos beneficiarios posibles son las empresas cuyos ingresos dependen del clic. De ahí el título de este artículo: piensa bien y acertarás. Antes de creer que los laboratorios farmacéuticos son el demonio, al menos parémonos a pensar si hacer el mal les beneficiaría de algún modo. De lo contrario, a cuento de qué iban a engañar. Es una sandez de tal magnitud, que dejar escrito este párrafo me parece una forma de insulto.

Las fake news no solo circulan a través de estrafalarias páginas y grupos de las redes sociales, ni por whatsapp. Las fake news más peligrosas son las que llegan a los grandes medios de comunicación.

La excusa de los medios de comunicación es la precariedad. Por eso se reproducen noticias publicadas en The Washington Post aunque el titular sea fehacientemente demagógico. Por eso se comparten notas de prensa de la OCU aunque no aporten como fuente ni el estudio al que se refieren. Todo esto aderezado con un titular jugoso que garantice un buen número de clics. Mejor pan para hoy.

Ofrecer información de calidad sobre estos temas de índole científica requiere tiempo y, sobre todo, requiere conocimientos de partida. Si eso no se respeta, va a ser imposible salir de esta crisis informativa y reconquistar la confianza.

Solo aquellos que ofrecen información de calidad tienen porvenir. Para los demás, hoy pan y mañana suerte.

Para más información:

La ciencia del protector solar. Deborah García Bello. Fronteras, Cuaderno de Cultura Científica. Junio-agosto de 2018.

No, Pfizer no ha ocultado al mundo un fármaco que cura o previene el alzhéimer (I) y (II). Javier Yanes. Ciencias mixtas, 20 Minutos. 6 y 7 de junio de 2019.

Nota de la autora:

Deliberadamente en este artículo no se han incluido enlaces a las fake news publicadas acerca de Isdin o Pfizer a fin de no contribuir más a su difusión.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Piensa bien y acertarás: los casos de Pfizer e Isdin se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La ciencia perdida: los curiosos casos de los protocolos de TDAH y de leer.es
  2. Los nórdicos no siempre hacen las cosas bien, o sí
  3. Casos de corrupción
Catégories: Zientzia

Hatz-markak, FBI eta Fourier modernizatua

Zientzia Kaiera - jeu, 2019/06/13 - 09:00
Javier Duoandikoetxea Hatz-markek identifikatu egiten gaituzte. Horregatik, hatz-marken bila ibiltzen dira detektibeak delitu bat gertatu den lekuan. Ez da inor harrituko, bada, esaten badugu hatz-marken bilduma erraldoiak daudela polizien artxiboetan.

FBI 1924an hasi zen hatz-markak hartzen. Tintan bustita uzten zuten atzamarrek marka kartoizko fitxetan. FBIk 25 milioi fitxatik gora zituen gordeta 1993an. Ordurako, ordenagailuen erabilera hedatzen hasia zen eta argi zegoen artxibo digitalak izatea onura handikoa izango zela, bai hatz-markak gordetzeko, bai bilaketak egiteko. Hortaz, digitalizazioari ekin zioten.

1. irudia: hatz-markak fitxetan gordetzen ziren lehen. (Argazkia: Alan Levine / CC BY 2.0 lizentziapean)

Garrantzitsua da ahalik eta zehaztasun handienaz ziurtatzea norena den hatz-marka bat. Horregatik, digitalizazioa egiteko hazbete bakoitzeko 500 puntuko irudia aukeratu zuten, 8 byteko kolore grisen eskalan. Horrek hatz-marken fitxa bakoitzetik 10MBko fitxategi bat sortzen zuen. Artxibo osoaren digitalizazioak izugarrizko tamaina hartu behar zuen! Gainera, duela 25 urteko tresnen biltegiratze-gaitasuna gaurkoena baino askoz txikiagoa zen. Zer egin? Aurreko artikulu batean argazkietarako esan genuen moduan, hemen ere konpresioan zegoen gakoa. Gogoan izan konprimatzea fitxategiaren tamaina txikitzea dela eta hori, baliagarria izateko, informazio esanguratsua galdu barik egin behar dela.

Argazkietarako azaldu genuen JPEG konpresio-sistema 1992an kaleratu zen eta horixe erabiltzeko hautua egin zuten FBIko adituek. Hala ere, ez ziren gustura gelditu, konprimatu ondoko irudia ez baitzitzaien egokia iruditu.

Gehienetan, pixel batetik albokora igarotzean kolore-aldaketa txikia egoten da eta hori baliatzen du JPEG sistemak. Horregatik, ertzak dauden tokietan emaitza ez da hain ona, inguruko pixeletan kolore-aldaketa handiak gerta daitezkeelako. Esan daiteke, neurri batean, hatz-marken irudietan ertzak (marrak) direla garrantzia duten bakarrak.

Arazoa gainditzeko, Estatu Batuetako zenbait unibertsitate eta gobernu-agentziatako ikertzaile elkarlanean aritu ziren hatz-marken irudien konpresiora egokitutako algoritmo on baten bila.

Bitarte matematikoa

1984an Yves Meyer matematikari frantsesa Paris-Orsay unibertsitateko irakaslea zen. Lankide fisikari batek artikulu bat erakutsi zion, interesgarria izango zitzaiolakoan. Egileak Jean Morlet eta Alex Grossmann ziren, Elf Aquitaine enpresako ingeniari geofisikaria lehena eta Marseillako unibertsitateko fisikaria bigarrena.

Artikuluak gasa eta petrolioa bilatzeko bide berri bat proposatzen zuen. Lur azpiko gas-poltsak eta petrolioa detektatzeko, uhin bat igortzen da eta zenbait geruza zeharkatu ondoren itzultzen den seinalea aztertuz, barneko konposizioari buruzko informazioa lortzen da. Morletek hori egiteko teknika berri bat aurkeztu zuen eta Grossmannekin landu zuen arlo matematikoa. Ez zuen arrakasta handirik izan enpresan eta, diotenez, Morletek jubilazio aurreratua baino ez zuen lortu. Aitzitik, zientziaren mundutik iritsi zitzaion ospea.

Yves Meyer harrituta gelditu zen artikuluan ikusi zuenarekin: formula ezagunak aurkitu zituen, ederto ezagutzen zuen alor batekoak, eta bide emankorra izan zitekeela iritzi zion. Berak dioenez, Marseillarako trena hartu zuen Grossmannen bila. Urte gutxiren buruan, Meyer eta haren lankide eta ikasleek hasierako urrats baldar haiek teoria matematiko bihurtu zuten.

2. irudia: Alex Grossmann (1930-2019) eta Jean Morlet (1931-2007), 1991n. (Argazkia: Centre de Physique Théorique, Marsellako unibertsitatea)

Fourieren teoria klasikoan funtzio bat garatzeko oinarrizko osagaiak funtzio trigonometrikoak dira. Teoria berrian, oinarrizko osagai horiek aldatu egiten dira eta funtzio ama baten dilatazioak eta translazioak erabiltzen dira. Hori bai, ama horrek propietate egokiak behar ditu erabilgarria izateko. Dena dela, aukera asko daude eta erabileraren arabera zein hartu erabaki daiteke. Horixe bera abantaila bihurtzen da aplikazioetan.

Objektu berriari frantsesez jarri zion izena Morletek: ondelette. Gero, ingelesera heldu zenean, wavelet bihurtu zen eta gehienbat horrela egin du bidea mundu zientifikoan. Erabiltzaile askok mailegua bere horretan (wavelet) hartu badute ere, badira hizkuntza bakoitzari egokitutako terminoak: ondícula (esp.), ondeta (cat.), onduleta (port.), adibidez. Euskaraz, horien antzeko izan daitekeen uhinxka hautatu nuen nik [1].

3. irudia: Stéphane Mallat, Yves Meyer, Ingrid Daubechies eta Emmanuel Candès, uhinxken teoria eta aplikazioen garapenean garrantzi handikoak izan dira. (Argazkia: S. Jaffard, La lettre d’infos du CMLA, 2017ko ekaina)

Fourieren analisi tradizionalak ez ditu ondo antzematen tarte txiki batean gertatzen diren funtzio baten aldaketa handiak, osagai modura erabiltzen dituen funtzio trigonometrikoak ez daudelako lokalizatuta. Uhinxkak, aldiz, lokalizatu egiten dira eta hobeto moldatzen dira funtzioen aldaketa zorrotzak aztertzeko. Gainera, zertan erabili nahi dugun, uhinxka ama egokia hartzea komeni da. Horrek kostu matematiko handiagoa izan dezake eta, aplikatzeko bada, agian kostu ekonomikoa ere, baina nahi edo behar dugun lana hobeto egingo du.

WSQ eta JPEG2000 konpresio-sistemak

Uhinxken teoriak, aurrekari zuen Fourieren serieen teoriak ez bezala, aldi berean jorratu ditu arlo matematiko hutsa eta aplikazioak. Berehala hasi ziren seinaleen prozesamendurako erabiltzen eta ohiko teknikak arlo berrira egokitu ziren. Lehen urrats haietatik mundu errealerako jauziak ez zuen itxaron behar izan. Are gehiago, teoria matematikoa bera elikatu dute aplikazioek, problema berriak plazaratuz.

4. irudia: Ingrid Daubechiesek aurkitutako uhinxka bat erabiltzen da WSQ konpresiorako.

Uhinxkak erabilita asmatu zuten FBIren beharretarako WSQ (Wavelet Scalar Quantization) konpresio-sistema. Libre jarri zuten, gainera, edozeinek erabiltzeko moduan. Matematikoki uhinxka amen bikote bat erabiltzen du, bata deskonposizioa egiteko, eta bigarrena irudia berreraikitzeko. Funtsean, konpresiorako gauza bera egiten da beti: gorde nahi dugun informazioa oinarrizko osagaien (kasu honetan, uhinxken) errezeta baten bidez eman eta garrantzi gutxiko osagaien koefizienteak 0 egin. Horrela, gorde beharreko informazioan 0 asko lortzen dira, eta zeroen zerrenda horiek modu laburrean gordetzeko bideak asmatu dira.

Ez zen horretan geratu uhinxken konpresiorako erabilera. Argazkietarako JPEG asmatu zuen talde berak beste estandar bat sortu zuen uhinxken bidez: JPEG2000. Hau ere erabiltzen da hatz-marken konpresiorako, hazbeteko 1000 puntuko irudiak hartzen direnean. Eta ez horretarako bakarrik: JPEG2000 erabiltzen da zinema digitalean, sateliteek hartzen dituzten irudietan eta irudi medikoen DICOM protokoloan, esaterako.

Fourier modernoa vs. Fourier klasikoa

Fourieren analisia matematika teorikoaren esparruan bizi zen XIX. mendean eta XX. mendearen hasieran. Gero, ordea, mundu errealean erabiltzeko arlo ugari aurkitu zizkioten eta ordenagailuen kalkulu-ahalmena handitzearekin batera are gehiago zabaldu ziren aukerak: seinaleak, soinuak, irudi medikoak, espektrometria, kristalografia, telekomunikazioa, astronomia, ikusmen artifiziala, ahots-ezagutzea…

Uhinxken teoriak, geuk sortzen eta garatzen ikusi dugun arlo berriak, beste bultzada bat eman die aplikazioei. Aipatu dugun hatz-marken kasuan, bide klasikoak baino emaitza hobeak ematen ditu. Beti mereziko du uhinxkak erabiltzea funtzio trigonometrikoen ordez? Ez, egin nahi dugunaren arabera erabakiko dugu. Esaterako, gure argazki-kameretan JPEG erabiltzen dugu, ez du merezi argazki arruntetarako beste konpresio-sistema batera jotzea. Teoria berriak aurrekoa osatu egiten du, ez ordezkatu.

Matematikan gaur egun dagoen saririk handiena Abel saria da. 2017ko saritua Yves Meyer izan zen, “haren funtsezko lanagatik, uhinxken teoria matematikoaren garapenean”.

Oharrak:

[1] Norbaitek mailegua erabili nahiko balu, jatorrizko frantses izenetik hartutako ondeleta hobetsiko nuke, zaila egiten baitzait wavelet euskaraz modu egokian ematea.

Gehiago jakiteko:

——————————————-
Egileaz: Javier Duoandikoetxea Analisi Matematikoko Katedraduna da UPV/EHUn.

——————————————-

The post Hatz-markak, FBI eta Fourier modernizatua appeared first on Zientzia Kaiera.

Catégories: Zientzia

La geometría poética del cubo

Cuaderno de Cultura Científica - mer, 2019/06/12 - 11:59

La sala Kubo Kutxa de Donostia-San Sebastián acoge estos días, desde el 23 de mayo al 25 de agosto de 2019, la exposición LANTEGI, José Ramón Anda, una exposición retrospectiva del escultor navarro José Ramón Anda (Bakaiku, Navarra, 1949), una de las figuras fundamentales de la escultura vasca contemporánea.

El título de la exposición, “lantegi”, es decir, taller en euskera (aunque el término también está relacionado con la gestión de la madera de los árboles en una comunidad, como puede leerse en el catálogo de la exposición), destaca un elemento fundamental para el escultor de Bakaiku, su taller, el lugar en el cual se crea la magia del arte, el espacio en el que José Ramón Anda piensa y trabaja, donde construye sus pequeñas maquetas de arcilla (buztina, en euskera), algunas de las cuales luego se harán mayores realizadas en madera, o en otros materiales, como hierro, bronce, aluminio, hormigón o piedra.

Las personas que tengan el privilegio de visitar su taller en Bakaiku podrán disfrutar de la belleza y originalidad de sus maquetas de buztina, materialización de muchas de las ideas geométrico-escultóricas del artista, y que, aunque nunca se hagan mayores, son hermosas obras de arte por sí mismas.

Fotografía de las maquetas de arcilla/buztina en el taller del escultor navarro José Ramón Anda. Imagen de la página web del artista

Empecemos esta entrada del Cuaderno de Cultura Científica con algunas pinceladas sobre el artista y su obra.

– José Ramón Anda procede de una familia de tallistas y ebanistas, lo cual explica su profundo conocimiento de la madera, su respeto hacia ella y la delicadeza con la que la trabaja. Este es el material fundamental con el que realiza su trabajo el escultor de Bakaiku. Normalmente madera de los montes de Urbasa y Aralar, en Navarra, como roble, nogal, boj, castaño, tejo, cerezo o plátano.

– Estudió en la Escuela Superior de Bellas Artes de San Fernando (Madrid), entre los años 1970 y 1974. Después obtuvo una beca para completar su formación en la Academia Española de Bellas Artes de Roma, donde conectó con destacados artistas italianos contemporáneos, como Giacomo Manzú, Marino Marini y Arturo Martini, y una beca del Ministerio de Cultura, para la promoción de las Artes Plásticas y la Investigación de nuevas formas expresivas. Además, durante algún tiempo fue profesor de la Escuela de Bellas Artes de la Universidad del País Vasco.

– Entre las referencias artísticas de José Ramón Anda podemos citar como fundamental al artista suizo Max Bill (1908 – 1994), uno de los máximos exponentes del arte concreto, o al escultor rumano Constantin Brancusi (1876 – 1957). Así como a los escultores vascos Jorge Oteiza (1908 – 2003) y Eduardo Chillida (1924 – 2002), máximos representantes de la Escuela Vasca de Escultura, en la que podemos enmarcar también al escultor navarro.

– Dentro de su arte conviven dos grandes corrientes artísticas como son la abstracción geométrica, con una fuerte influencia del arte concreto (recordemos que este movimiento propone que el arte debe ser creado enteramente en la mente humana, sin referencias externas, no debe inspirarse en la naturaleza, la sensualidad o el sentimentalismo, utilizando las matemáticas –en particular, elementos geométricos básicos como el cuadrado, el círculo y el triángulo– como herramienta creativa), y la escultura orgánica, en la cual la naturaleza y sus formas, en particular, la madera, como material e inspiración, reivindican su importancia.

Escultura Ikutu/Tocar (2007 – 2012), realizada cn madera de roble, tejo, boj y nogal, del artista José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl Ibáñez

Siento una profunda admiración por la obra escultórica de José Ramón Anda, quizás por mi doble condición de persona interesada por el arte contemporáneo y matemático, lo cual me ha animado a compartir en esta entrada del Cuaderno de Cultura Científica, que espero se convierta en una serie, mi visión personal de su trabajo artístico.

Muchas son las referencias geométricas y matemáticas que nos encontramos en la obra del escultor navarro, aunque en esta entrada vamos a centrarnos en la figura geométrica del cubo. Este, aparentemente, sencillo objeto, símbolo de las tres dimensiones del espacio, ha sido fundamental, pero sobre todo una rica herramienta de creación artística, en el arte de José Ramón Anda. Empezó a trabajar con el mismo en los últimos años de su formación, cuando empezaba a dar sus primeros pasos en la abstracción geométrica, y continúa trabajando en la actualidad. A lo largo de todo este tiempo, este genial escultor ha investigado, desde diferentes perspectivas, la estructura geométrica que subyace a la figura del cubo, en particular, distintas descomposiciones del mismo, así como sus posibilidades plásticas.

De este análisis del cubo surgen obras muy dispares, como Descomposición del cubo (1973), Nahi eta ezin [Querer y no poder] (1975), Zazpiak bat [Las siete, una] (1976), Preso jaioa [Nacido preso] (1978), Homenaje a Juan de Antxieta (1979 – 1986), Haizean [Al viento] (1978 – 2002) Pilotara [A la pelota] (1980), Basaldeko ateak [Las puertas del bosque] (2011 – 2017), o Acotar el vacío I, II y III (2019), entre otras, así como una gran cantidad de potentes maquetas de buztina.

Escultura Nahi eta ezin [Querer y no poder] (1975), de José Ramón Anda, en posición cerrada, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl IbáñezEscultura Nahi eta ezin [Querer y no poder] (1975), de José Ramón Anda, en posición abierta en la que se ve una esfera en su interior, en la exposición LANTEGI, José Ramón Anda, en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl IbáñezDos de las primeras descomposiciones del cubo en las que trabajó el artista, en el año 1973, son las siguientes. Para entenderlas bien, debemos de pensar en el cubo como formado por 27 cubos pequeños, es decir, cada lado del cubo está formado por 3 de estos cubos (siendo el cubo grande una estructura 3 x 3 x 3), como ocurre, por ejemplo, en el cubo de Rubik, y podemos pensar que las piezas de la descomposición están formadas por la unión de algunos de estos cubos pequeños (este tipo de piezas se conocen en matemáticas como “policubos”).

Estas dos descomposiciones del cubo cuentan con tres piezas cada una, dos exteriores e iguales entre sí (simétricas), con 7 cubos pequeños cada una, y una interior, comprendida entre las dos anteriores, con 27 – 14 = 13 cubos pequeños. En ambos casos, los dos elementos exteriores están formados por tres lados del cubo, representando las tres dimensiones del espacio, y colocados en posición simétrica respecto al centro.

En una de las descomposiciones (véanse las imágenes siguientes) cada una de las piezas externas son tres lados que convergen en un mismo vértice, que nos recuerda la típica imagen de los ejes x, y, z, que confluyen en el origen, en el espacio de coordenadas cartesianas tridimensional. Y cada una de las dos piezas está apoyada en vértices opuestos, de forma que no se tocan entre sí.

Primera maqueta de arcilla de una descomposición del cubo en tres piezas, dos exteriores y una interior, realizada por José Ramón Anda, en el año 1973, y que forma parte de las maquetas del taller del artista. Fotografías de Raúl Ibáñez

En la otra descomposición del cubo, los dos elementos exteriores están formados también por tres lados cada uno, pero son elementos “continuos”, sin puntos “múltiples”.

Segunda maqueta de arcilla de una descomposición del cubo en tres piezas, dos exteriores y una interior, realizada por José Ramón Anda, en el año 1973, y que forma parte de las maquetas del taller del artista. Fotografías de Raúl Ibáñez

Las dos descomposiciones gozan de una cierta simetría, aunque quizás encierra una mayor simetría la primera de ellas. Por ejemplo, si nos fijamos en la pieza central (en la imagen de abajo he reproducido ese elemento central con piezas cúbicas del material LiveCube y lo he colocado tumbado respecto a la primera imagen en la que se mostraba) tiene una simetría rotacional de 120 grados respecto a un eje que pasa por el centro y es perpendicular a la mesa en la que se apoya, es decir, si la giramos un tercio de vuelta sobre la mesa en la que se apoya, la pieza se queda colocada de la misma forma (aparentemente, en la misma posición), además de una simetría rotacional de 180 grados, respecto a un eje perpendicular al anterior (eje izquierda-derecha en la imagen), es decir, si damos la vuelta a la pieza de la imagen queda, de nuevo, la misma forma (aparentemente, en la misma posición).

Pieza central de la primera descomposición del cubo, que posee dos tipos de simetrías rotacionales, de 120 grados y de 180 grados

Mientras que el elemento central de la segunda descomposición (de nuevo, lo he realizado con las piezas del LiveCube) si lo tumbásemos podríamos ver que tiene dos simetrías rotacionales similares a las anteriores, pero ahora ambas de 180 grados (media vuelta). Aunque quizás lo más peculiar estéticamente es que esta pieza está formada por dos partes con direcciones perpendiculares (en la imagen la parte de arriba está dispuesta en dirección izquierda-derecha, mientras que la de abajo, lo está en la dirección adelante-atrás), es decir, está como retorcida.

Pieza central de la segunda descomposición

Jose Ramón Anda se percató de que esta segunda descomposición le brindaba una mayor riqueza plástica y realizó la obra Descomposición del cubo (1973), de un tamaño de 19 x 18 x 18 centímetros. Esta escultura tiene algunas peculiaridades importantes, que han seguido formando parte de su filosofía artística. La primera peculiaridad de esta obra de arte, que comparten muchas de las obras de este escultor vasco, es que se puede, y se debe, tocar, no es solamente una escultura estática para ser admirada. Pero, de hecho, no solo se puede tocar, como ocurre con muchas otras esculturas (por ejemplo, más arriba hemos mostrado una obra que lleva por nombre Ikutu/Tocar, invitando a las personas a que la toquen para poder captar la esencia de esa escultura), sino que se pueden mover los tres elementos que la componen, invitando al público a que los disponga de la manera, o maneras, que le parezcan estéticamente más bellas o sugerentes. Es decir, la escultura se transforma en una obra dinámica, en un “juego” artístico que requiere que el público no sea meramente un espectador, sino que tome una actitud activa ante la creación artística.

Escultura Descomposición del cubo (1973), realizada en madera de roble, del artista navarro José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl Ibáñez

La obra está formada por tres elementos geométricos que interaccionan entre sí, pero José Ramón Anda no elige una relación estética fija entre ellas para crear una obra impactante y única, sino que crea una obra que es al mismo tiempo todas las variaciones posibles, tanto las que se le han podido ocurrir a él mismo, como las que se les han ido ocurriendo a todas las personas que han interaccionado con la misma, e incluso, las que están por venir, que existen solo en potencia.

Precisamente, en la exposición LANTEGI, José Ramón Anda, en la Sala Kubo Kutxa, en la que está expuesta esta genial obra de arte, se incluye una serie de fotografías, del fotógrafo Juantxo Egaña, con una serie de posiciones de las tres piezas de la escultura de una enorme potencia estética, de una gran belleza. La escultura del artista de Bakaiku son todas ellas, y muchas más.

Fotografía del interior de la cubierta del catálogo de la exposición LANTEGI, José Ramón Anda (Sala Kubo Kutxa, 2019), que incluye 30 fotografías, de Juantxo Egaña, con otras tantas variaciones de la escultura Descomposición del cubo (1973), de José Ramón Anda

El recorrido artístico de esta descomposición del cubo no termina con esta escultura, sino que José Ramón Anda, consciente de las posibilidades plásticas que esta le brinda, sigue trabajando con la misma.

Los tres elementos de la descomposición son piezas “rectas”, con ángulos de noventa grados, ángulos rectos. El artista suaviza esos ángulos creando piezas más suaves y redondeadas, lo que confiere a la descomposición un mayor dinamismo. Después de alguna pieza intermedia, realiza una escultura muy potente, Homenaje a Juan de Antxieta (1979 – 1986), con una versión en bronce de 1979, de un tamaño de 33 x 33 x 33 centímetros, y una versión en piedra caliza de Lastur, de un tamaño aproximado de 2 x 2 x 2 metros, que se instala en 1986 en el Parque de Irubide (Pamplona).

Escultura Homenaje a Juan de Antxieta (1979), realizada en bronce, de José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl Ibáñez

La siguiente serie de obras que surgen de esta peculiar descomposición del cubo tienen como protagonista a la pieza central tras la eliminación de los ángulos, que la convierten en una pieza curva retorcida. José Ramón Anda continúa trabajando con esa pieza central redondeada, seguramente con el objetivo de extraer la esencia de la forma de la misma, y decide “adelgazarla” transformándola en una superficie, que resulta ser lo que, en la parte de las matemáticas conocida como “geometría diferencial de superficies”, se conoce como una superficie de curvatura (de Gauss) negativa, y como consecuencia, una superficie llamada de doble curvatura. Esa superficie nos recuerda, por esa propiedad geométrica de la curvatura, a otra de curvatura negativa muy importante en Arquitectura (por ejemplo, en la obra del arquitecto catalán Antoni Gaudí (1852 – 1926)), el paraboloide hiperbólico, aunque sean superficies diferentes.

Superficie de un paraboloide hiperbólico, realizada con el programa Python por Nicoguaro para Wikimedia Commons

Expliquemos de forma visual qué significa que la superficie sea de curvatura (de Gauss) negativa. Significa que para cada punto de la superficie (aunque se observa muy bien en el punto central, tanto en la imagen anterior del paraboloide hiperbólico, como en las siguientes esculturas generadas por la superficie que se obtiene de la pieza central de la descomposición del cubo), si se toma el plano tangente a la superficie en dicho punto (en el centro del paraboloide hiperbólico de la imagen es el plano horizontal), parte de la superficie queda a un lado de la misma y parte al otro. Más aún, existe una dirección (en el punto) en la que la superficie es cóncava y otra, perpendicular a la anterior, en la que es convexa. Es decir, que en cada punto parte de la superficie se dobla en un sentido (en la imagen del paraboloide hiperbólico, si estamos en el centro, en una dirección la superficie se curva hacia arriba, sería cóncava), mientras que otra parte, perpendicular a la anterior, se dobla en el sentido opuesto (en el centro del paraboloide sería la parte que se curva hacia abajo, convexa).

En una superficie de curvatura (de Gauss) positiva, como es la esfera, no ocurre lo anterior, sino todo lo contrario. En cada punto de la esfera, esta queda situada por entero a un lado de su plano tangente. Es decir, esta siempre se dobla, se curva, en el mismo sentido, siempre “alejándose” (convexa), si se mira desde fuera, o siempre “acercándose” (cóncava), si se mira desde dentro.

Por otra parte, para explicar esta serie de obras necesitamos tener en cuenta dos aspectos más. El primero es la importancia de la cultura vasca para el artista de Bakaiku y su interés por el juego de la pelota mano, o pelota vasca, en el cual el objeto central del juego es la pelota, es decir, un objeto esférico, lo cual nos enlaza con la segunda cuestión que quería mencionar, a la figura geométrica del cubo se le añade ahora la de la esfera. Para generar esta serie de obras el escultor introduce mentalmente la superficie obtenida a partir de la pieza central en una esfera imaginaria y se queda solo con lo que está dentro, es decir, el borde de la superficie es una curva dentro de la superficie esférica.

Esta es la forma que José Ramón Anda utiliza en las siguientes esculturas, Airean (omenaldia pilotara) [Al aire (homenaje a la pelota)] (1978 – 2000), realizada en aluminio, Pilotara [A la pelota] (1980), realizada en madera de boj, y la escultura pública Haizean [Al viento] (1978 – 2002), realizada en acero y aluminio, que se encuentra instalada en la plaza del Trinkete, en Tolosa (Gipuzkoa).

Escultura Pilotara [A la pelota] (1980), realizada en madera de boj, del escultor navarro José Ramón Anda. Imagen perteneciente al catálogo de la exposición José Ramón Anda. Causa formal y materia – Kausa formala eta materia, que tuvo lugar en el Museo Oteiza, en 2017Escultura pública Haizean [Al viento] (1978 – 2002), realizada en acero y aluminio, instalada en la plaza del Trinkete, en Tolosa. Imagen de la página web del artistaLos nombres de estas esculturas, Airean [Al aire] o Haizean [Al viento] describen otra peculiaridad de estas obras, que son esculturas móviles, es decir, que se mueven con el aire o el viento, dando vueltas alrededor de su eje vertical. Más aún, cuando la superficie de Anda gira media vuelta, con el viento, está generando toda la esfera. Es decir, que si viésemos juntas todas las posiciones de la superficie en ese giro veríamos realmente la esfera.

Pero existe otra serie de esculturas más recientes que tienen como idea generadora la descomposición del cubo analizada en esta entrada. José Ramón Anda regresa a la idea matriz, a la descomposición del cubo originaria, pero fija ahora su atención en los laterales de las piezas de la descomposición, trabajando a partir de algunos de ellos para crear obras tan impactantes y singulares como las siguientes.

Esculturas Basaldeko ateak [Las puertas del bosque] (2011 – 2017), del artista José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl IbáñezEscultura Acotar el vacío III [Hutsa mugatzea III] (2019), del artista José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Raúl IbáñezConjunto de obras Acotar el vacío I, II y III [Hutsa mugatzea I, II eta III] (2019), del artista José Ramón Anda, en la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián. Fotografía de Juantxu EgañaLa otra descomposición del cubo vista en esta entrada también formó parte de una escultura, en concreto Pesadilla de mili (1979), en la cual permanecen las dos piezas exteriores, mientras que la pieza interior es sustituida por una masa informe que representaría el cerebro de la persona que ha ido a la mili. Esta escultura se basa en la maqueta de arcilla que se muestra a continuación.

Maqueta de buztina, base de la obra Pesadilla de mili (1979), de José Ramón Anda

En mi siguiente colaboración en la sección Matemoción del Cuaderno de Cultura Científica continuaremos analizando las diferentes investigaciones plásticas de José Ramón Anda sobre la geometría del cubo, así como las esculturas, o maquetas de buztina, que ha realizado a partir de las mimas.

Fotografía de Juanjo Egaña con algunas de las esculturas de la exposición LANTEGI, José Ramón Anda (2019), en la Sala Kubo Kutxa, de Donostia/San Sebastián, entre las que destacan, en el centro, dos versiones de Ikusmira [Perspectiva]No me gustaría terminar esta entrada sin expresar mi más profundo y sincero agradecimiento a José Ramón Anda, por las interesantes conversaciones que hemos mantenido, desde que nos conocimos hace unos años, sobre su obra artística y la relación de la misma con la geometría y las matemáticas, así como por permitirme utilizar las imágenes de sus bellas e impactantes esculturas en esta publicación.

Bibliografía

1.- Jose Ramón Anda (escultor), Javier Balda (comisario), Lantegi, José Ramón Anda (catálogo), Sala Kubo Kutxa (Donostia-San Sebastián), 23 de mayo – 25 de agosto de 2019, Kutxa Fundazioa, 2019.

2.- Página web de la Sala Kubo Kutxa

3.- Página web del artista José Ramón Anda

4.- Jose Ramón Anda (escultor), Javier Balda (comisario), José Ramón Anda. Causa formal y materia – Kausa formala eta materia, Museo Oteiza (Alzuza, Navarra), 21 de junio – 1 de octubre de 2017, Fundación Museo Oteiza, 2017.

5.- Jose Ramón Anda (escultor), Javier Balda (comisario), José Ramón Anda, Denboraren aurkako formak, Formas contra el tiempo, Museo de Bellas Artes de Bilbao, 7 de mayo – 9 de septiembre de 2012, Museo de Bellas Artes de Bilbao, 2012.

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo La geometría poética del cubo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El cubo soma: diseño, arte y matemáticas
  2. La geometría de los ‘cristaloides’, según Léopold Hugo
  3. La botella de Klein: geometría ‘palindrómica’
Catégories: Zientzia

‘Infernuan’ ere bizia garaile ateratzen dela egiaztatu dute

Zientzia Kaiera - mer, 2019/06/12 - 09:00
Juanma Gallego Planetako toki muturrenetakoa den Dallol basamortuan mikroorganismoak aurkitu dituzte, mineralez osatutako kapsuletan sartuta. Tenperatura altuak, gatza eta azidotasuna, horiek dira bizidun ñimiño hauek gehien gustuko dituzten baldintzak.

Uda hurbiltzen den aldiro munduko bulego gehienetan dagoen eztabaida da. “Haize girotua ipini”. “Igo, mesedez”. “Jaitsi”. “Ireki leihoa, haize girotuari alergia diot”. “Eta nik alergia polenari”. “Itxi, arren, euliak sartzen dira eta”. “Ezetz ba, bestela hau infernua da”. Halako egoera batean zure burua ikusten duzun hurrengoan, pentsa gauzek txarrenera jo lezaketela. Kaferako tartean hain jatorra den lankide horren ordez filia hirukoitza duen arkeobakterio bat izan zenezake alboan. Baina arkeobakterio itxurako lankidea ez da arazo bakarra: 30 gradu horiek beharrean, 50-60 gradu izango zenituzke; eta, kafearen ordez… tira, azido sulfhidrikoaren antzeko edaberen bat.

Bulego hori daukate organismo estremofiloen bila ari diren zientzialariek, landa lanean daudenean bederen. Etiopiako Afar eskualdean kokatuta dagoen Dallol basamortuaz ari gara, Dalakill sakonunean. Planetako eskualde muturrenetakoa da bertakoa, eta tenperatura ez da, inolaz ere, arazo bakara. Azidotasun handiko eremua da ere, pH eskalan zerotik gertu edo balio negatiboetan, hain zuzen; eta, hori gutxi balitz, gazitasun altua dago bertan.

1. irudia: hiru plaka tektonikoren artean egoteagatik, eta iraganean Itsaso Gorriak bertan gatza utzi zuelako, oso baldintza bereziak daude Dallol eskualdean. Hala izanik ere, bertan bizia aurkitzea lortu dute. (Argazkia: A. Savin / WikiCommons)

Planetaren indarrek sortu dituzte baldintza berezi horiek. Hiru plaka teknotikok bat egiten dute bertan, eta horregatik bertako lurrazala oso mehea da, 15 bat kilometrokoa. Historia geologikoan Itsaso Gorriak egin dituen joan-etorriek utzi dute zorua gatzez beterik. Azkenik, errezeta osatzeko, azpian magma beroa dago. Ura lurpean sartzen denean, magma horrekin topo egitean berehalakoan berotu eta askatu egiten da, tximinia hidrotermalen bidez. Urarekin batera doazen mineral eta gatz guztiak askatzen dira, eta bilduta geratzen dira bertan, paleta koloretsu bezain pozoitsua sortuz.

2015ean Martek duela 3.000 milioi urte zituen antzeko baldintzen analogoaren bila joana zen bertara CAB Madrilgo Astrobiologia Zentroko zientzialari talde bat; baldintza zail horietan ikerketa tresnak jarri dituzte eta aurkikuntza garrantzitsua egin dute: muturreko baldintza hauetan muturreko bizia ere badago. Scientific Reports aldizkarian kontatu dute.

Zehazki, geruza koloretsu horretako lehen milimetroetan aurkitu dituzte mikroorganismoak, mineralez osatutako oskola bitxi batzuetan txertatuta. Hala egonik, fosilak direla ematen du hasiera batean, baina orain egiaztatu ahal izan dute nanobakterioak direla. Horietatik, batzuk ohiko bakterioak baino askoz txikiagoak dira, 50 nanometro ingurukoak. Lehen aldia da bertan bizia aurkitzen dena, eta, gainera, oso bizi berezia da. Zenbait haloarchaearen antzekoak dira, baina ez dira haloarchaeak. Horregatik uste dute mikroorganismo berriak izan daitezkeela, momentuz hori zientzia-artikulu baten bitartez demostratzeko modurik izan ez badute ere. Termo-halo-azidofiloak dira, hurrenez hurren beroan, gazitasunean eta azidotasunean moldatzen direlako. Haien metabolismoari dagokienez, konposatu inorganikoen oxidazioa egiten dute “elikatzeko”, bereziki burdina eta sufrea.

CAB zentroko ikertzaile Felipe Gomezek aurkikuntzari buruzko azalpenak eman ditu La mecánica del caracol irratsaioan. “Kontua ez da bakterioak inguru horretara egokitu direnik; osterantzean, kontua da hori dela bakterio hauek duten egoerarik hoberena; haien optimoan daudela, hain zuzen”.

2. irudia: SEM eta TEM motako mikroskopia elektronikoa baliatu dute harrian txertatutako bakterioak ikertzeko. Txikienek 50 nanometroko luzera dute. (Irudia: CAB)

Gauzak horrela, aurkikuntzak bizigarritasunaren mugak ulertzeko beste aurrerapauso bat da hau. Gomezek azaldu duenez, erronka zaila da horrelako inguruetan izaten diren prozesuak ikertzea, ohiko kimikaren mugan ere daudelako. Gogora ekarri du zientzia komunitatean aspaldi piztu zen eztabaida bat, Antartikan aurkitutako ALH84001 meteoritoaren harira. “Meteorito horretan aurkitutakoa fosila ez zela esateko argudiorik handiena izan zen estruktura horiek txikiegiak zirela bizia bertan kabitzeko”, azaldu du adituak. Haren irudikoz, orain egindako aurkikuntzak babesten du biziak halako estrukturak sor litzakeela. Norabide horretan, aitortu du aukera bat dela etorkizunean meteoritoak berraztertzea, antzeko estrukturak aurkitzeko esperantzan, baina ezbaia asko sortzen duen gaia denez, ez dutela aipatu zientzia-artikuluan.

A hombros de gigantes irratsaioan ikerketa prozesuan jarraitu duten ibilbidean sakondu du Gomezek. Oso protokolo zuhurrak erabili behar izan dituztela nabarmendu du. Mikroskopia elektronikoa erabili dute, eta modu horretan ikusi ahal izan dute mintzen geruzak badirela. Azkenik, DNA erauzteko eta sekuentziatzeko gai izan dira. Izan ere, zientzia-artikuluaren ebaluatzaileak eskatu zien baieztatzea bakterio horiek jatorrizkoak zirela eta bizirik zeudela. Horretarako, in situ hibridazioa egin zuten. Teknika horrek DNA-zundak erabiltzen ditu, ezaguna den kanpoko DNA sartuta, laginaren DNAren azido nukleikoekin batu dadin; ikertzaileek hibridazio horren emaitza ikus dezakete, kolore jakin batzuen arabera. “Bakterioa metabolizatzen ari denean baino ez da gertatzen hibridazio hori”, argitu du CABeko adituak.

Mikroorganismo horiek tximinia hidrotermal batean aurkitu izanagatik, bizitza estruktura horietan sortu zelako hipotesia babesten dutenentzako beste argudio bat da. Unibertsoan bizia topatzeko esperantza ere sustatzen du aurkikuntzak, noski. “Estremofiliaren munduan izan dudan esperientziak esaten dit ur likidoa egonez gero bizia badagoela; beste parametroek ez dute axola”, esan du Gomezek. “Faktore nagusia da bizirako beharrezkoak diren erreakzio kimikoak ahalbidetuko duen disolbagarri bat egotea”.

Erreferentzia bibliografikoa:

Gómez, F. et al., (2019). Ultra-small microorganisms in the polyextreme conditions of the Dallol volcano, Northern Afar, Ethiopia. Nature Scientific Reports, 9, 7907. DOI: https://doi.org/10.1038/s41598-019-44440-8

———————————————————————————-

Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.

———————————————————————————-

The post ‘Infernuan’ ere bizia garaile ateratzen dela egiaztatu dute appeared first on Zientzia Kaiera.

Catégories: Zientzia

El modelo atómico de Thomson

Cuaderno de Cultura Científica - mar, 2019/06/11 - 11:59

¿Cómo es el átomo? A principios del siglo XX se disponía de suficiente información química y física para que muchos físicos pudieran diseñar modelos de átomos. Se sabía que las partículas negativas con propiedades idénticas (electrones) se podían obtener de muchas sustancias diferentes y de diferentes maneras. Esto sugería que los electrones son componentes de todos los átomos.

Pero los electrones están cargados negativamente mientras que las muestras de un elemento son eléctricamente neutras. Por lo tanto, los átomos que constituyen tales muestras también serán probablemente eléctricamente neutros. Si es así, y en los átomos hay electrones con carga negativa, esto indicaría que en un átomo es necesaria la presencia de una cantidad igual de carga positiva.

Mencionamos al hablar de los electrones como las partículas de los rayos catódicos que los átomos de hidrógeno tienen unas 1800 veces más masa que los electrones, que tienen una masa de 9,109·10-31 kg. De aquí se sigue que los electrones constituyen una parte muy pequeña de la masa total de un átomo.

Así pues, cualquier modelo de átomo que se proponga debía tener en cuenta la siguiente información:

  • un átomo eléctricamente neutro debe contener la misma cantida de cargas positivas y negativas:
  • la carga negativa está asociada con solo una pequeña parte de la masa total del átomo, y la aportan los electrones

Adicionalmente cualquier modelo atómico tenía que ser capaz de responder a dos preguntas básicas:

  1. ¿Cuántos electrones hay en un átomo? [1]
  2. ¿Cuál es la disposición de los electrones y la carga positiva en el átomo?

Durante los primeros 10 años del siglo XX se propusieron varios modelos atómicos, pero ninguno fue satisfactorio. Hasta 1911, el modelo más popular para el átomo fue el propuesto por J.J. Thomson en 1904. Thomson sugirió que un átomo consistía en una esfera de electricidad positiva en la que se distribuía una cantidad igual de carga negativa en forma de pequeños electrones. A partir de los estudios electroquímicos a lo largo del XIX y por los realizados con radiación X [2], la cantidad de carga positiva en cada átomo se supuso que era igual al número atómico del átomo Z (un número entero) multiplicado por la magnitud de la carga del electrón e, es decir, la carga positiva de un átomo es igual a Z·e. Para cumplir con la condición de que el átomo sea eléctricamente neutro debe haber un número igual de electrones cargados negativamente.

Con estas suposiciones, el átomo de Thomson era como un «pudín de pasas» de electricidad positiva, con los electrones negativos esparcidos en él como ciruelas o pasas. Así, el hidrógeno (Z=1) consistía en un electrón, carga -1e, incrustado en una esfera de carga positiva +1e. El helio (Z=2) consistía en dos electrones incrustados en una esfera de carga positiva +2e, y así sucesivamente.

Modelo de pudin de pasas para los seis primeros elementos. Fuente: Cassidy Physics Library

Thomson asume en este modelo que «la masa del pudin» positiva actúa sobre los electrones negativos, manteniéndolos en el átomo solo por fuerzas eléctricas [3] y que el radio de los átomos tendría que ser de un orden de magnitud de 10-10 m, basándose para ello en información de la teoría cinética de los gases [4] y otras consideraciones.

Sin embargo, Thomson no podía explicar cómo se mantenía unida «la masa del pudin» positiva, ya que lo que se sabía de electricidad indicaba que debería desmoronarse debido a la repulsión eléctrica. Tampoco podía explicar las propiedades químicas ni el sistema de periodos.

Se requería mucha más información experimental y un nuevo concepto radical, el concepto de cuanto de energía, para construir un modelo del átomo mucho más satisfactorio. Este concepto se introdujo mediante el uso de los resultados obtenidos al estudiar un conjunto de problemas completamente diferente, la radiación térmica y el enigma del efecto fotoeléctrico, de eso se encargarían Max Planck y Albert Einstein [5].

Notas:

[1] Démonos cuenta que a principios del siglo XX la respuesta a esta pregunta no era en absoluto evidente. Menos cuando aun había gente que negaba la existencia de los átomos. Recordemos que hasta 1908 no se demostró más allá de toda duda razonable su existencia, como vimos aquí.

[2] Volveremos sobre esto más adelante en la serie.

[3] Hoy sabemos que en un átomo actúan fuerzas adicionales además de las eléctricas.

[4] Véase a este respecto El tamaño de las moléculas

[5] No nos olvidaremos de Rutherford. Baste mencionar ahora que el modelo atómico de Rutherford no es más que un caso particular del de Thomson.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo El modelo atómico de Thomson se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. 1913-2013: del modelo atómico de Bohr al Higgs
  2. Del modelo estándar
  3. La ley del gas ideal a partir del modelo cinético
Catégories: Zientzia

Karea: etxetresnen erraiak jaten dituen piztia

Zientzia Kaiera - mar, 2019/06/11 - 09:00
Ainhoa Lekuona eta Sara Pavo Esan ohi da Euskal Herriko ura kalitate onekoa dela inguruko herrietakoekin alderatuta. Jakina da gainera hemengo ura biguna izatea dela horren gakoa. Hala ere, zer eragiten ote du egunerokoan iturriko ura biguna edo gogorra izateak?

Ur bigunaren onurak baino ezagunagoak izango dira ziur aski ur gogorrak etxetresnetan zein industrian eragiten dituen kalteak. Kalte horietako bat, esaterako, karearen metaketa hodietan gertatzen da. Hortaz, etxeko garbigailuak eta berogailuak bizitza laburragoa izango dute. Hala ere, egon lasai, osasunean ez baitu kalterik eragiten.

1. irudia: Sarritan entzun izan ditugu “ur biguna” eta “ur gogorra” terminoak. Bat eta bestearen artean badago desberdintasun bat: mineralen maila. Zehazki kaltzio eta magnesio kopurua hartzen da kontua uraren sailkapena egiteko. (Argazkia: Skitterphoto / Pixabay.com – domeinu publikoko lizentziapean)

Ur bigunaren eta gogorraren sailkapen hori ulertzeko, abstrakzioa egin eta pentsatu beharko da gizakiak ikusten duen likidoa milioika partikulez dagoela osaturik. Ur edangarrian badira ur molekulak ez diren zenbait partikula gogortasun horretan eragina dutenak, besteak beste, kaltzioa eta magnesioa. Bi elementu horien kopurua zein den ikusita esan daiteke ura nolakoa den. Horretarako, litro bat uretan dauden kaltzio eta magnesio partikulak batu behar dira lehenik. Ondoren, kontuan hartu behar da partikula kantitate hori kaltzio karbonatoari dagokiola. Hain zuzen ere, karea hitza kaltzio karbonato gisa ezagutzen da kimikarien artean. Hor dago, beraz, karea eta uraren gogortasunaren arteko harremana. Kaltzioaren kontzentrazioa handia bada, karearena ere handia izango da, eta ur hori gogorra izango da.

Esan beharrik ez dago uretan dauden partikulak begi hutsez ezin direla bereizi. Kontzentrazio horiek neurtzeko bide bat baino gehiago badaude ere, horietako bat kaltzioarekin edo magnesioarekin erreakzionatuko duen zerbait gehitzea izango da. Horrela, gehitzen den horren kantitateak emango du uretan dagoenaren berri. Baloratzaile esaten zaio gehitutako horri. Eta nola lortuko dugu kanpotik erreakzio hori ikustea? Horretarako, disoluzioaren kolore-aldaketa bat gertatuko da, baina zerk eragingo du kolore-aldaketa hori? Adierazleak. Konposatu koloredun bat sortuko da uretako kaltzioaren (edo magnesioaren) eta adierazlearen arteko erreakzioan. Adierazleak kolore bat du kaltzioarekin lotuta dagoenean eta beste bat aske dagoenean. Noiz egongo da aske? Baloratzailea gehitu eta kaltzio/adierazle lotura hausten denean.

2. irudia: Karearen metaketa kanila batean. (Argazkia: Hustvedt / Wikipedia – CC BY-SA 3.0 lizentziapean)

Neurketa egiten hasteko, laborategia sukalde modura irudikatu behar da, bere ontzia, sua, mahai-tresna eta kozinatzeko beharko diren osagaiak eta guzti. Ontzi batean iturriko ura jarriko da, eta bertan zenbat kaltzio (edo magnesio) dagoen jakitea izango da helburua. Horretarako, ontziko ura gatzozpindu beharko da lehenik. Laborategian erabiliko den ozpina azido klorhidrikoa izango da. Zenbait osagai gehitu eta ontzian dagoen nahastea kozinatuko da, hainbat minutuz sutan bor-bor egiten utziz. Sutik aldendu eta nahastea hozten utzi behar da. Behin guztiz hotza dagoenean, adierazlea gehitu behar da. Hara, sukaldatutako nahaste gardenak kolore arrosa hartu du…

Hurrengo helburua kolore hori aldatzea izango da eta horretarako, baloratzailea pixkanaka gehitu behar da. Baloratzaile horren lana adierazleari bere lekua kentzea izango da. Gainera, erraz egingo du hori, adierazlearekin baino lotura sendoagoa eratzen baitu kaltzioak baloratzailearekin. Adierazle-kaltzio lotura hautsi eta baloratzaile-kaltzio lotura gauzatuko da, beraz. Noiz arte gehitu? Bexamela egiten den moduan, baloratzailea irina izanik, poliki-poliki gehituko da testura jakin bat lortu arte, kasu honetan disoluzioak kolore urdina hartu arte. Une horretan kaltzio guztia baloratzaileari lotuta egongo denez, adierazlea aske geratuko da eta horrek eragingo du nahastea urdina izatea.

Nahasteak kolore urdina hartu duenean, amaitutzat emango da sukaldatze-prozesua, baina zenbat baloratzaile erabili den apuntatuko da. Erabili den baloratzaile kantitatetik abiatuta zuzenean kalkula daiteke zenbat kaltzio eta magnesio duen iturriko urak. Eta jada jakina da kaltzio eta magnesio kantitate horien baturak karearen kantitatea emango duela.

Kantitate horren arabera jakingo da, beraz, etxetresnak fabrikatzaileak zehaztutako epea beteko duen ala lehenago kareak erraiak jango dizkion.

———————————————————————————-

Egileez: Ainhoa Lekuona eta Sara Pavo Gipuzkoako Campuseko Kimika Graduko ikasleak dira UPV/EHUn.

Artikulua, Maxux Aranzabe irakasleak Euskararen Arauak eta Erabilerak ikasgaian bultzatutako Laborategietako praktiketan oinarrituta idatzitako zabalkunde-testuak jardueraren harira idatzitako lana da.

———————————————————————————-

The post Karea: etxetresnen erraiak jaten dituen piztia appeared first on Zientzia Kaiera.

Catégories: Zientzia

Lo que Venus, el gemelo infernal de la Tierra, podría enseñarnos sobre lo que hace a un planeta habitable

Cuaderno de Cultura Científica - lun, 2019/06/10 - 11:59
Comparación de Venus con la Tierra. Fuente: Wikimedia Commons

Empiezo pidiendo perdón por haber insultado así a Venus, llamándole infernal, algo inmerecido para un planeta que ya tuvo que sufrir a Mecano. Pero Venus tendrá que reconocer que no nos lo pone fácil para adjetivarle con amabilidad: 400 grados de temperatura, una presión atmosférica capaz de aplastar cualquier cosa y nubes de ácido sulfúrico pululando de aquí para allá. Como para darse un paseíto por allí una tranquila mañana de primavera.

Pero no siempre fue así. Venus fue una vez un planeta muy similar a la Tierra y algunos investigadores sugieren que durante tres mil millones de años, Venus fue un planeta cubierto por grandes océanos capaces de albergar vida. Eso lo convertiría en el primer planeta habitable del sistema solar, un punto con las mismas probabilidades que la Tierra de desarrollar formas de vida. Algunas de sus similitudes aún persisten hoy: ambas se parecen en tamaño, densidad y composición química. Otras como los océanos y la atmósfera habitable, no tanto…

El caso es que algo ocurrió y cambió Venus de un lugar no quizá parecido a la tierra a una suerte de su Mr. Hyde, y por eso, cuenta Nature en un detallado reportaje, equipos de científicos de distintas agencias espaciales de todo el mundo quieren saber qué fue. Esto, además de profundizar en el conocimiento sobre nuestro planeta vecino y con él sobre nuestro sistema solar, puede servirnos para determinar en cuáles de los cientos de planetas rocosos que seguimos descubriendo más allá del sistema solar puede haber vida.

Las agencias espaciales ponen los ojos en Venus

Venus en color a partir de imágenes de la sonda Mariner 10. Fuente: Wikimedia Commons

India es la primera que va a probar suerte. La Organización India de Investigación Espacial lanzará su sonda en 2023 que pasará varios meses orbitando alrededor de Venus. Estados Unidos podría seguirla de cerca; varios grupos de científicos propondrán misiones a Venus a la NASA con la idea de partir en 2025. La Agencia Espacial Europea está considerando enviar su propio orbiter en 2032, y la agencia espacial rusa Roscosmos trabaja ya en colaboración con la NASA para enviar una ambiciosa misión entre 2026 y 2033 que incluiría una sonda para orbitar, otra para aterrizar que envíe mediciones a corto plazo y una estación de investigación que permanecería sobre Venus más tiempo.

Todo son pretendientes para Venus… ahora. Esto no siempre ha sido así: Venus ha sido durante décadas la gran olvidada frente a Marte. En los últimos 65 años, la NASA ha enviado 11 sondas a orbitar en torno al planeta rojo y 8 misiones que han aterrizado. En comparación, solo 2 naves han sido enviadas a orbitar alrededor de Venus, y la última fue en 1994. No ha sido en cualquier caso una falta de interés científico lo que ha detenido a la agencia espacial estadounidense, ya que sus equipos de investigación han propuesto cerca de 30 misiones a Venus en todos esos años, pero ninguna ha sido aprobada.

Las tornas han cambiado, y mientras tanto muchos de esos equipos científicos y técnicos han desarrollado los métodos y la tecnología para estudiar y sobrevivir en un entorno tan destructivo.

Venus fue nuestro primer destino… con poco éxito

Venus captado por el telescopio Hubble el 24 de enero de 1995. Fuente: Wikimedia Commons

Probablemente esa desafección de las agencias por Venus comenzó en los inicios de la exploración espacial. Porque en aquellas primeras etapas sí que pusieron los ojos allí: Venus fue el escenario de la primera prueba interplanetaria (EEUU en 1962), el primer planeta en el que se estrelló una misión (la URSS en 1965) y el primer planeta extraterrestre en el que una misión aterrizó con éxito (también la URSS en 1966). Pero ya en aquellos años las observaciones que pudieron hacerse revelaron que Venus era un planeta asfixiante y tórrido: era difícil imaginarlo como un lugar en el que la raza humana fuese a establecer colonias, y tampoco un sitio donde la búsqueda de formas de vida resultase muy prometedora. Era difícil incluso estudiar sus condiciones con detalle.

Sin embargo, está claro que tenemos que volver allí. Algunas teorías, como decíamos, apuntan a que Venus pudo ser el primer lugar habitable del sistema solar pero, en algún momento, algo fue mal, muy mal, y toda esa habitabilidad se fue al garete. Quizá no haga tanto tiempo de aquello, quizá fue hace apenas 700 millones de años. Saber qué y cuándo ocurrió puede ayudarnos a entender mejor qué hace de la Tierra un lugar especial donde la vida apareció y se ha desarrollado, en principio el único lugar con estas características que conocemos hasta ahora.

Es una pregunta aun más importante ahora que la cuenta de planetas rocosos que orbitan en torno a estrellas en las llamadas zonas de habitabilidad (lo suficientemente cerca pero lo suficientemente lejos como para que la temperatura de la atmósfera permita la presencia de agua líquida) más allá de nuestro sistema solar no para de aumentar. Muchos de esos exoplanetas podrían ser muy similares a Venus. Cuanto más sepamos de nuestro extraño vecino, más sabremos sobre esos mundos lejanos.

Aparatos que sobrevivan (y funcionen)

Superficie de Venus obtenida por la sonda Magallanes. Fuente: Wikimedia Commons

Algo que es un desafío tecnológico considerable. Muchos de los equipos que quieren ir allí a echar un vistazo no se conformarían con orbitar alrededor de Venus: quieren un módulo aterrizando en su superficie, algo que no se ha conseguido en 35 años. Y de aquellos que lo hicieron con éxito tampoco se pudo extraer mucho más, ya que la presión en la superficie es demoledora. La misión que más tiempo sobrevivió lo hizo durante poco más de 2 horas, 127 minutos en total.

Desde entonces ha pasado mucho tiempo y la tecnología y el conocimiento han avanzado considerablemente, así que los equipos que están proponiendo las nuevas misiones creen que sus dispositivos podrán aguantar allí varios meses. Una de las alternativas propuestas por científicos de la NASA sugiere que en vez de blindar el equipamiento con escudos gruesos y resistentes para que absorban el calor y le hagan frente a base de equipos de refrigeración, los sensores se construyan a base de electrónica sencilla hecha con carburo de silicio, un híbrido de silicio y carbono utilizado habitualmente para fabricar diamantes falsos que podría aguantar las duras condiciones del entorno venusiano.

Utilizando esos materiales, testados en cámaras que reproducen las condiciones de ese entorno, han diseñado una estación de prueba, del tamaño de una tostadora y que será capaz de medir la temperatura, la presión, la dirección y velocidad del viento, la cantidad de radiación solar en la superficie y la presencia de determinadas sustancias químicas en la zona más baja de la atmósfera durante varios meses. El resultado debería estar listo a mediados de la década de 2020 y que ofrecerá a otros países si quieren utilizarlo en sus propias misiones.

De una forma u otra, parece que Venus va a ser un lugar concurrido en los próximos 10 o 20 años, rectificando así un olvido histórico y abriendo, si lo conseguimos, un nuevo mundo a explorar con mucha información interesante. Quien sabe si, finalmente (disculpadme un último chascarrillo ochentero), no terminaremos yendo a Venus en un barco…

Referencias:

Venus is Earth’s evil twin — and space agencies can no longer resist its pull – Nature

Was Venus the First Habitable World of our Solar System? – Arxiv.org, Cornell University

Shukrayaan-1 – Wikipedia

Rusia y EEUU completan el diseño de su misión al infierno de Venus – Europa Press

Medio siglo desde el primer aterrizaje en un planeta extraterrestre – El País

Long-Lived In-Situ Solar System Explorer (LLISSE) – NASA

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Lo que Venus, el gemelo infernal de la Tierra, podría enseñarnos sobre lo que hace a un planeta habitable se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El pueblo que hablaba con las ballenas, ¿podría enseñarnos su idioma a los demás?
  2. Matemáticas del Planeta Tierra (MPE2013), en Bilbao
  3. Planeta X, en busca del inquilino invisible del sistema solar
Catégories: Zientzia

Zeintzuk dira zabor-janaren ondorioak osasunean?

Zientzia Kaiera - lun, 2019/06/10 - 09:00

Badira “janari lasterra” deitzen diotenak, beste batzuk “zabor-jana” deritzote. Izen bat zein bestea emanda ere, kontuan izan behar dugu astean birritan janez gero gizenduko garela. Izan ere, martxa horretan hamar urtean, zabor-jana astean behin jaten duenak baino 4-5 kg gehiago hartuko ditugu. Eta pisua ez da “irabaziko” dugun gauza bakarra…

Maiz egiten diren galderak ataleko bideoek labur eta modu entretenigarrian aurkeztu nahi dituzte, agian, noizbait egin ditugun galderak eta hauen erantzunak. Bideoak UPV/EHUko Kultura Zientifikoko Katedrak eginak daude eta zientzia jorratzen duen Órbita Laika (@orbitalaika_tve) telebista-programan eman dira gaztelaniaz.

The post Zeintzuk dira zabor-janaren ondorioak osasunean? appeared first on Zientzia Kaiera.

Catégories: Zientzia

Obesidad y delgadez también se heredan

Cuaderno de Cultura Científica - dim, 2019/06/09 - 11:59
Imagen: Pixabay

 

Ganar o perder peso es, simplificando algo las cosas, el resultado de un balance entre adquisición y gasto de energía. El organismo adquiere la que asimila a partir del alimento ingerido. Y debido a las actividades que desarrolla también gasta energía, la pierde en forma de calor disipado. Las actividades son muy variadas: unas son las necesarias para el normal funcionamiento de los sistemas orgánicos (actividades cardiacas, renales, nerviosas, etc.), entre las que se incluye el mantenimiento de la temperatura corporal; otras están ligadas a la renovación y reparación de células y tejidos; están, por otro lado, las responsables de la síntesis de nuevas estructuras; y por último, también las musculares implicadas en el ejercicio físico. Cuando la adquisición de energía supera al gasto, el organismo gana masa. Y lo contrario ocurre si el gasto es mayor que la asimilación de energía.

Dicho de esa forma las cosas parecen muy sencillas. Aunque en estos asuntos nada es tan sencillo como pueda parecer, la adquisición de energía es un término relativamente simple; hay dos factores principales a considerar, la cantidad de comida y su composición, que afecta a su contenido energético y a la facilidad o dificultad para digerirla y asimilarla. El gasto de energía tiene más complicaciones, porque influyen diversos factores.

Teniendo en cuenta cuáles son los determinantes de los elementos de adquisición y gasto energético, a nadie sorprende que el sobrepeso y la obesidad hayan alcanzado una gran prevalencia en las sociedades actuales. Hay mucha comida y, además, en general tenemos predilección por alimentos suculentos, de alto contenido energético y fácil absorción. Eso en lo que a la adquisición de energía se refiere. Y en lo relativo al gasto, tenemos una notable tendencia al sedentarismo y la inactividad física y, además, vivimos en entornos de gran confort térmico: difícilmente nos encontramos en condiciones que obliguen al organismo a gastar mucha energía para mantener estable la temperatura corporal. Lo dicho: las cosas parecen muy sencillas. Y sin embargo, no lo son tanto.

Todos conocemos personas que, aunque sean delgadas, no se privan a la hora de comer. Quienes tenemos tendencia a engordar los contemplamos con envidia, conscientes de lo duro que resulta limitarse ante una buena mesa, no picar entre horas o sufrir corriendo por las calles, o en el gimnasio pedaleando de manera desaforada encima de una bicicleta estática. Lo contrario también nos resulta conocido, personas que parecen no comer gran cosa y que, sin embargo, tienen excesivo peso.

¿Por qué ingiriendo similares cantidades de alimento y manteniendo parecidos niveles de actividad física unos estamos más gordos y otros más flacos? ¿A qué obedecen esas “incongruencias” metabólicas? Algunas pueden ser debidas a factores no tomados en consideración. Pero otro elemento importante a tener en cuenta es el factor genético y su incidencia sobre el metabolismo.

Han comparado el genoma de 1600 personas muy delgadas, 2000 muy obesas y 10400 de peso normal, y han confirmado algo que ya se sabía: la obesidad es una condición heredable en un grado no muy alto pero importante: el 32%, para ser precisos. La delgadez también lo es, aunque en una medida ligeramente inferior, un 28%. Esos porcentajes indican la proporción de la variabilidad del rasgo estudiado –obesidad o delgadez- en la población que es debida a factores hereditarios. Además, han identificado un conjunto de variantes genéticas ligadas a una condición, algunas de las cuales ya se conocían, y otras vinculadas con la opuesta. Por lo tanto, obesidad y delgadez, en parte al menos, también se heredan, aunque esto, a algunos, no nos sirva de mucho consuelo.

Fuente: Fernando Riveros-McKay et al (2019): Genetic architecture of human thinness compared to severe obesity PLOS Genetics 15(1): e1007603

——————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Obesidad y delgadez también se heredan se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El pteroestilbeno como posible tratamiento de la obesidad
  2. Gripe, obesidad y cáncer. Medicina de frontera.
  3. El organismo humano es una estufa de unos pocos vatios
Catégories: Zientzia

Asteon zientzia begi-bistan #258

Zientzia Kaiera - dim, 2019/06/09 - 09:00
Uxue Razkin

Ingurumena

Montrealgo Protokoloak klorofluorokarbonoen ekoizpena debekatu zuen arren, azken urteetan gas horien isuri berriak atzeman dira. Nondik datoz baina? Nature aldizkariak eman du erantzuna: Txinan ozono geruzaren zuloaren eragile nagusi diren CFC gasen isuria mantentzen ari dira, modu ezkutuan. Zehazki, Txinaren iparraldean atzeman dute. Informazio osoa, Zientzia Kaieran.

Osasuna

Elikadura Osasuntsu Baterako Gida berritu du SENC Elikadura Komunitarioaren Espainiako Elkarteak. Bertako presidente den Carmen Perez Rodrigok, UPV/EHUko Medikuntza fakultateko irakasleak, elikadurak osasunarekin eta ingurumenarekin duen lotura nabarmendu, eta bere gidan gomendatu du gertuko produktuak kontsumitzea, garaian garaikoak, eta plastikozko tresnarik ez erabiltzea. Berrian elkarrizketa osorik irakurtzea gomendatzen dizuegu.

Nerea Osinalde EHUko Biokimika Saileko irakaslea janari ultraprozesatuen aferaz mintzo da Berriako pieza honetan. Hark kontatzen du Cell Metabolism aldizkariak berriki argitaratutako lan batek erakusten duela ultraprozesatutako janaria jaten dutenek, oro har, gehiago jaten dutela. Batez beste, eguneko 500 kcal gehiago. Hori dela eta, gehiegi prozesatutako jakien kontsumitzaileek gehiegizko pisuarekin erlazionatutako arazo gehiago pairatzen dituzte. Horretaz gain, Nafarroako Unibertsitateak egindako ikerketa batek ondorioztatu du jaki ultraprozesatuen kontsumitzaileek depresioa pairatzeko arrisku handiagoa daukatela; zehazki %33 handiagoa.

Pfizer enpresak ezkutatu egin du bere botiketako batek alzheimerrari aurre egiteko ere balio duela. Horren aurrean, botika etxeak “arrazoi zientifikoak” argudiatu ditu. Bada, badirudi egun artritisaren aurka egiteko erabiltzen den Enbrel botikak, alzheimerra garatzeko arriskua %64an murrizten duela. Berrian topatuko duzue informazio guztia.

Mikrobiologia

Izaki bizidunak aurkitu dituzte Dallol sumendian (Etiopiaren ipar-ekialdean), munduko leku muturrenetako batean, Elhuyar aldizkariak jakinarazi duenez. Hango jalkin mineraletan mikroorganismoak aurkitu dituzte Espainiako Astrobiologia Zentroko ikertzaileek. Egindako azterketa eta analisi guztien ondotik, ondorioztatu dute Nanohaloarchaea ordenakoak direla baina ez dute baztertu orain arte ezagutzen ez zen ordena batekoak izatea.

Astronomia

Badirudi eztabaida piztu dela Starlink satelite-katearen inguruan, Elhuyar aldizkarian irakur daitekeen moduan. Starlink satelite-konstelazioaren helburua Internet-sare globala osatzea da. Satelite-konstelazio horren bidez, Elon Muskek, SpaceX konpainiaren nagusiak, Internet-sare global bat eskaini nahi die mundu osoko erabiltzaileei. Sateliteak txikiak dira, eta Lurretik gertuko orbitan jartzea da asmoa. Batzuk kexatu dira dagoeneko. Hala nola, irrati-astronomoak, sateliteek erabiliko dituzten maiztasunek bat egiten dutelako irrati-astronomian erabiltzen direnekin.

Estatistika

Jakina da ikertzaile baten etorkizun profesionala asko eta azkar argitaratzearen menpe dagoela. Horrekin lotuta, Oxfordeko Unibertsitateko Dorothy Bishop ikertzaileak artikulu batean zientzialariek egiten dituzten lau akats nagusi azpimarratu ditu: aurreiritziak edo joera okerrak izatea, gaitasun estatistiko eskasarekin lan egitea, P balioa hackeatzea eta HARK egitea, hau da, emaitzak izan ondoren hipotesiak egitea. Irakur ezazu lau arrisku horien inguruan hemen.

Biofisika

Garunak oroitzapenak non eta nola gordetzen dituen ikertzen dabil Mazahir T. Hasan (Lahore, Pakistan, 1966) biofisikaria Leioako Achucarro Basque Center for Neuroscience gunean. Oxitozina hormona ikertzen du eta zientzialariak Berrian azaltzen du, bestek beste, zergatik interesatu zitzaion hori oroimenaren mekanismoak ikertzerako orduan: “Hipotalamoko oxitozinaren neuronek eginkizun garrantzitsua dutela ikusita, horiek hartu genituen jomugatzat, eta aurkitu dugu baietz, benetan eginkizun erabakigarria dutela oroitzapenak eraikitzen”. Beste gai batzuk aipatzen ditu tartean, hala nola oroitzapen faltsuak txertatzeko eta oroitzapenak manipulatzeko aukera.

Emakumeak zientzian

Eva Perez-Pons Andrade Industria Elektronikaren eta Automatikaren Ingeniaritzako Graduko ikaslea ezagutzeko aukera izan dugu artikulu honen bidez. Azaltzen duenez, unibertsitateko giroa, oro har, ez da oso atsegina bere iritziz: “Nahiko maskulinoa da, unibertsitatea bera erabat hierarkizatuta dago, lehia handia dago ikasleen artean, edukia oso bideratuta dago enpresetara, eta jendea ez da batere kritikoa”. Modu berean, eta bere gradu-amaierako lanari dagokionez, azaltzen du Mugarik Gabeko Ingeniaritza eta El Salvadorgo ADES elkarteekin dabilela Buenavistan (El Salvador), ur-horniketarako sistema bat ezartzeko proiektuan.

Zientzian bide-urratzaile izan da Begoña Ochoa Olascoaga. Fisiologiako Katedraduna UPV/EHUn eta Medikuntza eta Erizaintza Fakultatean Idazkari eta Ikerkuntza Dekanorde postuak betetzen lehen emakumea izan zen eta Fisiologiako Saileko lehen emakume zuzendaria. Bestalde, 2009tik 2013ra bitartean Eusko Jaurlaritzako Politika Zientifikoko zuzendaria izan zen. Bere ikerkuntza ibilbidea ugaria izan da, besteak beste, kolesterolaren metabolismoa hobeto ezagutzeko asmoz ikerkuntza-egitasmo ugari zuzendu ditu. Informazio guztia artikuluan.

Geologia

Bizkaiko Golkoaren kokapenak eta formak eta Pirinio mendilerroaren izaerak jatorri bera dute; biak dira plaka-tektonikaren ondorio. Eta horien inguruan egin diren ikerketek bien jatorria ulertzeko balio izan dute. Irekiera prozesua ulertzeko lurrazal ozeanikoa erregistratzen diren bandeatu magnetikoak eta arro sedimentarioetan metatutako arrokak aztertzen dira. Lehenengoak ikertzeko Bizkaiko Golkoko eta Atlantiar ozeanoko itsas hondoak metodo geofisikoen bidez aztertzen dira; bertako arrokak berriz, zundaketen bidez lortzen dira. Ez galdu azalpen interesgarri hau!

———————————————————————–

Egileaz: Uxue Razkin kazetaria da.

——————————————————————

The post Asteon zientzia begi-bistan #258 appeared first on Zientzia Kaiera.

Catégories: Zientzia

¿Se podría clonar a una persona?

Cuaderno de Cultura Científica - sam, 2019/06/08 - 11:59

¿Te imaginas que hubiera una copia genética exacta a ti? Eso sí, esa copia exacta sería en términos de ADN nuclear. Todo esto quizá sea factible en el año 2100 o tal vez no. Hoy solo sabemos que es teóricamente factible. Ya que, más allá de las evidentes cuestiones éticas, todavía hay procesos biológicos que no controlamos.

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de cienciaÓrbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

El artículo ¿Se podría clonar a una persona? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Podría un humano vivir en el mar?
  2. ¿Qué tienen en común Einstein y una zanahoria?
  3. ¿Qué pasa en tu cuerpo cuando te enamoras?
Catégories: Zientzia

Ezjakintasunaren kartografia #265

Zientzia Kaiera - sam, 2019/06/08 - 09:00

Sare kristalino baten elektroien eta bibrazio atomikoen arteko interakzioaren ondorio da supereroankortasuna. Fenomeno hau zelan ikertzen den azaltzen du Daniel Pérezek, eztainu nanoharietan interakzioa zelan ikertu duen azalduta: Electron-phonon coupling enhancement in Sn nanowires

Giza anatomia erabat aztertuta dagoela pentsa liteke. Ezta gutxiago ere. Neurona espazial berria topatu dute. Rosa García-Verdugoren Another type of spatial neuron found

Etorkizuneko elektronika, masiboa izan dadin nahi badugu, gaur egun erabiltzen diren eta eskasak diren lur arraroetan baino, beste zerbaitetan oinarritu beharko da. Material semieroale organikoetan, idealki. Honetan dabiltza DIPCn: Diradical character a condition for stable n-type doped organic conducting materials

–—–

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #265 appeared first on Zientzia Kaiera.

Catégories: Zientzia

De robots geólogos y rayos X

Cuaderno de Cultura Científica - ven, 2019/06/07 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

Cuando se habla de geología se suele poner en perspectiva la escala temporal. Hablar del tiempo en términos geológicos supone hablar en millones de años. Por lo tanto, hablar de un periodo de tiempo de 50 años apenas significa un suspiro en la historia de nuestro planeta. Irrisorio a escala geológica, pero enorme a escala del/la geólogo/a. Concretamente el último medio siglo ha sido una vorágine de logros científicos y para muestra solo hemos de mirar aquello que tengamos sobre la mesa, en nuestro bolsillo o, mismamente, el instrumento a través del cual estemos leyendo este artículo.

Hace 50 años Neil Amstrong y Buzz Aldrin ponían los pies en la luna en lo que probablemente sea el mayor símbolo del progreso de nuestra especie en el último siglo. Lo que menos gente sabe es que uno de los objetivos de la tripulación del Apolo 11 era recoger muestras del suelo lunar. Una suerte de geólogos espaciales que se trajeron de vuelta a la tierra 22 kg de muestras que después fueron analizadas mediante difracción de rayos X.

Y es aquí donde llegamos al meollo de la cuestión, al entrar en la relación entre la exploración del terreno (terrestre o lunar) como una de las labores fundamentales del/la geólogo/a y la difracción de rayos X como una técnica ya rutinaria en la geología, transversal a casi todas las ciencias y herramienta fundamental para el progreso de nuestra especie. No sólo en los últimos 50 años, sino en los últimos 120. Para entender su importancia y trascendencia es imperativo retroceder a finales del siglo XIX, a la Universidad de Würzburg, Alemania.

Wilhelm Conrad Röntgen era catedrático de física de aquella universidad y su investigación se centraba en el poder de penetración de los rayos catódicos. El 8 de noviembre de 1895, cuando se encontraba experimentando el poder de penetración de los rayos catódicos, observó que una placa de cartón cubierta de cristales de platino-cianuro de bario, emitía una fluorescencia. Ésta desaparecía cuando desconectaba la corriente. La tarde de ese viernes llamo a su esposa Anna a la que pidió que pusiera la mano ante aquella placa de cartón. Anna tuvo que estar quieta 15 minutos y después contempló una imagen de su mano, pero en esta podía ver a través de su piel, sus huesos. Se dice que la reacción de su Anna fue una mezcla de fascinación y temor al ver aquella imagen, la primera radiografía de la historia.

Figura 1. Primera radiografía de la historia de la mano de Anna Bertha Röntgen [1]

Röntgen corrió a publicar sus hallazgos un mes más tarde en la Sociedad de Física y Medicina en Würzburg. En aquella publicación contaba que una radiación desconocida se emitía desde el tubo y seria la causante de esa fluorescencia en la placa de platino-cianuro de bario. Nombró a la radiación con la letra de las incógnitas matemáticas, por no saber exactamente lo que era. Este fue el descubrimiento de los rayos X, un tipo de “luz” distinta, un tipo de radiación electromagnética con una longitud de onda similar al tamaño de los átomos y el inicio de una revolución científica en toda regla que le valió el premio Nobel de física a Röntgen en 1901. El primer premio Nobel de física de la historia.

Los años posteriores fueron todo un vergel en cuanto al uso e investigación de los rayos X destacando el nombre de 3 personas que culminan el trabajo que comenzó Röntgen.

El primero de ellos fue Max Von Laue, que estudió el fenómeno de la difracción de los rayos x que se producía al incidir con la materia cristalina. Laue irradiaba sobre cristales obteniendo unos patrones de difracción en los que se apreciaba una simetría concreta que estaba relacionada con la disposición de átomos y moléculas que los componían. Esto supuso el premio Nobel de física en 1914 y el motivo del siguiente Nobel de física en 1915 para William Henry Bragg y William Lawrence Bragg, por definir matemáticamente el fenómeno de la difracción de los rayos X y resolver la primera estructura cristalina: el mineral de la halita.

Figura 2. Patrón de difracción de Laue [2]

 

Hasta ese momento no se tenía constancia de cuál era la organización de átomos, iones y moléculas que componían la materia, por lo que estas contribuciones nos abrieron una ventana para “ver” con otro tipo de “luz” los materiales a otro nivel. Metafóricamente, podríamos decir Röntgen encendió esa luz, Laue la enfocó hacia la materia y los Bragg miraron en su interior. Y este grupo de célebres científicos de principios de siglo XX, con sus logros, nos lanzaron un poderoso mensaje: si podemos cristalizar algo, utilizando la difracción de los rayos X, podremos saber cómo se disponen los átomos, iones y moléculas que lo componen, y por tanto estudiar y comprender sus propiedades y saber cómo aplicarlas.

Figura 3. Ley de Bragg (izqda). W. Henry Bragg (arriba) y W. Lawrence Bragg (abajo).

 

Era el inicio de una nueva disciplina: La cristalografía de rayos X. Una de las áreas del conocimiento más transversales a todas las ciencias y más prolíficas en cuanto a generación del conocimiento. 29 premios Nobel y casi 50 personas laureadas dan buena cuenta de ello. Ha supuesto, supone y supondrá una herramienta fundamental para el progreso de nuestra especie que ha procurado avances como la comprensión del enlace químico, los cristales líquidos, nuevos materiales como el fullereno, los cuasicristales o la resolución de la estructura del ADN así como la de multitud de proteínas y hormonas responsables de enfermedades o de procesos biológicos vitales.

Todos estos frutos de incuestionable trascendencia en nuestro progreso gracias a una disciplina que nace del estudio de los minerales y que está lejos del imaginario popular de revolución científica, como lo pudiera ser la llegada a la luna. 50 años más tarde exploramos otro planeta gracias a la cristalografía de rayos X, pues los Rover que enviamos a Marte llevan incorporados equipos de difracción de rayos X que analizan el suelo marciano. Es decir, robots geólogos hasta que podamos enviar a geólogos/as de carne y hueso a hacer su tradicional trabajo de campo. Un símbolo del alcance de la cristalografía.

A dónde nos llevará esta disciplina es algo aventurado de adivinar, pues como decía Niels Bohr “hacer predicciones es muy difícil, especialmente cuando se trata del futuro”. Sin embargo, es casi una certeza que la cristalografía nos acompañará en nuestros próximos descubrimientos. No habrá que esperar periodos de tiempo geológico para que vuelva a sorprendernos.

Para saber más:

[1] U. Busch (2016) “Wilhelm Conrad Roentgen. El descubrimiento de los rayos x y la creación de una nueva profesión médica” Rev Argent Radiol. 80(4), 298-307. DOI: 10.1016/j.rard.2016.08.003

[2] CSIC (2019), Cristalografía

Sobre el autor: Eder Amayuelas se doctoró en la Facultad de Ciencia y Tecnología de la UPV/EHU y actualmente es investigador en el CNRS (Francia).

El artículo De robots geólogos y rayos X se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Rayos X y gamma
  2. La luz se propaga en línea recta pero los rayos de luz no existen
  3. Las partículas de los rayos catódicos
Catégories: Zientzia

Eva Perez-Pons Andrade, ingeniaritza-ikaslea: “Jakintza ez da akademiaren bitartez bakarrik jasotzen”

Zientzia Kaiera - ven, 2019/06/07 - 09:00
Ana Galarraga / Elhuyar Zientzia Eva Perez-Pons Andrade Industria Elektronikaren eta Automatikaren Ingeniaritzako Gradua amaitzen ari da. Aitortu duenez, ustekabean iritsi zen hara. Izatez, karrera aukeratzeko zerrendan, pare bat Ingeniaritza jarri zituen, batxilergo teknologikoa egin zuelako, eta gero benetan gustatzen zitzaizkionak: Filosofia, Politika Zientziak eta Soziologia. “Azkenean gertatu zen Ingeniaritzara sartzeko nota 10etik 5era jaitsi zela, eta, bat-batean, sartu nintzen”.

Irudia: Eva Perez-Pons Andrade ingeniaritza-ikaslea. Energia berriztagarriak, burujabetza energetikoa eta feminismoa uztartzeko aukera eman dio gradu amaierako lanak.

Apur bat gogorra egiten ari zaiola onartu du, ez Ingeniaritza zaila delako, baizik eta eskatzen duen ahaleginarengatik. “Prekarietateak asko eragiten du. Adibidez, master bat egin nahi baduzu, lana egin behar duzu matrikula ordaintzeko. Horrez gain, Ingeniaritzetan oso ohikoa da akademietara joatea, ikasgaiak lehenengoan gainditzeko”. Horri egoera familiar zaila edo depresiorako joera gehitzen bazaio, “bonba bat” izan daitekeela dio.

Giroa, oro har, ez zaio oso atsegina iruditzen: “Nahiko maskulinoa da, unibertsitatea bera erabat hierarkizatuta dago, lehia handia dago ikasleen artean, edukia oso bideratuta dago enpresetara, eta jendea ez da batere kritikoa”. Leioako kanpusean, fakultate gehiago daudenez, bestela izan daitekeelakoan dago, baina bere fakultatea bakarrik dagoenez San Mamesen (Bilbon), zaila da taldeetan biltzea: “Jendea horra doa bakarrik ikastera. Ez dago espazio kolektiborik, eta horrek ere asko eragiten du”.

Hala ere, elkarte batzuk badaudela ohartarazi du, besteak beste Ikasle Mugimendua eta Mugarik Gabeko Ingeniaritza. Haietan dabil, eta Ikasle Mugimenduak ikasleria kritikoa sustatzeko urtero antolatzen dituen jardunaldiak nabarmendu ditu: Herri Unibertsitatea eta Ostegun Kulturalak.

Ingeniaritza gustuko dituen diziplinekin uztartzea ere lortu du: “Azkenean, Ingeniaritzako proiektu bat egiten ari zarenean, teknologiaz gain, beste ikuspuntu batzuk ere aintzat hartu behar dituzu, adibidez, soziologikoa”.

Horren adibide garbia da egiten ari den gradu-amaierako lana. Mugarik Gabeko Ingeniaritza eta El Salvadorgo ADES elkarteekin dabil, Buenavistan (El Salvador), ur-horniketarako sistema bat ezartzeko proiektuan: “Ura putzutik ateratzen da, eta altueran dagoen biltegi batera eramaten da. Horrela, ur-banaketa grabitatearen bidez egiten da, eta ponpak behar duen energia elektrikoa eguzki-energiaz lortzen da”.

Perez-Ponsek azaldu duenez, El Salvadorren ur-hornidura egoera larrian dago. Uraren % 90 kutsatuta dago eta energia elektrikoa oso garestia da; horrenbestez, zailtasun handia dute ur edangarria lortzeko. Gainera, emakumeak arduratzen dira uraren kudeaketaz, eta lan erreproduktiboa ez ezik, beste lan batzuk ere egin behar dituzte: garbiketa… “Horrelako proiektu bat garatzean, ezinbestekoa da testuingurua eta biztanleengan duen eragina aintzat hartzea”.

Burujabetza energetikoa eta feminismoa

Perez-Ponsek aipatu du horrelako proiektuetan ohikoa dela, teknologia sartutakoan, gizonak bereganatzea. Aldiz, haren asmoa da lantzen ari den proiektua tresna bat izatea emakumeak ahalduntzeko. Hala ere, badu beste kezka bat: “El Salvadorren denez, zilegitasun-falta nabaritzen dut. Alde horretatik, gehiago ikusten naiz hemen eragiten, beste lurralde batean baino. Baina han ere prozedura eta lana egiteko modu asko ikasiko ditut gero hona ekar daitezkeenak”.

Udan joango da El Salvadorrera. Mugarik Gabeko Elkarteari esker joan zen jabetzen han duten egoeraz, eta gradu-amaierako lana haiekin egitea motibagarria zitzaion: “Gradu-amaierako lan gehienak kaxoi batean geratzen dira, eta oso indibidualak izaten dira. Askotan, egin behar direlako egiten dira, inolako motibaziorik gabe. Nik beste zerbait nahi nuen, eta honek eman dit aukera niretzat garrantzitsuak diren ardatzak lantzeko, adibidez, energia berriztagarriak, burujabetza energetikoa eta feminismoa“.

Aurrera begira, master bat egin nahiko luke, jasangarritasun energetikoan edo feminismoan. Horrez gain, dibulgazio zientifikoak euskaraz ere asko erakartzen du, eta jakintza kolektibizatzeko bideak ere topatu nahiko lituzke: “Jakintza ez da akademiaren bitartez bakarrik jasotzen”.

Ildo horretatik, Errekaleorren burujabetza energetikoa lortzeko egin dute prozesua erreferentea iruditzen zaio: “Egia da adituen laguntza jaso dutela, baina denek parte hartu dute, eta prozesua eredugarria izan da: teknologia eta feminismoa nola gurutzatzen diren, nola kudeatu sexu-erasoak, lan-banaketa…”

Fitxa biografikoa:

Eva Perez-Pons Andrade Lemoan jaioa da, 1996an. Industria Elektronikaren Eta Automatikaren Ingeniaritzako Gradua amaitzen ari da, UPV/EHUn. Gradu-amaierako lana ur-hornidurarako sistema bat da, El Salvadorren.

———————————————————————————-

Egileaz: Ana Galarraga Aiestaran (@Anagalarraga1) zientzia-komunikatzailea da eta Elhuyar Zientzia eta Teknologia aldizkariko erredaktorea.

———————————————————————————-

Elhuyar Zientzia eta Teknologia aldizkariarekin lankidetzan egindako atala.

The post Eva Perez-Pons Andrade, ingeniaritza-ikaslea: “Jakintza ez da akademiaren bitartez bakarrik jasotzen” appeared first on Zientzia Kaiera.

Catégories: Zientzia

Los primeros humanos alcanzaron el Mediterráneo mucho antes de lo que pensábamos

Cuaderno de Cultura Científica - ven, 2019/06/07 - 08:00


Mathieu Duval y Mohamed Sahnouni

Excavación arqueológica en Ain Boucherit, Argelia.
Mathieu Duval, Author provided

Mathieu Duval, Griffith University y Mohamed Sahnouni, Centro Nacional de Investigación sobre la Evolución Humana (CENIEH)

¿Cuándo llegaron los primeros humanos a las costas del Mediterráneo? Una nueva publicación en la revista Science muestra con evidencias arqueológicas su presencia en el norte de África hace al menos 2,4 millones de años. Es decir, 600.000 años antes de lo que se pensaba.

Estos resultados están extraídos del yacimiento arqueológico de Ain Boucherit, situado en el noreste de Argelia. Gracias a ellos tenemos nueva información en una ventana temporal que incluye los primeros individuos del género Homo.

Estos descubrimientos son el resultado de excavaciones e intensas investigaciones realizadas desde el año 1992 dentro del marco del proyecto Ain Hanech.

Ubicación de Ain Boucherit y otros sitios prehistóricos mencionados en el texto. A la derecha, ampliación de las cercanías de la ciudad de El Eulma.
Mathieu Duval; Mapas modificados de Google map

Ubicada en el norte de la ciudad de El Eulma, la zona de estudio ya era conocida por el descubrimiento previo de herramientas líticas (= de piedra) y de huesos fósiles con marcas de cortes, datados de hace unos 1,8 millones de años (yacimientos de Ain Hanech y El Kherba en el mapa de arriba). Hasta ahora habían sido los hallazgos más antiguos del norte de África.

En 2006 y en 2009 se encontraron nuevas herramientas líticas en Ain Boucherit. Distribuidas en dos niveles arqueológicos, ambos localizados estratigráficamente por debajo de los hallazgos anteriores, dichas herramientas indicaban entonces una presencia humana en la zona aún más antigua.

Los nuevos descubrimientos arqueológicos

Las excavaciones en los niveles arqueológicos inferior (AB-Lw) y superior (AB-Up) sacaron a la luz más de 250 herramientas de piedra y casi 600 restos fósiles.

Se identificaron distintas especies animales, entre las que se incluyen elefantes, caballos, rinocerontes, hipopótamos, antílopes, cerdos, hienas y cocodrilos. Todos estos animales viven hoy en día en una sabana abierta con abastecimiento permanente de agua, lo que sugiere que en el pasado existían unas condiciones similares.

Las herramientas de piedra descubiertas están compuestas principalmente por cantos tallados (chopping tools en ingles) y otros elementos de corte de bordes afilados que se utilizaban para trocear los cadáveres de los animales. Estas herramientas están hechas de piedra caliza y sílex, recolectados cerca, en antiguos arroyos.

La fabricación de estos útiles es típica de la tecnología Olduvayense, procedente de las zonas del este de África, y datados entre 2,6 y 1,9 millones de años. Sin embargo, el yacimiento de Ain Boucherit tiene la peculiaridad de presentar también otras herramientas de forma esferoidal, cuya función sigue siendo desconocida.

Dos ejemplos de herramientas de piedra de Ain Boucherit: un núcleo lítico Olduvayense (izquierda) del que se sacaron las lascas afiladas que se pueden usar para cercenar los huesos (derecha).
Mohamed Sahnouni

Algunos de los huesos muestran marcas que no parecen ser de origen natural, sino más bien el resultado de una acción intencionada. Se identificaron dos tipos: marcas producidas por lascas afiladas (como muestra la imagen situada debajo), lo que sugiere que el animal fue despellejado, desollado y eviscerado; y marcas provocadas por un percutor, lo que sugiere actividades de extracción de médula ósea.

Estos descubrimientos demuestran que hace 2,4 millones de años los primeros humanos podían comer la carne y el tuétano extraídos de los animales. La teoría es respaldada por otros estudios llevados a cabo en otros yacimientos contemporáneos del África del este.

Un pequeño hueso bóvido con marcas de corte producidas por herramientas de piedra.
Isabel Caceres

¿Cómo datamos las herramientas?

Establecer la antigüedad del yacimiento supuso todo un desafío. No podíamos aplicar las técnicas empleadas tradicionalmente en África del Este debido a la ausencia de depósitos volcánicos.

Entonces, datamos las herramientas de piedra de manera indirecta, es decir, analizando el sedimento en el cual se encontraron y estudiando los fósiles extraídos de la excavación. Para resumir, empleamos una combinación de cuatro métodos distintos: la estratigrafía, el paleomagnetismo, la resonancia de espín electrónico (mas conocida por su acrónimo en ingles ESR) y la biocronología.

  • La estratigrafía es un campo de la geología que permite dividir los depósitos geológicos en diferentes niveles o capas. Este tipo de trabajo proporciona una primera información cronológica, ya que los depósitos situados por encima de otros siempre tienen una datación mas reciente.
  • El análisis paleomagnético de los depósitos nos permitió identificar una sucesión de intervalos de polaridad normal (como en la actualidad) y de polaridad inversa. El paleomagnetismo es un método basado en el estudio de las inversiones del campo magnético a lo largo del tiempo, y tiene muchas aplicaciones en arqueología, como en Atapuerca por ejemplo.

Para poder identificar con mas precisión estos intervalos de polaridad normal e inversa, usamos la ESR y la biocronología.

  • La ESR es una técnica basada en la evaluación de los efectos de la radiactividad a lo largo del tiempo. Permite determinar cuándo un grano de cuarzo dejó de ver la luz del sol y quedó enterrado.
  • En cambio, la biocronología se basa en la identificación de los animales fósiles presentes en un yacimiento para deducir una cronología relativa (es decir, determinar si un yacimiento es mas antiguo o mas reciente que otro datado de manera independiente).

Gracias a estos métodos, pudimos identificar un intervalo de polaridad normal llamado Olduvai. Este intervalo es muy conocido y está datado entre 1,95 y 1,78 millones de años.

Como el nivel arqueológico superior está posicionado dentro de este intervalo Olduvai, sabemos entonces que tiene una datación dentro del rango de 1,95-1,78 millones de años mencionado antes. Además, como el arqueológico inferior está localizado por debajo de este intervalo Olduvai, sabemos entonces que tiene una fecha mas antigua que 1,95 millones de años.

Finalmente, observando la distancia de los niveles arqueológicos superior e inferior con respecto al inicio y el final de Olduvai, podemos refinar esta primera estimación cronológica y aventurarnos a proponer dataciones de unos 1,9 y 2,4 millones de años, respectivamente.

La importancia del descubrimiento

Este nuevo descubrimiento nos fuerza a actualizar nuestro conocimiento acerca de la creación y la difusión de la tecnología Olduvayense, tanto en África como fuera del continente. El hallazgo, al ser anterior a lo que se pensaba (600.000 años antes), acorta la diferencia temporal entre las más antiguas evidencias encontradas en el extremo oriental de África (2,6 millones de años) y los primeros habitantes humanos del Mediterráneo.

Esto indica que la expansión del Olduvayense desde el este de África fue rápida (al menos, más de lo que se suponía), aunque es también posible que el comienzo de la elaboración de estos utensilios tuviera lugar al mismo tiempo en el norte y en el este del continente.

Como consecuencia, parece que los primeros poblamientos en el margen sur del mar Mediterráneo son mucho más antiguos que los del norte. En el sur de Europa, la evidencia más antigua (Atapuerca y Orce, en España) no supera los 1,4 millones de años, mientras que los fósiles de homínidos encontrados en Dmanisi (Georgia), a las puertas de Europa, datan de hace 1,8 millones de años.

El arqueólogo del CENIEH Mohamed Sahnouni, coautor del artículo, explica los hallazgos.

¿Quién fabricó estas herramientas?

Ya que no se encontraron fósiles de homínidos en Ain Boucherit, solo podemos especular acerca de quiénes fueron los fabricantes de estas piezas de piedra Olduvayenses.

El registro de fósiles homínidos en el norte de África es casi insignificante, tanto que no se ha encontrado ninguno de la antigüedad de las evidencias descubiertas en Ain Boucherit.

Los fósiles más antiguos encontrados en Argelia datan de hace aproximadamente 700.000 años y fueron encontrados en Tighennif (anteriormente conocido como Ternifine, consultar el mapa de arriba).

Si bien su nomenclatura ha cambiado a lo largo del tiempo (al principio recibieron el nombre de Atlanthropus mauritanicus, ahora son llamados Homo erectus u Homo heidelbergensis, dependiendo del autor), estos fósiles son realmente jóvenes en comparación con lo descubierto en Ain Boucherit, por lo que no se puede establecer conexión alguna entre los dos yacimientos.

Todos los restos fósiles de los primeros homínidos encontrados en el área del Mediterráneo, así como las herramientas de piedra Olduvayenses, son un millón de años más jóvenes que los restos de Ain Boucherit. En Europa Occidental, las evidencias más antiguas son las de parte de una mandíbula encontrada en la Sima del Elefante, en Atapuerca, y el diente de leche hallado en Barranco León, en el municipio de Orce (Granada). Estos descubrimientos datan de hace 1,2 y 1,4 millones de años, respectivamente.

Por lo tanto, los favoritos en cuanto a antigüedad se encuentran en África Oriental, a pesar de la distancia que separa a la región del norte del continente. Varios homínidos son más o menos coetáneos de los restos encontrados en Ain Boucherit (lo cual se explica muy bien aquí en inglés), incluyendo los australopitecinos y diferentes miembros del género Homo, como el Homo habilis, el Homo rudolfensis o el espécimen de Homo indefinido de Ledi-Geraru (Etiopía).

Dicho esto, no podemos obviar la posibilidad de que las herramientas encontradas en Ain Boucherit procedan de otra especie de homínidos, perteneciente o no al género Homo, que aún no haya sido descubierta.

Esperamos que las excavaciones que llevemos a cabo en el yacimiento argelino nos brinden la oportunidad de identificar a estos fabricantes de herramientas de piedra.

Sobre los autores: Mathieu Duval es ARC Future Fellow en la Griffith University (Australia) y Mohamed Sahnouni, arqueólogo y profesor del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH)

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Los primeros humanos alcanzaron el Mediterráneo mucho antes de lo que pensábamos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Tres historias italianas: vacunas, homeopatía, niños y derechos humanos
  2. Antes de que el león se hiciese con el trono de rey de la selva
  3. Los efectos climáticos de un calentamiento sin precedentes en el Mediterráneo
Catégories: Zientzia

Begoña Ochoa: Kolesterolaren homeostasitik Zientzia Politikara

Zientzia Kaiera - jeu, 2019/06/06 - 15:00
Hiart Navarro eta Begoña Sanz Zientziaren arloan, Begoña Ochoa Olascoaga litzateke ikerkuntza-sarearen garapenean lagundu duten emakumeen artean, izen aipagarri bat UPV/EHUn. 1975. urtetik Fisiologiako Saileko irakasle izateaz gain, bere ikerkuntza-curriculumak ere bikaintasun-ibilbidea islatzen du. Besteak beste, kolesterolaren metabolismoa hobeto ezagutzeko asmoz ikerkuntza-egitasmo ugari zuzendu ditu. Bikaintasun saria jaso duten hainbat tesiren zuzendari edo zuzendarikide izan da eta bere ikerkuntzaren emaitza modura, 100 argitalpen inguru egin ditu. Horrez gain, kudeaketaren alorrean ere lorpenak nabarmenak izan dira.

Begoña Ochoa Fisiologiako Katedraduna da UPV/EHUn eta Medikuntza eta Erizaintza Fakultatean Idazkari eta Ikerkuntza Dekanorde postuak betetzen lehen emakumea izan zen eta Fisiologiako Saileko lehen emakume zuzendaria. Bestalde, 2009tik 2013ra bitartean Eusko Jaurlaritzako Politika Zientifikoko zuzendaria izan zen.

Hau guztia ikusita, argi dago andre honen ibilbidean izugarri handiak izan direla bere jarduera akademikoa, eta Unibertsitatean izan duen jarduna. Horregatik, 2018/2019 ikasturtearen amaieran erretiratu egingo dela eta, ekainean, bere omenez ekitaldi bat antolatu dute Olatz Fresnedok eta Susana Cristobalek (bere doktoregaiak izandakoak eta ikerketa-taldeko kideak), UPV/EHUko bide-urratzaile izan diren emakume zientzialariak ikusgai egiteko asmoz.

1. irudia: Eskuinetik ezkerra, Begoña Ochoa Fisiologiako katedraduna, Begoña Sanz irakaslea eta ikertzailea eta Hiart Navarro ikertzailea. (Argazkia: Jon Torres Unda)

Ekitaldi horren harira, Begoña Sanz eta Hiart Navarro, Fisiologia Saileko kideak berarekin elkartu gara bere bizipenak gertuagotik ezagutzeko asmoz. Izan ere, 40 urte baino gehiagoko karrera baten ostean agur esateak oroitzapen eta sentimendu ugari ekar ditzakeela uste dugu. Honen inguruan galdetuta, Begoñak dio klaseen prestakuntzak beti eragin izan diola nolabaiteko estutasuna, baina ikasleen arreta lortzeak asebete egiten duela. Hori dela eta, badirudi azken klasea ez zuela lehenengoaren aldean oso ezberdin bizi izan. Ikasleekin elkarrekintzaren falta sumatuko du batez ere, baina unibertsitateari lotuta jarraituko du 2019/2020 ikasturtean gutxienez, Ohorezko Irakasle Kolaboratzaile izateko eskaera onartu baitio Unibertsitateak. Horren karrera luzearen ostean, ondorengo belaunaldientzat honako aholkua ematen digu: “Maitemindu lanarekin. Lan hau edonork gara dezakeen lan hoberena da. Ikasteko, ezagutzeko, transmititzeko, sakontzeko, lortzeko… aukera ematen du. Zeuen burua garatu, motibatu eta lan honek eskaintzen duena dastatu.”

Aurretik esan den bezala, irakaskuntza, ikerkuntza zein kudeaketa alorretan parte hartze garrantzitsuagatik nabarmentzen da Begoña Ochoaren karrera luze hau. Askotan ez da erraza izaten 3 alorretako arduraldiak neurtzea eta bere kasuan izan ez den arren, beste askorentzat alor independenteak izan daitezkeela azaltzen zuen. Dena den, bere ustez, garrantzitsua da eguneko 24 orduetatik batzuk bizitza pertsonalerako gordetzea. Bere hitzetan, “denbora ongi kudeatu arren, garrantzitsua da gutxienezko selektibotasun maila bat izatea. Bizitzako une bakoitzean alor ezberdinak nagusitu dira, eta bizitzako egoerak aldatzen direnean garrantzitsua da egokitzen jakitea. Dena den, noizbehinka, ikerketa alorreko erritmo azkarraren ondorioz gainezka nengoelako sentipena izan dut. Bai. Batzuetan gogorra izan da.”

2. irudia: Begoña Ochoaren omenez ekainaren 12an egingo den ekitaldia. (Argazkia: UPV/EHU)

Ikerkuntzaren testuingurua hainbeste aldatu denez, jakin nahi izan dugu Begoñaren ustetan nolako izango ote zen bere ibilbide profesionala 20 edo 40 urte geroago jaioa izan balitz. Beranduago jaio izan balitz ere, antzeko ibilbidea egingo lukeela irudikatzen du baina aldaketa nabarmena ikerkuntza arloan aurreikusten du: “ ikerkuntza arloan aldaketak izugarriak izan dira. Konpetentzia ikaragarria da gaur egun, eta honekin ez dut esan nahi lehen erraza zenik, baizik eta egun zailagoa dela. Nire ustez, ikerkuntzak denbora behar du eta honen harira asko gustatzen zait azkenaldian agertu den slow science delako korrontea”.

Dena den, urte hauen alde onak eta txarrak erkatzeko eskatzen diogunean, Begoñak oso argi dauka: “Oso positiboa. Oso aberasgarria. Bizipen ugari eramango ditut nirekin, eta oso onak gainera. Noski, esperientzia txar bat zein beste ere izan dira, baina horiek ahanzturan geratzen dira”.

Egindako elkarrizketari bukaera emateko, karrera luze honetan zehar bizitakoen artean zerekin geratzen den jakin nahi genuen, eta Begoñak argi dauka erantzuna: “Unibertsitatean zein Unibertsitatetik kanpo ezagutu ditudan pertsona bikain guztiekin. Nire nortasunaren garapenean eta Lipids&Liver ikerkuntza taldearen finkapenean ohartuta ala ohartu gabe lagundu duten pertsona horiekin guztiekin. Musu-truk beti laguntzeko prest dauden pertsona horiekin guztiekin. Horiei guztiei zor diet zoriontasuna”.

—————————————————–
Egileez: Hiart Navarro Imaz UPV/EHUko Fisiologia Saileko Lipids&Liver taldeko ikertzailea da. Begoña Sanz Echevarria (@atxikimenduz) UPV/EHU Fisiologia Saileko irakaslea eta Ageing On taldeko kidea da.
—————————————————–

The post Begoña Ochoa: Kolesterolaren homeostasitik Zientzia Politikara appeared first on Zientzia Kaiera.

Catégories: Zientzia

No sabéis cantar cumpleaños feliz

Cuaderno de Cultura Científica - jeu, 2019/06/06 - 11:59

Todos los años me sucede lo mismo. Pasan 365 días y al volver al mismo punto de la órbita donde se dio mi nacimiento, mis seres queridos se reúnen… para torturarme.

Foto: Pixabay

Sí, hablo de la canción de Cumpleaños Feliz y hoy vengo a denunciar un hecho cierto, doloroso y universal: la gente no sabe cantarlo.

No habrá sido por falta de tiempo como para aprender. El tema de cumpleaños feliz fue compuesto a finales del siglo XIX por las hermanas Patty y Mildred Hill. Patty era directora de una guardería en Kentucky y Mildred era pianista y compositora. “Good Morning to All” (el título original de la melodía) nació como una canción pedagógica que los niños entonaban al llegar a clase. Fue publicada en 1893 en un libro de canciones infantiles. Su asociación a la letra del Happy Birthday apareció más tarde y fue publicada por primera vez en 1912 (aunque probablemente existiese con anterioridad).

A partir de ese momento, comienza todo un culebrón de jueces, abogados y sellos discográficos en torno a la propiedad intelectual de la canción… que ya lo quisiera Juego de Tronos. Como resultado os resumo: casi seguro, todos le debemos pasta a Warner/Chappell. O, al menos, todos los que en alguna ocasión hemos cantado el cumpleaños feliz en público, antes del 1 de enero de 20171 en Europa. En Estados Unidos la canción entró a formar parte del dominio público por la vía judicial apenas un año antes. Hasta ese momento, Warner Chappell había estado ganando alrededor de 2 millones de dólares al año por los derechos de copyright.

Con sus ciento y pocos años, “Happy Birthday to You” se ha convertido en la canción más reconocida en lengua inglesa. Ha sido traducida a 18 idiomas, incluyendo el árabe, hebreo, chino y, claro, español. Se podría argumentar que es una de las canciones más populares del mundo… y uno se esperaría que después de tantos años cumplidos, tantas velas sopladas y tanta repetición, la gente hubiese aprendido a afinarla.

PERO NO. Y francamente… tampoco me extraña.

Una de las grandes paradojas del cumpleaños feliz es que, para tratarse de un tema popular, es francamente complicado de cantar.

Pensemos, por contraste, en otras canciones típicas del repertorio popular: los villancicos. Aunque no es algo estricto, casi todos siguen algunos patrones melódicos muy básicos (sobre en los estribillos) que los convierten en canciones especialmente fáciles de cantar. Algunas de estas “normas” podrían resumirse así:

Normas no escritas (bueno, ahora sí) para escribir un villancico.

1- El estribillo debe poder cantarlo hasta Joaquín Sabina de resaca.

2- Las estrofas pueden tener un poquito más de fantasía. Solo un poquito. Se supone que las canta un solista.

Para que el estribillo sea especialmente fácil de cantar:

3- La melodía debe avanzar por grados conjuntos (es decir, notas seguidas: después de do, puede ir re o si).

4- Si hay saltos, que sean de 3ª (saltándose una nota). Nunca más grandes que una

5- Si verdad tiene que haber saltos, que no sea a mitad de frase, para que la gente respire.

6- Todo el estribillo debe estar contenido en un rango de notas más bien pequeño. Intenta que no supere una 8ª (el rango de una escala musical, de do a do).

Son normas no escritas porque, de alguna manera, ha sido el propio tiempo el que las ha seleccionado. Los temas se hacían populares si el pueblo los cantaba. Y el pueblo no suele tener un entrenamiento vocal especialmente sofisticado. Cantar por grados conjuntos, notas cercanas entre sí, es más fácil porque implica hacer menos cambios bruscos con las cuerdas vocales. Restringir el rango vocal hace más fácil que mucha gente pueda llegar a todas las notas. Y eso sin contar los contextos festivos (y etílicos) donde se suelen entonar estas canciones. Más vale poner las cosas muy fáciles… pocas notas, ritmos sencillos, mucha repetición. Estamos aquí para pasarlo bien.

La paradoja es que cumpleaños feliz no es un tema de “origen” popular (sus compositoras tienen nombres y apellidos) y no ha sido pulido todavía por el tiempo. Por eso, nos encontramos con una melodía que, de hecho, incumple bastantes de las normas básicas de sencillez vocal.

Para empezar, y de manera especialmente sangrante: fijaos en los saltos de la melodía. Desde el compás 1, cumpleaños feliz empieza ya fuerte con ¡un salto de 4ª! La cosa sólo empeora en el compás 3, arriesgando un poco más hasta la 5ª. Pero el desastre absoluto llega en el compás 5, ¡con un salto de 8ª, ni más ni menos! Y encima, a mitad de frase. Qué digo, a mitad de palabra. Cada vez que veo acercarse ese “te deamos”… me estremezco.

Por si el salto no fuese lo bastante complicado, resulta que la melodía comienza en la nota más grave de todo su rango. En realidad, cumpleaños no es especialmente exigente en cuanto a rango vocal, es decir: su nota más aguda y más grave no están demasiado alejadas, no necesitas ser Bobby McFerrin para afinarlas. Normalmente, se considera que una persona sin entrenamiento vocal puede abarcar hasta dos octavas (puede cantar de do a do, un par de veces seguidas). Cumpleaños sólo requiere una octava, que no es mucho. El problema es que la gente empieza a cantar muy animada “cumpleaños” en el registro que le resulta más cómodo (o, probablemente, un pelín más agudo, por la emoción del momento) y no se da cuenta de que va a tener que elevar el tono de su voz hasta una 8ª, apenas 4 compases más tarde. El resultado es… desgañite, desafine, gallinas descontroladas… dolor, mucho dolor.

Por si todo esto fuera poco, la manera en que cantamos cumpleaños cae, directamente, en la polirritmia. Fijaos: toda la canción está en un compás ternario, es decir: podríais cantarla bailando un vals, por ejemplo. Sin embargo, al llegar al “te deséamos todos”, de repente, todo el mundo hace una pausa. Es como si, por sorpresa, el vals tuviese un paso de más, no escrito pero cantado por todos que lo desencaja todo un poco. Después de ese momento, la coordinación se vuelve especialmente complicada.

Y luego está… el tema de la letra. Quizás por tratarse de palabras encajadas sobre la melodía a posteriori, casi con calzador, ningún acento musical cae donde debería. La sílaba más aguda de las dos primeras repeticiones coincide sobre “fe” (cumpleaños feliz), aunque tiene un pase ya que “liz” tiene el apoyo de la parte fuerte del compás. El desastre, de nuevo, lo encontramos en “te deamos”: porque tanto la nota aguda de la melodía como la parte fuerte del compás coinciden sobre “sé”, pero ese verbo no es esdrújulo y aún así, lo he escrito tres veces con tilde en este artículo sin que probablemente llamara tu atención.

¿Y entonces? Qué podemos hacer. Para mi desdicha, este problema no tiene fácil solución… yo desde aquí invoco al pueblo para que vaya limando esta melodía y, con el paso de los años, la convierta en algo realmente fácil de cantar. Hasta que ese momento llegue, aquí os presento mi versión de cumpleaños más feliz. Ojalá os convenza y dejéis de desafinar… ¡malditos!

Nota:

1Según Wikipedia: ”Warner/Chappell claimed copyright for every use in film, television, radio, anywhere open to the public, and for any group where a substantial number of those in attendance are not family or friends of whoever is performing the song”.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo No sabéis cantar cumpleaños feliz se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Zientziateka: el cumpleaños de Dolly
  2. El último puzle de Bach
  3. Las partituras de Babel
Catégories: Zientzia

Pages