Naukas Bilbao 2017 – Raúl Gay: Todo sobre mi órtesis
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Raúl Gay habla de discapacidad desde una perspectiva muy diferente a la habitual: llamando a las cosas por su nombre. Posiblemente, una de las charlas más memorables de esta edición de Naukas Bilbao.
Raúl Gay: Todo sobre mi órtesisEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Raúl Gay: Todo sobre mi órtesis se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ezjakintasunaren kartografia #202
Minbizi mota jakin bati erasotzeko moduak ezusteko tokietan egon daitezke, D bitaminaren errezeptoreetan, adibidez. NuRCaMein-en Vitamin D receptor, a powerful weapon against colorectal cancer.
Tesla espaziora bidaltzeagatik eta Space X programagatik hain entzutetsu egin den Elon Musk-en beste megaproiektu bati arreta jartzea ideia ona da. Iván Rivera eta The limits of Hyperloop.
Molekula baten egitura intimoa ezagutzea ahalbidetzen duten teknikak gero eta sofistikatuagoak eta eskuragarriagoak dira laborategi normaletan erabiltzeko (orden baten barruan). DIPC Submolecular resolution using inelastic electron tunnelling spectroscopy at 5 K artikuluan.
–—–
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #202 appeared first on Zientzia Kaiera.
Traducción automática neuronal sin supervisión
La mayoría de los sistemas de aprendizaje automático requieren supervisión humana, y la traducción automática no es una excepción: el ordenador utiliza millones de traducciones hechas por personas para extraer patrones y, de esta forma, aprender a traducir cualquier texto. Este método funciona bien con pares de idiomas como el inglés y el francés, pues existen muchas traducciones entre ambos. Sin embargo, no es tan efectivo para la gran mayoría de pares de idiomas con recursos limitados, como es el caso del alemán-ruso o el euskera-inglés, por ejemplo.
En este contexto, Mikel Artetxe, Eneko Agirre y Gorka Labaka, investigadores del grupo IXA de la Facultad de Informática de la UPV/EHU, han desarrollado un método de traducción automática basado en el aprendizaje sin supervisión, es decir, sin necesidad de diccionarios o traducciones humanas.
“Imagina que le das a una persona una gran cantidad de libros escritos en chino y otros tantos, distintos, en árabe, con el objetivo de que aprenda a traducir del chino al árabe. A priori parece una tarea imposible para un ser humano. Pero nosotros hemos demostrado que un ordenador es capaz de hacerlo”, afirma Mikel Artetxe, que está realizando su tesis doctoral sobre el procesamiento del lenguaje natural y el aprendizaje automático.
Este nuevo método que proponen los investigadores de la UPV/EHU supone un gran avance en el campo de la traducción automática, ya que abre una nueva línea de trabajo que muestra que las redes neuronales, algoritmos informáticos que se inspiran en el cerebro humano, pueden aprender a traducir sin necesidad de traducciones preexistentes.
Se da la casualidad que otro estudio, desarrollado por un equipo de investigadores de Facebook y la Universidad de la Sorbona de París, ha propuesto un método similar. “Es sorprendente -subraya Artetxe- que nuestros métodos sean tan parecidos. Pero al mismo tiempo es positivo, pues significa que esta nueva aproximación va por el buen camino”.
Los dos estudios, de los que se ha hecho eco la revista científica Science en su sección digital de noticias, fueron publicados en el repositorio virtual arXiv con un día de diferencia, y serán presentados en uno de los congresos más relevantes del área, el sexto encuentro internacional sobre el aprendizaje de representaciones (International Conference on Learning Representations – ICLR), que se celebrará en el mes de abril en Vancouver, Canadá.
En los únicos resultados comparables entre ambos estudios, el método del grupo IXA de la UPV/EHU obtuvo resultados ligeramente superiores, con una puntuación BLEU del 15% entre el francés y el inglés. A modo de comparativa, la máxima puntuación la obtienen métodos supervisados como Google Translate con cerca del 40%, si bien una persona supera el 50%. “Estamos en los inicios -aclara Mikel Artetxe- por lo que no sabemos hasta dónde puede llegar esta nueva línea de investigación”.
Referencia:
Mikel Artetxe, Gorka Labaka, Eneko Agirre, Kyunghyun Cho (2017) Unsupervised Neural Machine Translation arXiv:1710.11041
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Traducción automática neuronal sin supervisión se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Nacido para ser autista
En los años sesenta, Leo Kanner (uno de los dos primeros descubridores del autismo) defendía su teoría de las “madres nevera/refrigerador”. En ella argumentaba que el autismo de los hijos era consecuencia de la falta de contacto materno adecuado: afirmaba que estas madres de hijos autistas eran distantes, poco afectivas con sus hijos y llegó incluso a decir que esas mujeres se habían “descongelado” lo justo para dar a luz a un hijo. Según Kanner, si una mujer tenía un hijo autista era porque ella había hecho algo mal. Esta idea falsa que directamente culpabilizaba a las madres tuvo un importante calado e incluso hoy en día es posible encontrar personas que argumentan que el origen de los trastornos del espectro autista (TDA) se deben a la educación, traumas, etc. Lo cual significa que hay gente que cree que los TDA son algo adquirido. Mientras que el enfoque opuesto es pensar que los TDA son trastornos del desarrollo: es decir, que su origen está en alteraciones internas producidas durante el propio desarrollo del individuo.
Antes de ver cuál de estos dos planteamientos es el correcto, creo que es importante aclarar qué es exactamente el autismo. Lo primero que debemos saber es que no existe “el autismo” sino los trastornos del espectro autista (TDA), dentro de los cuales hay una gran diversidad. Esto ya se ve en los dos primeros estudios donde se documentan estos trastornos: el trabajo de Leo Kanner (1943) describe niños que mayoritariamente tienen muchas dificultades para hablar y discapacidad intelectual, mientras que en el estudio de Hans Asperger (1944) los niños tienen un uso preciso del lenguaje y no presentan discapacidad intelectual. Hablo de niños porque los TDA afectan principalmente a varones en una proporción que va desde 4 a 1, hasta 8 niños por cada niña según el tipo de TDA. Independientemente del género, algunas de las características principales de los trastornos del espectro autista son problemas en el uso del lenguaje o habilidades sociales. Además, junto con el propio trastorno los pacientes suelen padecer algún tipo de discapacidad intelectual en más de la mitad de los casos o epilepsia (alrededor del 30% de los casos); entre otros problemas.
La primera pista sobre el origen de estos trastornos la tenemos en el incremento de los casos en las últimas décadas, que ahora se sitúa en cerca del 1% de la población y es un porcentaje superior al documentado con anterioridad. Esta subida se debe principalmente a tres motivos: el primero es una mejora de las técnicas diagnósticas que permiten detectar más casos, el segundo es un cambio en lo que entendemos por TDA hacia una definición clínica más amplia que recoge casos que antes no se consideraban TDA, y el tercer motivo es un incremento de la edad a la que las parejas conciben hijos. Aquí está la pista. Muchos estudios están documentando que cuanto más mayores son los progenitores a la hora de concebir un hijo (y en muchos de ellos se señala que es especialmente importante la edad del padre), más probable es que su descendencia tenga un TDA. ¿Por qué? Porque conforme envejecemos nuestra capacidad de generar células reproductoras es peor y los genes que trasmitimos a través de ellas contienen más fallos. Esto indica que los problemas genéticos tienen un papel importante en el desarrollo del TDA, y eso es algo que también se ve si uno estudia árboles genealógicos o trabajos donde se ha documentado casos de gemelos. En ellos se ha visto que si uno de ellos desarrolla un TDA, en el 60-90% de los casos el otro hermano también desarrollará un TDA.
Que la genética tenga un factor decisivo en la aparición de TDA no es suficiente para definirlo como un trastorno que se produce durante el desarrollo del organismo: para ello es esencial ver cuándo aparece el TDA. Los seres humanos nacemos extremadamente poco desarrollados, siendo además el cerebro el tejido más inmaduro y tarda unas dos décadas en acabar de formarse. Trastornos neurológicos que se manifiesten dentro de este espacio de tiempo pueden deberse en parte a anomalías del desarrollo, y cuanto más pronto aparezcan pues es más probable que el desarrollo nervioso esté implicado en su aparición. En el caso de los TDA, los diagnósticos tempranos se sitúan entorno a los dos/tres años de edad. Lo cual ya es muy temprano pero es que además, en estudios con bebés de seis meses ha sido posible analizar el funcionamiento de sus redes neuronales a los seis, doce y veinticuatro meses; encontrándose que aquellos pequeños que a los veinticuatro meses eran diagnosticados con un TDA, a los seis meses ya presentaban alteraciones en el funcionamiento de sus redes neuronales. Y además, se ha hallado una correlación entre la severidad de estas anomalías a los seis meses y la gravedad de los síntomas a los veinticuatro meses.
En resumen, todo esto nos dice que los TDA son intrínsecos a la propia formación del sistema nervioso del paciente y por lo tanto es parte de ellos mismos. No es algo que se adquiera después de nacer sino que se manifiesta después de nacer. Se nace siendo autista. Esto es importante por dos aspectos: en primer lugar para no culpar al entorno, la familia, el calendario de las vacunas infantiles, etc. de los casos que aparezcan. Y en segundo lugar es vital para el tratamiento: actualmente la única posibilidad para intentar mitigar los síntomas del TDA es diagnosticar y tratar a los pacientes cuanto antes, porque los procesos del desarrollo son mayoritariamente irreversibles pero durante las fases iniciales a veces hay un cierto margen para dirigirlos parcialmente en otra dirección.
Este post ha sido realizado por Pablo Barrecheguren (@pjbarrecheguren) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
Referencias:
- Constantino, J. N., & Marrus, N. (2017). The Early Origins of Autism. Child and Adolescent Psychiatric Clinics of North America, 26(3), 555–570.
- John D. Lewis*, Alan C. Evans, John R. Pruett Jr, Kelly N. Botteron, Robert C. McKinstry, Lonnie Zwaigenbaum, Annette Estes, Louis Collins, Penelope Kostopoulos, Guido Gerig, Stephen Dager, Sarah Paterson, Robert T. Schultz, Martin Styner, Heather Hazlett, and Joseph Piven, for the IBIS network. (2017). The emergence of network inefficiencies in infants with autism spectrum disorder. Biol Psychiatry. 2017 August 01; 82(3): 176–185.
- Principles of Neural Science, Fifth Edition (2012). Editorial McGraw-Hill Education.
- Swaab D. We are our brains (2014). Penguin Books.
El artículo Nacido para ser autista se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ainhoa Plaza-Zabala: “Glia zelulak ezinbestekoak dira giza garunaren funtzionamendurako” #Zientzialari (88)
Neurona bakoitzeko hamar glia zelula daudela kalkulatzen da. Zelula mota hauek ezinbestekoak dira neuronen eta giza garunaren funtzionamendu egokirako. Izan ere, neuronak ezingo lirateke bizi glia zelulek ematen dizkieten baliabiderik gabe.
Azken hamarkadetan egindako ikerketek glia zelulak neuronen euskarri fisiko bat baino gehiago direla aditzera eman dute. Neuronekin batera garuna osatzen duten zelula hauek propietate eta funtzio bereizgarriak dituzte. Besteak beste, glia zelulek neuronen ingurumenaren konposizioa kontrolatzen dute, baliabide energetikoak ematen dizkiete neuronei eta azken hauen arteko komunikazioa kontrolatzen dute.
Baina, zein motatako glia zelulak daude eta zein da bakoitzaren funtzioa? Zein ondorio ekar ditzake glia zelulen funtzionamendu txarrak? Galdera hauei erantzun bat emateko Achucarro Basque Center for Neuroscience zentroan ikertzailea den Ainhoa Plaza-Zabalarekin izan gara.
‘Zientzialari’ izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.
The post Ainhoa Plaza-Zabala: “Glia zelulak ezinbestekoak dira giza garunaren funtzionamendurako” #Zientzialari (88) appeared first on Zientzia Kaiera.
Autismo y educación: problemas y pautas en el aula
¿Cómo se tratan algunos de los trastornos cognitivos más frecuentes en las aulas? ¿Son efectivos los programas y herramientas del sistema educativo actual? ¿Carecen de eficacia algunas de las prácticas educativas más populares?
Estas son algunas de las cuestiones que se debatieron en la jornada “Las pruebas de la educación”, que se celebró el pasado 2 de febrero de 2018 en el Bizkaia Aretoa de Bilbao. El evento, en su segunda edición, estuvo organizado por la Cátedra de Cultura Científica de la UPV/EHU y el Consejo Escolar de Euskadi, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT).
Las ponencias de los expertos que expusieron múltiples cuestiones relacionadas con la educación, basándose siempre en las pruebas científicas existentes. Los especialistas hicieron especial hincapié en destacar cuál es la mejor evidencia disponible a día de hoy con el objetivo de abordar las diferentes realidades que coexisten en las aulas y en el sistema educativo en general.
“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde diversos ámbitos de la actividad científica. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.
En “Autismo y educación: Problemas y pautas en el aula”, José Ramón Alonso, neurobiólogo y catedrático de biología celular en la Universidad de Salamanca, nos acerca al concepto del autismo, sus posibles causas y los tratamientos más empleados, con el objetivo de identificar las pautas concretas que pueden ayudar a maestros y profesores a tratar en el aula este trastorno cognitivo.
José Ramón Alonso: ''Autismo y educación: Problemas y pautas en el aula''Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Autismo y educación: problemas y pautas en el aula se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Urtaroarteko biltegiratze termikoko sistema baten bideragarritasun tekno-ekonomikoaren azterketa
Espainiako zein Europako hainbat legek energia berriztagarrien erabilera sustatzen dute, Espainiako Kode Teknikoa (CTE) eta Energy Performance of Building Directive (EPBD), besteak beste. Espainiaren kasuan, (CTE), DB-HE agirian, energia aurrezteko eskakizunak betetzeko arauak eta prozedurak azaltzen dira. Horren barnean, HE4 dokumentuan, ur bero sanitarioko (UBS) eskaria asetzeko eguzki energia termikoko kontribuzio minimo bat egin behar dela azaltzen da, Espainiako gune klimatiko ezberdinen araberakoa. Europaren kasuan, ordea, EPBD-ak kontsumo ia nuluko eraikinerantz bideratzen gaitu (NZEB, Nearly Zero Energy Buildings), hau da, eraikinek kontsumitzen duten energiaren kantitate bera produzitu behar dutela.
Europako energiaren kontsumo totalaren %40 eraikinek eragiten dute. Horietan berokuntza eta ur bero sanitarioaren erabilerak nabarmentzen dira batik bat. Espainiaren kasuan, ur bero sanitarioaren kontsumoak %27 suposatzen du eta berokuntzak, ordea, %50a.
Urtaroarteko biltegiratze termikoko sistema (STES: Seasonal Thermal Energy Storage) kalefakzioko eta UBSko beharrak asetzeko erabili ohi da. Eguzki energia termikoa erabiltzen duen sistema da, non udako hilabeteetan, eguzki kolektore termikoen laguntzaz, eguzki energia termikoa (beroa) biltegiratzen den, ondoren, neguko hilabeteetan erabiltzeko helburuarekin. Izan ere, udan, eguzki energia termiko altuagoa biltegira dezakegu neguan baino. Gainera, urteko bero-eskari ia totala neguan ematen da, hau da, udan ia ez dago bero-eskaririk. Bi arrazoi horiek kontuan hartuta, udan (apiriletik urrira arte) soberan dagoen eguzki energia termikoa biltegiratuko da, hala, neguko bero-eskariak asez.
Lau STES mota ezberdin bereizten dira: ur depositua, putzuko biltegiratzea, biltegiratze geotermikoa eta akuiferoak. Horiek biltegiratze ahalmen handiko biltegi termikoak dira eta bertan ur bero kantitate handiak biltegira daitezke. Beraz, distritu baten bero-beharraren zati handi bat asetzeko ahalmena dute. Eguzki kolektoreekin eta biltegiratuta dagoenarekin ase ezin daitekeen eskaria ekipo laguntzaile batek aseko luke. Artikulu honen bitartez ur depositu motako biltegiak izango lukeen ahalmena aztertu izan da.
Simulazioak egiteko, TRNSYS (TRaNsient System Simulation program) sistema iragankorren simulazio programa erabili da. Oro har, energia berriztagarrien ingeniaritzan egiten ditu simulazioak. Programa honek hiri askotako aldagai klimatologikoen data baseak dauzka bere baitan, Espainiako probintzien hiriburuenak barne.
Hortaz, TRNSYS-aren laguntzaz, Espainiako gune klimatiko ezberdineko hainbat hiritan bi distritu tamaina ezberdinak simulatu dira. Bata txikia, 100-200 arteko etxebizitza kopuruarekin eta bestea distritu handia, 1000-2000 arteko etxebizitzekin. Bi kasuetan, tankearen tamaina ezberdinekin eta eguzki kolektore azalera ezberdinekin egin dira simulazioak. Hala, sistema horren bitartez lortzen den eguzki frakzioa (ase daitekeen UBS-ko eskariaren portzentajea) eta hori eraikitzeak suposatuko lukeen inbertsioa ikusi da.
Honakoa ondorioztatu da emaitzei erreparatuz:
Tankearen bolumena eta kolektoreen azalera handituz, eguzki frakzioa handitzen da. Baina eguzki kolektoreen azalerak garrantzi handiagoa du, eta, hortaz, errentagarriago suertatzen da kolektoreen azaleraren tamaina handitzea tankearen bolumena baino.
Alderdi ekonomikoari dagokionez, konprobatu da zenbat eta distritu handiagoa izan, orduan eta inbertsio handiagoa egin beharko dela, baina horrek geroz eta onura gehiago dakartza.
Artikuluaren fitxa:- Aldizkaria: Ekaia
- Zenbakia: Ekaia 30
- Artikuluaren izena: Urtaroarteko biltegiratze termikoko sistema baten bideragarritasun tekno-ekonomikoaren azterketa.
- Laburpena: Gaur egun, Europako energiaren kontsumo osoaren %40 eraikinek eragiten dute. Kontsumo horren barnean, eraikinetako berokuntza eta ur bero sanitarioaren (UBS) erabilera nabarmentzen da, batik bat. Espainiaren kasuan, berokuntza %50 da, eta UBSa, berriz, %27.Proiektu honen bitartez, Espainia mailan Urtaroko biltegiratze termikoko sistemen (STES) bideragarritasun ekonomiko zein energetikoa aztertu da. Espainiako hainbat hiritako eskari termikoak simulatu dira, eta STESaren bitartez berogailuko eta UBSko eskari osoaren %45-60 artean asetzeko saiakera egin da. Beraz, ikusita eraikinetan kontsumo energetiko handia izaten dela eta, gainera, jakinda Eraikuntzarako Kode Teknikoak (CTE) ur bero sanitariorako eguzki-energia termikoaren kontribuzio minimoa derrigortzen duela, sistema horien bideragarritasunaren azterketa ezinbestekoa da. Hala, energia berriztagarrien erabilera sustatzen da.
- Egileak: Oihane Setién Echenique eta Carol Pascual Ortiz
- Argitaletxea: UPV/EHUko argitalpen zerbitzua
- ISSN: 0214-9001
- Orrialdeak: 71-79
- DOI: 10.1387/ekaia.15854
—————————————————–
Egileez:
Oihane Setién Echenique Aula Tecnalian dabil eta Carol Pascual Ortiz Tecnaliako Energia eta Ingurumeneko Dibisioan.————————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post Urtaroarteko biltegiratze termikoko sistema baten bideragarritasun tekno-ekonomikoaren azterketa appeared first on Zientzia Kaiera.
Si hacer fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino
Muchos de los fármacos que conocemos son compuestos muy complejos. Esto quiere decir que están formados por muchos átomos unidos entre sí de una manera concreta. Hacer que estos átomos se unan de una forma y no de otra es una tarea complicada. Al estudio de estos procesos de ensamblaje de átomos se le llama «síntesis química».
Los átomos no se comportan como piezas de Lego. No siempre podemos ensamblarlos y desensamblarlos a nuestro antojo, ya que unos átomos tienen más afinidad por unos que por otros, tienen tendencia a colocarse en unas posiciones y no en otras, a girarse, etc. Por eso es tan importante diseñar una buena ruta de síntesis, en la que cada átomo acabe ocupando la posición deseada.
Uno de los átomos más famosos de los fármacos es el carbono. El carbono está presente en casi todos los fármacos que conocemos. Es capaz de unirse a otros átomos de forma muy diferente. El carbono es como una pieza de Lego con cuatro posiciones de ensamblaje. Desgraciadamente es muy difícil conseguir una pieza solitaria de este carbono. En la naturaleza siempre está unido a más piezas y, en el caso de tener alguna posición libre (formando lo que denominamos radicales libres) son muy inestables y enseguida encuentran a quién unirse.
Esto ha sido un quebradero de cabeza para los químicos que trabajan en síntesis. Al menos hasta ahora. Recientemente, un grupo de investigadores del Instituto Catalán de Investigación Química (ICIQ), liderado por el joven químico Marcos García Suero, acaba de encontrar un método revolucionario que permite conseguir la ansiada pieza solitaria de carbono. Esta pieza sólo tiene una de sus posiciones ocupadas por hidrógeno, el resto están listas para ensamblarse a los átomos que deseemos. Esta pieza se denomina carbino.
El carbino fue una de las primeras moléculas halladas en el espacio interestelar. Los astrofísicos lo detectaron en los años 30 del siglo pasado. Estos carbinos se detectan en eventos astonómicos muy energéticos y violentos, como en la formación de estrellas. Duran muy poco como carbinos porque tienen esa tendencia a unirse rápidamente a otros átomos. Esto es lo que los hace tan escurridizos.
Lo que han hecho los investigadores del ICIQ es sintetizar un equivalente de los carbinos. Este equivalente se llama radical diazometilo. Si seguimos con la analogía de las piezas de Lego, el radical diazometilo sería como una pieza de carbino con sus posiciones ocupadas por piezas de quita y pon, fáciles de intercambiar por piezas definitivas.
Tanto el hallazgo de este carbino equivalente, como la forma de sintetizarlo, ha llevado a estos investigadores a publicar su descubrimiento en la prestigiosa revista científica Nature. Su artículo lleva por título «Generación de carbinos equivalentes por medio de catálisis fotorredox». Para obtener carbino en el laboratorio no se pueden emular los violentos eventos astronómicos. Lo que han hecho estos investigadores es darle un empujón a la reacción de obtención de estos carbinos ayudándose de catalizadores. Los catalizadores que utilizaron son unos compuestos con rutenio sensibles a la luz, de ahí el prefijo foto de catálisis fotorredox. El catalizador, al recibir un fotón de luz LED, da el pistoletazo de salida para que se forme el carbino. Los procesos de fotocatálisis son, de hecho, una de las líneas de investigación más importantes del ICIQ.
Estos investigadores han probado la eficacia del carbino para modificar a antojo algunos medicamentos ya existentes. Así, han modificado con éxito el principio activo del ibuprofeno, del antidepresivo duloxetina, del antitumoral taxol, y del fingolimod, el primer tratamiento oral que existe para la esclerosis múltiple.
Este carbino no solo se podrá usar para mejorar los fármacos que ya conocemos, sino que podrá ayudar a acelerar el diseño y desarrollo de nuevos medicamentos. Si la química del desarrollo de fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino.
Agradezco a Fernando Gomollón Bel su ayuda con este artículo.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Si hacer fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Arrainak vs. zefalopodoak
———————————————————————————————————–
Zefalopodoek milaka urte daramatzate itsasoetan. Arrainak sortu baino lehen, haiek ziren itsasoetako harrapari nagusiak. Zefalopodoak ziren aktibitate-maila altuena garatzen zuten animaliak. Baina gero arrainak sortu ziren, uretako ornodunak, lehen ornodunak, eta gailendu egin zitzaizkien. Sortu eta berehala, sekulako arrakasta lortu zuten; arrainak harrapari nagusi bilakatu, eta zefalopodoak bigarren maila batean geratu ziren.Arrainen arrakasta horren gakoa da hemen laburki aztertu nahi duguna. Litekeena da oxigenoa izatea gako hori, edo hobeto esanda, oxigenoarekin zerikusi handia duten fisiologia-ezaugarriak.
Zefalopodoen igeri egiteko modua ikusgarria da benetan, oso trebeak dira. Baina ez da batere eraginkorra arrainen igeri egiteko moduaren alboan, zefalopodoen jet-propultsioko igeriketa oso garestia baita. Igeriketa-modu horrek energia asko kontsumitzen du eta, energiarekin batera, oxigeno asko. Izan ere, zefalopodo batek arrain batek baino lau bider oxigeno gehiago kontsumitu behar du abiadura bera lortzeko.
Energia gehiago kontsumitu behar izatea, berez, eragozpena da janaria mugatua denean (eta janaria ia beti izaten da mugatua). Baina baliteke energia baino areago oxigenoa izatea kasu honetan gakoa. Abiadura bera garatzeko zefalopodoek arrainek baino lau bider oxigeno gehiago erabili behar dute. Garrantzi handikoa izan daiteke hori, noski, baina, horrez gain, zefalopodoen odolaren oxigeno-edukiera arrainena baino askoz txikiagoa da: %5ekoa zefalopodoena eta %10ekoa arrainena. Horren ondorioz, arrainek zefalopodoek baino askoz oxigeno gehiago eskura dezakete kanpo-mediotik, bi aldiz gehiago, zehatzagoak izateko.
Zefalopodoen arnas pigmentua hemozianina da, eta arrainena hemoglobina. Arrainek globulu gorrietan gordetzen dute, baina zefalopodoek plasman disolbatuta daramate. Hori dela eta, zefalopodoek ezin dute hemozianina-kontzentrazio altuagorik izan; pigmentua plasman disolbatuta egonik, haren kontzentrazioa handituko balitz odolaren biskositatea gehiegizkoa izango litzateke.
Laburtuz, arrainek garatu zuten igeri egiteko modua, batetik ,eta arnas pigmentuaren ezaugarriak, bestetik, horiek biak izan omen ziren ozeanoetako harrapari nagusi gisa gailendu ahal izateko gakoak.
—————————————————–
Egileez: Juan Ignacio Pérez Iglesias (@Uhandrea) eta Miren Bego Urrutia Biologian doktoreak dira eta UPV/EHUko Animalien Fisiologiako irakasleak.
—————————————————–
Artikulua UPV/EHUren ZIO (Zientzia irakurle ororentzat) bildumako Animalien aferak liburutik jaso du.
The post Arrainak vs. zefalopodoak appeared first on Zientzia Kaiera.
Óxido de vanadio (IV), un material para una revolución de ciencia ficción
Primero vino el interruptor. Luego el transistor. Ahora otra innovación puede revolucionar la forma en que controlamos el flujo de electrones a través de un circuito: el óxido de vanadio (IV), de fórmula VO2. Una característica clave de este compuesto es que se comporta como un aislante a temperatura ambiente, pero como un conductor a temperaturas superiores a 68 °C. Este comportamiento, también conocido como transición de aislante de metal, podría ser muy útil para una variedad de aplicaciones nuevas y emocionantes.
Los científicos conocen desde hace mucho tiempo las propiedades electrónicas del VO2, pero no han podido explicarlas hasta ahora. Resulta que su estructura atómica cambia de fase a medida que aumenta la temperatura, pasando de una estructura cristalina a temperatura ambiente a una metálica, a temperaturas superiores a 68 ° C.
Lo verdaderamente interesante es que esta transición ocurre en menos de un nanosegundo, algo que lo hace muy útil para aplicaciones electrónicas. No solo eso, además de a la temperatura, resulta que el VO2 también es sensible a otros factores que podrían hacer que cambie de fase, como la inyección de energía eléctrica, determinadas iluminaciones, o la aplicación de un pulso de radiación de terahercios (en el límite entre microondas e infrarrojo). Todo ello implica que el consumo energético del interruptor es minúsculo.
Contrariamente a lo que podamos suponer, 68ºC es una temperatura de transición demasiado baja para la electrónica de los dispositivos actuales, donde los circuitos funcionan sin problemas a unos 100 ºC. Una solución a este problema la propusieron investigadores de la Escuela Politécnica Federal de Lausana (Suiza) en julio de 2017 que consistía en añadir germanio a una lamina de VO2. Simplemnete con esto la transición pasaba a ocurrir a 100 ºC.
Solucionado este problema, investigadores del mismo grupo suizo, que incluye a la ingeniera española Montserrat Fernández-Bolaños, han sido capaces de fabricar por primera vez filtros de frecuencia modulables ultracompactos. Esta tecnología hace uso de las características de interruptor por cambio de fase del VO2 y es especialmente eficaz en un rango de frecuencias que es crucial para las comunicaciones espaciales, la llamada banda Ka. Esta banda es la que se emplea, por ejemplo, para la descarga de datos científicos del telescopio espacial Kepler y es la que se usará en telescopio espacial James Webb. Los filtros pueden programarse para modular entre los 28,2 y los 35 GHz.
Estos primeros resultados es muy posible que estimulen la investigación de las aplicaciones del VO2 en dispositivos electrónicos de potencia ultrabaja. Además de las comunicaciones espaciales que mencionábamos, otras posibilidades podrían ser la computación neuromórfica (computación basada en circuitos analógicos que simulan estructuras neurobiológicas) y los radares de alta frecuencia para automóviles autónomos.
Referencia:
E. A. Casu , A. A. Müller, M. Fernández-Bolaños et al (2018) Vanadium Oxide bandstop tunable filter for Ka frequency bands based on a novel reconfigurable spiral shape defected ground plane CPW IEEE Access doi: 10.1109/ACCESS.2018.2795463
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Óxido de vanadio (IV), un material para una revolución de ciencia ficción se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las vacas de Narayana, la versión hindú de los conejos de Fibonacci
En octubre de 2002, el compositor minimalista norteamericano Tom Johnson visitó la Universidad del País Vasco/Euskal Herriko Unibertsitatea. Durante dicha visita Tom Johnson ofreció dos interesantes seminarios sobre su forma de componer utilizando las matemáticas y se organizaron algunos conciertos. Una de las composiciones musicales que tuve el placer de escuchar entonces fue Las vacas de Narayana (1989), interpretada por los miembros del grupo Kuraia Ensemble (Asociación de Música Contemporánea del País Vasco), Andrea Cazzaniga (violín), Rafael Climent (clarinete) e Iñigo Ibaibarriaga (saxofón).
Para componer la obra Las vacas de Narayama, Tom Johnson se basó en el problema homónimo propuesto por el matemático indio Narayana Pandita (1340-1400) en su tratado de aritmética Ganita Kaumudi (1356). Una de las cuestiones estudiadas por Narayana Pandita en esta obra fueron las sucesiones que él llamó “aditivas”, entre las que se encuentra la que nosotros conocemos como sucesión de Fibonacci.
El problema de las vacas de Narayana dice lo siguiente:
Si las vacas tienen una cría cada año, y cada ternera, después de los tres años que necesita para convertirse en una vaca madura, tiene una cría a principio de cada año, ¿cuántas vacas habrá después de 20 años a partir de una primera ternera?
Si empezamos con una ternera recién nacida, a principios de año, durante los tres primeros años solamente tendremos una (1) vaca, esa primera ternera. El cuarto año empezará realmente a crecer la población bovina, con la vaca inicial y su primera ternera, luego dos (2) vacas en total. Habrá una ternera más al principio de cada uno de los dos siguientes años, luego tres (3) el quinto año y cuatro (4) el sexto. Al inicio del séptimo, la primera ternera nacida de la vaca original ya puede tener también terneras, por lo que ese año habrá dos vacas adultas y cuatro terneras, en total, seis (6) vacas. El siguiente año una nueva ternera pasa a la madurez y tres vacas tienen una ternera cada una, luego en total hay tres vacas maduras y seis terneras, luego nueve (9) vacas. Al inicio del noveno año, habrá trece (13) vacas, cuatro adultas y nueve terneras. En el siguiente gráfico hemos representado la evolución de vacas en esos nueve primeros años.
Pero continuemos… ¿cuántas vacas habrá el décimo año? Estarán las que ya estaban el año anterior, es decir, trece (13) vacas, más las terneras de las vacas que ese año pueden tener crías, que son exactamente las vacas que había hace tres años, seis (6) vacas, en total, diecinueve (13 + 6 = 19) vacas. Como se ve en el siguiente gráfico, seis son vacas maduras y trece son terneras, pero también podemos numerarlas por generaciones, la vaca original es la primera generación, hay siete vacas de la segunda generación, diez de la tercera y una de la cuarta.
El razonamiento que hemos realizado para obtener el número de vacas al inicio del décimo año es, de hecho, general y realmente nos da una fórmula recursiva para resolver el problema de las vacas de Narayana. Si se denota por v(n) el número de vacas que habrá en el año n, entonces
v(n) = v(n – 1) + v(n – 3),
siendo además, v(1) = v(2) = v(3) = 1.
Por lo tanto, se pueden obtener fácilmente los primeros veinte números de la sucesión de vacas de Narayana,
1, 1, 1, 2, 3, 4, 6, 9, 13, 19, 28, 41, 60, 88, 129, 189, 277, 406, 595, 872, …
Luego, después de veinte años, es decir, al inicio del año veintiuno, habrá 406 + 872 =1.278 vacas.
Incluso, podemos hacer una tabla de la sucesión de vacas de Narayana, viendo las vacas que hay de cada generación.
Observando esta tabla con los primeros años ya podemos extraer algunas curiosas conclusiones. Por ejemplo, el número de vacas de la segunda generación son los números naturales, puesto que son las vacas que van naciendo de la vaca original, y cada año tiene una nueva ternera, luego cada año una más, 1, 2, 3, 4, 5, …
En la tercera generación se obtienen los números triangulares, ya que son las sumas de los primeros números naturales, puesto que son las vacas descendientes de las de la generación anterior. Por ejemplo, en el décimo año hemos visto que el número de vacas de la segunda generación eran 1 + 2 + 3 + 4 = 10. Recordemos que los números triangulares T(n), que se llaman así puesto que son los que se obtienen al colocar piedras o discos circulares formando un triángulo equilátero (como se ve en la imagen siguiente), son aquellos que son la suma de los primeros números naturales, T(n) = 1 + 2 + 3 + … + (n – 1) + n.
Por el mismo motivo, las vacas de la cuarta generación serán los llamados números tetraédricos, 1, 4, 10, 20, 35, … ya que serán las sumas de los primeros números triangulares, los que aparecen en la tercera generación. Recordemos que los números tetraédricos son el número de bolas que hay en una pirámide triangular (como la de la imagen), es decir, un tetraedro, y que es igual a la suma de los primeros números triangulares, TT(n) = T(1) + T(2) + … + T(n).
Dejemos por un momento la sucesión de las vacas de Narayana y volvamos a la composición musical basada en este problema. Pero antes presentemos brevemente a su autor, el compositor Tom Johnson.
Tom Johnson (Greeley, Colorado, EE.UU.), es un compositor minimalista y teórico de la música estadounidense. Se graduó en la Universidad de Yale, donde obtuvo además su grado avanzado en música. Fue alumno del compositor Morton Feldman (1926-1987), uno de los artífices, junto con John Cage (1912-1992), de la música aleatoria.
Es un compositor minimalista, ya que trabaja con formas simples, escalas limitadas y de manera general, con material reducido. Y dentro del minimalismo destaca por el uso de las matemáticas en el proceso creativo. Fórmulas matemáticas, trigonometría, simetrías, teselaciones, combinatoria, sucesiones de números enteros, teoría de números o fractales, son algunas de las teorías matemáticas que utiliza en sus composiciones.
Tom Johnson ha escrito de su música: “quiero encontrar la música, no componerla”, o como decía su maestro Morton Feldman “Deja a la música hacer lo que quiere hacer”. Mientras John Cage, o Morton Feldman, realizan esta búsqueda mediante el azar, Tom Johnson lo hace mediante las matemáticas.
Entre sus obras encontramos óperas como Riemannoper (1988), Trigonometría (1997) o la más famosa La ópera de las cuatro notas (1972), que fue representada en España en 2015 por Vania Produccions bajo la dirección de Paco Mir (que muchos conoceréis por ser uno de los miembros del trío Tricicle) o composiciones musicales muy creativas e interesantes, como Nueve campanas (1973), Simetrías (1981), Melodías Racionales (1982), Melodías infinitas (1986), Música para 88 (1988), Las vacas de Narayana (1889), Galileo (2001), Mosaicos (2002), o Ritmos de Vermont (2008), entre muchas otras.
Ha escrito libros como la colección de artículos de crítica musical The voice of the new music (Apollohuis, 1989), Self-similar Melodies (Editions 75, 1996) o Looking at numbers (Birkhauser, 2014).
En la composición musical Las vacas de Narayana, Tom Johnson realiza en esta obra una demostración musical del problema matemático. Para ello, divide la pieza en diferentes partes, cada una de las cuales se corresponde con un año del problema de las vacas, y en cada una de esas piezas hay tantas notas como el número de vacas que hay ese año, siendo una nota larga para cada vaca madura y una nota corta para cada ternera.
Aunque antes de seguir hablando de esta composición, lo que debemos hacer es escucharla. Esta pieza está incluida en el álbum Kentzy plays Johnson (2004), con el saxofonista Daniel Kientzy y en el álbum Cows, Chords and Combinations (2011), del grupo Ensemble Klang. Os traemos aquí dos conciertos que están en youtube. Uno es un concierto en Toronto en 2010, organizado por Continuum Contemporary Music.
mientras que el otro es un concierto en 2014, en el Switchboard Music Festival
Como hemos podido observar los conciertos empiezan en el cuarto año, cuando la vaca original tiene su primera ternera. Además, Tom Johnson distribuye las notas largas y cortas, que se corresponden con vacas maduras y terneras en la composición, siguiendo unas estructuras de árbol similares a los que hemos incluido más arriba para los diez primeros años del problema, y leyendo las vacas que hay, de arriba hacia abajo y de derecha a izquierda en esos diagramas de tipo árbol.
Por ejemplo, si escuchamos (o leemos la partitura, cuya primera página hemos incluido más abajo) la sucesión de notas que se corresponde con el quinto año del concierto (el octavo en el problema entero de las vacas de Narayana, o también en la partitura escrita) y miramos al diagrama de árbol de ese año, observaremos que las notas serán
larga – corta – corta – corta – larga – corta – larga – corta – corta
Cuando se escucha la obra de Tom Johnson, los primeros años de la composición musical sirven para entender el problema de las vacas de Narayana y la forma en la que el compositor asocia las notas musicales con las vacas maduras y crías, mientras que según van pasando los años vamos percibiendo la estructura, que surge a partir del problema matemático, de la composición musical.
Regresemos de nuevo a las matemáticas de la sucesión numérica de las vacas de Narayana. Es un hecho muy conocido, tanto en la literatura matemática, como por las personas interesadas en la sucesión de Fibonacci (véase alguno de los libros titulados La proporción áurea, de Mario Livio o Fernando Corbalán), que si se toma el cociente entre dos miembros consecutivos de la sucesión de Fibonacci F(n + 1) / F(n), esta sucesión de cocientes, converge (al ir aumentando n) a la proporción áurea, phi = 1,6180339…
1/1 = 1; 2/1 = 2; 3/2 = 1,5; 5/3 = 1,666…; 8/5 = 1,6; 13/8 = 1,625; 21/13 = 1,615…; 34/21 = 1,619…; 55/33 = 1,617…; etc…
¿Ocurrirá algo similar si tomamos la sucesión de los cocientes de números consecutivos de la sucesión de las vacas de Narayana? La respuesta es afirmativa, como vamos a ver a continuación.
Empezamos en la fórmula recursiva de la sucesión de vacas de Narayana
v(n + 1) = v(n) + v(n – 2),
a la que le dividimos por v(n) y además, en el último sumando, multiplicamos y dividimos por v(n – 1), para obtener la expresión
v(n + 1) / v(n) = 1 + v(n – 2) / v(n – 1) × v(n – 1) / v(n).
Si llamamos κ al límite, cuando n tiene de infinito, del cociente v(n + 1) / v(n), la anterior expresión nos dice que κ satisface la ecuación de tercer grado κ 3 – κ 2 – 1 = 0, que podemos llamar la ecuación de Narayana. Esta ecuación tiene tres soluciones, dos de ellas imaginarias, y la solución real que buscamos es (calculada con WolframAlfa)
Aproximadamente, κ = 1,46557123187676802665673… que podríamos llamar la proporción de Narayana.
Vamos a terminar esta entrada del Cuaderno de Cultura Científica mostrando algunas caracterizaciones interesantes de la sucesión de vacas de Narayana.
A. Número de embaldosados con triominós rectos de rectángulos 3 × (n – 1).
Consideremos un rectángulo de tamaño 3 × (n – 1), como el que aparece en la imagen de abajo (ese en particular es de tamaño 3 × 5), entonces el número v(n) de la sucesión de vacas de Narayana para el año n, es igual a la cantidad de embaldosados posibles con triominós rectos, fichas de tamaño 1 × 3, también llamados I-triominós (véase la entrada Embaldosados con L-triominós (un ejemplo de demostración por inducción) [https://culturacientifica.com/2014/07/16/embaldosando-con-l-triominos-un-ejemplo-de-demostracion-por-induccion/]), es decir, el número de diferentes maneras que hay de colocar triominós rectos en el rectángulo 3 × (n – 1).
Esta caracterización es una versión geométrica del siguiente resultado de la Teoría de números relacionado con las particiones de los números.
B. Número de composiciones del número n – 1, con el 1 y el 3.
Recordemos primero dos conceptos básicos de la Teoría de números, como son las particiones y las composiciones. Una partición de un número entero positivo es una forma de expresarlo como suma de números enteros positivos, donde el orden no es relevante. Por ejemplo, el número 3 puede expresarse como suma de tres formas distintas {1 + 1 + 1, 2 + 1, 3}, mientras que existen cinco particiones del número 4 {1 + 1 + 1 + 1, 2 + 1 + 1, 2 + 2, 3 + 1, 4}. Si se denota por p(n) el número de particiones de n, entonces p(3) = 3 y p(4) = 5.
Si en las particiones se tuviera en cuenta el orden, se obtendrían las composiciones, o particiones ordenadas, que se denotan c(n). Así, las particiones ordenadas de 4 son: {1 + 1 + 1 + 1, 2 + 1 + 1, 1 + 2+ 1, 1 + 1 + 2, 2 + 2, 3 + 1, 1 + 3, 4}. Luego, c(4) = 8, mientras que p(4) = 5.
La sucesión de números de Narayama, al igual que la de Fibonacci (véase, por ejemplo, el libro Cayley, el origen del álgebra moderna), se puede relacionar con ciertos tipos de composiciones de números. En particular, la anterior caracterización geométrica es equivalente a que el número v(n) de la sucesión de vacas de Narayana para el año n, es igual al número de composiciones del número n – 1 con únicamente los números 1 y 3. Así, como las composiciones, con 1 y 3, de 6 son {1+1+1+1+1+1, 1+1+1+3, 1+1+3+1, 1+3+1+1, 3+1+1+1, 3+3}, entonces v(7) = 6.
C. Número de formas de colocar n – 2 alfombras tatami en una habitación de tamaño 2 × (n – 2), sin que los vértices de 4 alfombras coincidan.
Recordemos que las alfombras tatami de las casas tradicionales japonesas tienen una relación de tamaño de 1 × 2.
Existen 13 formas de cubrir una habitación de tamaño 2 × 7 con alfombras tatami, sin que coincidan las esquinas de cuatro de ellas, que es exactamente el número v(9). De hecho, esas 13 maneras pueden describirse de la forma 1111111, 111112, 111121, 111211, 112111, 121111, 211111, 11212, 12112, 21112, 12121, 21121, 21211.
Si lo pensamos un momento, la descripción con 1 y 2 de colocar las alfombras tatami (1 para las verticales, 2 para las horizontales) nos está diciendo realmente que podemos describir el número de la sucesión de vacas de Narayana v(n) como las composiciones de n – 2 con tan solo los números 1 y 2, pero sin que haya dos 2 juntos.
D. Número de composiciones del número n – 2, con el 1 y el 2, sin que haya dos 2 juntos.
Como despedida de esta entrada otra pieza del compositor minimalista norteamericano Tom Johnson, la primera de sus melodías racionales, en mi opinión una hermosa pieza, interpretada por el Gruppo di Musica Contemporanea Steffani, en el Conservatorio Steffani, de Castelfranco Veneto (Italia), en 2009.
Bibliografía
1.- Página web de Editions 75
2.- Tom Johnson, Kientzy plays Johnson (álbum), 2004.
3.- Jean-Paul Allouche, Tom Johnson, Narayana’s Cows and Delayed Morphisms, Cahiers du GREYC Troisiemes Journées d’Informatique Musicale (JIM 96) 4, p. 2-7, 1996.
4.- Parmanand Singh, The so-called Fibonacci Numbers in Ancient and Medieval India, Historia Mathematica 12, p. 229-244, 1985.
5.- Krishnamurthy Kirthi, Subhash Kak, The Narayana Universal Code, ArXiv, 2016.
6.- Tom Johnson, Self-Similar Melodies, Editions 75, 1996.
7.- Tom Johnson, Looking at numbers, Birkhäuser, 2014.
8.- Fernando Corbalán, La proporción áurea, El lenguaje matemático de la belleza, RBA, 2010.
9.- Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, Ariel, 2006.
10.- Página web de la artista Charlotte Gerrard
11.- N. J. A. Sloane, La sucesión de vacas de Narayana, A000930 [https://oeis.org/A000930], Enciclopedia on-line de sucesiones de números enteros.
12.- Raúl Ibáñez, Cayley, el origen del álgebra moderna, colección Genios de las matemáticas, RBA, 2017.
13.- Frank Ruskey, Jennifer Woodcock, Counting Fixed-Height Tatami Tilings, The Electronic Journal of Combinatorics 16, 2009.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Las vacas de Narayana, la versión hindú de los conejos de Fibonacci se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Faltsutzeei aurre egiteko, lur arraroetan oinarritutako kodetze sistema
Behin baino gehiagotan agertu da gaiaren inguruko kezka: konputazio kuantikoa garatzen den heinean, gero eta errazagoa izango omen da kodeak apurtzea. Azken hamarkadetan eratu den informazioaren gizarteak kode horien beharra du. Izan ere, ia dena lotuta dago Internetera eta sarearen bitartez egiten diren operazioek gutxienezko segurtasuna behar dute. Batzuek diote, ordea, konputazio kuantikoak ere kode hobeagoak ezartzeko bidea emango duela… arrautza ala oiloa, nor ote aurrena?
Informazioa lapurtzeaz gain, produktuak faltsutzeko lehia ere abian da aspalditik. Teknologiak halako iruzurrak sortzeko aukera errazten du. Batzuetan enpresek baino ez dute jasaten kalte ekonomikoa, baina, beste zenbaitetan kontsumitzaileentzako arriskua ere egon daiteke tartean. Adibidez, faltsututako botiken kasuan.
Lehia teknologiko hau argitzen den bitartean, zientzialariek fisika eta kimika elkartzen diren eremu oparoan jarraitzen dute ikertzen; tartean, kode ziurragoak lortzeko ahaleginetan. Norabide horretan, Kopenhageko Unibertsitateko (Danimarka) ikertzaileek aurkeztu dute azken aurrerapena, Science Advances aldizkarian argitaratutako artikulu baten bitartez.
Sistemaren oinarria lur arraroen bitartez margotutako hondar aleetan datza. Argi mota berezi baten aurrean jartzen direnean, hondar ale horiek kitzikatuak izaten dira, eta argi kode berezia, ia-ia bakarra, sortzen dute. Kontuaren koska, noski, hondar aleen antolaketan datza eta baita espektroskopia bidezko irakurketan.
Taula periodikoan, lur arraroek lantanidoen taldea osatzen dute. Azken urteetan asko erabiltzen ari dira industrian, bereziki elektronikaren alorrean.
Horrelako kode bat sortzeko, ikertzaileek honako prozesua erabiltzen dute: hondar lagin handi bat hartu, eta hondarra hiru hobi desberdinetan banatzen dute. Ondoren, hodi bakoitzean lur arraro zehatz bat sartzen dute: Europioa, Terbioa eta Disprosioa.
Modu horretan, hondar ale bakoitza lur arraro batekin “margotuta” gelditzen da (edo dopatuta, kimikarien hizkera erabilita). Behin hori eginda, hiru laginak nahasten dituzte, eta euskarri batean, bildu dituzten hondar aleekin osatutako geruza fin bat osatzen dute. Uhin-luzera zehatza duen argia jasotzean, lur arraro bakoitzak argia modu desberdinean islatzen du. Hortaz, azalera txiki horrek berezko argi marka berezia izango du. Marka hori irakurtzeko, hiru laser ezberdin dituen gailu bat erabiltzen da. Bakoitzak era selektiboan kitzikatzen ditu lur arraroetako ioiak. Era horretan, ausazko patroi bat sortzen da hondarrez betetako gailuaren azaleran. Kitzikapen horren atzean eratzen den argiaren marka jasotzen da ondoren eta datu-base batean gordetzen da. Produktuaren fabrikatzaileak baino ez du izango datu hori; nahi izanez gero, produktua saltzaileak aukera izango du alderatzeko bere saltokian dagoen produktua benetan fabrikatzaile ofizialak ekoiztu ote duen ala norbaitek ziria sartu dion. Produktu bakoitzak kode bakarra izango du, beraz.
Antzeko bidea jorratu izan diren aurreko teknikekin alderatuz, prozesu berriaren abantailak nabarmendu dituzte ikerketa artikuluan. “Lantanidoetan oinarritutako koloratzaileak guztiz fotoegonkorrak dira, eta argia xurgatzen eta igortzen dute oso ondo zehaztuta dauden espektro elektromagnetikoko eremuetan”.
Diotenez, “hackeatu” ezin den segurtasun neurria da asmatutakoa. Kopenhageko Unibertsitateko ikertzaile Thomas Just Sørensen-en esanetan “munduko ziurrena” litzateke honakoa. Praktikan, eta estatistikaren arabera, marka hori ia bakarra dela adierazi du ikertzaileak prentsa ohar batean. “Bi produktuk ‘hatz marka’ berdina izateko duten probabilitatea hain da txikia ezen, praktikan, existitzen ez dela esan baitaiteke”, ziurtatu du Sørensenek. Guztiz imajinaezin den probabilitate hori 1/6.10104 da, hau da, aukera bat 104 zeroz jarraitutako 6 zenbaki bakoitzeko.
Bestetik, teknika hau kriptografian erabiltzeko aukera dagoela ere proposatu dute. “Patroi edo giltza digital hau erabil daiteke bai faltsutzeen kontrako giltza fisikoa egiaztatzeko edo edozein mezu enkriptatzeko ere”.
Praktikotasunari begiraUnibertsitateak sistema patentatu du jada eta, ikertzaileek egin duten aurreikuspenen arabera, urtebete barru merkatuan egon daiteke teknologia berria. Une honetan, eskanerrak hobetzeko lanean ari dira.
Zelako kostuan, ordea? Jakina da, askotan, merkatura heltzean, segurtasun neurri txukunek ez dutela arrakastarik lortzen erabilitako gailu bakoitzaren prezioa handiegia delako, babesten duen produktuaren prezioarekin alderatuz. Besteak beste, RFID teknologiaz babestutako alarmekin gertatu izan da hori. Irrati frekuentzia bidezko segurtasun gailu horiei asko kostatu zaie merkatura heltzea.
Kasu honetan, ez dirudi kostua arazo handiegia izango denik, gutxienez, euskarriari dagokionez. Produktuak markatzeko dispositiboaren kostua daniar koro bat baina pixka bat handiagoa izango dela aurreikusten dute ikertzaileek. Egun, 14 euro zentimo inguru balio du daniar koroak. Halere, produktuaren kodea irakurtzeak eta konprobatzeak guztira zenbat balioko duen kalkulatzeke dago oraindik.
Merkea izango omen den teknologia hau ausazkotasunean oinarritzen da. Ikerketa artikuluaren hasieran argitu dutenez, faltsutzeen aurka egun martxan dauden teknologia gehienak prozesu deterministetan oinarritzen dira. Horrek esan nahi du prozesuak bide jakin bat jarraitzen duela. Beraz, bide hori nolakoa den jakinda, aukera dago kodea “apurtzeko”. Horregatik nahiko erraza da, adibidez, softwarea edota WIFI sareak babesteko kodeak sortzeko algoritmoak igartzea. Danimarkako adituek aurkeztutako sistema, berriz, ez da determinista. Hasitako bideak nola jarraituko duen igartzeko modurik ez dago, erabat ausazkoa baita.
Erreferentzia bibliografikoa:
Carro-Temboury M. et al. An optical authentication system based on imaging of excitation-selected lanthanide luminescence. Science Advances 26 Jan 2018: Vol. 4, no. 1, e1701384 DOI: 10.1126/sciadv.1701384
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Faltsutzeei aurre egiteko, lur arraroetan oinarritutako kodetze sistema appeared first on Zientzia Kaiera.
Sistemas respiratorios: almacenamiento y transferencia de oxígeno
En diferentes especies animales y bajo diversas circunstancias, la transferencia de oxígeno desde el medio externo hasta su destino final en las mitocondrias se produce a través de dos pigmentos respiratorios diferentes. En tales casos, los pigmentos suelen mostrar diferente afinidad por el oxígeno y esa diferencia constituye un elemento clave de su funcionamiento. Repasaremos aquí algunos de esos sistemas pigmentarios sin ánimo de exhaustividad.
Sangre fetal y sangre materna
Cuando se comparan las curvas de disociación de la sangre fetal y la sangre materna en mamíferos placentarios, se observa que la curva de la sangre fetal se halla desplazada hacia la izquierda en relación con la de la sangre materna. Quiere decir que la sangre fetal tiene una mayor afinidad por el oxígeno que la materna o, lo que es lo mismo, que para una tensión parcial de oxígeno dada, la fetal se encuentra saturada en un porcentaje mayor que la sangre materna.
Esa diferencia en la afinidad obedece a dos razones. Por un lado, la hemoglobina fetal es algo diferente de la hemoglobina de los adultos, y esa diferencia determina una mayor afinidad. Y además, la concentración de fosfatos orgánicos en los eritrocitos de la sangre fetal es menor que en los de sangre de adultos, por lo que en estos el efecto de esas sustancias moduladoras es mayor. Tras el nacimiento, la hemoglobina fetal es sustituida de forma gradual por hemoglobina de adultos y en los eritrocitos tiende a elevarse la concentración de los fosfatos orgánicos.
La diferente afinidad de las dos hemoglobinas tiene una utilidad evidente para el feto, puesto que de otro modo, la transferencia de oxígeno de la sangre materna a la sangre fetal en la placenta se vería limitada en cierto grado. Y debe tenerse en cuenta que el feto, por su pequeño tamaño y por estar formado por tejidos en pleno desarrollo, tienen una alta demanda de oxígeno.
Función de las mioglobinas
Las mioglobinas son pigmentos musculares muy similares a las hemoglobinas sanguíneas. La diferencia es que son de pequeño tamaño puesto que están formadas por una única cadena de aminoácidos. La mioglobina tiene mayor afinidad por el oxígeno que la hemoglobina.
Gracias a esa diferencia de afinidad capta el O2 sanguíneo y facilita su difusión a las mitocondrias musculares. Se ha comprobado experimentalmente la importancia de esta función con ratones a los que se les privó de la posibilidad de sintetizar mioglobina; aunque los ratones pudieron desarrollar una vida normal, hubieron de compensar la falta de mioglobina elevando de forma significativa la densidad de capilares sanguíneos en los músculos. De otra forma no habrían podido suministrar a los músculos el oxígeno necesario para mantener niveles adecuados de metabolismo aerobio.
La mioglobina sirve, además, de almacén de oxígeno. En especies que respiran con normalidad en medios con suficiente disponibilidad de oxígeno, ese almacén garantiza el suministro de O2 a las mitocondrias durante los breves periodos de tiempo (segundos o fracciones de segundo) que, tras iniciarse una actividad muscular intensa, el sistema cardiovascular necesita para hacer llegar a los músculos el oxígeno necesario. Y también cuando los capilares se ocluyen transitoriamente por efecto de las contracciones musculares. La función de almacén es mucho más importante en las especies –como los mamíferos marinos- que dejan de respirar durante periodos de tiempo relativamente prolongados al sumergirse para ir en busca de alimento. De estas especies, no obstante, nos ocuparemos con más detalle en otra ocasión.
La mioglobina no solo se encuentra en la musculatura de vertebrados. El músculo radular del molusco Cryptochiton también tiene mioglobina, y lo llamativo de este caso es que su pigmento vascular no es hemoglobina, sino hemocianina. Es muy probable que este no sea el único caso en que esto ocurre.
Pigmento vascular y pigmento celómico
Se conocen varios sistemas pigmentarios en invertebrados aunque, quizás, el mejor conocido es el del sipuncúlido Dendrostomum. Este sipuncúlido tiene hemeritrina, tanto en su sangre como en el fluido celómico. Los tentáculos rodean la boca y se encuentran bien irrigados de sangre; el gusano vive dentro de la arena y los tentáculos se proyectan hacia el exterior –hacia la masa de agua circundante- y cumplen una función respiratoria. La hemeritrina celómica de Dendrostomum tiene una mayor afinidad por el oxígeno que la sanguínea, lo que quiere decir que el oxígeno captado por la sangre de los tentáculos es transferido con facilidad al fluido celómico. Y del fluido celómico pasa a las células.
———————————————–
Como se ha podido ver aquí, existen en el mundo animal diversas disposiciones anatómicas y funcionales en las que es necesario el concurso de más de un pigmento para que el O2 pueda ser transferido desde el exterior hasta su destino final (feto, músculos, u otros tejidos) y en todas esas disposiciones el juego de afinidades es clave para que tal transferencia pueda cursar con suficiencia y normalidad. En algunos casos, además, uno de los pigmentos cumple funciones de almacenamiento de oxígeno, lo que constituye una garantía de provisión constante ante la existencia de fluctuaciones de diferente intensidad y duración en el suministro al animal (su órgano respiratorio) o a los músculos.
Fuentes:
John D. Jones (1972): Comparative physiology of respiration. Edward Arnold, Edinburgh
Knut Schmidt-Nielsen (1997): Animal Physiology. Adaptation and Environment. Cambridge University Press; Cambridge
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas respiratorios: almacenamiento y transferencia de oxígeno se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Equivalencia entre masa y energía
Después de que Einstein completara su artículo sobre la teoría especial de la relatividad en 1905 descubrió una consecuencia más de los postulados de la relatividad que presentó, como una idea de último momento, en un artículo de solo tres páginas posterior ese mismo año. Desde el punto de vista del efecto de la física en la historia mundial, resultó ser el más significativo de todos sus hallazgos: la quivalencia entre masa y energía.
Sabemos que cuando se realiza trabajo sobre un objeto, como golpear una pelota de tenis con una raqueta, el objeto adquiere energía. En la teoría de la relatividad, el aumento de la velocidad y, por lo tanto, el aumento de la energía cinética de una pelota de tenis o de cualquier otro objeto, da como resultado un aumento de la masa (o inercia), aunque en el día a día suele ser solo un aumento infinitesimal.
Al examinar esta relación entre velocidad relativa y masa efectiva con más detenimiento Einstein descubrió que cualquier aumento en la energía de un objeto debería producir un aumento de la masa medida; este incremento de energía daría igual si se hace acelerando el objeto, o calentándolo, o cargándolo con electricidad, o simplemente realizando trabajo elevándolo en el campo gravitacional de la Tierra. En resumen, Einstein descubrió que un cambio en la energía es equivalente a un cambio en la masa.
No solo eso. Descubrió además que la equivalencia funciona en ambos sentidos: un aumento o disminución de la energía en un sistema aumenta o disminuye correspondientemente su masa, y un aumento o disminución de la masa corresponde a un aumento o disminución de la energía. En otras palabras, la masa en sí misma es una medida de una cantidad equivalente de energía.
Dicho de otra manera, un cambio (recordemos que los cambio se expresan con la letra griega delta mayúscula, Δ) en la cantidad de energía, E, de un objeto es directamente proporcional a un cambio en su masa, m. Lo que Einstein hizo en su articulito de tres páginas es demostrar que esa constante de proporcionalidad es el cuadrado de la velocidad de la luz en el vacío, c2. En símbolos, ΔE = Δm·c2, o de forma más genérica, E = m·c2, probablemente la ecuación más famosa de todos los tiempos.
Significa que un cambio de masa observado es equivalente a un cambio de energía, y viceversa. Pero también significa que la propia masa de un objeto, incluso si no cambia, es equivalente a una enorme cantidad de energía, ya que la constante de proporcionalidad, c2, el cuadrado de la velocidad de la luz en el vacío, es un número enorme.
Por ejemplo, la energía contenida en un solo gramo de materia es de E = 0,001 kg · (299792485 m/s)2 = 8,988·1013 kg·m2/s2≈ 9·1013 J. Esta enorme cantidad de energía es aproximadamente la misma que libera la explosión de 20 toneladas de TNT.
La transformación de masa en energía es Es la fuente de las energías liberadas por las sustancias radiactivas, por nuestro Sol y otras estrellas, por las armas nucleares y por los reactores nucleares que producen energía eléctrica.
No solo masa y energía son “equivalentes”, podemos afirmar que la masa es energía. Esto es exactamente lo que concluyó Einstein en 1905: “La masa de un cuerpo es una medida de su contenido energético”. Nada impide que consideremos la masa como “energía congelada”, congelada en el momento en que el Universo se enfrió poco después del Big Bang y la energía se agrupó formando “bolas” de materia, las partículas elementales de las que se compone la materia ordinaria.
Por lo tanto, cualquier energía adicional que se añada a una masa aumentará su masa aún más. Por ejemplo, a medida que aceleramos los protones en el laboratorio a casi la velocidad de la luz, su masa aumenta de acuerdo con la fórmula relativista para mm. Este aumento también se puede interpretar como un aumento en el contenido de energía de los protones.
Estas dos deducciones diferentes de la teoría de la relatividad -aumento de masa y equivalencia de masa de energía- son consistentes entre sí. Esta equivalencia tiene un significado muy importante. Primero, dos grandes leyes de conservación se convierten en dos formas alternativas de una sola ley. En cualquier sistema cuya masa total se conserve, la energía total también se conserva. En segundo lugar, surge la idea de que parte de la energía en reposo podría transformarse en una forma de energía más familiar. Dado que el equivalente energético de la masa es tan grande, una reducción muy pequeña en la masa en reposo liberaría una enorme cantidad de energía, por ejemplo, energía cinética o energía electromagnética.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Equivalencia entre masa y energía se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Zenbat gizaki bizi izan dira Lurrean?
Gauzak ordea ez dira beti horrelakoak izan. Garai batean, jaiotze tasa oso handia zen, baina umeen hilkortasun tasa ere oso handia zen, eta bizi-baldintza txarrek eragotzi egiten zuten populazioaren hazkundea. Milaka urtean hainbeste jende jaio eta hil egin delarik, zenbat gizaki bizi izan ote dira Lurrean historian zehar? [1]
Hasiera-hasieratik esan behar da hau oso gutxi gorabeherako zenbaki-saio bat baizik ez dela izango. Zenbaki handietan aritzen garelarik, hipotesi bat baino gehiago erabili beharko ditugu ohi bezala: ez dugu hain erraz egiazkotzat emango kopuru bat, baina gutxienez modu bat aurkituko dugu oso urrun ez gabiltzala baieztatu ahal izateko.
Lehenengo eta behin, abiapuntua ezarri behar da. Erregistro arkeologikoek eta paleontologikoek ezagutzera eman digute Lurrean hainbat hominido egon izan direla gu baino lehenago. Dakigun bezala, onar daiteke gure arbaso zuzenak direla eta dagoeneko desagertu egin direla horietako batzuk. Kalkuluak ahalik eta zehatzen egiteko, Homo sapiens espezieari erreparatuko diogu. Gauzak horrela, duela 50.000 urte izango genuke abiapuntua, uste baita une horretan egin zuela Afrikatik kanpo Homo sapiens espezieak. Zoritxarrez, Miguelón eta Lucy kanpo gelditzen dira [2].
Bigarren urrats batean, kalkulatu egin beharko genuke zenbat Homo sapiens bizi ziren duela 50.000 Lurrean. Hemen ez daukagu aztarnarik, eta beraz, oso badaezpadako estimazioak besterik ezin dugu egin batez ere Homo sapiens modernoaren lehenengo une horietarako.
Zenbait ikertzailek batera onartu dute 5 milioi biztanle zeudela orain 8.000 urte. Une horretan, ia Lurra guztia populatua zegoen, eta nahiko egonkorra zen gainera populazioa. Zenbaki hori erdiesteko, zentzuz pentsa dezakegu 0 edo 2 zenbaki batetik hasiko zela eten gabe populazioa hazten [3].
Lehenengo urtean, ez dago hainbeste adostasunik. Population Reference Bureau izenekoak 300 miloi egongo zirela estimatu du, bi datutan oinarrituta: Erromatar Inperioak 40 edo 50 milioi biztanle izango zituen, eta horretaz gain Asia bazen jadanik Lurreko alde populatuena. Dena dela, beste batzuen estimazioak 170 milioitik 500 milioira doaz.
Une horretatik aurrera, ez daukagu erregistro historikorik, baina informazio gehiago dugu munduko populazioa estimatzeko. Izan ere, gutxi gorabehera bat datoz zenbait iturri desberdinetatik datozen estimazioak. Gauzak errazte aldera, berriz erreparatuko diogu Population Reference Bureau horri.
Hirugarren urratsa da garrantzitsuena, ezartzeko beharrean dugulako zein jaiotze tasa egon den hasieratik gaur arte [4]. Horretarako, asmatu egin beharko dugu beste garai batzuetako umeen hilkortasun tasa [5]. Badakigu kopuru horrek handia behar duela, eta beraz, zentzuz onar dezakegu urte bat bete baino lehen hiltzen zela jaiotzen ziren umeen erdia. Horretaz ezer ez badakigu ere, pentsa daiteke ehiztari eta biltzaile taldeetan hilkortasun handiagoa egongo zela. Berez, baliteke haurrak hil izana, taldearentzat behar besteko baliabiderik ez bazegoen. Baliteke hala gertatu izana, haur jaioberria taldearentzat garrantzitsutzat jotzen ez zutenean behintzat.
Pentsa dezakegu batetik 500/1.000-ko hilkortasun tasa zegoela, eta bizi-itxaropena 10-12 urtekoa zela Brontze eta Burdina Aroetan. Gauzak horrela, onar dezakegu 80/1.000 izango zela jaiotze tasa eta horrela populazioak arinki gora egingo zuela.
Behe Erdi Arotik aurrera, hobetzen joan ziren bizi-baldintzak, eta umeen hilkortasun tasak behera egin zuelarik, jaiotze tasa apalagoa beharko zen belaunaldien ordezkapena bermatzeko. Hala ere, esne pasteurizatua asmatu eta medikuntzaren aurrerapen handiak gertatu arte, ez zen nabarmen jaitsiko umeen hilkortasun tasa. Hortxe hasi zen nonbait munduko populazioaren gorakada izugarria.
Beraz, hurrengo taula izango genuke abiapuntua, eta unean uneko jaiotze tasak eta estimazioak kontuan hartuta:
Estimazio hauek, Carl Haubek [6] egin zituen, erakunde horretan lanean ari zelarik. Haien arabera, 2011. urterako, 107.000 miloi gizaki jaioak egongo ziren jadanik. Bestela esanda, inoiz bizirik egon diren gizakien %6-%7a bizi da egun gure planetan.
Oharrak:
[1]. Historia eta historiaurrea hartuko ditugu kontuan, idatzizko hizkuntzen agerpenak ez diolako kontuari inola eragingo.
[2]. Miguelón Atapuercan aurkitu zen eta Homo heidelbergensis espeziearen 300.000 urteko ale bat da. Lucy Hadarren (Etiopian) aurktu zen, eta Australopithecus afarensis espeziearen 3.2 miloi urteko ale bat da.
[3]. Zenbaki honek ez dauka Adan eta Evaren pertsonaiekin inongo zerikusirik, eta matematika-abiapuntu bat besterik ez da. Onar daiteke ezinbestez egiten dugun oker bat dela hasierako zenbaki hau.
[4]. Jaiotze tasa: jaiotzak/1000 biztanle.
[5]. Umeen hilkortasun tasa: lehenengo urtean hildakoak/urtean jaiotako 1000 umeak.
[6]. How Many People Have Ever Lived on Earth?
———————————————————————————-
Egileaz: Miguel Garcia (@Milhaud) Telekomunikazio-ingeniaria da eta informazio eta teknologi-zerbitzuetan aditua.
———————————————————————————-
—————————————————–
Hizkuntza-begiralea: Juan Carlos Odriozola
——————————————–
The post Zenbat gizaki bizi izan dira Lurrean? appeared first on Zientzia Kaiera.
On Zientzia: E mc2
E=mc2 formulak hiru alderdi ditu:
- E. Energia da, lan bat egiteko ahalmena.
- m. Masa esan nahi du, masa eta ez pisua. Masa berdina da Lurrean zein ilargian.
- c. Argiaren abiadura da, 3·108 m/s.
Hortaz, formulari jarraiki, masa eta energia erlazionaturik daude oso abiadura altuetan.
Einstein fisikariak lortu zuen formula honen azalpen grafikoa dakar Nerea Casasek “E mc2” bideoan, On Zientzia lehiaketaren VII. edizioan euskarazko epaimahaiaren azken errondaren parte izan zena.
—–—–
Elhuyar Fundazioak eta Donostia International Physics Center-ek (DIPC) zientzia eta teknologiaren dibulgaziorako lehiaketa da On Zientzia, jakintza zientifikoa ezagutzera emango duten bideo labur eta originalen ekoizpena bultzatzeko helburuarekin.
Lehiaketaren oinarriek ezarri bezala, bideoek 5 minutu baino gutxiago iraun behar dute eta euskaraz, gaztelaniaz edo ingelesez izan daitezke, gaia librea delarik. Edukiak jatorrizkoak izan behar dira, telebistan inoiz atera ez direnak, eta beste lehiaketaren bat irabazi ez dutenak.
Hiru sari kategoria ditu On Zientzia lehiaketak:
- Gazte saria (18 urtetik beherakoentzat). 1000 €
- Euskarazko bideo onena. 2000 €
- Dibulgazio bideorik onena. 3000 €
2017-2018koa VIII. edizioa da eta parte hartzeko epea zabalik dago jada 2018ko apirilaren 25era arte.
The post On Zientzia: E mc2 appeared first on Zientzia Kaiera.
Inteligencia y ateísmo
Los británicos R. Lynn y J. Harvey, y el danés H. Nyborg, se preguntaron si la idea que Richard Dawkins expresa en The God Delusion de que no es inteligente creer en la existencia de Dios es o no correcta. Y la respuesta a esa pregunta la publicaron en abril de 2008 en la edición digital (en 2009 en papel) de la revista Intelligence en un artículo titulado Average intelligence predicts atheism rates across 137 nations. El estudio da cuenta de la existencia de una correlación negativa significativa entre la inteligencia (expresada mediante el índice “g” de inteligencia general) y el grado de religiosidad de la población de diferentes países.
Los autores, en su introducción, revisaron los trabajos anteriores sobre este mismo tema, e indicaron que las evidencias de la existencia de una relación negativa entre inteligencia y fe religiosa proceden de cuatro fuentes diferentes: 1) Existencia de correlación negativa entre las dos variables; como ejemplo, en un estudio realizado con más de 14.000 norteamericanos jóvenes el IQ varió de la siguiente forma: no religiosos = 103’09; algo religiosos = 99’34; bastante religiosos = 98’28; muy religiosos = 97’14. 2) Menores porcentajes de personas con creencias religiosas entre las personas más inteligentes que en el conjunto de la población. 3) Disminución de las creencias religiosas de niños y adolescentes conforme crecen y desarrollan sus habilidades cognitivas. 4) Disminución de la creencia religiosa durante el siglo XX conforme aumentaba la inteligencia de la población.
Los resultados del estudio se resumen en que la correlación entre el nivel de inteligencia general “g” y la variable “incredulidad religiosa” (religious disbelief) era de 0’60 para un conjunto de 137 países. Si se analizaban por separado los segmentos superior e inferior en que puede dividirse el conjunto de datos (para comprobar si la relación es consistente en todo el rango) se obtenían correlaciones positivas en ambos, aunque esa correlación era alta en el tramo superior y baja en el inferior. O sea, la máxima variación se producía entre los países con mayor nivel de inteligencia y mayor “incredulidad religiosa”.
Un último elemento de interés de ese trabajo es que los autores atribuían las diferencias observadas a factores de naturaleza genética e indicaban que la religiosidad (o creencias religiosas) es altamente heredable (heredabilidad de 0’4-0’5)1.
Los resultados comentados en los párrafos anteriores no constituyen ninguna excepción, sino que se han visto confirmados en diferentes ocasiones y en contextos muy diferentes. Por otro lado, se ha comprobado también que la religiosidad influye en el estilo cognitivo. De acuerdo con la denominada “hipótesis del procesamiento dual”, la cognición tiene una componente intuitiva (rápida) y otra componente lógica (lenta). Y recientemente se han obtenido pruebas experimentales que demuestran un vínculo entre religiosidad y estilo cognitivo. Por ello, se ha sugerido que el efecto de la religiosidad sobre la inteligencia se sustenta en sesgos cognitivo-comportamentales que dan lugar a dificultades al detectar situaciones en las que la intuición y la lógica entran en conflicto. En otras palabras, los individuos religiosos tienden a hacer uso de la componente lógica de la cognición en menor medida que los no religiosos y detectan peor contradicciones entre el razonamiento y la intuición. Y por esa razón obtendrían peores resultados en los test psicométricos.
Richard E. Daws y Adam Hampshire, del Imperial College de Londres, han publicado hace unas semanas en la revista Frontiers of Psycology las conclusiones de un trabajo en el que han sometido a contraste empírico la hipótesis recogida en el párrafo anterior; y sus resultados parecen avalarla.
Su investigación confirma que, en promedio, las personas no religiosas realizan mejor las tareas cognitivas que las religiosas. La magnitud del efecto es pequeña pero significativa, y es acorde con una diferencia de 2-4 puntos en el cociente de inteligencia (CI), tal y como habían puesto de manifiesto estudios psicométricos anteriores a gran escala. La comparación entre ateos y creyentes más dogmáticos llega a arrojar una diferencia de 6.45 puntos en el CI.
Según los autores del estudio, el sesgo cognitivo-comportamental antes descrito sería el causante del efecto de la religiosidad sobre los resultados de los test de inteligencia y no obedecería, por lo tanto, a una menor inteligencia por sí misma. Esa conclusión se ve reforzada por el hecho de que el efecto de la religiosidad se relaciona de forma significativa con los componentes de los test relativos al razonamiento y apenas tiene relación con la memoria de trabajo. Los fallos de razonamiento surgirían cuando los procesos intuitivos rápidos no son contrarrestados por los procesos lógicos lentos. Las diferencias en la calidad del razonamiento serían, por lo tanto, relativas a la capacidad y estilo cognitivo de los individuos, no a su inteligencia.
En conclusión, de acuerdo con el trabajo reseñado, la religiosidad estaría asociada con un peor desempeño en las tareas que provocan un conflicto cognitivo. Ese efecto puede reflejar sesgos cognitivos-comportamentales aprendidos que propician una toma de decisiones basada en mayor medida en intuiciones; y no sería consecuencia de una menor capacidad para entender reglas lógicas complejas o para mantener información en la memoria de trabajo.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
Nota:
1 Se entiende por heredebailidad el porcentaje de la variabilidad observada en un rasgo dado que es atribuible a la herencia genética.
El artículo Inteligencia y ateísmo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Zer da mingarriagoa kateterra jartzea ala odola ateratzea?
Bosgarren bizi konstantetzat hartzen da mina, gorputzeko tenperaturarekin, pultsuarekin, odol-presioarekin eta arnas maiztasunarekin batera, lehenengo osasun miaketan kontuan hartzen den bizi konstanteetako bat da. Faktore subjektiboa izaki, zaila da mina neurtzea, baina. Hori dela eta, min iatrogenikoa (osasun arretan eragiten dena) baloratzeko eskatu zaie pazienteei ikerketan.
2017ko urtarriletik ekainera egin da ikerketa Galdakao-Usansolo Ospitaleko eta Basurtuko Unibertsitate Ospitaleko larrialdi zerbitzuetan. 18 urtetik 85 urtera bitarteko 820 (% 51,8 gizonezkoak eta % 48,2 emakumezkoak) pazientek hartu dute parte. Guztira, zaineko 780 kateter jarri eta arteriako 101 odol lagin atera dira oxigeno eta karbono dioxido mailak eta bikarbonato kontzentrazioa neurtzeko (gasometriak).
Numeric Pain Rating Scale (NRS-11) izeneko eskala baliatuta neurtu da mina: 0tik 10era bitarteko balioa ematen dio norberak hautemandako minari, non zero minik eza den eta hamar imajina daitekeen minik handiena. Adostua dago 3tik gorako mina ez litzatekeela onartu behar.
Zainean kateterra jartzeak batez beste 2,8ko puntuazioa izan zuen NRS-11 eskalan eta gasometriak 3,6. Aldeak daude Erabilitako teknika sanitarioaren zailtasunaren (kateterra jartzea edo arteriatik odola ateratzea) eta ziztatzen den lekuaren (eskumuturra/ukondoko tolestura edo kubitu aurreko hobia) arabera aldeak ikusi dira ikerketan. Mingarriagoa da gasometria arteria humerala kubitu aurreko hobiaren parean ziztatzean arteria erradiala eskumuturrean ziztatzen denean baino. Giza anatomian arteria humerala erradiala baino sakonago egotea izan daiteke diferentzia horren arrazoia.
Sexuak, adinak edo jatorriak ez dute eraginik minaren intentsitatearen pertzepzioan eta badirudi erabilitako orratzaren kalibreak ere ez duela eraginik. Azken honetan, hala ere, ziztada egiten duen pertsonaren eskarmentuaren arabera alda daitezke emaitzak. Aldagai hau kontrolatze aldera, eskarmentu profesional handia duten erizainek hartu dute parte ikerketan.
UPV/EHUko DIASURE Erizaintzako lantaldeak egindako ikerketaren arabera, beraz, gasometriarako arteriatik odola ateratzeak min moderatua eragiten du eta zainean kateterra jartzeak min arina. Interbentzio sanitarioetan erabakiak hartzen laguntzeko eta larrialdi zerbitzuetako erizaintzako teknika nagusien ondorio mingarriak arintzeko balio dezake minaren pertzepzioa aztertzeak.
Iturria: UPV/EHUko prentsa bulegoa: Zer da mingarriagoa, zain batean kateter bat jartzea ala arteria batetik odola ateratzea?
Erreferentzia: “Dolor asociado a las técnicas de inserción de catéteres venosos y extracción de sangre arterial en el área de urgencias. Enfermería Clínica. 2017. DOI: https://doi.org/10.1016/j.enfcli.2017.11.002.
The post Zer da mingarriagoa kateterra jartzea ala odola ateratzea? appeared first on Zientzia Kaiera.
El síndrome de Frankenstein (o de Frankenfood )
La novela Frankenstein o El moderno Prometeo, de Mary W. Shelley, se publicó en Londres el 1 de enero de 2018. Celebremos, a nuestra manera, el 200 aniversario de un evento que es crucial en la relación de la ciencia con la sociedad en nuestro tiempo.
“Tu eres mi creador, pero yo soy tu dueño: ¡obedece!”
Mary W. Shelley, Frankenstein o El moderno Prometeo, 1818.
Una definición del síndrome de Frankenstein aparece en Wikipedia: es el temor de que los descubrimientos de la ciencia se vuelvan contra la especie humana y la dañen o, incluso, la destruyan. Es, en último término, el temor patológico hacia las creaciones humanas. Así, en nuestro tiempo, nos asustan las vacunas, los móviles, la electricidad, las ondas electromagnéticas, las centrales nucleares o, como veremos, las plantas transgénicas.
Entre los descubrimientos más recientes que tanto temor provocan están las organismos modificados genéticamente (GMO, del inglés Genetically Modified Organism), llamados, con propiedad y acierto, Frankenfoods. Es un término que se puede juzgar peyorativo, y que se aplica, sobre todo, a las plantas y animales modificados genéticamente en el laboratorio. El término apareció por primera vez el 16 de junio de 1992, en el New York Times, en una carta al director, firmada por Paul Lewis, profesor de inglés del Colegio Boston, y enviada en respuesta a un artículo de Edmund Andrews, publicado el 13 de junio, que presentaba la patente del primer alimento modificado genéticamente, en este caso, un tomate. Era una patente de la empresa DNA Plant Technology Corporation que, en el grupo dirigido por Pamela Dunsmuir, había insertado en el tomate los genes que dirigían la síntesis de péptidos anticongelantes en el lenguado de invierno. Este pez, de nombre científico Pseudopleuronectes americanus, resiste el frío en su área de distribución de la costa este de Estados Unidos, en el Atlántico Norte. Así se conseguía un tomate resistente al frío, tanto en el campo como luego en el almacenamiento y transporte refrigerados. A este tomate le llamaron Flav Savr.
Consiguieron la patente en 1992, la noticia apareció en el New York Times en junio y provocó la respuesta de Paul Lewis que, en su carta al director, decía:
“Desde que el barón de Mary Shelley liberó de su laboratorio a su creación que mejoraría la especie humana, los científicos no han parado de traer a la vida novedades parecidas. Si ellos quieren vendernos Frankenfoods, quizá es el momento de convocar a los campesinos, prender las antorchas y asaltar el castillo.”
La realidad es que, en estos momentos, el 75% de los alimentos procesados que se consumen en Estados Unidos tienen alguno o varios de las ocho GMO que se comercializan en la actualidad: maíz, soja, alfalfa, remolacha azucarera, colza, algodón, papaya y calabacín.
Precisamente ahora, en las últimas semanas, el salmón gigante transgénico se ha puesto a la venta en Canadá. La empresa que lo comercializa ha declarado que ya ha vendido unas cuatro toneladas y media en filetes. En Estados Unidos también tienen permiso para comercializar este salmón desde 2015, pero todavía no ha llegado al mercado.
Era inevitable que a este salmón se le llamara Frankenfish, y es la primera especie animal GMO que llegará, y ha llegado en Canadá, a nuestra cocina y nuestra mesa.
Y, de nuevo recientemente, Sánchez y Parrott, de la Asociación Gremial ChileBio CropLife, de Santiago de Chile, y de la Universidad de Georgia, respectivamente, han publicado un meta-análisis sobre los trabajos que tratan de los riesgos de las GMO.
Un 5% de los estudios publicados sobre riesgos de plantas transgénicas concluyen que representan algún peligro. En total, son 35 artículos de un total de casi 700. Es curioso que, de esos 35 trabajos, el 43% venga de Italia o el 17% de Egipto y, en cambio, solo uno trate de investigaciones hechas en Estados Unidos, aunque la publicación venga de Australia.
Son investigaciones puntuales con GMO concretas, aunque, cuando llegan a los medios y al público, lo que es típico y habitual, el riesgo para una sola especie se amplia a todos los cultivos de transgénicos.
En general, los estudios vienen de pocos laboratorios y se publican en revistas no muy importantes. Además, presentan problemas metodológicos que invalidan sus conclusiones. Después de 20 años de cultivos comerciales de GMO, los autores del meta-análisis destacan que todavía no se ha publicado ningún trabajo que demuestre efectos peligrosos para la salud humana.
Termino, por ahora, sobre este asunto con la recomendación de repasar el blog de José Miguel Mulet y, ya que parece que hay tantas publicaciones interesantes en los últimos meses sobre las GMO, y lean la entrada titulada “AntiOGM, si no tienes argumentos: invéntalos”.
Vamos a profundizar en la acción de los medios en relación con el síndrome de Frankenstein. Son importantes para difundir la ciencia entre los ciudadanos y crear una cultura científica que ayude a tomar decisiones. En Estados Unidos, Mary Nucci y Robert Kubey, de la Universidad Estatal de Nueva Jersey, han repasado las noticias sobre las GMO en las tres cadenas nacionales de televisión más vistas: ABC, CBS y NBC.
Ya sabemos que la televisión es un medio esencial para difundir noticias con rapidez y a grandes audiencias. Sin embargo, el tratamiento de las GMO en estas tres cadenas es menor y más ligero que en la prensa escrita. Solo se le concede más tiempo en momentos puntuales de crisis. En general, el público sabe poco de las GMO, lo que no impide que, en muchos casos, tenga fuertes convicciones a favor o en contra.
Además, no hay que olvidar que, como escribe José Miguel Mulet, los periodistas aplican un exagerado principio de equidistancia en asuntos, como el de las GMO, que van desde un consenso científico extendido a declaraciones de falsedad manifiesta. Aunque también es cierto que, por lo menos en Estados Unidos, lo que llega de los científicos profesionales al público no influye mucho cuando se forman una opinión, basada más en creencias que en evidencias.
El mismo grupo, liderado por Mary Nucci, también analiza las noticias sobre GMO en la prensa escrita entre 1992 y 2002. Después de repasar cientos de referencias en periódicos y revistas de tirada nacional en Estados Unidos, destacan que el enfoque es muy variado así como el número de noticias, con picos en 1999 y 2000.
Sin embargo, el resultado final es confuso, los debates son continuos, las exageraciones abundan y, en último término, el ciudadano no sabe si las GMO suponen un riesgo o no. Así, un 31% de los consumidores no pueden nombrar un caso concreto sobre los riesgos de las GMO y, algunos, como mucho, recuerdan que es “algo relacionado con el maíz”. En el estudio de Kami Silk y sus colegas, de la Universidad Estatal de Michigan, encuestan a 958 ciudadanos, con 482 mujeres, con edades de 18 a 73 años, y edad media de 29.5 años. El grupo mayor, con 357 voluntarios, no tiene muchos conocimientos sobre las GMO y, también, su respuesta es emocional y tibia. Están a la espera de más información para tomar una decisión. En el otro extremo, otro grupo, con 50 voluntarios, son anti-GMO y las consideran peligrosas, sobre todo porque son parte de nuestros alimentos y las ingerimos. Es más, la mayoría de los encuestados no es consciente de que ya come GMO. Recordar que, en Estados Unidos, el 75% de los alimentos llevan algún GMO. Incluso algunos, quizá muchos, se asustan pues tienen asumido que con los GMO ingerimos “genes”, lo que, creen, es imposible cuando comemos los alimentos de siempre.
El término Frankenfood entró rápidamente en el debate sobre las GMO, siempre con una base psicológica importante en el síndrome de Frankenstein. Evoca profundas respuestas emocionales, como las provocaba la criatura de la novela de Shelley y, sobre todo, la película dirigida por James Whale en 1931. Frankenfood aparece con la incertidumbre que crea la continua polémica sobre las GMO. Es una metáfora que nos ayuda a comprender lo que para muchos supone el peligro de las GMO. Y refleja el miedo que la ciencia y la tecnología provocan en muchas personas y, todavía más, si se considera que la ciencia sobrepasa lo que algunos consideran sus límites. Ese límite es, como en la novela y se repite con las GMO, crear vida.
Además, es un debate que no es fácil simplificar pues, como tantos otros desacuerdos en nuestra complicada sociedad actual, incluye ciencia, política, ideología, salud humana y ambiental, patentes, economía, grandes multinacionales y la opinión pública de una cultura globalizada. Solo con mencionar Frankenfood ya sentimos creencias, emociones e ideología.
Referencias:
Andrews, E.L. 1992. Patents: Keeping ice out of flood that’s frozen. New York Times June 13.
Glass-O’Shea, B. 2011. The history and future of genetically modified crops: Frankenfoods, superweeds, and the developing world. Journal of Food Law and Policy 7: 1-33.
Hightower, R. et al. 1991. Extression of antifreeze proteins in transgenic plants. Plant Molecular Biology 17: 1013-1021.
Maximen, A. 2012. Politics holds back animal engineers. Nature 490: 318-319.
Mazanek, C. 2016. Frankenfoods: Conceptualizing the Anti-GMO argument in the Anthropocene. News Errand’s: The Undergraduate Journal of American Studies 3: 1-12.
McInnery, C. et al. 2004. The flow of scientific knowledge from lab to the lay public. The case of genetically modified food. Science Communication 26: 1-31.
Nucci, M.L. & R. Kubey. 2007. “We begin tonight with fruits and vegetables”. Genetically modified food on the evening news 1980-2003. Science Communication 29: 147-176.
Sánchez, M.A. & W.A. Parrott. 2017. Characterization of scientific studies usually cited as evidence of adverse effects of GM food/feed. Plant Biotechnology Journal DOI: 10.1111/pbi.12798
Shelley, M.W. 2001 (1818). Frankenstein o El moderno Prometeo. Cátedra. Madrid. 356 pp.
Silk, K. et al. 2005. Gene cuisine or Frankenfood? The theory of reasoned action as an audience segmentation strategy for messages about genetically modified foods. Journal of Health Communication 10: 751-767.
Van Ennennaam, A.L. & W.M. Muir. 2011. Transgenic salmon: a final leap to the grocery shelf? Nature Biotechnology 29: 706-710.
Wikipedia. 2016, Síndrome de Frankenstein. 16 febrero.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo El síndrome de <i>Frankenstein</i> (o de <i>Frankenfood</i> ) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Asteon zientzia begi-bistan #188
Josu Lopez-Gazpiok aurreratzen digu laster taula periodikoak lerro bat gehiago izango duela. Izan ere, Japoniako Riken ikerketa zentroko zuzendariak iaz jakinarazi zuen 119. elementua bilatzeko ikerketak abiatu zituztela. Bost urteko epean, bi elementu -119 eta 120 zenbaki atomikokoak- sintetizatzeko gai izango direla adierazi zuen ere bai. Elementu horren izena oraingoz ununennioa izango da (bat, bat, bederatzi, latineraz) eta testuan azaltzen den moduan, naturan ez da inoiz existitu. Elementu hori sintetizatzea ez da gauza erraza izango orduan. Jakin nahi duzue zein izango den jarraituko duten prozedura? Ez galdu!
Klima aldaketaBederatzi herrialdek oraingoz ez dute neurri nahikorik aurkeztu aire kalitate txarra hobetzeko. Horren aurrean, Bruselak auzitara joko du hori aldatu ezean. Txekiar Errepublika, Alemania, Frantzia, Espainia, Italia, Hungaria, Errumania, Eslovakia eta Erresuma Batuak aire kutsaduraren mugak gainditu dituzte, hainbat hiritan, bereziki, NO2 (nitrogeno dioxidoa) eta PM10 partikulen pilaketagatik. Astebeteko epea eman die zerbait egiteko.
Ipar Atlantikoko jet korronteak (haize-lasterra) Europako muturreko eguraldian duen eragina argitu dute ikertzaileek. Enborren eraztunetan hiru mendetan zehar pilatutako erregistroei esker, ikertzaileak gai izan dira ezagutzeko denbora tarte horretan Ipar hemisferioko klimak izan duen bilakaera. Horretaz gain, egiaztatu dute haize-lasterrak iparraldera eta hegoaldera izaten duen anplitudea bereziki handitu dela azken mende erdian. Hain zuzen, 1960ko hamarkadatik aurrera egon diren aldaketa hauek bat datoz Europan egon diren muturreko eguraldiko gertaerekin. Besteak beste, beroaldiak, lehorteak, baso suteak eta uholdeak.
Deforestazioa da une honetan gure planetak daukan arazo larrienetako bat. Milaka eta milaka hektarea baso desagertzen dira urtero-urtero. Basoak berreskuratzeko modu berriak aztertzen hasi dira. Testu honetan horietako bat azaltzen da: droneak erabiltzea zuhaitzak landatzeko. Zenbait enpresek abiatu dute eta emaitza onak lortu ere. Bataz beste, diote, zuhaitzak eskuz landatzea baino 10 aldiz azkarragoa da drone bidez landatzea.
MedikuntzaEuropako Osasun Mentalaren erankundeak egindako txostenaren arabera, Europako osasun-sistemetan urratu egiten dira gaitz mentalak dituzten pazienteen giza eskubideak. Txostenean agertzen dira psikiatria-zerbitzuetako paziente ohien testigantzak: derrigorrezko ospitalizazioa, terapia elektrokonpultsiboa, indarrean ezarritako tratamenduak –haietako batzuk albo-ondorio gogorrekin–, haiekin indarrez jokatzea, min fisiko eta emozionala…
Emakumeak zientzianGenero-bereizketa zientzia-eremuan nabarmena da oraindik ere. Adibidez, Emakundek 2016an egindako azterketa baten arabera, alde handia dago batxilergoko neska-mutilek aukeratzen dituzten ikasketetan, generoaren arabera. Neskek osasun-zientzien, psikologiaren eta irakasle-ikasketen alde egiten dute eta mutilek, berriz, nahiago dituzte ingeniaritzak. Horren atzean, jakina, estereotipoak daude: barneratua dugu emakumeak gizonak baino egokiagoak direla zaintza-lanetarako, eta gizonak, berriz, lan teknologikoetarako. Badirudi beste faktore batzuek eragina dutela bereizketa horretan, itxura fisikoak, esaterako. Sarah Banchefsky ikertzaileak 2016an argitaratutako artikulu batean ageri da arazoa oso argi, bi esperimentu egin ostean.
Irati Jauregui ikertzailea elkarrizketatu du Ana Galarragak. Unibertsitatean, ingeniaritza arlotik jo zuen, Telekomunikazio Teknologien Ingeniaritza hautatu zuen, hain zuzen. Gradu Amaierako Lana egitean, ikertzen hasi zen eta gustatu egin zitzaion. Gradu-Amaierarako Lanarekin, gainera, hirugarren saria jaso zuen 2016ko Telekomunikazioen Liberalizazio Sarietan. Onartzen du lan “polita” egin zuela. Hain zuzen, era askotako egitura biologikoak antzemateko gai diren sentsoreak garatu zituen, aplikazio biomedikoetan erabiltzeko. “Berez, gradu-amaierako lanean simulazioak egin nituen, baina oso ondo funtzionatzen zuten. Horren ondoren, ikerketa-proiektu bat sortu zen, kontratatu ninduten eta ordutik horretan nabil. Laster, gai biologikoekin probatzea espero dugu”, dio Jauregik.
PaleontologiaIndian Erdi Paleolitoko ezaugarriak dituzten tresna batzuk aurkitu dituzte. Levallois teknikarekin egindako harrizko tresnak izan dira topatutakoak, adibidez. 385.000 urte dituztela kalkulatu dute eta horrek jarri du kolokan gure espeziaren jatorria. Izan ere, orain arteko aztarna guztien arabera, artean gizaki modernoa ez zen Asiara iritsi.
IngeniaritzaMiguel Angel Blanco ikertzaileak egindako ikerketan batean, kontraleihoaren konfigurazio geometrikoaren edo termikoaren eta kontraleihoak jartzen diren eraikinaren hainbat parametro ebaluatu dira, bakoitzaren eragin maila zein den ezagutzeko. Atera dituen ondorioei esker, isolamendu eta inertzia termikoa duen kontraleiho diseinu berri baterako oinarriak ezarri dira. Egunez, irekita dagoenean, energia gordetzeko gai da eta gauean eraikinari energia ematen dio. Lanaren ardatza kontraleihoek duten portaera termikoa aztertzea izan da. Halere, ez dira aztertu bakarrik kontraleihoak, ondoko elementuak ere izan ditu oinarri ikerketak.
Hegazkinek marrazten dituzten marrak zer dira? Chemtrail esaten zaion fenomenoaren aurka ari diren elkarteak sortu dira eta marra horien atzean dauden balizko konspirazioez ohartarazten dute. Bartzelonako Unibertsitateko ingurumen kimikari Xavier Gimenezek dio kontu hori guztia faltsua dela eta ustezko fumigazio horien inguruan hitz egiten du adituak: “Hegazkinek gasak ateratzen dituzte errekuntza motorretatik. Gas horietan, batez ere, ura eta karbono dioxidoa daude, eta baita guztiz erre ez diren erregai arrastoak ere. Karbono dioxidoa ez da ikusten, baina, airearen baldintzen arabera, ura kondentsatu egiten da”. Horretaz gain, euria eragiteko esperimentuak egin dira jada. Ameriketako Estatu Batuetan enpresa txiki asko, esaterako, zerbitzu hori ematen ari dira, euriaren beharra duten nekazari elkarteek ordainduta. Naturan eragiteko hainbat proposamen daude. Ez galdu artikulu interesgarri hau!
BiologiaKolonbiako Ozeano Bareko kostaldeko oihanetan igel oso pozoitsu bat bizi da, ezagutzen den ornodunik pozoitsuena da. Batraziotoxinari zor dio bere izaera pozoitsu hori. Baina, aipatzekoa da igelak ez duela berez toxina hori sortzen; Melyridae familiako kakalardoak jan eta haien toxina metatzen du. Pozoi horrek du eragina neuronen sodio-kanaletan. Igelak defentsarako erabiltzen du. Badakizu zenbat behar duen pertsona bat hiltzeko? nahikoak dira 100 μg.
FisikaGure bizimoduan gero eta ohikoagoak dira erradiazio ezionizatzaileko eremu elektromagnetikoak (EEI-EEM) sortzen dituzten iturriak. Artikulu honetan, sortzen dituzten eraginen inguruko ikerketa esperimentalen eta epidemiologikoen bidez lortu diren emaitzak laburbiltzen dira. Ikerketak hiru alorretan egiten dira; in vitro, in vivo eta ikerketa epidemiologikoak. In vivo ikerketa gehienek ez dute arrazoirik eman EEI-EEMek eragin minbizi-sortzailea dutela pentsatzeko. Ikerketa epidemiologikoetan, adibidez, aurkikuntza nabarmenenak ELFen eremu magnetiko (ELF-MF) eta umeen leuzemia linfoblastiko akutuaren arteko asoziazioa eta IMen peko egonaldia eta glioma kasuen arteko erlazioa izan dira.
———————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
———————————————————————–
Egileaz: Uxue Razkin Deiako kazetaria da.
———————————————————————–
The post Asteon zientzia begi-bistan #188 appeared first on Zientzia Kaiera.