El selenio, esencial y peligroso

Ciertos elementos químicos, como el oxígeno o el hierro, por ejemplo, nos resultan familiares. Los nombres que los designan son de uso cotidiano. Pero lo normal es que de la mayoría no hayamos tenido noticia, salvo en las aulas. El selenio (Se), por ejemplo, es un gran desconocido. Quizás hemos visto su nombre en la formulación de alguna loción o champú, o hemos sabido de su uso en electrónica para hacer rectificadores de corriente en el pasado. Y poco más.
Fue descubierto en 1817 por el barón sueco Jakob Berzelius, considerado uno de los padres de la química moderna, y su colega y socio Joseph Gottlieg Gahn. Producían ácido sulfúrico en la fábrica de la que eran propietarios, y utilizaban para ello pirita procedente de la mina de Falun. La mina es muy conocida porque se comenzó a explotar alrededor del año 1000 y desde entonces ha proporcionado el 75% del cobre consumido en Europa hasta 1998, año en que se clausuró al dejar de ser rentable. Tres años después la UNESCO la declaró Patrimonio de la Humanidad.
El proceso de producción del sulfúrico dejaba lo que se denomina un precipitado (restos sólidos) de color rojo del que, al principio, Berzelius pensó que era un compuesto de arsénico. Pero su olor recordaba, más bien, a otro elemento, el telurio, que había sido descubierto en 1782 y con el que tiene cierta semejanza. Por esa razón, y porque al elemento descubierto 35 años antes se le nombró haciendo referencia al nombre latino de Tellus (Tierra), al nuevo elemento Berzelius lo denominó Selenium, por referencia a Selene, nombre griego de la diosa que personificaba a la Luna.
Según cuenta Daniel Torregrosa en su recomendable libro “Del mito al laboratorio”, Selene se enamoró del joven Endimión, un mortal de ilustre estirpe, pero mortal al fin y al cabo. Pidió por ello a Zeus que hiciese inmortal a su amado y Zeus, que tenía esas cosas, le concedió el deseo pero con la condición de que Endimión durmiese para siempre. Su estado de eterno durmiente no fue obstáculo, empero, para que Selene lo visitase cada noche y yaciese con él. Fruto del trajín llegó a concebir, al parecer, nada menos que cincuenta hijas. Sorprende que, siquiera por tal proeza, no fuese entronizada diosa de la fertilidad, honor que sin duda merecía. Quiere la casualidad, además, que haya una forma de infertilidad masculina, caracterizada por una movilidad espermática reducida, que se debe a la carencia de selenio.
El selenio es esencial para la vida. Aunque en concentraciones altas es muy dañino y puede ser letal, en concentraciones adecuadas (bajas) es necesario para el normal desarrollo de las funciones vitales. Por eso se suele incluir en complejos multivitamínicos y suplementos dietéticos.
Ese estrecho rango de concentraciones en que se requiere para un desarrollo óptimo de las funciones vitales tiene y ha tenido consecuencias curiosas e importantes. Por exceso de incorporación con la comida o el agua, el selenio ha sido causa de envenenamientos en animales y seres humanos. Hay lagos, ríos y bahías en los que se encuentra en concentraciones tóxicas a causa de la contaminación de origen industrial.
Pero su baja concentración en el medio es también perjudicial. Tres grandes extinciones de especies en la historia de la vida –las ocurridas al final de los periodos Ordovícico, Devónico y Triásico- han sido vinculadas con fuertes reducciones de la concentración de selenio en los océanos. Por el contrario, también se cree que favoreció la explosión del Cámbrico de hace quinientos millones de años, cuando surgió la mayoría de los grupos animales.
——————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El selenio, esencial y peligroso se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un cóctel peligroso
- “Conócete a ti mismo” no solo es un consejo estúpido, es realmente peligroso
- Sangre de dragón
Asteon zientzia begi-bistan #252
Haizea Ziarrusta Intxaurtza EHUko ikertzaileak frogatu du amitriptilina antidepresiboa, ziprofloxazin antibiotikoa eta oxibentzona ultramore-iragazkia arrainetan metatzen direla. Eta ez hori bakarrik, kutsatzaile horiek arrainen plasman, burmuinean eta gibelean albo-ondorioak eragiten dituztela ohartarazi du. Elhuyar aldizkarian topatuko dituzue gai honi buruzko xehetasunak.
Aurreko astean Elhuyar aldizkariak jakinarazi zigun Pirinioetan atzeman dituztela airez iritsitako mikroplastikoak. Asteon Berriak azaldu du aire korronteen azterketak eta simulazioak eginez kalkulatu dutela ehun kilometro inguru egin ditzaketela. Mikroplastikoek bost milimetro baino gutxiagoko diametroa eta esfera edo filamentu forma dute.
BiokimikaGrafenoa izan da azken urteotan arreta piztu duen nanomaterialetako bat. Badakigu zer den, baina? Artikulu honetan aurkituko duzu erantzuna: karbono atomoz osatutako molekula laminatua da. Moldagarria, ultrafina, hauskaitza eta eroankortasun ahalmen handikoa da. Horre harira, testuan diotenez, bere erabilera berritzaile gehienak material honek daukan elektroeroankortasun ahalmen handiarekin lotuak daude. Biomedikuntza arloan berriz, bolumen unitateko daukan azalera handia da garrantzitsuena.
Raul Perez-Jimenez kimikaria izateaz gain, musikaria eta musikazalea da. Norvegiako goi mailako musika gailuen ekoizle batzuekin batera, grafenoan oinarrituriko munduko lehen bozgorailua merkaturatu dute. “Asko ikertzen ari da. Etorkizunean, grafenoa izango dugu egunero erabiltzen ditugun gauza askotan, eta hau da lehenetako bat”, dio zientzialariak. Euren arteko elkarlana nolakoa izan den ezagutzeko, jo ezazue Berriako artikulura!
NeurozientziaJuanma Gallego kazetariak dioenez, neurozientzialari askoren nahia da garunean izaten diren prozesuak ahalik eta luzeen osasuntsu mantentzea. Hori lortzeko ezinbestekoa da oroimena mantentzea eta horretan zehazki jarri du arreta Bostongo Unibertsitateko (AEB) zientzialari talde batek. Galera horri aurre egiteko estrategiak ikertzen dabil, eta bereziki garuneko eremuen arteko sinkronizazioan jarri du arreta. Ikerketaren zehaztasunak jakiteko, irakur ezazue artikulua osorik.
GenetikaAzkenaldian zur-trafikoak gora egin du, Koldo Garciak kontatzen digun moduan. Horri aurre egiteko, masa-espektometria eta gene-teknikak ere erabiltzen dira. Denok ezagutzen dugu hatz-marka genetikoaren teknika, polizia-telesailetan inoiz ikusi duguna. Teknika horrek zuraren jatorria ezagutzeko aukera ere ematen du; horri esker, aztertzen da zuhaitz bakoitzaren gene-egitura esklusiboa eta frogatu da arrakastatsua izan daitekeela.
FisikaFisika eta medikuntza alorrak badirudi oso desberdinak direla baina historian zehar oso lotuta egon dira. Medikuntzako Nobel sariak dira kasurik aipagarrienak. Sari hori jaso dute fisikako metodologian oinarrituriko medikuek edota fisikariek beraiek ere. Artikulu honetan zenbait kasu azaltzen dira, sinbiosi horren adierazle. Besteak beste, aipatzen da Peter Mansfield fisikariak eta Christian Lauterbur kimikariak 2003an lortu zuten Nobela, erresonantzia magnetiko nuklearraren irudietarako tresna asmatu eta garatzeagatik esleitu zitzaiena.
Teknologia eta medikuntzaPentsamendua ahots bihurtzen duen tresna bat garatu dute Kaliforniako Unibertsitateko ikertzaileek (USCF). Elhuyar aldizkariak azaltzen digunez, hizketarako egitura osoa sortu dute birtualki, eta hitz egitean sortzen diren garun-seinaleak traktu bokalaren mugimenduekin erlazionatu dituzte, adimen artifizialaren bitartez. Ondoren, beste algoritmo baten bidez, traktuaren mugimenduak ahots bihurtu dituzte, sintetizagailu bat erabilita.
–——————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
———————————————————————–
Egileaz: Uxue Razkin kazetaria da.
——————————————————————
The post Asteon zientzia begi-bistan #252 appeared first on Zientzia Kaiera.
¿Qué comes cuando comes comida basura?
Hay quien lo denomina “comida rápida” y quien lo llama “comida basura”. Llamemosle de una u otra manera, si la comemos dos veces por semana y mantenemos ese ritmo, en una década ganaremos entre 4 y 5 kg más que alguien que coma este tipo de comida solo una vez por semana.
Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.
Edición realizada por César Tomé López
El artículo ¿Qué comes cuando comes comida basura? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Qué pasa en tu cuerpo cuando te enamoras?
- ¿Qué pasa en tu cerebro cuando duermes?
- La comida en la basura
Ezjakintasunaren kartografia #259
Zerbait ikasi dugu finantza-krisitik? José Luis Ferreiraren ustez, zertxobait bai, agian Lessons from a retrospective regulation of the financial crisis
Bi aurkikuntza zelan zabaltzen diren antzekotasunak dituzte, haien artean mende bateko aldea badago ere. Eta biek dute zerikusia Einsteinen erlatibitate orokorrarekin. Jaume Navarroren The spreading of science news, from Arthur Eddington (1919) to black holes (2019).
Burmuina ikertzeko irudi tekniketan iraultza. Horrela deskribatu daiteke serie multifotoniko kromatiko mikroskopia, ChroMS. Eta DIPCk garapenean hartu du parte Chromatic multiphoton serial microscopy can generate brain-wide atlas-like colour datasets with subcellular resolution.
–—–
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #259 appeared first on Zientzia Kaiera.
50 años de secretos: la era de la criptografía moderna
Tres personas que no se conocen, Ander, Blanca y Eva, se encuentran aisladas en una habitación. Blanca necesita saber la edad de Ander, que Eva no debe conocer bajo ningún concepto. ¿Hay alguna forma de que Ander pueda responder a Blanca sin revelar la información a Eva? Todo lo que cada uno diga o haga lo escucharán o verán los otros dos.
El sentido común dice que no: Blanca y Eva ven y oyen exactamente lo mismo, si en un momento dado una de ellas tiene información suficiente para deducir la edad de Ander, la otra la tendrá igualmente. Este problema, de haberse planteado hace cincuenta años, habría tenido seguramente la misma respuesta escéptica, sin embargo, en aquella época las cosas estaban cambiando.
Comenzaba una revolución, silenciosa para el ciudadano de a pie, cuyas consecuencias pocos podían prever. Se vivía el inicio de la revolución digital. Pesadas máquinas que llenaban habitaciones enteras eran capaces de efectuar cálculos y almacenar datos con una rapidez y un volumen desconocidos hasta entonces (que hoy nos haría sonreír) y poco a poco abandonaban los laboratorios de los centros de investigación para hacerse presentes en bancos y grandes industrias. Incluso con sus limitaciones, el manejo de grandes cantidades de datos trajo consigo nuevos retos a los que dar solución. Entre otros, establecer procedimientos para asegurar que la información se procesaba y transmitía libre de errores y protegerla de quien pudiera hacer uso malintencionado de ella.
No se puede decir que estos problemas fueran nuevos, pero sí lo era la escala de los potenciales afectados. En la era pre-digital la información que de verdad requería protección era relativamente poca, limitada esencialmente a ámbitos militares o de la burocracia gubernamental y en esos casos el coste que suponía mantener el nivel adecuado de seguridad era alto pero asumible.
La información es especialmente vulnerable mientras se transmite, antes o después de este momento su custodia no presenta grandes dificultades, pero ¿cómo puede protegerse mientras viaja a su destinatario por un canal que casi siempre escapa a nuestro control? La herramienta es el cifrado. En la era analógica, por llamar así a toda la historia de la humanidad salvo los aproximadamente últimos cincuenta años, la solución no dejaba de ser más o menos simple. Digamos que al espía o diplomático se le proveía de un “libro de claves” del que el receptor mantenía una copia.
En su versión más simple (pero también la más perfecta) un libro de claves no es más que una larguísima secuencia aleatoria de bits, es decir ceros y unos. Para cifrar un mensaje, que ya suponemos transcrito al lenguaje binario, el emisor suma simplemente los bits del mensaje, uno a uno, con los del libro empezando por el primero (emplea la suma binaria en la que 1+1=0). Así el mensaje cifrado resulta ser una cadena de bits tan aleatoria como la del libro y el enemigo que eventualmente capture el mensaje cifrado no tendrá absolutamente ninguna posibilidad de recuperar el mensaje original. Sin embargo, el receptor del mensaje, poseedor de una copia del libro de claves, no tiene ninguna dificultad puesto que si hace exactamente lo mismo que hizo el emisor descifrará el mensaje. Este es el esquema de la criptografia clásica, conocido y utilizado por la humanidad desde las civilizaciones más antiguas.
¿Pero por qué no sirve la criptografía clásica en el mundo digital? Pues porque exige algo que parece fácil a simple vista pero que en el mundo virtual es inviable por su coste: acordar cuál es el libro de claves. No es aceptable que cada vez que queramos comunicarnos con alguien, sea una persona de carne y hueso, una entidad bancaria, un comercio o una administración, estemos obligados a contactar previamente con ella, físicamente o mediante otro medio no digital, para establecer nuestra contraseña. Necesitamos hacerlo a través del mismo canal digital inseguro por el que se transmite toda la información. Estamos justamente enfrentados al problema de Ander, Blanca y Eva.
No está claro a quién atribuir la solución a este acertijo, sin la cual gran parte del mundo actual no podría funcionar. En 1976 los investigadores de la universidad de Stanford W. Diffie y M. Hellman publicaron un artículo que se considera el nacimiento oficial de la criptografía moderna, aunque, según parece, agencias de seguridad de algunos países ya habían desarrollado ideas similares poco antes. El fechar este suceso hace cincuenta años ha sido simplemente una pequeña licencia al hilo de la celebración del nacimiento de nuestra facultad.
Intentemos explicar en qué consiste eso de la criptografía moderna con un símil. Cifrar un mensaje no es más que meterlo en una caja que cerramos con un candado. En la criptografía clásica, como en la vida real, la “llave” que encripta y desencripta, esto es, la que cierra y abre el candado, es la misma, por eso no le sirve a Blanca, porque si le dice a Ander cómo tiene que encriptar, Eva, que está atenta, se da cuenta inmediatamente, no sólo de cómo encriptar, lo cual es inocuo, sino también, y esto es lo que queremos evitar a toda costa, de cómo desencriptar. Al dar la llave de cerrar a Ander, Blanca le está dando también la de abrir a Eva, puesto que es la misma (es decir, al dar la regla para encriptar a Ander le está dando sin querer la regla para desencriptar a Eva).
Lo que los descubridores (o inventores, cada cual que elija el término que considere más adecuado) de la criptografía moderna plantearon es que todo sería muy distinto si hubiera dos llaves diferentes, una para cerrar y otra para abrir. Entonces no habría ningún problema, Blanca podría dar con total tranquilidad una copia de la llave de cerrar a Ander (y también a Eva o a cualquiera) pero sólo ella retendría la llave de abrir. Así Eva vería pasar ante sus ojos la caja cerrada pero no podría hacer nada porque la llave que tiene sólo sirve para cerrar, es inútil para abrir.

Lo anterior puede sonar convincente, pero sucede que las acciones de encriptar y desencriptar están inexorablemente ligadas, una no es más que el proceso inverso de la otra (como en el mundo real: cerramos girando la llave en un sentido y abrimos girándola en el sentido contrario). Sin embargo, es un hecho bastante común, al menos en el mundo matemático, que cuando dos procesos son inversos uno del otro, uno de ellos es mucho más costoso que su recíproco (así, es más difícil restar que sumar, dividir que multiplicar, extraer la raíz cuadrada que elevar al cuadrado… o recomponer los añicos de un jarrón chino que estrellarlo contra el suelo). Pero sucede que esto que nos protege de Eva, también afecta a Blanca, es decir para que nuestro esquema tenga sentido el proceso inverso (desencriptar) debe ser de una dificultad insuperable para Eva pero no para Blanca, que necesita saber cómo hacerlo para recuperar el mensaje original de Ander.
Las matemáticas están llenas de problemas difíciles, algunos con cientos o incluso miles de años de antigüedad, y que en ocasiones tienen enunciados arcanos sólo al alcance de iniciados. Afortunadamente éste no es el caso del que vamos a comentar ahora y que encaja en la tipología de los problemas inversos de los que hablábamos en el párrafo anterior. En la escuela todos aprendimos a multiplicar, primero los números de una cifra (un ejercicio de memorización) y luego los de dos o más. Ningún lector tendrá dificultad en realizar 17×71 o cualquier otra multiplicación que se quiera plantear, incluso aunque los factores tengan muchas más cifras. Es verdad que, si fueran dos números de, digamos, cien cifras, seguramente no tendríamos la paciencia suficiente para terminar (y, además, ¿qué interés puede haber en semejante operación?), sin embargo, con tiempo y motivación sería factible. Ni que decir tiene que un ordenador puede hacer este cálculo prácticamente al instante.
Lo interesante es ver qué pasa si lo intentamos al revés, es decir, si damos el resultado y el problema es encontrar dos números cuyo producto sea el indicado. Claro, si damos un número par es muy fácil. Pero ¿si damos 2021? (no hemos dado 2019 por razones obvias y tampoco 2017, por razones, quizá no tan obvias, que el lector sabrá adivinar). Pues no se me ocurre nada mejor que tantear: dividir entre 3, 5, 7, 11, 13, etc. (el lector reconocerá y entenderá por qué pruebo con estos números y no con 4, 6, 8, 9, 10, etc). Y sí, eventualmente encontramos que 2021=43×47. Pero, ¿y si en lugar de un número con 4 cifras damos uno con 100? La respuesta es que con un número bien elegido de 100 cifras hasta un potente ordenador tendría dificultades en encontrar su factorización, al menos en un tiempo razonable. Y si en lugar de 100 ponemos 200 ó 250 cifras podemos tener casi la certeza absoluta de que ni siquiera los grandes supercomputadores de las agencias de seguridad gubernamentales serían capaces de encontrar sus factores. Y que no piense el lector que el único método de factorización es la pura fuerza bruta de prueba y error como hemos podido dar a entender, pues en tal caso un número con sólo unas pocas decenas de cifras sería ya imposible de factorizar de esta manera. Se conocen algoritmos de factorización altamente sofisticados que utilizan matemáticas muy profundas, pero incluso estos algoritmos tienen limitaciones que, a día de hoy, hacen que podamos considerar imposible factorizar un número con 200 cifras.
Entonces ¿qué instrucciones da Blanca a Ander? Pues en primer lugar le proporciona dos números, digamos 2021 y 59; a continuación, le explica que calcule el resultado de elevar su edad a la potencia 59 y que cuando termine le diga el resultado. Hay un pequeño detalle: debe hacer las multiplicaciones de una manera un poco distinta a la habitual (y de hecho más simple): sólo debe considerar números de 0 a 2020, es decir debe tener en cuenta que a 2020 no le sigue 2021 sino ¡cero! y luego otra vez 1, etc. (por ejemplo, como 6561=3×2021+498, el número 6561 no es tal, sino 498). Con este procedimiento si la edad de Ander fuera 3 años (es sólo un ejemplo explicativo) calcularía
359 = ((((32)2)2)2)2×(((32)2)2)2×((32)2)2×32×3 = (65612)2×65612×6561×9×3
= (4982)2×4982×498×9×3 =…= 929.
Y éste sería el número que escucharíamos decir al pequeño (y superdotado) Ander. Sucede que Blanca sabe algo que, para dar verosimilitud a nuestra historia, suponemos nadie más conoce: la factorización 2021=43×47. Con los números 43, 47 y 59 y unas pocas matemáticas, que no tienen nada de secretas y se conocen bien desde hace más de 250 años, pero que por no abusar de la paciencia del lector no explicamos, Blanca calcula el número mágico 131, que es su clave secreta de descifrado. Y el milagro se produce: cuando Blanca eleva 929 a la potencia 131 y opera a la manera que antes hizo Ander, obtiene… ¡3! Eva, que sí conoce las matemáticas, pero no los factores 43 y 47, se ve incapaz de descubrir el número mágico 131 y por tanto se queda sin saber qué hacer con el número 929.
El sistema criptográfico que acabamos de explicar se llama RSA, es el primer sistema de clave pública que se descubrió y uno de los más utilizados desde entonces. La única diferencia es que obviamente no se emplean números como 43 y 47 sino números primos con 80 ó 100 cifras.
Así que finalmente Ander habla y dice: “Tengo 57 años”, a lo que Blanca responde, “Bonita edad. Además, es un número primo”.
Para saber más:
W. Diffie, M. E. Hellman (1976) “New Directions in Cryptography” IEE Transactions on Information Theory 22, no. 6, 644-654. Disponible como PDF aquí.
J. Sangroniz (2004) “Criptografía de clave pública: el sistema RSA” Sigma 25, 149-165. Disponible en como PDF aquí.
Sobre el autor: Josu Sangroniz es Profesor de Álgebra en el Departamento de Matemáticas de la Facultad de Ciencia y Tecnología de la UPV/EHU
El artículo 50 años de secretos: la era de la criptografía moderna se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Itziar Garate: “Artizarreko poloko bortizea egunero aldatzen da formaz eta ez dakigu zergatik” #Zientzialari (114)
Eguzki-sistemako planeta askok bortize polarrak dituzte eta hainbat formakoak dira, baina badago berezia den bat: Artizarreko poloko bortizea. Zurrunbilo hau erraldoia den arren, egunero aldatzen du formaz eta ezinezkoa da iragartzea zein izango den hartuko duen hurrengo forma.
Zurrunbilo hau Artizarraren atmosferaren supererrotazioarekin erlazionatuta dago. Izan ere, atmosfera planeta bera baino 60 aldiz azkarrago doa eta poloetan ixten da zurrunbiloa sortuz. Hala ere, ez dakigu zergatik gertatzen den supererrotazioa.
Artizarraren poloko bortizearen inguruan sakontzeko Itziar Garaterekin hitz egin dugu. Garate, astrofisikaria da eta UPV/EHUko Fisika Aplikatua I Saileko irakaslea.
“Zientzialari” izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.
The post Itziar Garate: “Artizarreko poloko bortizea egunero aldatzen da formaz eta ez dakigu zergatik” #Zientzialari (114) appeared first on Zientzia Kaiera.
¿Qué hay más allá de la orilla del mar?

El relieve submarino es un gran desconocido. Aunque parezca extraño, en pleno siglo XXI conocemos mejor la topografía de algunos parajes marcianos que la de casi tres cuartas partes de nuestro propio planeta.
Desde la orilla no divisamos qué se esconde bajo el agua, ni tampoco podemos vaciar el mar para acceder al fondo. Por eso, el estudio de las profundidades marinas, denominado batimetría, se aborda de manera indirecta mediante el uso de ecosondas.
Estos aparatos emiten ondas acústicas hacia el fondo, cronometran cuánto tardan en regresar a la superficie y transforman el tiempo en valores de profundidad. Permiten obtener muchos datos batimétricos, pero son instrumentos complejos que requieren barcos capaces de realizar largas navegaciones.
El mar es vasto, inabarcable en ocasiones. A pesar de los esfuerzos de los últimos años, apenas hemos escudriñado un 5 % del total de los fondos oceánicos. Pero lo que hemos ido descubriendo revela que el relieve submarino dista de ser uniforme o aburrido. Es más, a menudo topamos con una asombrosa y accidentada topografía.

CC BY
Los principales rasgos del relieve submarino
En el fondo marino existen grandes cordilleras, extensas llanuras, profundas hondonadas y escarpados valles. Al igual que sus homólogos terrestres, estos relieves evolucionan en respuesta a una serie de procesos geológicos.
En el centro de casi todos los océanos encontramos las dorsales medio-oceánicas, que se alzan hasta 3.000 metros por encima de los fondos adyacentes. Estas elevaciones submarinas recorren una longitud total de 80.000 km y recubren cerca del 23 % de la superficie del planeta. Constituyen, de largo, la cadena montañosa más grande de la Tierra.
Entre las dorsales y las áreas continentales, a profundidades de entre 3 000 y 6 000 metros, se localizan las llanuras abisales. Estas extensas y monótonas regiones de centenares de km², destino final de muchos sedimentos oceánicos, son casi planas. Las más desarrolladas ocupan buena parte del suelo del océano Atlántico.
Los márgenes continentales son los fondos marinos adyacentes a los continentes y ocupan el 28 % del área cubierta por el mar. Por su proximidad, y por la importancia económica de muchos de los recursos que alberga, son la parte mejor conocida del relieve submarino.
Existen dos tipos principales de márgenes continentales. Los que presentan poca actividad sísmica se conocen como márgenes pasivos. Están formados por acumulaciones de sedimentos procedentes de la erosión de los continentes. Pueden extenderse centenares de kilómetros y se localizan, sobre todo, en las zonas costeras que bordean los océanos Índico y Atlántico.
Por su parte, los márgenes activos tienen mayor actividad sísmica. Presentan un desarrollo sedimentario menor y se localizan sobre todo en el océano Pacífico. Un rasgo distintivo es la presencia de un estrecho surco que se conoce con el nombre de fosa oceánica.
Las fosas oceánicas constituyen uno de los accidentes topográficos más espectaculares de la Tierra. Pueden tener miles de kilómetros de largo y son muy hondas. La fosa de la Marianas, situada al oeste de Filipinas, supera los 11.000 metros de profundidad. Es el lugar más profundo del planeta.

Los valles submarinos
Entre los relieves más sobresalientes que salpican los fondos marinos destacan los valles submarinos. Estos se clasifican según el tipo, la intensidad y la duración de los procesos que los generan y mantienen activos.
Podemos encontrar desde surcos de origen glaciar en latitudes polares hasta canales profundos que serpentean el lecho marino en las cercanías de las grandes desembocaduras fluviales.
Los valles largos, sinuosos y encajados que cortan gran parte de los márgenes continentales se llaman cañones submarinos. Estos relieves erosivos actúan a modo de conductos: transfieren sedimentos, materia orgánica, desechos y contaminantes desde las zonas costeras hacia las partes profundas de las cuencas oceánicas.
Su distribución es global, con más de 5 800 cañones contabilizados. Sus tamaños son comparables a los de los grandes cañones terrestres. Pero algunos, situados en el mar de Bering entre Siberia y Alaska, son gigantescos y rebasan los 100 km de anchura, 400 km de longitud y 2 km de desnivel entre el borde y el fondo.

Los cañones del margen continental catalán
No hay que ir tan lejos para tropezarnos con estos relieves. Gran parte del margen catalán está cortado por profundos y largos cañones cuyas dimensiones superan a las de cualquier valle terrestre cercano.
Un par de ellos llaman la atención.
El cañón de Blanes, cerca de la desembocadura del río Tordera, es el mayor y más complejo de todo el margen. Su trazado es sinuoso, sobre todo en los tramos inferiores, y supera los 150 km de longitud. En algunas tramos del curso superior la anchura sobrepasa los 20 km.
Más al norte, en la Costa Brava, el imponente cañón de Palamós inicia su andadura casi al tocar los acantilados litorales y se hunde hasta recorrer unos 110 km. En su curso superior presenta unas vertientes muy abruptas, una anchura de 16 km y un desnivel de más de 1 km.
Los cañones del margen catalán son también vías preferentes de transporte para el material que proviene del continente. Muchos estudios destacan el importante papel que desempeñan en la dinámica oceanográfica y en los procesos que controlan el funcionamiento de los ecosistemas marinos de la zona.
Así, la abundancia relativa de alimento que allí se encuentra y sus condiciones ambientales favorecen la proliferación de algunas especies marinas, algunas de ellas de gran interés pesquero. Esto los convierte en lugares muy ricos en biodiversidad.
¿Por qué estudiar el relieve submarino?
El conocimiento detallado del relieve submarino ayuda a mejorar la explotación de los recursos vivos marinos. Los mapas batimétricos también mejoran la seguridad de la navegación.
Otras aplicaciones incluyen temas de gestión litoral, como la protección de hábitats marinos y la regeneración de playas. También de ingeniería costera, como la instalación de infraestructuras y la construcción de puertos. Incluso para la localización de recursos como el petróleo y el gas.
Los reconocimientos batimétricos, por último, ayudan a los científicos a mejorar la interpretación de los estudios relacionados con el cambio climático, la evolución histórica de la línea de costa y la propagación e incidencia de los tsunamis.
Falta todavía mucho por reconocer, sobre todo en detalle. Tendremos que redoblar esfuerzos. Confío en que el próximo verano, tumbados de nuevo en la orilla del mar, recuerden y valoren que allí delante bajo el mar se extiende un paisaje especial que merece ser explorado.
Sobre el autor: José Luis Casamor es profesor de Geología Marina en la Universitat de Barcelona
Este artículo fue publicado originalmente en The Conversation. Artículo original.
El artículo ¿Qué hay más allá de la orilla del mar? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Geología, ver más allá de lo que pisamos
- Más allá del mar de Yukawa
- Arrecifes fósiles, una paradoja geológica
Gráficas para la ciencia y ciencia para las gráficas
A menudo, las innovaciones en ciencia son, ante todo, herramientas que simplifican la manera de abordar un problema, transformaciones que lo hacen más aprehensible a través de nuestros sentidos (la vía que tenemos para incorporar nueva información a nuestros modelos mentales, al fin y al cabo). Pensemos, por ejemplo, en la importancia de la notación en matemáticas. Representar una derivada con un símbolo o con otro puede parecer una discusión vacía, una cuestión de forma al fin y al cabo. Pero es que la forma (en ciencia, así como en arte) posibilita la aparición de nuevos contenidos. Si no, como propone Pablo Rodríguez, probad a hacer multiplicaciones con lápiz y papel usando números romanos.
Del mismo modo, si John Snow hubiese intentado hacer su análisis de la epidemia del cólera usando sólo datos (víctimas y coordenadas, números desnudos), probablemente le hubiese costado mucho más llegar a la misma conclusión. O quizás nunca la hubiese alcanzado. Las gráficas se han convertido así en un recurso fundamental de la ciencia. Y, sin embargo, no siempre parecen recibir un servicio recíproco. En muchos casos, pensamos en este tipo de herramientas como una cuestión de “gusto” o de “intuición”: todo elemento gráfico puede configurarse según le dé al perpetrador (para eso se inventó la galería de horrores del Excel).
Nada más lejos de la realidad. No cualquier cosa vale, ni todos los recursos visuales son igualmente adecuados. Como en todo fenómeno observable, la efectividad de una gráfica también puede ser medida y comparada. Es posible hacer ciencia de las gráficas de datos, y esto fue lo que se propusieron William S. Cleveland y Robert McGill en los años 801:
Hoy en día, los gráficos son una parte vital del análisis de datos estadísticos y una parte vital de comunicación en ciencia y tecnología, negocios, educación y los medios de masas. Y aun así, el diseño de gráficos para el análisis y presentación de datos se hace en gran medida sin rigor científico.
Así, decidieron desarrollar y testar empíricamente unos principios básicos de la percepción gráfica. Para ello, formaron un modelo basado en tareas perceptivas elementales que realizamos cuando decodificamos información cuantitativa en gráficas, y las pusieron a prueba a través de experimentos.
El resultado es una teoría que permite predecir el rendimiento relativo de diferentes gráficas basándose en los elementos que la componen. De hecho, concluían que era necesario reemplazar muchos de los tipos de gráficas populares en aquel entonces (y que, desgraciadamente, todavía lo son; por ejemplo, la tristemente común gráfica de tarta).
Los elementos perceptivos que identifica la teoría de Cleveland y McGill, ordenados de mayor a menor exactitud perceptiva, son los siguientes:
- Posición en una escala común.
- Posición en escalas no alineadas.
- Longitud, dirección, ángulo.
- Área.
- Volumen, curvatura.
- Sombreado, saturación de color.
En otras palabras, las tareas que involucran elementos más simples —como los puntos, las líneas o las barras— son las que mejor funcionan perceptivamente, lo cual no resultará una sorpresa. Así, los diagramas de dispersión, las gráficas de evolución, de distribución y de comparación de magnitudes son las más efectivas para codificar un mensaje complejo. A medida que los recursos gráficos se van haciendo más complejos, aumentan las dificultades de lectura. La situación se vuelve dramática cuando se introducen elementos en 3D, que involucran profundidad y volumen. Porque, aunque somos relativamente buenos con la perspectiva, no olvidemos que las gráficas son generalmente imágenes planas, en 2D, donde la diversidad espacial que nos proporciona el hecho de tener dos ojos resulta totalmente inútil.
Estudios posteriores han refinado esta escala, añadiendo otros parámetros como tono de color y profundidad de campo. La escala, finalmente, queda como podéis ver aquí:
Como los propios autores originales admitían, obviamente estas tareas no son lo único que influye en la construcción de una buena gráfica, ni el único tipo de tareas que llevamos a cabo cuando leemos este tipo de representación visual. Pero sirve como base para priorizar unas tareas sobre otras y seleccionar el atributo más efectivo dependiendo de los datos que se vayan a representar.
Referencia:
1Graphical Perception: Theory, experimentation and application to the development of graphical methods.[PDF]
Sobre los autores: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica. Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute.
El artículo Gráficas para la ciencia y ciencia para las gráficas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- #Naukas13 Malas gráficas
- El legado de Fisher y la crisis de la ciencia
- Ciencia Clip: un concurso de vídeos de ciencia para jóvenes estudiantes
Gene-teknikak zur-trafikoaren aurka

1. irudia: Zurezko altzariak. (Argazkia: tpsdave2 / pixabay.com)
Hatz-marka genetikoek bide berri bat ireki dute zur-trafikoaren ikerkuntzan. Hatz-marka genetikoek aspaldi erabiltzen dira aitatasun-frogak egiteko edo auzitegi-analisietan. Esate baterako, askotan ikusi dugu teknika hori polizia-telesailetan: susmagarri baten DNA erkatzen dute krimenaren gertalekutik lortutako DNArekin eta ondorioztatzen dute susmagarria bertan egon zela. Askotan ikusi dugun eszena horren oinarrian hatz-marka genetikoen azterketa dago. Teknika horren hastapenak 1980.eko hamarkadan daude. Hasieran RFLP deritzon teknikaren bidez egiten zen. Teknika horren bidez, DNA leku jakin batzuetatik mozten da eta, errepikakorrak diren DNA sekuentzien eraginaren ondorioz, zatien tamaina indibiduo bakoitzean ezberdina da. Lortzen diren zatien luzerak erkatuta, indibiduoak identifika daitezke. Teknika horren mugak ziren DNA kantitate altua behar zela eta DNA ezin zela endekatua egon. PCR teknikari esker, muga hori gainditu zen, azken teknika hau erabilita DNA kantitate altuak lor baitaitezke, DNA endekatua badago ere. Gaur egun hatz-marka genetikoak aztertzeko PCR teknika erabiltzen da, oso aldakorrak diren sekuentzia laburrak aztertzeko. Sekuentzia labur hauek aldakorrak badira ere, hainbat indibiduok alelo berdina izan dezakete. Hortaz, aldi berean halako sekuentzia labur asko aztertzen dira, bereizmena handitzeko eta horrela hatz-marka genetiko bera duten bi indibiduo edukitzeko probabilitatea asko jaisteko. Horixe da lehenago aipatutako telesailetan ikusi ohi duguna. Bada, teknika ezagun honek zuraren jatorria ezagutzeko aukera ere ematen du.
Teknika horri esker aztertzen da zuhaitz bakoitzaren gene-egitura esklusiboa eta frogatu da arrakastatsua izan daitekeela. 2015. urtean Gifford Pinchor National Forest basoan (Washington, EEBB) hosto handiko astigar bat (Acer macrophyllum) legez kanpo bota zuten. Ikertzaileek teknika hori erabili zuten gaizkileak aurkitzeko: zerrategi batean konfiskatutako oholak basoko zuhaitz-abarrekin lotu zituzten DNAren analisi horren bidez.
Halako ondorio argiak, ordea, ez dira ohikoak legez kanpoko zur-industriaren izaera globala dela eta. Hortaz, ikertzaileek espero dute bariazio genetikoa erabiltzea zur susmagarria toki bateko edo eskualde bateko zuhaitz espezieekin lotzeko. Era honetara, froga daiteke jatorria Brasilen bide duen kaobaren zuraren bidalketa batek Kolonbiako zuhaitzen profil genetikoa duela. Analisi hori posible egiteko munduko basoen liburutegi bat behar beharrezkoa da, informazio geografikoa barneratzen duena ere. Analisi hori posible egiteko, beharrezkoa da munduko basoen liburutegi bat, informazio geografikoa ere baduena. Tamalez, jada jaso diren milaka zur-laginen zati handi bat ez dago geoerreferentziatua. Hori dela eta ikertzaileak munduko basoetatik barreiatu dira lagin berriak jasotzeko.

2. irudia: Moztutako zuhaitzen enborrak. (Argazkia: Rudy and Peter Skitterians /pixabay.com)
Hala ere, horrelako liburutegiak gauzatzea ez da erraza. Esate baterako, 2014an egindako espedizio batean, balatá izenez (Manilkara huberi) ezagutzen den zuhaitz baten zur eta hosto laginak jasotzen ari ziren LargeScale Project egitasmoaren baitan. Egitasmo hau Thünen Institutek (Braunschweig, Alemania) zuzentzen du, Afrika eta Hego Amerikako zuhaitzen erreferentzia genetikoa eraikitzeko. Bertan, helburu modura hartu da zur-trafikoan lehentasun handia duten 20 espezieren informazioa genetikoa lortzea (Afrikako hamar zuhaitzena eta Hego Amerikako beste hamarrena), eta erreferentziazko bost laborategi abian jartzea bertoko ikertzaileak trebatuta (Afrikan hiru eta Hego Amerikan bi). Lehenago aipatutako espedizio horretan botanikoak ohartu ziren balatá delakoa espezie bat izan beharrean espezie ezberdin asko izan zitekeela. Hortaz, lehenengo espezieak ondo zehaztu behar dira gene-informazio zehatza eskuratu nahi bada. Horrelako adibideek agerian uzten dute erreferentziazko mapak eta datu-baseak sortzea zeregin ikaragarria dela.
Forest Stewardship Council (Bonn, Alemania) izeneko erakundeak horrelako ekimenak bultzatu nahi ditu. Horretako, AEBko Basoen Zerbitzuarekin, Agroisolab enpresarekin eta beste erakunde batzuekin batera egitasmo bat abiatuko du: Zuraren Erreferentzia Globala Egitasmoa, hain zuzen ere. Forest Stewardship Councilek 1500 baso inguru ziurtatu ditu. Bada, egitasmo horri esker, baso horietatik laginak jasoko dira teknika genetikoak eta beste teknika batzuk erabili ahal izateko. Gainera, lagin bakoitza geokokatuta egongo da eta modu seguruan garraiatuko da, lagin bakoitzaren jatorria ez galtzeko. Horrela, epaitegi batean onartu ahal izango dira froga moduan lagin horrekin egindako analisiak.
Halako datu-baseek ez dute zur-trafikoa geldituko baina lanabes bat izango dira bai poliziarentzat, bai gobernuz kanpoko erakundeentzat eta ikertzaileentzat. Horrela, pixkanaka zur-trafikoari aurre egitea espero da, salerosleek ikusiko baitute ez direla zigorrik gabe gelditzen.
Erreferentzia bibliografikoa:
Irwin, Aisling (2019). Tree sleuths are using DNA tests and machine vision to crack timber crimes. Nature 568, 19-21. DOI:10.1038/d41586-019-01035-7
—————————————————–
Egileaz: Koldo Garcia (@koldotxu) Biodonostia OIIko ikertzailea da. Biologian lizentziatua eta genetikan doktorea da eta Edonola gunean genetika eta genomika jorratzen ditu.
—————————————————–
The post Gene-teknikak zur-trafikoaren aurka appeared first on Zientzia Kaiera.
La característica de Euler de una superficie: un invariante topológico
En la entrada Clasificando en topología: de lo local a lo global recordábamos un bellísimo teorema de clasificación:
Dada una superficie compacta (cerrada y acotada) y conexa (de una pieza), es topológicamente equivalente a una esfera, a una suma conexa de toros o a una suma conexa de planos proyectivos.
Una vez demostrado este teorema, surge una pregunta natural: ¿son estos tipos de superficies topológicamente diferentes? Es decir, ¿podría suceder que, para dos enteros positivos distintos m y n, la suma conexa de n toros fuera homeomorfa a la suma conexa de m toros? ¿Y podría ocurrir que, para dos enteros positivos m y n, la suma conexa de n toros fuera homeomorfa a la suma conexa de m planos proyectivos?
Para demostrar que esto no es posible se puede recurrir a un invariante numérico llamado la característica de Euler que tiene sus raíces en la conocida fórmula de Euler para poliedros que afirma que
Si P es un poliedro convexo con f caras, e aristas y v vértices, entonces v–e+f=2.
La fórmula de Euler para poliedros se puede generalizar a superficies compactas. Antes de comentar cómo, recordemos que cualquier superficie compacta y conexa puede obtenerse como el cociente de una región poligonal en el plano con un número par de aristas identificadas a pares. Cada superficie puede reconocerse a través de una presentación que se obtiene etiquetando con el mismo símbolo cada par de aristas identificadas y “leyendo” estas etiquetas en el orden en el que se presentan.
Por ejemplo, la esfera, el plano proyectivo, el toro y la botella de Klein son cocientes de cuadrados como se indica en la imagen de debajo. Cada flecha y cada letra indican las aristas que se identifican y la forma de realizar este “pegado”.

Cada una de las anteriores superficies tendría las presentaciones (empezando a “leer” desde la esquina superior izquierda):
-
la esfera: ABB-1A-1,
-
el plano proyectivo real: ABAB,
-
el toro: ABA-1B-1, y
-
la botella de Klein: ABAB-1
Una superficie no tiene una única presentación, depende de la manera de etiquetar. Pero dos presentaciones de la misma superficie son equivalentes en el sentido de que pueden transformarse la una en la otra por una serie de operaciones elementales. Los detalles pueden verse en [1], en las páginas 8 a 16.
Si S es una superficie con una presentación P dada, se define la característica de Euler de esa presentación como χ(P) = v–e+f, donde f es el número de caras, e el de aristas y v el de vértices de la presentación. Por ejemplo,
-
La esfera, con la presentación P=ABB-1A-1, tiene χ(P)=2–1+1=2 (tras las identificaciones, contamos 2 vértices, 1 arista y 1 cara).
-
El plano proyectivo real, con la presentación P=ABAB, tiene χ(P)=2–2+1=1 (tras las identificaciones, contamos 2 vértices, 2 aristas y 1 cara).
-
El toro, con la presentación P=ABA-1B-1, tiene χ(P)=1–2+1=0 (tras las identificaciones, contamos 1 vértice, 2 aristas y 1 cara).
-
La botella de Klein, con la presentación P=ABAB-1, tiene χ(P)=1–2+1=0 (tras las identificaciones, contamos 1 vértice, 2 aristas y 1 cara).
Se puede probar que χ(P) es un invariante de la superficie, es decir, no depende de la presentación dada para S; por ello se denota por χ(S) y se llama característica de Euler de la superficie. Además se demuestra que si S es homeomorfa a una esfera, entonces χ(S)=2, si es homeomorfa a la suma conexa de n toros es χ(S)=2−2n, y si es homeomorfa a la suma conexa de n planos proyectivos es χ(S)=2−n.
Con esto queda respondida la primera pregunta planteada al principio, ¿podría suceder que, para dos enteros positivos distintos m y n, la suma conexa de n toros fuera homeomorfa a la suma conexa de m toros? No, porque poseen distintas características de Euler.
¡Vaya! Pero la suma conexa de 2n planos proyectivos tiene la misma característica de Euler que la suma conexa de n toros. ¿Son ambas superficies homeomorfas? No, pueden distinguirse porque la primera superficie (suma conexa de 2n planos proyectivos) no es orientable, mientras que la segunda (suma conexa de n toros) si lo es. Y la orientabilidad es una propiedad topológica. Así que, para dos enteros positivos m y n, la suma conexa de n toros no puede ser homeomorfa a la suma conexa de m planos proyectivos…
Es decir, queda demostrado el siguiente teorema:
Si S1 y S2 son superficies compactas y conexas, son homeomorfas si y sólo si son ambas orientables o ambas no orientables y χ(S1)=χ(S2).
El anterior es un teorema topológico por excelencia. Se ha reducido el problema de clasificación de superficies compactas a la determinación de dos invariantes topológicos: la orientabilidad y la característica de Euler, ambos fácilmente calculables.
Nota 1: Los poliedros aludidos en la fórmula de Euler son homeomorfos a una esfera. Por eso su característica de Euler es 2.
Nota 2: El matemático Simon Antoine Jean L’Huillier (1750-1840) nació un 24 de abril. Generalizó la fórmula de Euler a poliedros con g asas: v–e+f=2-2g.

Existe una relación entre la característica de Euler χ(S) de una superficie S y g(S), su número de asas. Si S es orientable, g(S)=1/2(2-χ(S)). Y si no lo es, entonces g(S)=2-χ(S). ¿Y qué son las asas de una superficie? Una esfera no posee asas, y la suma conexa de n toros o de n planos proyectivos posee n asas…
Referencia
[1] Marta Macho Stadler, Topología Algebraica, Apuntes Máster 2014-2015
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo La característica de Euler de una superficie: un invariante topológico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Clasificando en topología: de lo local a lo global
- Los ‘Leonhard Euler Facts’
- Visualizando la hiperesfera a través de la fibración de Hopf
Oroimena berreskuratzeko zirrikitua ireki dute
Grial Santu ugari daude zientzian. Astrofisikariek materia eta energia iluna zer diren argitu nahiko lukete; fisikariak, aldiz, Newtonen fisika eta mekanika kuantikoa batuko dituen teoriaren atzetik dabiltza. Biziaren zientzien alorrean, berriz, gizakiaren erraietan bete-betean sartuta dagoen itxaropena erdietsi nahi dute: bizirik irautea. Heriotzaren zigorra atzeratzea. Bizitzari urte batzuk lapurtzea.
Biologo eta mediku asko antiaging gisa ezagutzen den alorrean ari dira, zahartze osasungarria helburu. Baina honetan, paradoxa bat dago. Askotan gorputza txukun mantentzen bada ere, zoritxarrez, burua narriatzen da, neuroendekapenaren bat duen lagunen inguruan daudenek ondo dakiten moduan. Maslowen piramidearen azpian dagoen guztia ase egonez gero, zerbait izatekotan, gizakia gogamena da. Zentzu horretan, Stephen Hawking bezalako pertsonaiaren irudia metafora zinez indartsua da: gurpildun aulki bati lotuta egonda ere, pentsamendu soilarekin unibertsoan zehar bidaiatzeko eta ekarpen garrantzitsuak egiteko gai da gizakia.
Horregatik, neurozientzialari askoren nahia da garunean izaten diren prozesuak ahalik eta luzeen osasuntsu mantentzea. Horretarako, baina, ezinbestekoa da oroimena mantentzea: jakina da bizi izan ditugun pasarteetan dagoela askotan gizakiaren arima bera, eta horren galera, momentuz, atzeraezina da.

1. irudia: Zahartzearekin batera, oroimena galtzen du gizakiak, baina galera horren aurkako estrategiak garatzen saiatzen ari dira zientzialariak. (Argazkia: Val Vesa / Unsplash)
Bostongo Unibertsitateko (AEB) zientzialari talde batek galera horri aurre egiteko estrategiak ikertzeari ekin dio, eta hori egiterakoan bereziki garuneko eremuen arteko sinkronizazioan jarri dute arreta. Ez da izan ausazko erabakia, orain arte pilatutako esperientzian oinarritutakoa baizik. Nature Neuroscience aldizkarian eman dute lortutako emaitzen berri.
Orain plazaratu den ikerketa horren arabera, badago zahartzean galdutako memoria berreskuratzeko zirrikitu bat. Zehazki, garuneko azal tenporala eta prefrontala erritmo jakin baten arabera estimulatu dituztenean ikusi dute zahartzeari lotutako oroimen galera berreskura daitekeela.
Zahartzeari lotutako galerak oroimen operatiboan du eragin gehien, hots, eguneko jardunetan erabiltzen den memoria motan, epe motzera begira dagoen horretan. Aurpegiak atzemateko, kalkulu matematikoak egiteko edota inguru berri batean orientatzeko erabiltzen da oroimen hori. Informatikarekin konparazioa egitearren, RAM memoriaren parekoa litzateke.
Informazioa gordetzeko ahalmena, baina, adinarekin pixkanaka narriatzen da. Neurologian dagoen hipotesi batek dio oroimen operatiboa eremu desberdinak batera sinkronizatzean abiatzen dela, baina, zahartzean, eremu hauen arteko sinkronia galtzen dela. Bestetik, zientzialariek badakite helduengan oroimen operatibo hori garuneko alde desberdinetan dauden neuronen arteko hainbat elkarrekintza zehatzi lotuta dagoela.
Prozesuan bi motatako patroiak agertzen direla ikusi dute. Patroi hauek garuneko uhin mota desberdinei lotuta daude: gamma eta theta erritmoei, hain zuzen; garuneko azal prefrontalean eta tenporalean gertatzen dira prozesu hauek. Garunean gertatzen diren aldaketa hauek lan egiteko oroimenarekin zer harreman izan dezaketen argitzeko elektroentzefalografia (EEG) erabili dute, eta garuna estimulatzeko, aldiz, elektrizitate pultsu txikiak eman dizkiete garunean parte-hartzaileei, 25 minutuz. Teknika ez inbaditzaile honi esker, oroimenari lotutako garun elkarrekintza bakoitza modulatu dute.
Probetan 82 lagunek parte hartu dute. Horietatik erdia gazteak izan dira eta beste erdia, edadetuak. 20-29 eta 60-76 izan dira bi talde horietako parte-hartzaileen adina.

2. irudia: Garunaren estimulazioak garunean du eragina. Ezkerrean, 20 urteko gazte baten garun jarduera, oroimen operatiboari lotua. Erdian, 70 urteko lagun batena. Azkenik, eskuinean, 70 urteko lagun baten jarduera, estimulazioa jaso eta gero. (Irudia: Reinhart lab/Boston University)
Lan egiteko oroimenaren beharra duten atazak eman dizkiete parte-hartzaileei, batzuetan estimulazioarekin, eta, besteetan, bere horretan utzi dituzte, batere estimulatu gabe. Ikertzaileek egiaztatu ahal izan dutenez, estimulaziorik gabe egon direnean, adinduak mantsoago eta hainbesteko zehaztasunik gabe aritu dira, gazteagoak diren gainerako helduekin alderatuz. Bestetik, azken hauetan ikusi dute theta eta gamma erritmoen arteko elkarrekintza handitu dela ezkerreko lobulu tenporalean, eta eremu frontotenporaletan theta erritmoen sinkronizazioa handitu direla.
Estimulazioa jaso dutenean, berriz, adinduen oroimen operatiboaren eraginkortasuna handitu da, eta estimulazio sortu eta 50 minutura mantendu da, gainera, lortutako efektua. Horretaz gain, korrelazioa ikusi dute ere theta eta gamma erritmoen arteko sinkronizazioaren eta atazak egiteko gaitasunaren hobekuntzaren artean.
Pozik azaldu dira aurrerapenarekin. “Zahartzeari lotutako aldaketak ez dira aldaezinak. Askoz gazteago zinenean zeneukan oroimen operatiboaren funtzio nagusia bueltatzeko gai izan gara”, laburbildu du Bostongo Unibertsitateko ikertzaile Robert Reinhart-ek. Itxaropenari atera irekitzen bazaio ere, kontuan izan behar da momentuz lortu den hobekuntza une batekoa izan dela. Ordainean, aitortu beharra dago ez dela teknika konplikatua. Hau ez da kontu hutsala, zeren askotan laborategietatik arlo klinikorako bidea oztopoz beteta baitago, eta erabiltzen den teknologia eskuragarria izatea da aterabideak praktikara eramateko ezinbesteko baldintza. Medikuntzan izaten diren aurrerapen guztiekin egin behar den moduan, zuhurtzia eta itxaropena mantendu behar dira. Baina, esan beharrik ez dago, bigarrena izan da gehienetan gizakia aurrera eraman duena.
Erreferentzia bibliografikoa:
Reinhart, Robert M. G., Nguyen, John A. (2019). Working memory revived in older adults by synchronizing rhythmic brain circuits. Nature Neuroscience. DOI: https://doi.org/10.1038/s41593-019-0371-x
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Oroimena berreskuratzeko zirrikitua ireki dute appeared first on Zientzia Kaiera.
Un medio sólido y rígido llena todo el espacio o la luz se transmite en el vacío

Ya hemos mencionado que hay un factor parece faltar en el modelo de onda para la luz. En una de las primeras entregas de esta serie decíamos que las ondas son perturbaciones que se propagan por un medio y poníamos como ejemplos cuerdas o o masas de agua. ¿Cuál es entonces el medio para la propagación de las ondas de luz?
¿Es el aire el medio para las ondas de luz? Evidentemente no, porque la luz puede atravesar un espacio que no contiene aire, como ocurre con la luz que recibimos en la Tierra procedente del Sol y demás estrellas. Incluso antes de que se supiese que no existía aire entre el Sol y la Tierra, Robert Boyle ya había intentado el experimento de extraer casi todo el aire de un recipiente de vidrio, encontrando que los objetos dentro seguían siendo visibles lo que implicaba que la luz atrab¡vesaba el espacio en ausencia de aire.
Una onda es una perturbación, y es difícil pensar en una perturbación sin especificar qué se está perturbando. Así que era lo más lógico y natural era proponer que existía un medio específico para la propagación de las ondas de luz. Este medio hipotético se le llamó éter. La palabra “éter” originalmente fue el nombre para el quinto elemento de Aristóteles, el fluido transparente y puro que llenaba la esfera celestial y que más tarde se llamaría, en un alarde de originalidad, “quintaesencia”.
En los siglos XVII y XVIII, se pensaba que el éter era un fluido invisible de muy baja densidad. Este fluido podría penetrar toda la materia y llenar todo el espacio. De alguna manera podría estar asociado con el “effluvium” (fluido) que se empleaba para explicar las fuerzas eléctricas y magnéticas [1]. Pero ocurre que las ondas de luz deben ser transversales para explicar la polarización, y las ondas transversales generalmente se propagan solo en un medio sólido. Un líquido o un gas no pueden transmitir ondas transversales a ninguna distancia significativa por la misma razón que no puedes “retorcer” un líquido o un gas. Así que los físicos del siglo XIX asumieron que el éter debía ser un sólido.
Como vimos al tratar la propagación de las ondas, la velocidad de propagación aumenta con la rigidez del medio y disminuye con su densidad. La velocidad de propagación de la luz es muy alta en comparación con la de otros tipos de ondas, como el sonido. De aquí que se pensase que el éter tenía que ser un sólido muy rígido con una densidad muy baja.
Nos puede parecer absurdo afirmar que un medio rígido y sólido, el éter, llena todo el espacio. Después de todo un medio así debería provocar rozamiento, pero los planetas se mueven a través del espacio sin disminución detectable de velocidad. Y, por supuesto, tú no sientes resistencia cuando te mueves en un espacio que en el que la luz se transmite libremente.
Sin éter, la teoría ondulatoria de la luz, por lo demás tan sólida, parecía improbable. Pero el éter en sí tenía propiedades absurdas. Hasta principios de este siglo, este problema seguió sin resolverse, y estaba en el mismo punto en el que lo dejó Newton. Serían necesario un Maxwell [2], un Einstein [3] y unos cuantos experimentos ingeniosos para resolver el problema: la luz se transmite en el vacío.
Notas:
[1] A este respecto véase Imponderable: el primer modelo estándar de la física
[2] Las ecuaciones de Maxwell no necesitan de la hipótesis del éter, véanse La velocidad de las ondas electromagnéticas y la naturaleza de la luz o Maxwell y el éter
[3] Véase, por ejemplo, El principio de constancia de la velocidad de la luz
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Un medio sólido y rígido llena todo el espacio o la luz se transmite en el vacío se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Grafenoaren iraultza?

1. irudia: Grafenoa jakin-mina pizten duen nanomateriala da. Izan ere, material miresgarria dela esaten dute malgua, sendoa, gardena eta eroale bikaina delako, besteak beste. (Argazkia: Seagul / Pixabay – domeinu publikoko irudia)
Nanozientziak, eskala nanometrikoko materialen fenomenoak eta manipulazioa ikertzen ditu. Bere baitan aurkitzen den nanoteknologiak berriz, egitura eta aparatuen diseinu eta produkzioaz arduratzen da, tamainaren bidezko kontrol bat edukita. Dena den, maiz nanoteknologia hitza erabiltzen da bi diziplinei erreferentzia egiteko. Zientzia hau oso diziplina anitzekoa da, zeresana izan dezake biologia, kimika, fisika, materialen zientziak, ingeniaritzak, informatika, mikroelektronika, bioteknologia eta medikuntza esparruetan.
Azken urteotan nanomaterialek izugarrizko jakin-mina piztu dute, eta material horien artean dago hain zuzen ere, grafenoa. Baina, zer da grafenoa? Grafenoa karbono atomoz osatutako molekula laminatua da. Atomo bateko lodieradun xafla hauetako karbono atomoak erleen panelen antzera antolatzen dira, hau da, eraztun hidrofobikoak sortzen dituzte. Grafenoaren egitura duela ia mende bat ezagutzen bada ere, ez zen erabiltzen hasi grafenoa merke sortzeko era baten bidez Andre Geim eta Konstantin Novoselovek giro-tenperaturan isolatzea lortu zuten arte. Bikote honek Nobel saria irabazi zuen 2010 urtean lan honengatik.
Hainbat dira grafenoari lotzen zaizkion ezaugarriak: moldagarria, ultrafina, hauskaitza, eroankortasun ahalmen handikoa etab. Bere erabilera berritzaile gehienak material honek daukan elektroeroankortasun ahalmen handiarekin lotuak daude. Erabilera biomedikoen inguruan berriz, bolumen unitateko daukan azalera handia da garrantzitsuena. Honi esker, grafenoaren gainazala kantitate handian funtzionalizatzea lortzen da, hau da, komeni zaigun edozein osagai kantitate handian itsastea. Medikuntza arloan oso ezagunak dira grafenoak minbiziaren aurkako terapia edota ehunen ingeniaritzan izan ditzakeen erabilerak. Minbiziaren aurkako eragile gisa erabiltzeari dagokionez, tumore-zeluletan itsasteko ahalmena emateko eraldatu den grafenoa gaixoetan xiringa bidez injektatuko litzateke. Material honek argi infragorria absorbatzen du, eta behin grafenoa zelula kaltetuetan itsatsita, erradiologia-tratamenduetako irradiazio bidez tratatuko litzateke gaixoa. Irradiazioek tumore-zelulei baino ez liekete eragingo, eta ondorioz, albo kalteak baztertuko lirateke. Gainera, farmako jakin batzuekin funtzionalizatuz gero, zonalde kaltetuetara bideratu eta horrela farmako gehiago iritsiko litzateke infekzio-gunera. Ehunen ingeniaritzari dagokionez, inplanteetan erabil daiteke. Nerbio-zelulek korronte elektriko bidez funtzionatzen dute, eta, grafenoak, argia bultzada elektriko bilakatzeko ahalmena dauka; hortaz, kaltetutako neurona zirkuituen ordezko paregabea izango litzateke. Era berean, inplanteak egin litzaizkieke ikusmena galdu duten gaixoei, eta berriz ikusteko ahalmena emango litzaieke horrela. Protesiak sortzeko ere balio dezake, elastikoa, sendoa eta erresistentea izanik, konposatu honen gaineko estimulazio elektrikoak tentsio eta erlaxazioa kontrolatzea ahalbidetuko lituzke. Kautxu eta grafenoa uztartuz muskulu bioniko bat eratu daiteke, gainera hezur eraginkor bat sortzeko ere aproposa izan daiteke.

2. irudia: Grafenoak dituen ezaugarriak direla eta, medikuntzan ere erabilera izango duela aurreikusten duten zientzialariek. (Argazkia: Skeeze / Pixabay – domeinu publikoko argazkia)
Askotan gertatzen den bezala, alde batetik, ideia teorikoak daude eta bestetik ordea, ideia horiek errealitate bihurtzea dugu erronka. Jakina da teoriatik praktikara bidean, maiz, urteak edota hamarkadak iragan daitezkeela, eta argi dago zientzialariek hitzeman ziguten guztia gauzatu aurretik nahiko urte igaro beharko direla. Izan ere, grafenoaren agerpenean uste izan zena baino motelagoa izan da bere bilakaera, baina horrek ez du esan nahi aurrerapenik lortu ez denik. Berez, isolatzea lortu zenetik diru inbertsio handiak egin dira material honetatik eraldatutako produktu berritzaile eta errentagarriak sortzeko. Dena den, ez da lan handirik egin bere alderdi negatiboak ikertzeko.
Medikuntzako aplikazioei dagokienez, kontuan eduki behar da askotan zain bidezko administrazioa egin behar dela. Hori dela eta, gogoan izan behar da grafenoa hidrofobikoa dela, hau da, ur-medioetan disolbagaitza dela; hortaz, odolarekin kontaktuan egonez gero, bertatik aske hedatzeko eragozpenak dauzka. Edonola ere, oztopo hau erraz gainditu zen 2008an eraldatutako grafeno hidrofilikoa sortuz: grafeno oxidoa hain zuzen ere. Grafeno oxidoak, ur-inguruan disolbagarria izatea eragiten duen talde karboxilo eta alkohol taldeak dauzka. Aintzat hartzekoa da zain bidezko administrazioaren bidez grafeno oxidoak odolean hainbat zelula mota topatuko lituzkeela, horien artean ugarienak eritrozito edo globulu gorriak. Beraz, ezinbestekoa da gizakietan erabili aurretik, grafeno oxidoak globulu gorriei kalterik eragiten dien ikertzea. Beste hitz batzuetan esanda, hemokonpatibilitate frogak egin behar dira.
Atomo bateko lodiera dutenez, grafeno oxidoko xaflen muturrak oso zorrotzak dira, eta beraz, gerta liteke globulu gorriekin kontaktuan jarrita zelula horietan mozketak eta heriotza eragitea. Grafeno oxidoaren hemokonpatibilitate-ikerketak duela gutxi hasi ziren; horietatik gehienek, baieztatu dute grafeno oxidoak kalte nabarmena eragiten dutela hainbat giza zelulatan. Berriki argitaratu dugun artikulu batean ikusi dugu 0.25mg grafeno oxido nahikoa dela 500 miloi globulu gorri suntsitu eta barnean daramaten hemoglobinaren askapena eragiteko. Dena den, hemolisi hau %2ra murriztea lortu dugu, grafeno oxidoa lipido espezifikoz gaineztatuz.
Egun dakiguna dakigula, badirudi grafenoak edota grafeno eraldatuak izugarrizko arriskua dakarrela medikuntzako tratamenduetan. Adibidez, hainbat zientzia-ikerketatan argi ikusi da grafenozko inplantea behin txertatuta egonda, pazienteak edozein kalte jasango balu, bere bizitza arriskuan egon litekeela. Hala ere, badirudi pausoz pauso hobetuz goazela grafenoak gizakiarekin duen bateragarritasuna eta lehenago edo beranduago bada ere, grafenoaren iraultza iritsiko dela.
Erreferentzia bibliografikoa:
Monasterio, B. et al. (2017). Coating Graphene Oxide with Lipid Bilayers Greatly Decreases Its Hemolytic Properties. Langmuir 33(33), 8181–8191. DOI: 10.1021/acs.langmuir.7b01552
———————————————————————————-
Egileaz: Bingen Monasterio biokimikaria da eta Biofisika Institutuko ikertzailea.
———————————————————————————-
The post Grafenoaren iraultza? appeared first on Zientzia Kaiera.
El intestino grueso
El intestino grueso de los vertebrados sigue al intestino delgado. Consta de tres partes principales: ciego, colon y recto (o cloaca). El ciego es una especie de bolsa que, como su propio nombre indica es ciego, o sea, es un fondo de saco. Recibe el quimo del íleo, la parte final del intestino delgado, aunque ciego e íleo se encuentran separados por la válvula ileocecal, que evita posibles retrocesos de los jugos intestinales. El íleo desemboca en un lateral del ciego y algo por debajo de ese punto se encuentra el apéndice, un tejido linfoide que no toma parte en la digestión, pero que contiene linfocitos.
El colon es la parte más extensa del intestino grueso y su estructura varía mucho de unas especies a otras en función de la dieta. Y dentro de los mamíferos también se da una gran variabilidad. En la especie humana se distinguen cuatro partes: el colon ascendente, el transverso, el descendente y el sigmoide.
En anfibios, reptiles (incluidas las aves) y algunos mamíferos, el intestino grueso finaliza en una cloaca en la que confluye con el sistema excretor y con el aparato reproductor. En los peces, sin embargo, los conductos de los tractos excretor y reproductivo salen al exterior de manera independiente del sistema digestivo. En reptiles (aves incluidas) unos pliegues o crestas delimitan la cloaca en tres áreas diferenciadas: coprodeo (anterior), a donde llegan las heces desde el intestino; urodeo (medio), que recibe la orina de los riñones a través de los uréteres y los materiales del oviducto; y el proctodeo (posterior), donde se almacenan las excretas. El proctodeo se abre al exterior a través de un ano muscular.

Un colon humano recibe diariamente del orden de medio litro de quimo. Cuando llega procedente del intestino delgado, los nutrientes han sido digeridos y absorbidos prácticamente en su totalidad, por lo que contiene sobre todo residuos alimenticios indigeribles (como celulosa, por ejemplo), algunos componentes biliares que no se han absorbido y, sobre todo, agua y sales. Por esa razón, en el colon prosigue la absorción de agua, que tiene lugar gracias a la recuperación activa de sodio, que va acompañada por la correspondiente reabsorción (a favor de gradiente eléctrico) de cloro; el agua pasa a favor del gradiente osmótico generado por la reabsorción de ClNa.
El colon contiene una solución mucosa alcalina (HCO3– y PO43-) que tiene efecto tamponador. Esa solución protege la mucosa del intestino grueso del daño mecánico y químico que podría sufrir si careciese de ella. En caballos y cerdos basta con el HCO3– de origen pancreático para mantener tamponado el colon. La saliva de los rumiantes contiene cantidades importantes de PO43-, pero en los demás mamíferos el fosfato intestinal es de origen alimenticio. Los tampones neutralizan los ácidos producidos por la fermentación bacteriana (a la que nos referiremos en una anotación próxima), y el moco proporciona la lubrificación que facilita el paso de los contenidos intestinales y la expulsión final de las heces.
Las dimensiones y estructura de los sistemas digestivos y, en especial, del intestino grueso depende mucho de la dieta propia de cada especie. Los peces carnívoros, por ejemplo, tienen tractos digestivos cuya longitud es solo algo mayor que la longitud corporal; los herbívoros, sin embargo, pueden llegar a ser veinte veces más largos.
Los vertebrados carnívoros tienen tubos digestivos muy simples, y el colon suele ser corto y sin áreas diferenciadas. Apenas se diferencian el intestino delgado y el intestino grueso; no suelen tener ciego, y si lo tienen, es marginal. En estas especies la función principal (casi única) del intestino grueso es la absorción de sales y agua.

En los omnívoros y, sobre todo, en los herbívoros, la estructura del intestino grueso tiende a ser más compleja; conejos y caballos son buenos ejemplos. El ciego de los herbívoros suele ser grande, en algunos casos mayor que el colon, incluso. Además, tanto el ciego como el colon suelen estar provistos de saculaciones (sacos laterales expandibles). No obstante, hay excepciones: ni canguros ni ovejas se caracterizan por tener colon y ciego de grandes dimensiones, ni por tener saculaciones.
Las saculaciones se forman cuando la capa exterior de músculo liso longitudinal no envuelve el intestino grueso por completo. En las especies cuyos intestinos gruesos presentan esas estructuras, hay bandas de musculatura lisa longitudinal denominadas taeniae coli (en singular taenia coli), que discurren todo a lo largo del ciego y el colon. La mayoría de los animales que las tienen cuentan con tres, aunque el caballo, por ejemplo, tiene cuatro. Son más cortas que lo que las capas muscular (circular) y mucosa subyacentes serían de no estar constreñidas en parte por las taeniae coli. La presencia de estas bandas musculares provoca, por ello, que se formen leves constricciones que, a su vez, delimitan los embolsamientos o saculaciones a los que denominamos haustras (haustra coli). Los haustras no son estructuras estáticas, sino que cambian de posición por efecto de las contracciones de la capa circular de musculatura lisa.
Las contracciones haustrales juegan un papel primordial en la motilidad del intestino grueso. Se inician debido a la actividad rítmica autónoma de las células musculares lisas del colon, y son similares a las contracciones que provocan la segmentación en el intestino delgado, solo que se producen con una frecuencia muy inferior. Se producen entre 9 y 12 contracciones de segmentación por minuto y, sin embargo, entre dos contracciones haustrales pasan del orden de 30 minutos. Como consecuencia de esa actividad contráctil, la localización de los sacos haustrales cambia, porque las zonas que se contraen y las que se relajan se van alternando. Esta motilidad no provoca desplazamiento unidireccional del contenido intestinal; su función es ir exponiéndolo gradualmente a la acción absortiva del epitelio. Y al no provocar su avance, permanece largo tiempo en el interior del intestino grueso, de manera que se prolonga el tiempo en que se produce la acción de las bacterias intestinales sobre los materiales de origen vegetal que no habían sido digeridos y absorbidos en el intestino delgado.
Además de la provocada por las contracciones haustrales, en el intestino grueso se producen otros dos tipos de motilidad. Por un lado están las contracciones peristálticas; son provocados por células marcapasos ubicadas en la zona media del colon y generan ondas lentas en las dos direcciones. Su efecto neto consiste en impulsar el contenido digestivo hacia el recto. La motilidad intestinal de las aves se basa, sobre todo, en contracciones peristálticas. Otras células marcapasos ubicadas en la región proximal del colon generan contracciones antiperistálticas, cuya principal función consiste en llenar el ciego. Son contracciones importantes en la mayoría de los herbívoros y en los cerdos, pues su acción de mezcla facilita la digestión bacteriana de la celulosa y la absorción de los ácidos grasos volátiles, producto de la fermentación.
Tras cada comida suele producirse un fuerte aumento de la motilidad del colon. Grandes segmentos se contraen de forma simultánea, desplazando el contenido intestinal entre un tercio y tres cuartas partes de su longitud en unos pocos segundos. Estos movimientos “en masa” (así se llaman), conducen el contenido del colon hacia la porción distal del intestino grueso, donde queda almacenado hasta su expulsión.
Cuando el alimento entra en el estómago, se producen los reflejos gastroileal y gastrocólico, en los que interviene la gastrina y nervios autónomos extrínsecos. El reflejo gastroileal provoca el vaciado del intestino delgado y el gastrocólico el desplazamiento del contenido del colon al recto. De esa forma se va haciendo hueco, primero en el intestino delgado y después en el ciego y el colon, a nuevos contenidos.
Cuando los movimientos en masa del colon llevan el material fecal al recto, la distensión a que da lugar estimula los receptores de estiramiento de la pared rectal, iniciando así el reflejo de defecación. Ese reflejo provoca la relajación del esfínter anal interno (musculatura lisa) y contracciones fuertes del colon sigmoide y del recto. El esfínter externo consiste en musculatura esquelética y, por lo tanto, controlada voluntariamente; por lo tanto, si se relaja ese esfínter también, se produce la defecación. No obstante, si el esfínter exterior permanece contraído de manera prolongada, las contracciones rectales cesan hasta que se produce la llegada de material fecal adicional por efecto de posteriores movimientos en masa, y se reinicia el reflejo de defecación.
Las heces está formadas por celulosa que no se ha digerido y otras sustancias que no se han podido absorber, como bilirrubina (o biliverdina), sales, agua y bacterias. Aunque en el colon tiene lugar una cierta absorción, su importancia cuantitativa es mínima comparada con la del intestino delgado. La superficie interna del intestino grueso es muy reducida por comparación con la del delgado, dada la ausencia en aquel de las estructuras que multiplican la superficie absortiva propias de este. Además, el colon de muchos vertebrados carece de mecanismos de transporte específicos para las sustancias que se absorben en el intestino delgado. La excepción es el colon de las aves, en el que se absorbe glucosa y aminoácidos mediante transporte secundario activo. De esa forma, los aminoácidos y la glucosa que no han sido recuperados de la orina por el riñón pueden ser reabsorbidos en el colon o ser utilizados por los microorganismos en los ciegos intestinales.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El intestino grueso se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Estructura y motilidad del intestino delgado
- El intestino no es nuestro segundo cerebro
- Soy esa bacteria que vive en tu intestino, mejor vídeo de divulgación “On zientzia”
Fisikak Medikuntzaren zailtasunak gainditzen lagun dezake?
Izan ere, arlo honetako Medikuntzako Nobel saria lortu zuen lehena, Allvar Gullstrand suediarra, 1910 eta 1911 urteetan Fisikako Nobel saria hartzeko hautagai ere izendatu zen. 1911. urtean, Fisikako Nobel Batzordeak, Gullstrand batzordeko parte zelarik, iradoki zuen Fisikako Nobel saria Gullstrandentzat berarentzat izan behar zuela. Aldi berean, Medikuntzako Nobel Batzordea ere bere izena Medikuntzako Nobel sarirako kontuan hartzen ari zen. Fisikako Nobel sariari uko egin zion, aipaturiko Medikuntzakoa hartzeko.
Gullstrand da Nobel Sari bat ukatu eta beste bat onartu duen zientzialari bakarra. Gutxitan ukatu da Nobel Sari bat; 3 sarituk ukatu dute Nobel Saria soilik: Literaturako Nobel saria Boris L. Pasterna errusiarrak 1958ean, Jean-Paul Sartre idazle frantsesak 1964ean, eta Pakearen Nobel saria Le Duc Tho Vietnamdarrak 1973an.
Azpimarratzekoa da 1921ean, Fisikako Nobel sariaren Batzordeko partaidea zelarik, Albert Einsteinek batzordetik bertatik alde egin zuela Fisikan Nobel saria erlatibitate orokorraren teoriarengatik ez jasotzeko. Izan ere, Gunllstrandek erlatibitatearen teoria okertzat jotzen zuen.

1. Irudia: 1911ko Medikuntzako Nobel sariduna, Allver Gullstrand. (Argazkia: Wikipedia – domeinu publiko argazkia)
Allvar Gullstrand Suediarrak 1911n Medikuntzako Nobel saria jaso zuen, argiaren begi barneko ingurunean zeharreko errefrakzioa matematika arloan ikertzeagatik. Hau fisikaren metodologian oinarrituriko ikerketa ez bada, zer ote da bestela?! Izan ere, 1914ean, Nobel Saria jaso eta handik 3 urtera, oftalmologiako kirurgia utzi eta tresna optikoei buruzko ikerketetara bideratu zuen bere lana. Egun, oftalmologian erabiltzen diren hainbat tresna berak diseinatutakoak dira, adibidez okulista guztien mahai gainean dagoen biomikroskopioa.

2. irudia: Biomikroskopia.
11 urte igaro behar izan ziren fisikaren metodologiarekin loturiko ikerketa bati Medikuntzako Nobel saria berriro eman arte. Muskuluak lanean jartzean gertatzen diren tenperatura aldaketei buruz egindako ikerketekin lotua. Hain zuzen ere, Archibald Vivian Hill matematikan lizentziaturiko ingelesak jaso zuen. Izan ere, teknika oso doiak garatu behar izan zituen 0.003ºC mailako tenperatura-aldaketa txikiak segundo ehunen ordenako denboretan neurtu ahal izateko. Archibald V. Hillek, era berean, nerbio-inpultsuak igarotzean eragindako bero-sorrera fenomenoa aurkitu zuen eta bere ikerketek gogotsu indartu zuten biofisikaren esparrua. Esan ohi da berari esker gertatu dela biofisikaren hedapen zabala.
1924ean gailu baten aurkikuntzari eman zioten Medikuntzako Nobel saria, elektrokardiogramaren mekanismoaren aurkikuntza egin zuen Willem Einthoven mediku holandarrari hain zuzen. Elektrokardiograma baten bidez, bihotzaren aktibitate elektrikoa denboran zehar grafikoki adierazten da. Gaur egun, oso garrantzitsua da bihotz-zainen gaixotasunak eta alterazio metabolikoak diagnostikatzeko. Jakina denez, elektrokardiograma bat egiteko, gizakiaren bularraldean 10 elektrodo kokatzen dira, belkro-zintekin eutsiak eta kableen bidez aparatuari lotuak; horrelaxe neurtzen dira elektrodoen arteko tentsioak. Era bakun batean esan daiteke deribazio bakoitza bihotzaren aktibitate elektrikoaren “argazki” bat dela, angelu desberdin batetik hartua.

3. irudia: Elektrokardiograma lortzeko era eta bihotzaren aktibitate elektrikoaren “irudiak”
1946. urtera arte Fisikarekin loturiko Medikuntzako Nobel sariak, optika, termodinamika eta seinale elektrikoekin zerikusia dute loturik daude, baina 1946an erradiazio ionizatzaileak, hau da, X izpiak erabili ziren mutazioak eragiteko. Izan ere, Estatu Batuetako Hermann Joseph Muller genetistak Nobel Saria jaso zuen X izpien erradiazioa erabiliz mutazioak sor daitezkeela aurkitzeagatik.
Segidan aipatuko dudan Nobel sarian ere, X izpiak funtsezkoak izan ziren, baina kasu honetan mutazioak sortzeko erabili beharrean, uhinak diren X izpien difrakzioaren bidez molekulen egiturak aurkitzeko erabili ziren. Francis Harry Compton Crick fisikari ingelesari, James Dewey Watson biologo estatubatuarrari eta Maurice Wilkins Zelanda Berriko fisikariari eman zieten 1962. urteko Medikuntzako Nobel saria, bizi-materiaren informazio-transferentziarako oso garrantzi handikoa den azido desoxirribonukleikoen (DNA) molekula-egitura aurkitzeagatik.
Rosalind Elsie Franklin kimikari ingelesak, X izpien difrakzioaren irudietatik abiatuta DNAren egitura bikoitza deskribatu zuten, Wilkinsekin elkarlanean. Hori izango zen geroago Watsonek eta Crickek deskribatuko zutenaren oinarri. Helize bikoitzeko DNA molekularen egiturak aukera eman zion munduari bizitzaren sekretu guztiak ulertzeko.
Lurrean dagoen bizitza osoa, bakterio txikienetik gizakiraino, DNAn oinarrituta dago. Aurkikuntza horri esker, 1962ko Medikuntzako Nobel saria eman zieten 3 gizon zientzialari horiei; Rosalind Franklin zientzialariaren ekarpena funtsezkoa izan zen arren. Izan ere, berak diseinatu eta gauzatu zituen X izpien difrakzioko esperimentuak, eta hori gabe, ez zuten helize bikoitza deszifratzeko aukerarik izango baina ez zuen Nobel saria jaso, jadanik hilda zegoelako.

4. irudia: Rosalind Elsie Franklin zientzialaria eta “Photo 51”. 1951. urtean Rosalind Franklinek eta Raymond Goslingek egin zuten DNA molekularen X izpien difrakzioaren irudia.
Rosalind Franklinek eginiko difraktogramak nolatan heldu ziren Watsonen eta Cricken eskuetara? Halaber, Watsonek Rosalindi buruz esandakoak oso argigarriak izan daitezke. Emakume zientzialari askok jasaten duten diskriminazioaren isla argia dira. Kontua nahiko izango litzateke artikulu oso bat idazteko, baina ez da hori artikulu honen helburua.
Fisikan oinarritutako loturiko Medikuntzako hurrengo bi Nobel sariak egun erietxe handi gehienetan erabiltzen diren tresnekin loturik daude. Lehena, 1979koa, Tomografia Axial Konputerizatuari dagokio, edo hobeto esanda, eskanerra edo TAC tresnari. Berau garatzeagatik eman zieten saria Allan McLeod Cormack fisikari hegoafrikarrari eta Godfrey Newbold Hounsfield ingeniari elektroniko ingelesari. TACen aurkikuntzak mundu osoko medikuntza-diagnostikoa irauli zuen, tumoreen detekziorako eta lokalizaziorako aurrerapen ikaragarria ekarri baitu. Izan ere, medikuei giza gorputzaren barrualdea hiru dimentsioan ikusteko aukera ematen diete. Godfreyk New York Times egunkarian 1973an egin zioten elkarrizketa batean honako hau esan zuen: oso aurrerapen handia izan zen, ikusi baitzuten X izpien informazioaren % 100 atera zitekeela angelu askotatik objektuak eskaneatuta.
X izpien bidez gorputzaren barnean lortutako irudietan oinarritutako diagnostikoa XX. mendearen hasieratik erabili izan da. Hala ere, erradiografia klasikoek ez dute erliebea behatzen uzten edo X izpiak zeharkatzen dituzten ehunak argi eta garbi bereizten. Eskanerrak oker horiek konpontzen ditu, X izpien irudi kopuru oso handia atereaz (bai segidan gailua bira eraziz, bai aldi berean hainbat igorle eta detektagailuren bidez).

5. irudia: Allan McLeod Cormack eta Godfrey Newbold Hounsfield, 1979ko Medikuntzako Nobel saridunak eta TAC/Eskaner tresna.
2003an, Peter Mansfield fisikari britainiarrak eta Paul Christian Lauterbur kimikari estatubatuarrak jaso zuten Medikuntzako Nobel saria, erresonantzia magnetiko nuklearraren irudietarako tresna asmatu eta garatzeagatik, hau da, Erietxetako Erresonantzia magnetikoa (erresonantzia) edo erresonantzia magnetikoaren irudia (MRI) esan ohi duguna asmatzeagatik.
Atomoen nukleoak eremu magnetiko indartsu batean kokatzen baditugu, nukleoek eremu magnetiko horren inguruan biratuko dute maiztasun jakin batekin, eremu horren balioaren proportzionala den maiztasun batekin hain zuzen.
Nukleoen energia handitu daiteke (kitzikapen nuklearra), biraketaren maiztasun bera duten irrati-uhinak xurgatzen badituzte. Prozesu honi erresonantzia nuklearra deitzen zaio. Deskitzikatzen direnean, hau da, jatorrizko edo oinarrizko egoerara itzultzen direnean, nukleoek irrati-uhinak igortzen dituzte, eta haien bidez identifikatzen dira nukleo jakin horiek.
Fenomeno hori 1946an aurkitu zuten Felix Bloch eta Edward Mills Purcell estatubatuarrek hidrogeno atomoen nukleoetarako, hots, protoietarako; horregatik jaso zuten Fisikako Nobel saria 1952an. Horrez gain, kimikako beste bi Nobel sari lortu dira fenomeno horri esker. 1991. urtean Suitzako Richard Enrsti Nobel saria eman zioten, “erresonantzia magnetiko nuklearreko espektroskopia handiko bereizmenaren metodologiaren garapenean egindako ekarpenagatik”; 2002an Kurt Wüthrichi eman zitzaion, hau ere suitzarra, “erresonantzia magnetikoaren espektroskopia, makromolekula biologikoen hiru dimentsioko egitura zehazteko konponbidea garatzeagatik”.

6. irudia: 2003ko Medikuntzako Nobel saridunak, Paul Christian Lauterbur eta Peter Mansfield.
Beraz, aurreko prozedura erabilita irrati-uhinen detekzioak hidrogenoa topatzeko aukera ematen digu eta ez hori bakarrik, hidrogeno kopurua ere zehaztu daiteke bolumen unitateko. Ur molekula hidrogeno eta oxigeno atomoez osatuta dago. Beraz, ur molekulak hidrogenoa duenez, urak hidrogenoaren erresonantzia magnetikoari erantzuten dio. Giza gorputzaren pisuaren bi heren inguru ura da eta ur kopuru handi honek azaltzen du zergatik diren erresonantzia magnetikoko irudiak medikuntzan hain baliagarriak. Nukleoetako oszilazioen desberdintasun txikiak antzeman eta prozesamendua informatiza daiteke eta horrela ikertu den gorputz-arloaren ehun eta organoen irudi zehatzak sor daitezke. Era horretan, aldaketa patologikoak dokumenta daitezke.

7. irudia: Hainbat bidetatik lortutako MRI adibideak: T1 ponderazioa (spin-sarea), T2 ponderazioa (spin-spin) eta PD (protoi-dentsitate) ponderazioa.
MRI oso abantailatsua da, oso segurua delako eta kalterik sortzen ez duelako. Hala ere, protesi magnetiko bat duten pazienteak edo taupada-markagailu bat daramatenak ezin dira MRIren bidez aztertu, eta bestalde, klaustrofobia pairatzen duten pazienteek eragozpenak eragin ditzakete esplorazioan.
Gaur egun, gorputzaren organo ia guztiak aztertzeko MRI erabiltzen da. Teknika bereziki baliotsua da garunaren eta bizkarrezurreko medularen irudi xeheak lortzeko. Garuneko trastorno ia guztiek alterazioak eragiten dituzte uraren edukian, eta hori oso ondo irudikatzen da MRI irudietan. Uraren edukia % 1etik beherako aldaketa nahikoa da aldaketa patologikoa antzemateko. Hala eta guztiz ere, MRI-ekipamendua oso garestia da, oso handia, eta oso astuna; eremu magnetiko altuak behar ditu (gutxienez Tesla baten ordenakoa, Lurraren eremu magnetikoarekin alderatuz 10.000 aldiz handiagoa), eta horrexegatik kokatzen dira ospitale handietako erresonantzia-geletan.
MRI eramangarriak garatzea abantaila gehigarri bat izango litzateke, eta horrek ahalbidetuko luke larrialdi-geletan, anbulatorioetan eta medikalizatutako anbulantzietan erabilita, medikuntza zerbitzua hobetzea. Zientzia eta Teknologia Fakultatea tresna eramangarrien garapena lantzen ari da, eta aipatutako ekipoaren lehen prototipoa lortzekotan dabiltza.
Gaur egun, minbiziaren aurkako terapia berri bat (hipertermia magnetikoa) garatzen ari dira Zientzia eta Teknologia Fakultateko Fisika eta Kimikako ikertzaileak, Medikuntza Fakultateko ikertzaileak eta Galdakaoko Ospitaleko medikuntza klinikoko ikertzaileak. Terapia berri honek honako urrats hauek eskatzen ditu: 1) nanopartikula magnetiko egokiak sintetizatu behar ditu; 2) nanopartikulak inokulatu behar dira tumorean ondo koka daitezen; 3) irrati-maiztasuneko tresna elektromagnetiko bat garatu behar da; tresna horrek, abian jartzen denean, ahalmena izan beharko du nanopartikula magnetikoek nahiko bero askatuta tumoreen erretzea eragiteko
Terapia hau erabat garatzen denean, posible izango da inguruko ehun osasuntsuari kalterik eragin gabe minbizi-zelulak “erretzea”. Terapia hori gauzatzen bada, sortuko dituen bigarren mailako efektuak erradioterapiak eta kimioterapiak sortzen dituenak baino askoz txikiagoak izango dira eta halaber, askoz merkeagoa izango da prozedura.
Gehiago jakiteko:
- Ravin, James G. (1999). Gullstrand, Einstein, and the Nobel Prize. MD Arch Ophthalmol. 117(5):670-672. DOI:10.1001/archopht.117.5.670
- Angulo, Eduardo (2014). El caso de Rosalind Franklin. Mujeres con Ciencia.
- Alonso-Valdesueiro, J. et al., (2018). Design, Construction, and Characterization of a Magic Angle Field Spinning RF Magnet. IEEE Transactions on Instrumentation and Measurement, PP(99), 1-10. DOI:10.1109/TIM.2018.2884606
- Périgo, E.A. et al., (2015). Fundamentals and advances in magnetic hyperthermia. Applied Physics Reviews, 2(4), 041302. DOI:10.1063/1.4935688
———————————————————————————-
Egileaz: Fernando Plazaola Katedraduna da UPV/EHUko Zientzia eta Teknologia Fakultateko Elektrizitate eta Elektronika Sailean.
———————————————————————————-
The post Fisikak Medikuntzaren zailtasunak gainditzen lagun dezake? appeared first on Zientzia Kaiera.
La tabla periódica en el arte: Plomo
Una noche como otra cualquiera William Watts se agarró tal borrachera que se quedó dormido junto a la iglesia de Santa María de Redcliffe. Soñó que desde el campanario caía una lluvia de gotas esféricas de plomo, lo que le llevó a patentar un nuevo método para la elaboración de perdigones. Esa es por lo menos la leyenda urbana que circula por las calles de Bristol. El procedimiento consistía en pasar plomo fundido por una bandeja de zinc agujereada que se colocaba a varios metros del suelo. Fruto de la caída libre se iban formando bolas esféricas que poco a poco se enfriaban y se terminaban por solidificar al caer en un balde de agua. Para lograr esta gran elevación Watts empleó unas torres que hoy en día llevan su apellido (Imagen 1). Poco tiene que ver esta historia con el mundo del arte, pero nos sirve para conocer algunas de las propiedades más interesantes de este metal tan peculiar: se funde a una temperatura relativamente baja (a 327 °C) y se moldea con facilidad. Además, es bastante estable, abundante y barato, por lo que el ser humano le ha dado múltiples usos, entre ellos muchos relacionados con el arte

Escultura a base de plomo
La facilidad con la que se funde el plomo ha permitido que se emplee para crear objetos metálicos mediante moldes, tal y como sucede con los clásicos soldaditos de plomo. Más allá de las técnicas en las que el plomo es fundido, la maleabilidad de este material facilita su uso escultórico mediante repujado, es decir, trabajando directamente sobre planchas del metal. Plinio ya contaba que este modo de trabajar el plomo era bien conocido en el Imperio Romano y así lo confirman los relieves que se han conservado. Mucho más reciente es el uso del denso metal por parte del aragonés Pablo Gargallo del que se conservan esculturas en el Museo de Arte Nacional de Catalunya y en el Reina Sofía (Imagen 2). Como sucede con las obras de Gargallo, las esculturas en plomo rara vez son de gran tamaño, puesto que su elevada densidad (11 kg/L) y maleabilidad pueden causar que se doblen por su propio peso. De hecho, la maleabilidad, que hemos citado como gran ventaja, puede jugar en contra de la conservación de las esculturas, ya que presentan poca resistencia a los golpes.

El plomo: esqueleto de las vidrieras
Las bondades del plomo han llevado a que se le de usos tan dispares como la fabricación de cañerías o la elaboración de tipos móviles en las imprentas. En el mundo del arte, además de en escultura, se ha empleado en arquitectura. Quizás el ejemplo más espectacular era la aguja de Notre Dame que hasta hace poco arañaba el cielo parisino a más de 90 metros*. A pesar de la ligereza que transmitía su forma alargada, para su elaboración se emplearon 250 toneladas de denso plomo. Cabe destacar que, aunque esta catedral sea el paradigma del gótico, la aguja desaparecida era del s. XIX, ya que se había levantado durante la restauración de Eugène Viollet-le-Duc. En cualquier caso, si hay algo para lo que el plomo fue fundamental durante el gótico (el de verdad) es el arte de las vidrieras.

Las vidrieras son conjuntos de piezas de vidrio coloreado que cubren ventanales y que normalmente asociamos a edificios religiosos. Su uso está documentado desde inicios de la Edad Media, pero fue durante el s. XIII cuando alcanzaron su máximo esplendor, especialmente en el periodo conocido como gótico radiante, en el que las iglesias se convirtieron en jaulas de cristal, siendo el mejor exponente otro edificio parisino: la Sainte Chapelle. Cuando pensamos en vidrieras, el protagonismo se lo concedemos al vidrio de colores, pero el plomo también es un componente indispensable. En varillas elaboradas con este metal se insertaban los vidrios siguiendo un patrón previamente establecido (como si de un puzle se tratase). Luego ambos se unían mediante una soldadura de estaño y así se lograba un efecto maravilloso que tiene uno de sus máximos exponentes en la catedral de León.

Los pigmentos del plomo
Además de uso como metal, el plomo nos regala una gran variedad de compuestos químicos que pueden ser empleados como pigmentos en el arte de la pintura. Nos quedaremos con tres y reservaremos el resto para el momento en el que en esta sección nos ocupemos de los otros elementos químicos con los que se combina. Comenzaremos por el minio (Pb3O4), conocido para muchos de quienes leen estas líneas, ya que hasta hace unos años era muy habitual usarlo por sus propiedades antioxidantes. Así, los objetos metálicos que se hallaban a cielo abierto se recubrían con una capa de este compuesto antes de darles la capa definitiva de pintura. Este pigmento rojizo, al igual que el bermellón, se empleaba para decorar profusamente las letras iniciales de los manuscritos medievales. De ahí que este proceso de ilustración se denominase miniare, de donde pronto surgió miniatura, palabra que el léxico castellano tomó del italiano.

Este pigmento se conocía en la Antigüedad Clásica y tal como explica Vitrubio se lograba calcinando otros compuestos con plomo. Sin embargo, hay que remontarse a la China de principios del s. V a.e.c. para encontrar el primer uso como material artístico. En ese mismo territorio el alquimista Ko Hung dejó un divertido testimonio: “El ignorante no cree que el minio y el blanco de plomo sean productos de transformación del plomo, al igual que puede no saber que el mulo es vástago de una yegua y un burro… Hay cosas que están tan claras como el cielo y aun así los hombres prefieren sentarse bajo un tonel volcado.” Esta cita es del s. IV, pero bien podría extrapolarse a nuestra época (y no precisamente aplicándose a conocimientos pictóricos).
Del rojo pasamos al blanco para hablar del pigmento con plomo más importante de la historia: el albayalde. Palabra eufónica donde las haya y que en árabe hispánico (Albayád) significaba blancura. Blanco es, en efecto, el color del carbonato básico de plomo que denominamos con tal nombre (2PbCO3·Pb(OH)2). Tampoco sería ninguna locura decir que se trata del pigmento más importante que ha existido, ya que no hay pintor que no tenga el blanco en la paleta para controlar la tonalidad del resto de colores. Como sucedía con el minio, el albayalde es un pigmento que se logra sintéticamente, aunque mediante un proceso ligeramente más desagradable, por lo menos según el método holandés. En este procedimiento se empleaban vasijas de barro especiales que disponían de dos compartimentos conectados. En el compartimento inferior se ponía vinagre y en el superior placas de plomo. Así el vapor de ácido acético entraba en contacto con el metal. Para que la reacción química tuviese lugar, las vasijas se cubrían con una fuente de calor y de dióxido de carbono (CO2): estiércol. Pasados unos meses, surgía una costra blanca sobre el plomo, que se retiraba, se limpiaba, se secaba y se molía. Las placas metálicas se volvían a meter en la vasija y se repetía el proceso hasta que se agotase el metal.

Teniendo en cuenta la importancia del albayalde, lo podemos encontrar en un sinfín de obras elaboradas con diferentes técnicas, desde los temples al huevo de Botticelli a los retratos de El Fayum pintados con cera de abeja. Ahora bien, si en una técnica ha tenido especial relevancia, esa es la pintura al óleo en la que, como otros pigmentos con plomo, acelera el proceso de secado. Para muestra los cuasi escultóricos impastos de Rembrandt. Pero no todo es tan bonito. La toxicidad de este metal pesado puede causar una gran variedad de síntomas que incluyen enfermedades óseas o fallos en el sistema nervioso. La intoxicación por plomo también se conoce como saturnismo, ya que Saturno era el planeta con el que los alquimistas asociaron este elemento químico. Esta elección no es arbitraria y se debe a que era el planeta conocido con una órbita más lenta, algo que se podía vincular con la gran densidad del plomo. Resulta paradójico que en la mitología romana Saturno portase una guadaña, como advirtiendo del poder asesino del elemento que la divinidad representa. Pero más paradójico resulta todavía que los dos cuadros más célebres que tienen a este dios como protagonista fuesen realizados por Rubens y Goya, quienes pudieron sufrir intoxicación por plomo, especialmente el segundo, cuya sordera se considera una evidencia de saturnismo. Más allá de estos dos pintores, a muchos otros artistas se les ha considerado víctimas del plomo: Miguel Ángel, Caravaggio, van Gogh, Fortuny, Frida Kahlo… Eso sí, hacer un diagnóstico tantos años después no es sencillo y no siempre se cuenta con evidencias sólidas para hacer tales afirmaciones.

Acabamos este recorrido por los pigmentos del plomo con uno que además contiene antimonio: el amarillo de Nápoles. En honor a la verdad, diremos que hoy en día no se comercializa por la toxicidad de estos elementos, pero el nombre ha sobrevivido para denominar a los sucedáneos que han ido apareciendo. También hemos de decir que el gentilicio de este amarillo es poco adecuado, ya que ni mucho menos es originario de la ciudad italiana, por lo que es más acertado el nombre de amarillo de antimonio o antimoniato de plomo (Pb2Sb2O7). Al parecer, dicha confusión se extendió entre los siglos XVIII y XIX porque pensaban que se extraía de minerales que abundaban en las faldas del Vesubio. Lo cierto es que el pigmento es muchísimo más antiguo, por lo menos 30 siglos más, y tiene el honor de ser el primer amarillo sintético de la historia. El mérito, como muchas otras veces, corresponde a los egipcios que ya lo sintetizaban durante la XVIII dinastía (hacia el s. XV a.e.c). En el país del Nilo empleaban este compuesto para colorear el vidrio al igual que lo hicieron en Mesopotamia unos siglos después. Las diferentes culturas que habitaron esa región lo utilizaron en procesos de esmaltado, como en el caso de la vía procesional de Babilonia. Un uso similar se le dio en Europa muchos siglos después donde se empleó para colorear la mayólica. Las primeras evidencias de su uso en pintura son muy posteriores, concretamente del primer tercio del s. XVII (Imagen 8), aunque vivió su máximo auge a lo largo de los dos siglos siguientes.

Para saber más:
Julio Montes-Santiago “The lead-poisoned genius: Saturnism in famous artists across five centuries” Progress in Brain Research 203 (2013) 223-240.
Fernando Cortés Pizano “Estudio del plomo medieval en las vidrieras del monasterio de Pedralbes (Barcelona)” Materiales de construcción 259 (2000) 85-96.
Max Doerner “Los materiales de pintura y su empleo en el arte” Editorial Reverté, Barcelona (2005).
* Nota del autor: A la hora de redactar este texto el fuego no se había cebado con la catedral de Notre Dame. Todavía me resulta inconcebible que dos semanas después de escribir las líneas originales “La fléche” se derrumbase arrastrando con ella un pedacito de nuestra Historia. Sucesos como este nos deberían enseñar a valorar más nuestro Patrimonio y a cuidar de él si queremos que perdure.
Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.
El artículo La tabla periódica en el arte: Plomo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La tabla periódica en el arte: ¿Qué átomos hay en una obra?
- La tabla periódica en el arte: Cobre
- Deconstruyendo la tabla periódica
Asteon zientzia begi-bistan #251
Berriki Gignac eta Zajenkowski ikertzaileek egindako lanak frogatu duenez, bikotekidearen adimena ere gehiegi balioesten dugu. Horretaz gain, ikerketan adimenaren bateragarritasun subjektiboak eta objektiboak bikoteen egonkortasunean duen efektua aztertu dute. Orain arte egin dituzten ikerketetan ikusi dute bikotekidearen adimena garrantzitsua dela bikote-bilaketa etapan, modu kontziente edo inkontzientean. Irakur ezazue osorik Josu Lopez-Gazpiok ekarri digun gai interesgarria!
IngurumenaBadirudi mikroplastikoak itsasoaz gain, airean ere badaudela. Pirinioetan atzeman dituzte airez iritsitako mikroplastikoak. Elhuyar aldizkariak kontatzen digunez, bost hilabetez egon ziren laginak hartzen, eta mikroplastiko-kopuru esanguratsua jaso dute, megahirietan jasotakoaren antzeko kopurua. Plastiko-motari dagokionez, gehienak polietilenozkoak eta poliestirenozkoak ziren eta polipropilenozko zuntzak ere ugariak izan ziren.
BiologiaAedes aegypti espezieko eltxoei azido laktikoak detektatzea ahalbidetzen dien genea aurkitu dute zientzialariek. Juanma Gallegok azaltzen digunez, gizakien kasuan, bereziki, bi dira horiek erakartzen dituzten faktoreak: arnastean askatzen den karbono dioxidoa eta izerdian dauden azido laktikoak. Ikerketa egiterakoan, Ir8a genea jarri zuten jomugan, eta konturatu ziren hori gabe zomorroak ez zirela gai atzemateko gizakiaren izerdian dauden azido laktikoak.
KimikaLehen alkimia zientziatzat hartu ohi zen, adibidez fisika eta medikuntzaren aurrekaritzat hartzen zen. Halere, gaur egun ez dugu horrela sailkatzen baina egia da alkimistek egindako ekarpenak garrantzitsuak izan zirela, fosforoaren aurkikuntza kasu. Zehazki Henning Brand (Hamburgo 1630), XVII mendeko alkimistak aurkitu zuen fosforoa. Jakin nahi duzue nola egin zuen? Irakur ezazue osorik artikulua!
NeurofisiologiaAinhoa Alvarez Arabako ESIko Loaren Unitateko neurofisiologoa elkarrizketatu dute Berrian. Bertan, insomnioaz mintzatu da, bizitzaren edozein unetan ager daitekeen loak hartzeko ezintasunari buruz, alegia. Insomnioa, batetik, beste gaixotasunen sintoma izan daiteke baina bestetik, gaixotasuna izan daiteke, kroniko bihurtzen denean. Nola egiten zaio aurre insomnioari? Ez galdu elkarrizketa interesgarri hau.
HizkuntzalaritzaElebidun abantaila elebidun izateari baino, bestelako faktoreei lotuta egon daitekeela iradokitzen du ikerketa batek. Horretaz gain, azkenaldian lan-memoriaren hobekuntzarekin lotu izan da elebidun abantaila. Artikulu honetan azaltzen da ikerketa eta bertan lortu diren emaitzak. Funtzio exekutiboaren kasuan, elebakarrek eta elebidunek berdin egiten zieten aurre ariketei. Hortaz, orain arte ikusitako elebidun abantaila kanpo faktoreei legokieela, bilinguismoari baino, iradokitzen dute. Ziortza Guezuragak azaldu dizkigu xehetasunak.
GeologiaGizakia sortu aurreko denbora sailkatuta dugu: Lur planetaren historia ordenatzeko erabiltzen den Denbora Geologikoaren Eskala. Testuan azaltzen digutenez, denbora-unitate geologikoak ez dira edonola definitu. Denbora-unitate geologiko nagusiak XVIII-XIX. mendeetako geologoek izendatu zituzten erreferentziazko lekuen izenak erabiliz. Baina mende horietan definitutakoek ez zuten gaur egungo zientziak behar duen zehaztasuna. Horregatik ari dira azken hamarkadetan Denbora Geologikoaren Eskalako unitateak zehazki definitzen Nazioarteko Estratigrafiako Batzordea eta Zientzia Geologikoen Nazioarteko Batasuna.
–——————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
———————————————————————–
Egileaz: Uxue Razkin kazetaria da.
——————————————————————
The post Asteon zientzia begi-bistan #251 appeared first on Zientzia Kaiera.
¿Qué tienen en común Einstein y una zanahoria?
La próxima vez que te comas una ensalada quizás mastiques con más respeto.
Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.
Edición realizada por César Tomé López
El artículo ¿Qué tienen en común Einstein y una zanahoria? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Qué pasa en tu cuerpo cuando te enamoras?
- ¿Cuál es la postura más aerodinámica en ciclismo?
- ¿Qué pasa en tu cerebro cuando duermes?
Ezjakintasunaren kartografia #258

Irudia: Greg Dunn Design.
Jende askok uste du, norberatik aparte “neu” bat existitzen dela eta horri arima esaten diote. Egia esan, gizaki guztiok gara gu geu hautematen diharduten garunak. Jesus Zamora Bonillak azaltzen digu: Why people believe in the soul (& 3): How does the brain perceive itself?
PTEN proteina kodifikatzen duen genea mutatua dago edota ez dago tumoreetan. Gene hau non dagoen ezagutzea aurrerapauso bat da zehaztasun handiko medikuntzarako. Rafael Pulidok hurbiltzen digu gaia: PTEN: basic research to assist precision oncology.
Kibble-Zurek mekanismoak oker topologikoen sotze dinamika deskribatzen du. DIPCko ikertzaileek antzeman dute sistema ez homogeneoetan mekanismo hau aldatu behar dela eta horren ondorioz defektuak ia desagertu egiten direla. Hau oinarrizkoa da, esaterako, konputazio kuantikoan erabiliko diren materialentzat: Validity of the inhomogeneous Kibble-Zurek mechanism in the quantum domain.
–—–
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #258 appeared first on Zientzia Kaiera.
Arrecifes fósiles, una paradoja geológica
La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

¿Qué es un arrecife? Si utilizamos nuestra memoria visual, la mayoría asociamos los arrecifes a mares tropicales de aguas cristalinas, rodeando islas de arena blanca y palmerales, y fondos tapizados por un universo de colores y maravillosas e inquietantes formas de vida submarina. Los cinéfilos, además, visualizarían barreras rocosas rodeando atolones e islas contra las que rompen olas y vientos huracanados, y que han engullido no pocos barcos e intrépidos aventureros. El término arrecife (reef, récif) tiene su raíz en “rif”, antiguo vocablo nórdico de uso marinero para designar las crestas rocosas que emergen del fondo marino y dificultan sobremanera la navegación. Estas sencillas concepciones ya resumen en gran medida la principal propiedad de los arrecifes: son estructuras “rocosas consistentes” que forman un “relieve” elevado sobre el fondo marino. Pero es necesario apuntar que no todo lo que en náutica se identifica como arrecife lo es desde un punto de vista científico; solo aquellos de naturaleza “calcárea” que demuestran haber crecido poco a poco por la acumulación de esqueletos y caparazones de invertebrados marinos que han crecido unos sobre otros de forma continuada encajarían en la definición científica estricta. En pocas palabras, los arrecifes actuales y fósiles son “edificios calcáreos bio-construidos”.
Los arrecifes tropicales actuales esencialmente se crean por la íntima asociación de colonias de corales escleráctinidos (Phylum Cnidaria) y algas calcáreas (Rhodophyta y Chlorophyta), a los que se asocian o acompañan diferentes invertebrados de caparazón o esqueleto calcáreo, tales como moluscos, equinodermos, esponjas, anélidos, briozoos, los poco conocidos foraminíferos (Protista) y toda una diversa comunidad de peces y otros vertebrados marinos. Por tanto, los arrecifes constituyen en sí mismos exuberantes y complejos ecosistemas que, además de sus singularidades tróficas, tienen la cualidad especial de “fijar” gran cantidad de carbonato cálcico, es decir, son “almacenes” naturales de Calcio y dióxido de Carbono, este último uno de nuestros temidos gases “invernadero”. Los arrecifes son y han sido siempre muy “dinámicos”: crecen a razones de varios milímetros/año y se expanden lateralmente por el apilamiento continuado de restos esqueletales calcáreos, ocasionalmente llegando a formar extensas barreras morfológicas. En la actualidad, estos “edificios bio-construidos” ocupan en conjunto más de 600.000 km2 de los fondos submarinos tropicales, una extensión nada desdeñable pero que no debe sorprendernos, ya que en algunos momentos del pasado geológico su extensión llegó a ser 10 veces más.
Durante los últimos 50 años y gracias al avance de las técnicas de inmersión, los investigadores han observado y analizado innumerables ejemplos de arrecifes de corales y algas a lo largo del Caribe, el Mar Rojo y los extensos océanos Índico y Pacífico, documentando su gran variedad en composición y morfología y, asimismo, desvelando su fragilidad ante procesos como la eutrofización, la acción de los rayos ultravioleta, la destrucción asociada al paso de huracanes o la proliferación súbita de especies invasivas. Son por esas señales uno de los principales “estandartes” utilizados por los investigadores del medio marino para intentar sensibilizar a la sociedad sobre el impacto generado por el cambio climático, la contaminación y la sobre-explotación de los mares tropicales.
No obstante, los arrecifes no son tan frágiles como parece, paradoja que se sustenta en un análisis riguroso de su evolución desde la perspectiva geológica. Bajo este enfoque debemos considerar no solo los arrecifes coralinos actuales, sino también todos los ejemplos de arrecifes fósiles que han documentados los geólogos en formaciones de rocas marinas de todos los continentes y edades geológicas. Así pronto percibiremos que los arrecifes, como ecosistemas generadores de edificios calcáreos, han estado presentes desde muy antiguo y que han evolucionado constantemente con el tiempo, durante múltiples fases de expansión, retracción y cambio marcado en sus características, siendo capaces de sobreponerse a numerosos acontecimientos climáticos y oceanográficos adversos, y a las crisis biológicas más dramáticas que han sacudido la vida sobre la Tierra (Figura 1). En algunas de tales etapas de estrés o crisis su adaptación simplemente se resolvió con una sustitución en el tipo principal de organismos constructores; en otros, en cambio, necesitaron de una completa “reinvención” del sistema y la cadena trófica que lo sustenta.

Las primeras construcciones arrecifales datan del Proterozoico medio y superior, entre 1600 y 540 Ma (millones de años), y se localizan en formaciones rocosas marinas de Canadá y Australia. Son edificios arrecifales bastante simples, básicamente compuestos por acumulaciones de estromatolitos, trombolitos y leiolitas, estructuras de morfología domal y organización interna laminada o masiva, construidos de forma “bio-inducida” por cianobacterias y calcimicrobios (procariotas y eucariotas fotosintéticos). Algunos de estos arrecifes proterozoicos alcanzaron cientos de metros de altura, formando verdades barreras próximas a la superficie del mar. Sin embargo, su naturaleza esencialmente microbiana hace que algunos investigadores no los consideren como “verdaderos” arrecifes.
La “revolución cámbrica” de la vida marina, hace unos 541 Ma, marcó la aparición y progresiva expansión de una ingente variedad de organismos pluricelulares y, entre ellos, de efectivos secretores de concha o esqueleto calcáreo y, por tanto, potenciales constructores de arrecifes. Durante el Cámbrico destacaron los arqueociatos, un grupo ancestral de esponjas (Porífera) que dominaron los océanos cálidos durante más de 25-30 Ma, para luego desaparecer de forma casi repentina. Los primeros metazoos constructores con cierta similitud a los actuales fueron los corales tabulados y rugosos, las algas calcáreas ancestrales, los estromatopóridos (Porífera), los crinoides (Echinodermata) y los primeros moluscos y braquiópodos. Todos estos grupos aparecieron durante el transito Cámbrico-Ordovícico (470 Ma) y se expandieron prodigiosamente durante el Silúrico y Devónico (442-372 Ma), periodos de condiciones climáticas globalmente cálidas. Los arrecifes de estas edades son muy numerosos y de enorme tamaño, habiéndose reconocido ejemplos en todos los continentes, desde Groenlandia y Norteamérica a Australia. A finales del Devónico una extinción biológica masiva de origen todavía controvertido provocó una retracción global, aunque arrecifes construidos por nuevos grupos de algas calcáreas y esponjas, y por organismos de afinidad biológica incierta (p.ej. algas filoides, Archeolithoporella, Palaeoaplysina, Tubiphytes) persistieron hasta el final del Paleozoico, sobrepasando varios ciclos de glaciación-deglaciación y cambio sustancial del nivel marino.
El tránsito del Paleozoico al Mesozoico, hace 252 Ma, estuvo marcado por la mayor extinción biológica que ha conocido nuestro planeta, el límite Pérmico-Triásico, atribuida a la confluencia de numerosas condiciones adversas (p.ej. pronunciado calentamiento y aridificación del clima, intenso volcanismo, impactos meteoríticos). Todo ello provocó una retracción drástica en los arrecifes, durante por lo menos 5-7 Ma. A pesar de ello, los arrecifes se recuperaron y expandieron de nuevo durante el Triásico, incorporando a los primeros representantes de los corales escleractínidos, los principales constructores de arrecifes en la actualidad. Estos prodigiosos cnidarios, parientes de las medusas, proliferaron durante el resto del Triásico y todo el Jurásico, junto a nuevas esponjas y moluscos, y las todavía importantes comunidades calcimicrobianas, con una importante retracción durante la crisis biológica del límite Triásico-Jurásico (200 Ma). Curiosamente, la mayor fase de expansión arrecifal del Mesozoico coincidió con el periodo de climas más cálidos de todo el Jurásico, al que sucedió una retracción notable durante el enfriamiento generalizado del tránsito al Cretácico. Durante el Cretácico (145-66 Ma), junto a los corales y algas calcáreas destacó un grupo singular de moluscos bivalvos, los rudistas, que de hecho alcanzaron la categoría de constructor principal durante el Cretácico superior, para luego desaparecer de forma brusca poco antes del límite Cretácico-Terciario (66 Ma). Los arrecifes de rudistas fueron muy extensos y se pueden reconocer desde el Himalaya a Oriente Próximo, a lo largo de todo el Mediterráneo y el dominio del Caribe, con algunos ejemplos espectaculares situados muy próximos a nosotros (Figura 2).

El límite Cretácico-Terciario estuvo marcado por una fase de intenso volcanismo en la India, una sucesión de bruscos cambios climáticos y, finalmente, un impacto meteorítico descomunal en la península de Yucatán. En conjunto, todos ellos provocaron una nueva extinción biológica global, que en los continentes engulló a los últimos dinosaurios. Sorprendente, los organismos constructores de arrecifes se recuperaron de forma relativamente rápida tras la crisis, como lo atestiguan las extensas barreras arrecifales preservadas en el norte de África, los Alpes, los Cárpatos, y los Pirineos occidentales (Figura 3), formadas tan solo 2-4 millones de años tras la crisis global. En estos arrecifes, los corales y algas calcáreas ya se revelan como los principales constructores, aunque su evolución posterior hasta nuestros días estuvo jalonada de diferentes ciclos de expansión y retracción, en relación a fases de clima extremadamente cálido o de enfriamiento brusco, cambios marcados en el patrón de circulación oceánica y, finalmente, el progresivo tránsito a la Tierra refrigerada de las glaciaciones del Neógeno superior y Cuaternario.

Como corolario, ¿qué conclusiones objetivas podemos sacar de la evolución de los arrecifes a lo largo de los tiempos geológicos?, ¿realmente son y han sido ecosistemas tan frágiles y vulnerables como revelan sus representantes actuales? Las respuestas no pueden ser sencillas. La idea de que los organismos constructores de arrecifes son sensibles a cambios ambientales es totalmente correcta, como lo demuestran su comportamiento actual y las innumerables fases y etapas de expansión y declive que han experimentado a lo largo de las edades geológicas. Sin embargo, la idea que comúnmente se argumenta en foros sociales y medios de comunicación de que los arrecifes van a desaparecer de nuestro planeta carece de rigor científico.
Si analizamos a los principales constructores de arrecifes actuales, los corales escleráctínidos, la evidencia geológica nos demuestra que estos organismos relativamente simples han tenido una extraordinaria capacidad adaptativa a cambios ambientales drásticos, ya que desde que aparecieron en el Triásico han sobrevivido a innumerables crisis, incluyendo eventos de extinción global, cambios climáticos pronunciados e incluso diferentes episodios de anoxia generalizada en los océanos (Fig. 1). A su vez, los corales de arrecifes actuales siguen demostrando tener un gran potencial de adaptación y especialización, ya que son capaces de proliferar en condiciones muy adversas e incluso de colonizar nuevos nichos marinos. Entre ellos destacan los mares de temperatura y salinidad más elevadas de lo normal (p.ej. en el Golfo Pérsico), las zonas litorales enturbiadas por el semi-continuo aporte de arcilla (litoral sureste de China) e, incluso, numerosos contextos relativamente profundos del Atlántico, el Caribe o el dominio indo-Pacífico, donde forman los denominados arrecifes coralinos “mesofóticos” y “afóticos”, creciendo a profundidades que oscilan entre los 50 a los 2000m. Estos arrecifes atípicos, en comparación a los arrecifes “eufóticos” que crecen próximos a la superficie del mar, eran poco conocidos hasta fechas recientes. Su estudio está evidenciando que asimismo se componen de comunidades coralinas complejas, adaptadas a baja o incluso nula visibilidad y, de forma llamativa, a fuertes fluctuaciones estacionales en la temperatura y los niveles de nutrientes. Por estas características, los arrecifes mesofóticos y afóticos parecen constituir el símil actual de lo que algunos especialistas denominan como “nichos refugio”, en los que las comunidades arrecifales pueden haber sobrevivido durante los diferentes periodos de crisis global reconocidos en el pasado, y ser el núcleo o punto de partida de las posteriores expansiones, una vez reestablecidas las condiciones ambientales favorables para ello.
En base a estas evidencias, no resulta demasiado aventurado afirmar que los arrecifes y sus protagonistas todavía van a estar bastante tiempo en nuestros océanos, aunque precisarán utilizar nuevos mecanismos de adaptación ante las condiciones ambientales adversas que potencialmente se avecinan. La pregunta clave a resolver es si la capacidad de adaptación de los corales y el resto de componentes arrecifales será suficiente ante la magnitud y velocidad de los cambios ambientales que ya están ocurriendo y previsiblemente ocurran, interrogante que constituye una de las piedras angulares de la investigación y las discusiones actuales entre los especialistas. A modo de reflexión, ante esta encrucijada ambiental, ¿estamos nosotros, la especie humana, tan preparados como creemos o desearíamos?
Para saber más
Aronson R.B. (Ed.) 2007. Geological Approaches to Coral Reef Ecology. Springer, 439p.
Kiessling W., Flügel E., Golonka, J. (Eds.) 2002. Phanerozoic Reef Patterns. SEPM Special Publications, 72. 775p.
Stanley G.D. (Ed.) 2001. The History and Sedimentology of Ancient Reef Systems. Kluver Academic, 458p.
Sobre el autor: Juan Ignacio Baceta es profesor en el Departamento de Estratigrafía y Paleontología de la Facultad de Ciencia y Tecnología de la UPV-EHU.
El artículo Arrecifes fósiles, una paradoja geológica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Geología, Antropoceno y cambio climático
- La FCT viaja a Marte
- Proteómica: cuando las proteínas y la espectrometría de masas van de la mano