MALDI-TOF masa espektrometriaren erabilera polimeroak karakterizatzeko
Masa espektrometria hau barreiatu egin da polimeroen karakterizazioan, masa molarraren banaketaz gain, polimeroen unitate monomerikoa, polidispertsitatea eta kateen muturrak jakitea lor daitezkeelako, hain zuzen ere.
Lan honetan MALDI/TOF zenbait polimeroen karakterizazioa aztertuko da. Zehazki, polimero hauen karakterizazioa erakutsi da: Poliestireno (PS) homopolimeroa eta Latemul, kopolimeroa.
PS homopolimeroaren MALDI espektroa aztertuz, ikus daiteke C4H9-(C8H8)n-H estrukturari lotuta dagoela (1. irudia), hau da, mutur taldeak C4H9 eta H dira eta monomero bakarrez osaturik dago, estirenoa (St, C8H8). Monomeroaren kopurua n letraz seinalatzen da.

1. irudia: PS-aren MALDI espektroa. (A) Espektro osoa 10000-15000 Da masa artean. Egitura eta formula molekular orokorra ere erakusten dira.
Espektroaren gailur bakoitzak 1. Ekuazioari dagokio, monomero kopuru desberdina nSt letraz adierazten da eta, AgTFA gatza erabili denez, espektroan agertzen den gailur bakoitza zilarra aduktuarekin batera detektatzen da, horregatik MAg agertzen da ekuazioan.
(m/z)kal = nStMSt + MH + MButiloa+ Maduktoa (Ag). (1)
Non (m/z)kal, gailur bakoitzarentzat kalkulatutako balioa; n, monomero kantitatea; M, masa molekularra; eta St, estirenoa dira. Kalkuluak egiteko erabili diren masa molekularrak hauek dira: MSt = 104.06, MH = 1.007, MButiloa = 57.07 eta MAg = 106.90 Da.
Bestalde, Latemul PD-104 kopolimero komertzialaren (Kao Chemicals) analisia burutu da. Konposatu hau emultsionatzaile polimerizagarri moduan erabiltzen da emultsio-polimerizazioetan. Honen egitura jakitea premiazkoa da emultsio-polimerizazioetan partikulen egonkortasun koloidalean duen eraginagatik. Normalean industriak ez du datu gehiagorik errazten eta zaila izaten da konposatu osoa karakterizatzea.

2. irudia: Latemul PD-104 kopolimeroaren MALDI/TOF masa espektroa (1675 g/mol). (A) Espektro osoa 800-2400 Da masa artean.
MALDI espektroa aztertuz polimero honen egitura zehatza jakin dezakegu. Latemul PD-104-k, C5H9O-(C2H4O)n-(C3H6O)m-SO4 egitura dauka (2. Irudia), hau da, mutur taldeak C5H9O eta SO4 dira, eta bi monomero desberdin dauzka: etilenglikola (EG, C2H4O) eta propilenglikola (PG, C3H6O). Monomero bakoitzaren kopurua n eta m letraz seinalatzen da. Espektroaren gailur bakoitzak 2. Ekuazioari dagokio, monomero desberdinak kopuru desberdinekin (nEG eta nPG letraz adierazita). Kasu honetan NaI erabili da gatz moduan eta espektroan agertzen den gailur bakoitza sodioa aduktuarekin batera detektatzen da, beraz, kontuan hartu behar da MNa ekuazioan.
(m/z)kal = nEGMEG + nPGMPG + MSO4 + MC5H9O+ Maduktoa (Na). (2)
Non (m/z)kal, gailur bakoitzarentzat kalkulatutako balioa; n, monomero kantitatea; M, masa molekularra; EG, etilenglikola; PG, propilenglikola. Kalkuluak egiteko erabili diren masa molekularrak hauek dira: MEG = 44.03, MPG = 58.04, MC5H9O = 85.06, MSO4 = 95.95 eta MNa = 22.99 Da.
Ondorioz, masa espektrometria teknika hau erabiliz egiturari buruzko informazio osatua lor daiteke polimeroen mikroegitura eta polimero horietatik eratorritako materialen propietateak ezagutzeko. Masa molarraren banaketaz gain, polimeroen unitate monomerikoa, polidispertsitatea eta kateen muturrak jakitea lor daiteke, hain zuzen ere. Hori dela eta, teknika hau gero eta gehiago barreiatzen ari da polimeroen propietateak hobeto aztertzeko.
Artikuluaren fitxa:- Aldizkaria: Ekaia
- Zenbakia: Ekaia 35
- Artikuluaren izena: MALDI-TOF masa espektrometriaren erabilera polimeroak karakterizatzeko.
- Laburpena: Gaur egun, materialak ezaugarritzekoerabiltzen diren teknikek informazio dezente uzten dute agerian, baina oraindik nahiko zaila da egiturari buruzko informazio osatua lortzea. Informazio hau garrantzi handikoa eta beharrezkoa da modu sakon batean polimero horietatik eratorritako materialen propietateak ezagutzeko. Polimeroak karakterizatzeko, Matrix Assisted Laser Desorption-Ionization Time of Flight Mass Spectrometry (MALDI/TOF MS) sortu zenetik, gero eta gehiago hedatu da teknika honen erabilera arlo desberdinetan. Masa-espektrometria teknika hau hedatu egin da polimeroen karakterizazioan, masa molarraren banaketaz gain, polimeroen unitate monomerikoa, polisakabanatzea eta kateen muturrak ezagutzea lor daitekeelako, hain zuzen ere. Lan honetan MALDI/TOF teknikaren oinarriak labur azalduko dira: masa espektrometroak nola funtzionatzen duen, zein den matrizearen garrantzia, zeintzuk diren matrize ohikoenak… Eta zenbait polimeroren karakterizazio adibideak aztertuko dira. Zehazki, bi karakterizazio-prozedura erakutsiko dira: Gel Permeation Chromatography (GPC) teknikan estandartzat erabiltzen den poliestireno homopolimeroa eta Latemul, emultsionatzaile polimerizagarri komertzial moduan erabiltzen den kopolimeroa.
- Egileak: Antonio Veloso eta Rebeca Sola-Llano.
- Argitaletxea: UPV/EHUko argitalpen zerbitzua.
- ISSN: 0214-9001
- Orrialdeak: 185-196
- DOI: 10.1387/ekaia.19691
————————————————–
Egileez:
Antonio Veloso eta Rebeca Sola-Llano UPV/EHUko Zientzia eta Teknologia Fakultateko Kimika Fisikoa sailekoak dira eta Antonio Velosok, gainera, Polymaten dabil.
———————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post MALDI-TOF masa espektrometriaren erabilera polimeroak karakterizatzeko appeared first on Zientzia Kaiera.
La ecuación de las ciudades oscuras
Las ciudades oscuras es una serie de novelas gráficas, publicadas originalmente en francés, del dibujante belga François Schuiten y el guionista francés Benoît Peeters, cuyo primer álbum Las murallas de Samaris fue publicado en 1983 y que sigue publicándose en la actualidad. En el momento en el que escribo estas líneas cuenta con doce álbumes: Las murallas de Samaris, La fiebre de Urbicande, La Torre, La ruta de Armilia, Brüsel, La chica inclinada, La sombra de un hombre, La Frontera Invisible (doble), La teoría del grano de arena (doble), Recuerdos del eterno presente.
En la colección de novelas gráficas Las ciudades oscuras nos encontramos ante una serie de historias entre fantásticas y surrealistas que transcurren en diferentes ciudades de un continente imaginario que se encuentra situado en el planeta Antichton, o Anti-Tierra. Este hipotético planeta fue inventado por el filósofo y matemático pitagórico Filolao (aprox. 470 – 380 a.n.e.) cuando describió un sistema cosmológico, no geocéntrico, en el que había un fuego central distinto del Sol y un planeta situado en la posición diametralmente opuesta a la Tierra, respecto a dicho fuego central, la anti-Tierra.
La arquitectura y el diseño urbanístico de las ciudades oscuras son protagonistas principales de esta serie de novelas gráficas, pero también la política, la sociedad, la ciencia, las creencias o las relaciones humanas., entre muchos otros

En esta entrada del Cuaderno de Cultura Científica vamos a centrarnos en uno de los álbumes de la serie titulado La fiebre de Urbicande (1985). El protagonista de esta historia es Eugen Robick, el “urbatecto” (unión de urbanista y arquitecto) oficial de la ciudad de Urbicande, que está preocupado por el diseño urbanístico de la ciudad y su falta de simetría. La ciudad de Urbicande está dividida por su río en dos zonas. La zona sur, en la que vive la alta sociedad, sería una ciudad geométrica, con avenidas rectas, que se intersecan perpendicularmente, sobre la que se han diseñado, de forma racional, edificios rectos y simétricos, mientras que la zona norte, en la que vive la parte de la sociedad que la clase alta quiere mantener alejada, posee un desarrollo urbanístico irregular.
Sin embargo, un inesperado acontecimiento cambiará las preocupaciones de Eugen Robick y de los habitantes de la ciudad de Urbicande, la aparición de un misterioso cubo encontrado en unas obras y que se convertirá en el desencadenante de los acontecimientos futuros de la ciudad.

Aparentemente el cubo no posee un gran interés, salvo que está construido con un material extremadamente duro. El urbatecto Eugen Robick lo describe así en las primeras páginas.
“Klaus y Friedrich han venido con gran alboroto a traerme una especie de cubo que han exhumado cavando en la obra Von Hardenberg.
El objeto habría quebrado la pala de una grúa, debido a su gran solidez.
Al observarla fríamente, no tiene sin embargo nada de demasiado extraño. Es una simple estructura cúbica totalmente vacía cuyas aristas no deben de superar los quince centímetros.”
Lo curioso es que, poco tiempo después, del cubo han surgido unas prolongaciones que extendían los lados del mismo, con un crecimiento constante, hasta generar un nuevo cubo en cada una de las caras del hexaedro regular original. De forma que en esta primera etapa se ha creado una pequeña red con 7 cubos. Además, al tiempo que iba ocurriendo esto, el tamaño del cubo original ha ido creciendo también, así en un día el tamaño de las aristas del cubo, de los cubos, ha pasado de 15 a 20 centímetros. El grosor de las aristas también ha ido creciendo paulatinamente.

Como el proceso no para, la red de cubos va creciendo poco a poco, en tamaño y en número de ortoedros que lo conforman. En la siguiente etapa de crecimiento, en cada cara de los cubos que forman la red surgen nuevos cubos, luego de 7 cubos pasa a 25. Y en la siguiente etapa, la red de cubos, que tendrá la forma de un octaedro (es decir, una doble pirámide, hacia arriba y hacia abajo), estará formada por 63 cubos. Después, 129, 231, etcétera.

Eugen Robick, que era matemático de formación según se comenta en la parte de La leyenda de la red, empieza a estudiar la estructura reticular que se genera. En particular, obtiene una fórmula, que veremos más adelante, que le da el número de cubos que tendrá la estructura en cada paso. Pero estudiemos nosotros esa sucesión de números que nos da la cantidad de cubos que posee la red octaédrica que aparece en la novela gráfica.
Empecemos pensando el problema en dimensión 2. Supongamos que nuestra estructura original es un cuadrado, que va creciendo y formando una red de cuadrados de forma similar a como la red de cubos de Urbicande (véase la siguiente imagen). En cada lado del cuadrado original se forma un nuevo cuadrado y sobre los lados de los nuevos cuadrados irán creciendo nuevos cuadrados.
Primero, en el momento cero tenemos 1 cuadrado (c0), del que surgen 4 más, luego 5 (c1) en total. En la segunda etapa se incorporan 8, luego 13 (c2) en total… y así continúa. Pero, veamos cuantos cuadrados se incorporan en cada momento. Si nos fijamos en la anterior imagen, en la segunda etapa (c2), los cuadrados que se incorporan forman un cuadrado grande (rojo) con 3 cuadrados en cada lado, luego tiene (4 x 3 – 4 = 4 x (3 – 1) = 4 x 2 = 8 cuadrados, es decir, cuatro veces los cuadrados que hay en cada lado menos 4, de los vértices, que contábamos dos veces). En general, en el paso n-ésimo se incorporarán, a los anteriores cubos, 4 x n cubos más. Por lo tanto, se obtiene la siguiente fórmula:
Donde hemos utilizado, en el ante-último paso, la fórmula de la suma de los n primeros números (véase la entrada Matemáticas para ver y tocar ).


El razonamiento que hemos desarrollado en el plano, para cuadrados, no solo nos ayuda a entender el problema en dimensión tres, para cubos, sino que nos permite obtener fácilmente una fórmula para la cantidad de cubos de cada etapa de la red. Esto se debe a que en la etapa n-ésima la cantidad de cubos de la zona/capa central de la red octaédrica es igual a la cantidad de cuadrados de la etapa n-ésima de los cuadrados planos (cn), ya que solo nos fijamos en los cubos que están a la misma altura, en la misma capa horizontal. En la capa de arriba de la central, y también en la de abajo, hay tantos cubos como cuadrados había en la etapa anterior, luego (n – 1)-ésima de los cuadrados planos (c(n – 1)), y así con el resto. Veamos los primeros pasos. En la primera etapa hay 5 cubos en la zona central y 1 arriba y otro abajo, en total, 7 cubos. En la segunda etapa hay 13 cubos en la zona central, 5 en la zona que está justo encima y 5 en la que está justo debajo, y 1 cubo arriba del todo y 1 abajo del todo, en total 13 + 2 x 5 + 2 x 1 = 25 cubos.
Es decir, tenemos la fórmula general para la cantidad de cubos de la red de Urbicande dada en función de los anteriores números:
Pero sustituyendo el valor de los números de cuadrados (cn) calculados anteriormente, se obtiene:
Observemos que en la segunda igualdad hemos sumado primero los 1s de los corchetes, obteniendo el número 1 + 2n del inicio.
Hemos obtenido así una primera fórmula para el cálculo del número de cubos de la red. Si vais dando valores a n = 0, 1, 2, 3, 4, 5, … obtendréis la cantidad de hexaedros regulares de cada etapa 1, 7, 25, 63, 129, 231, …
Vamos a intentar obtener una fórmula más sencilla de manejar. Si denotamos como Tn a los números triangulares, es decir, la suma de los n primeros números, Tn = 1 + 2 + … + n, que sabemos que es igual a n (n + 1) / 2, podemos demostrar que la anterior fórmula es igual a:
Para seguir avanzando necesitamos la fórmula de la suma de los números triangulares. En la siguiente imagen podéis ver dicha fórmula, con la demostración sin palabras que publicó Monte J. Zerger en Mathematics Magazine (diciembre, 1990) y que aparece también en el libro Demostraciones sin Palabras, de Roger B. Nelsen.

Ahora, haciendo uso de la anterior fórmula se obtiene la siguiente fórmula para la sucesión de cubos que conforman la red octaédrica de La fiebre de Urbicande:

Si volvemos a la novela gráfica de Schuiten-Peeters, podemos observar que la fórmula que he obtenido coincide con una de las dos que aparecen en la misma. Una de ellas es la fórmula de Robick y la otra la que aparece en el opúsculo El misterio de Urbicande “de un tal R. de Brok”, dentro de la parte denominada La leyenda de la red, que es un documento perteneciente a los Archivos de “las ciudades oscuras”.

El razonamiento que utiliza Eugen Robick es diferente al mío y por eso la fórmula que obtiene es diferente. Podemos decir que yo cuento los cubos de cada capa horizontal de la estructura reticular, mientras que Robick cuenta los cubos en columnas verticales.
Expliquemos brevemente la idea de Robick. En la etapa n-ésima del desarrollo de la red la “columna central” de la estructura con forma de octaedro (pirámide doble) tiene 2n + 1 cubos, que es el número que aparece en primer lugar en su fórmula. Después divide la pirámide doble, menos la columna central, en cuatro partes iguales (en la siguiente imagen observamos la partición en lo que sería la vista desde arriba de la red) y calcula la cantidad de cada parte, que es la expresión que aparece multiplicando al 4.

Ahora razonemos visualmente (en la siguiente imagen) cómo obtiene Robick la fórmula del cálculo de los cubos de cada una de esas cuatro partes.

Juntando todo lo anterior se obtiene la fórmula de Robick:
No hemos entrado en el trasfondo social y político de la historia que se cuenta en La fiebre de Urbicande, pero eso dejo que lo descubráis en vuestra propia lectura de la novela gráfica.

Finalizamos la entrada animando a la lectura de la serie de novelas gráficas de François Schuiten y Benoît Peeters, Las ciudades oscuras, y con la imagen de la contraportada de La fiebre de Urbicande de la edición en castellano de Norma editorial en 2015, con tres de los protagonistas de la historia, Eugen, Sofía y el misterioso cubo.

Bibliografía
1.- Francois Schiten, Benoit Peeters, La fiebre de Urbicande (Las ciudades oscuras), Norma Editorial, 2015.
2.- Roger B. Nelsen, Demostraciones sin palabras (ejercicios de pensamiento visual), Proyecto Sur, 2001.
3.- Jean-Paul Van Bendegem, A short explanation of «Le Mystère d’Urbicande», Alta plana, the impossible & infinite encyclopedia of the world created by Schuiten & Peeters
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo La ecuación de las ciudades oscuras se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Triangulando: Pascal versus Sierpinski
- Buscando las soluciones del cubo de Anda
- Locura instantánea, un rompecabezas con cubos de colores
Moko-baleen estrategia bizirik irauteko: isilpeko igeriketa sinkronizatua
Ez da erraza moko-balea edo zifio bat ikustea, eta agian horregatik ere ez dira oso ezagunak. Askotan, hondartzetan hilik agertzen direnean baino ez dira ikusten. Horren arrazoia da normalean sakontasun handiko uretan denbora gehiena ematen dutela. Ez da soilik habitat kontua: tartean biziraupena dago.
Arazoaren muina moko-baleen areriorik handiena da, eta Orcinus orca du izena. Bai, orka. Haiengandik babesteko, moko-baleak gutxitan joaten dira itsasoaren azaletik gertu, eta, egiten dutenean, kontu handiz egiten dute, haientzako arrisku handiko eremua baita. Beste hainbat zetazeok badute abantailaren bat orkei aurre egiteko: balearik handienek tamaina eta indarra dituzte alde. Izurdeek, batera eta arin igeri egiteko gaitasuna. Odontozento klaseko hainbat espeziek, berriz, orkek entzuteko gai ez diren komunikazio-frekuentzia bat erabiltzen dute. Moko-baleen kasuan, sakontasun handietan igeri egitea da haien abantaila, baina, hain ezezagunak izanik, zientzialariek portaeraren atzean gehiago jakin nahi izan dute. Eta ikasi dute.

1. irudia: Izurdeen itxura dute moko-baleek, baina elefante baten tamainan. Ez dira oso ezagunak, denbora gehiena urpean ematen dutelako. (Argazkia: Ivan Dominguez / La Lagunako Unibertsitatea – CC BY 3.0 lizentziapean)
La Lagunako Unibertsitateko (Tenerife) itsas biologoek gidatutako ikerketa batean, moko-baleen portaera aztertu du nazioarteko zientzialari talde batek; atera dituzten ondorioak Scientific Reports aldizkarian ezagutarazi dituzte. Zehazki, bi dira aztertu dituzten espezieak: Cuvier moko-balea (Ziphius cavirostris) eta Blainville moko-balea (Mesoplodon densirostris).
Zetazeoen jarduna jarraitu ahal izateko, sentsoreak jarri dizkiete hiru talde desberdinetako sei animaliari. Lagin gehiago nahiko lituzketen arren, arras zaila da moko-balea bati halako gailu bat txertatzea. Modu horretan, zetazeoek hartzen duten sakontasuna eta urpetik ateratzean hartzen duten ibilbidearen makurdura neurtzeko aukera izan dute, eta egiten dituzten soinuak ere grabatu dituzte.
Datu berrietan oinarrituta, aurretik zituzten hainbat susmo berresteko moduan izan dira, eta gauza berriak ikasteko abagunean egon dira. Ikertzaileek azaldu dutenez, beste zenbait zetazeo espezieren artean ohikoa da kumeak itsas azaletik gertu uztea, taldeko heldu batzuen zaintzapean, uretan murgildu eta janari bila joateko. Baina moko-baleek kumeak ere eramaten dituzte beraiekin. Gainera, modu sinkronizatuan egiten dute, eta isilpean. Soilik sakontasun handiko uretara iristean hasiko dira ekolokalizazioa erabiltzen, janaria aurkitu ahal izateko.
Maila fisikoan, badirudi hori egiteko ondo prestatuta daudela ere. Umeek arren tamaina berdina dute, eta kumeak nahiko handiak dira, jaiotzetik bertatik. Modu horretan, helduekin batera urperatzeko gai dira. Nagusiek kilometro bateko sakontasunera iristeko gaitasuna dute, zenbait kasu berezitan marka hori bizpahiru kilometrora luza daitekeelarik.
Jaistean, 450 metroko sakontasunean hasten dira ekolokalizazioa erabiltzen, eta taldeko kideak sakabanatu egiten dira, ehiza egiteko. Ehiza bukatzean, bildu egiten dira, gorantzako norabidea hartuta arnastu ahal izateko. Urpean bi ordu eta erdi inguru eman dezakete, baina, ugaztunak direnez gero, noizean behin arnasa hartu behar dute, ezinbestean.
Dena dela, goian zain dituzte orkak. Sakontasun handietara iritsi ezin badaitezke ere, orkak gai dira ekolokalizariorako erabilitako deiak entzuteko, eta moko-baleak noiz aterako diren zain geratzen dira, adi-adi.

2. irudia: Moko-baleek erabiltzen duten ibilbidea eta portaera aztertu dituzte, sentsoreak erabilita. Igotzean, 700 metrotik aurrera desbideratzen dira, orken harrapakaritza saihestu nahian. (Irudia: Scientific Reports – CC BY 4.0 lizentziapean / Eraldatuta)
Harrapakariaren eta harrapakinaren arteko beste hainbat harremanetan bezala, hemen ere portaera bitxia garatu dute moko-baleek: itsas azalera bueltatzean, ez dute modu zuzenean egiten, zeharka baizik, bertikalarekiko angelu bat osatuz. 700 metroko sakonetik, gainera, erabateko isiltasuna mantentzen dute. Gainera, pixkanaka joan behar dira, halabeharrez, oxigeno gehiegi ez kontsumitzeko.
Gorantzako bidean, ekolokalizazioa egiteri utzi dioten puntutik kilometro batera atera daitezke. Modu horretan, orkek harrapatuak izateko aukerak gutxitzen dituzte moko-baleek. Kalkulatu dutenez, moko-baleak atera daitezkeen eremuaren %10 baino ezin dute behatu orkek. Hortaz, estrategia hau erabilita, moko-baleek %90 handitzen dute bizirik irauteko aukera.
Dena dela, ikertzaileek argitu dutenez, dena ez da abantaila: ezkutuan ibiltzeko behar izanagatik, itsasoan gora egiteko ordubete inguru behar dute, eta horrek janaria lortzeko denbora kentzea dakar. Ikertzaileen esanetan, janaria lortzeko denbora %35 murrizten zaie, beste zetazeoekin alderatuta.
Hau gutxi balitz, orkak ez dira arerio bakarrak: orka diruditen arren, orka ez direnak ere arazo iturri dira moko-baleentzat. Sonar militarrei buruz ari gara. Orkek erabili ohi dituzten antzeko frekuentziak erabiltzen dituzte, eta horregatik moko-baleek soinu horiek orketatik datozela pentsatzen dute. Ondorioz, izugarrizko ezustekoa hartzen dute, eta ziztu bizian alde egiten dute. Zenbait kasutan, horrek heriotza dakarkie; orketatik babesteko urpean igeri egiteko behar diren eskakizun fisiologikoak hain muturrera eraman behar izanagatik, sonarrek eragindako estresak enboliak eta barneko odoljarioak eragin ahal dizkiete.
Natacha Aguilar de Soto itsas biologoaren hitzetan, ez dago modurik zetazeoek halako alarma baten aurrean hartzen duten izua murrizteko, baina badago aukera gobernuei neurriak har ditzaten eskatzeko, “maniobra militarrak inpaktua izango ez duten eremuetara mugatu ditzaten”.
Eboluzioaren bidean, bada, orkei aurre egiteko moduan egon dira zetazeo bitxi hauek, baina, tamalez, hamarkada gutxietan garatu diren sonarrei egokitzeko denbora nahikorik ez dute izan.
Erreferentzia bibliografikoa:
Aguilar de Soto, N., Visser, F., Tyack, P.L. et al. (2020). Fear of Killer Whales Drives Extreme Synchrony in Deep Diving Beaked Whales. Scientific Reports, 10:13. DOI: https://doi.org/10.1038/s41598-019-55911-3.
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Moko-baleen estrategia bizirik irauteko: isilpeko igeriketa sinkronizatua appeared first on Zientzia Kaiera.
La interpretación de Copenhague de la mecánica cuántica

El principio de complementariedad de Bohr es una afirmación de una enorme importancia, porque significaba que lo que observamos en nuestros experimentos no es lo que la naturaleza realmente es cuando no la estamos observando. Pero ahondemos sobre esto, porque la afirmación choca con el sentido común [1], lo que puede hacer más difícil asimilar lo que aquí se está diciendo [2].
De hecho, la naturaleza no favorece ningún modelo específico cuando no estamos observando; si algo podemos afirmar es que la naturaleza es una mezcla de las muchas posibilidades que podría ser hasta que observamos [3]. Al establecer un experimento, seleccionamos el modelo que exhibirá la naturaleza y decidimos si los fotones, electrones, protones e incluso las pelotas de tenis (si se mueven lo suficientemente rápido) se comportarán como corpúsculos o como ondas.
En otras palabras, según Bohr, ¡el experimentador se convierte en parte del experimento! Al hacerlo, el experimentador interactúa con la naturaleza, de tal modo que nunca podemos observar todos los aspectos de la naturaleza como realmente es “en sí” [4]. De hecho, esta expresión, si bien es atractiva, no tiene un significado operativo. En cambio, deberíamos decir que solo podemos conocer la parte de la naturaleza que nuestros experimentos ponen de manifiesto. [5] La consecuencia de este hecho, a nivel cuántico, decía Bohr, es el principio de incertidumbre, que coloca una limitación cuantitativa sobre lo que podemos aprender sobre la naturaleza en cualquier interacción dada; y la consecuencia de esta limitación es que debemos aceptar la interpretación de probabilidad de los procesos cuánticos individuales. De aquí que al principio de incertidumbre a menudo también se le llame principio de indeterminación.
No hay forma de evitar estas limitaciones, según Bohr, mientras la mecánica cuántica siga siendo una teoría válida. Estas ideas, por supuesto, están totalmente en desacuerdo con el sentido común, como apuntábamos antes. Asumimos que la naturaleza existe de manera completamente independiente de nosotros y que posee una realidad y un comportamiento definidos, incluso cuando no la estamos observando. Así, supones que el mundo fuera del lugar donde estás todavía existe más o menos como fue la última vez que lo observaste. No cabe duda de que la naturaleza se comporta así en nuestra experiencia cotidiana, y esta visión es una suposición fundamental de la física clásica. Incluso tiene un nombre filosófico; se llama «realismo», y para los fenómenos y objetos en el rango de la experiencia ordinaria es perfectamente apropiado. Pero, como Bohr a menudo enfatizó, tenemos que estar preparados para esperar que el mundo cuántico no sea como el mundo cotidiano en el que vivimos.
Parte de la dificultad viene del lenguaje que empleamos. Nuestra lengua común no puede expresar adecuadamente lo que las matemáticas consiguen hacer de manera muy eficiente. Max Born, uno de los fundadores de la mecánica cuántica, lo expresó así (nuestro énfasis):
El origen último de la dificultad radica en el hecho (o principio filosófico) de que estamos obligados a usar las palabras del lenguaje común cuando deseamos describir un fenómeno, no mediante un análisis lógico o matemático, sino mediante una imagen atractiva para la imaginación. El lenguaje común ha crecido con la experiencia cotidiana y nunca puede superar estos límites. La física clásica se ha limitado al uso de conceptos de este tipo; al analizar los movimientos visibles, ha desarrollado dos formas de representarlos mediante procesos elementales: partículas en movimiento y ondas. No hay otra forma de dar una descripción pictórica de los movimientos: tenemos que aplicarlo incluso en la región de los procesos atómicos, donde la física clásica se descompone. [6]
Juntos, el principio de complementariedad de Bohr, el principio de incertidumbre de Heisenberg y la interpretación de probabilidad de Born forman una interpretación lógicamente coherente del significado de la mecánica cuántica. Dado que esta interpretación se desarrolló en gran medida en el instituto de Bohr en la Universidad de Copenhague, se la conoce como la Interpretación de Copenhague de la mecánica cuántica. Los resultados de esta interpretación tienen profundas consecuencias científicas y filosóficas que se siguen estudiando y debatiendo. [7]
Notas:
[1] La ciencia se empeña en demostrar que el sentido común no deja de ser una colección de sesgos antropocéntricos y, por lo tanto, si bien útiles para el día a día en muchos casos, no necesariamente ciertos.
[2] Por eso es interesante fijarse en las palabras en cursiva, que están cuidadosamente seleccionadas.
[3] Este es el principio de superposición cuántico, sobre el que reflexionamos en La teoría superpositiva.
[4] Esto del “en sí” está entrecomillado porque es más un concepto filosófico que físico. Está relacionado con la caracterización de la sustancia de la época racionalista de la filosofía. Recordemos, por ejemplo, que Spinoza en la definición tercera del libro primero de la Ética decía “Por substancia entiendo aquello que es en sí y se concibe por sí, esto es, aquello cuyo concepto, para formarse, no precisa del concepto de otra cosa.”
[5] Y aquí hay que reflexionar mínimamente. Esto no es una invitación al misticismo, como algunos se apresuran a adoptar. Fijémonos en que, al fin y al cabo, conocemos incluso a nuestro mejor amigo solo a través de un mosaico de encuentros, conversaciones y actividades repetidas, en muchas circunstancias diferentes.
[6] A este respecto puede resultar interesante nuestro La verdadera composición última del universo (y IV): Platónicos, digitales y pansiquistas
[7] Una introducción a los elementos del debate puede encontrarse en nuestra serie Incompletitud y medida en mecánica cuántica
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La interpretación de Copenhague de la mecánica cuántica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Construyendo la mecánica cuántica
- La probabilidad en mecánica cuántica
- El principio de complementariedad
Diabetesa ulertzeko bidean (eta III): akatsak konpontzen

Irudia: Diabetikoek maiz kontrolatu behar dute odoleko glukosa kontzentrazioa. (Argazkia: Tesa Robbins – domeinu publikoko irudia. Iturria: pixabay.com)
Diabetes mellitusaren ondorioz glukosaren metabolismoaren erregulazioan bi akats nagusi gertatzen dira: pankreak intsulina ez jariatzea -1 motako diabetesa- edo organismoko zeluletako hartzaileak intsulinarekiko sentikortasunik ez izatea -2 motako diabetesa-. Edozein kasutan, diabetikoen ezaugarri komuna odoleko glukosa kontzentrazioa altua izatea da eta, hortaz, arazoa tratatzen ez bada, hainbat osasun-arazo ekar ditzake. Odoleko glukosa kontzentrazio altuaren ondorioz, diabetikoen gernua ohikoa dena baino gozoagoa da. Hain zuzen ere, 1776. urtean jakin zuten glukosa zela gernuaren zapore gozoaren erantzulea, baina, XIX. mendera arte ez zen lortu gernuko glukosa kontzentrazioa neurtzeko metodorik.
Era berean, 1869. urtean Paul Langerhansek egun Langerhasen irlak izenarekin ezagutzen ditugun pankreako zelula-multzoak ezagutzera eman zituen haren tesian. Orain badakigu irla horietan ekoizten dela intsulina -glukosaren metabolismoa erregulatzen duen hormona-, baina jakina, orduan ez zuten hori ezagutzen. Hirugarren ezagutza aipagarria hauxe da: 20 urte geroago, Joseph von Mering eta Oskar Minkowskik zenbait esperimentu egin zituzten txakurren pankreak aztertzeko. Hobeto esanda, txakurren pankreak erauzita jakin zuten pankrearik ez zuten txakurrek egarri eta pixagura handia zutela eta haien gernua gozoa zela. Ondorioa nabarmena zen: pankrearik gabeko txakurrek diabetikoen antzeko sintomak eta ezaugarriak zituzten.
Iraultza 1921. urtean iritsi zen. Frederick Banting eta Charles Best ikertzaileek ordura arteko ideiak elkartu zituzten eta pankrearen substantziak bilatzen hasi ziren. Bazekiten pankreak zerbait izan behar zuela eta horren gabeziak diabetesa sortzen zuela. Substantzia hori lortzeko, 1921eko maiatzean lehen esperimentuak egin zituzten. Lehen pausoa txakurren pankreako hodiak ixtea izan zen. Horrela, txakurraren pankreak intsulina ekoizten zuen, baina, pankrean bertan pilatzen zen -une hartan substantzia horri isletina deitu zioten, Langerhasen irletan ekoizten zelako-. Esperimentuaren bigarren fasean, beste txakur batzuk hartu eta pankrea kentzen zieten. Diabetesa agertzea itxaroten zuten eta, orduan, hasierako txakurren pankreatik erauzitako substantzia –intsulina– ematen zieten. Horrela lan eginda, txakurren bizitza luzatu zuten eta diabetesa kontrolatu ahal izan zuten.
Banting eta Bestek animalien intsulina gizakietan erabiltzea posible izan zitekeela pentsatzen zuten eta egun badakigu zuzen zeudela. Gizakion intsulina eta txerriena edo behiena oso antzekoa da. Desberdintasun txiki honi esker, txerrien pankreatik erauzitako intsulina sendagai gisa erabili izan da diabetikoak tratatzeko, baina, 1921ean oraindik ez zekiten posible izango ote zen. Lehen saiakuntza Leonard Thomson gazte diabetikoarekin egin zuten. Txakurren pankreatik erauzitako substantzia eman zioten eta hasiera batean erreakzio alergikoa izan bazuen ere, aurrera jarraitu zuten. Bigarren aldian, purifikatutako intsulina eman zioten eta, oraingoan bai, hobekuntza txikiak ikusten hasi ziren. Tratamenduarekin jarraituz, hilzorian zegoen Leonard Thomsonen bizitza beste 13 urtez luzatzea lortu zuten.
Iraultza izugarria izan zen eta horrek azaltzen du zergatik jaso zuten 1923an Medikuntzako Nobel saria. Pixkanaka ikerketa gehiago egin ziren eta metodoak hobetuz, animalien pankreak erabili ziren intsulina erauzteko. Modu horretan, intsulinarik jariatzeko gai ez ziren diabetikoei ematen zitzaien odoleko glukosa kontzentrazioa murrizteko. Azken batean, organismoak duen mekanismo berdina erabiltzen zuten, baina, pankrea kanpotik hartzen zuten. Gaur egun beste bide batzuk erabiltzen dira intsulina lortzeko eta ingeniaritza genetikoari esker bakterio eta legamiek ekoizten dute intsulina -bai, sendagai gisa erabiltzen den intsulina transgenikoa da-. Intsulinaren aurkikuntzaren ondoren, diabetesaren tratamendurako hiru lerro zeudela jakin zuten -eta gaur egun ere, 1921ean bezala, horrela izaten jarraitzen du-: kirola, dieta eta sendagaiak. Garrantzitsua da esatea, gainera, 2 motako diabetesa sendatu daitekeela ohitura onak hartzen edo berreskuratzen badira. 1 motakoaren kasuan, aldiz, gaixotasun autoimmune denez gauzak ez dira hain errazak. Hala ere, pankreako transplanteak eta bestelako tratamendu zelularrak ere izan badira.
Zalantzarik gabe, diabetesari aurre egiteko modurik eraginkorren prebentzioa da: dieta eta kirola. Batez ere, jakinda 2 motako diabetesa dela ugariena, alegia, ohitura txarren ondorioz agertzen dena. Hala ere, intsulinaren erabilpena ezinbestekoa da milaka gaixorentzat eta, hori gabe, diabetesak heriotza azkarra eragingo luke. Era berean, intsulinaren aurkikuntza prozesuan ondo ikusten da zientziak nola funtzionatzen duen: ikertzaile askok aurretik egindako lanik gabe, Banting eta Bestek ez zuten 1921erako intsulina lortuko eta Leonard Thomson, beste asko bezala, diabetesak jota hilko ziren. Zorionez, gauzak asko aldatu dira.
—————————————————–
Egileaz: Josu Lopez-Gazpio (@Josu_lg) Kimikan doktorea, irakaslea eta zientzia dibulgatzailea da. Tolosaldeko Atarian Zientziaren Talaia atalean idazten du eta UEUko Kimika sailburua da.
—————————————————–
Diabetesari buruzko artikulu-sorta:
- Diabetesa ulertzeko bidean (I): glukosaren metabolismoa
- Diabetesa ulertzeko bidean (II): metabolismoan akatsak daudenean
- Diabetesa ulertzeko bidean (eta III): akatsak konpontzen
The post Diabetesa ulertzeko bidean (eta III): akatsak konpontzen appeared first on Zientzia Kaiera.
La crisis de reproducibilidad en ciencia

Uno de los elementos más valiosos con que debiera contar la comunidad científica es con la replicación sistemática de los estudios o, al menos, con aquellos que introducen alguna novedad significativa. Sin embargo, la mayoría de los científicos se muestran poco inclinados a tratar de replicar los experimentos o análisis realizados por otros investigadores. Al fin y al cabo, resulta mucho más gratificante hacer nuevos estudios que puedan aportar novedades de interés en un campo que limitarse a comprobar si se obtienen los mismos resultados que obtuvieron antes otros. Además, las revistas científicas no están interesadas en publicar repeticiones, máxime si las conclusiones no refutan las del primer trabajo; en ese caso no hay novedades que contar.
En varios estudios se ha llegado a la conclusión de que muchos resultados publicados no son reproducibles o solo lo son parcialmente. Aunque lleva años generando preocupación, este problema se manifestó con toda su crudeza a raíz de la publicación en 2015 de un estudio en la revista Science, según el cual tan solo para una treintena de 100 experimentos de psicología publicados en las mejores revistas científicas del campo se habían podido reproducir sus resultados. Pero el problema no se limita a la psicología, sino que afecta a un buen número de disciplinas.
De acuerdo con una encuesta realizada en 2016 por la revista Nature a 1500 investigadores de diferentes campos, el 70% habían sido incapaces de reproducir los resultados de otros colegas y el 50% no lo habían sido de reproducir sus propios resultados. Por disciplinas, estos fueron los datos de la encuesta: en química el 90% y el 60% (ajenos y propios, respectivamente), en biología el 80% y el 60%, en medicina el 70% y el 60%, en física e ingeniería el 70% y el 50%,en medicina, y en ciencias de la Tierra y el ambiente el 60% y el 40% (Baker, 2016).
Parece evidente que la imposibilidad o dificultad para reproducir resultados constituye una severa limitación al ejercicio del escepticismo, sin el cual no es posible someter a contraste los resultados y conclusiones publicadas.
Aunque a veces la imposibilidad de reproducir los resultados se refiere a casos de fraude, lo normal es que no haya trampa ni malas prácticas realizadas de forma voluntaria. Las razones por las que los resultados experimentales no se reproducen al repetirse los experimentos son diversas. Muchas veces no se especifican de forma correcta las condiciones experimentales. En otras los investigadores se ven afectados por sesgos como los expuestos en una anotación anterior y que tienen que ver con el grado de aproximación de los resultados obtenidos a las expectativas iniciales. Cuando en un conjunto de datos alguno destaca como “anómalo” es relativamente común descartarlo basándose en el supuesto de que la anomalía bien puede deberse a un error experimental sin trascendencia. En todo esto influyen de forma decisiva dos factores. Uno es que el personal de universidades y centros de investigación, como ya hemos visto, está sometido a una fuerte presión por publicar. Y el otro es que las revistas científicas rara vez aceptan publicar resultados negativos. Por esa razón, no es de extrañar que funcionen sesgos que, inconscientemente, facilitan la obtención de resultados positivos y, por lo tanto, publicables.
El tratamiento estadístico es también una fuente de resultados de difícil reproducción. Es relativamente común la práctica de ensayar diferentes procedimientos y seleccionar, entre un catálogo más o menos amplio de posibilidades, aquél cuyos resultados mejor se acomodan a las expectativas. Este es un problema serio en los campos en que se realizan ensayos que han de conducir al desarrollo posterior de tratamientos médicos. Pero, el daño que causa es general, ya que esa forma de proceder tiende a neutralizar la emergencia de nuevas ideas que debería caracterizar, de forma intrínseca, a la práctica científica. Si se opta por mostrar los resultados que mejor se acomodan a las expectativas, se deja de lado el examen crítico de posibilidades que podrían haber conducido a nuevas ideas.

La revista Proceedings of the National Academy of Sciences, más conocida por sus siglas PNAS y una de las más prestigiosas del mundo, publicó una serie de artículos analizando la llamada “crisis de reproducibilidad” y, en general, la validez de un discurso muy en boga mediante el que se difunde la idea de que la ciencia se encuentra hoy en crisis. De ese conjunto de estudios parece concluirse que esa idea no tiene suficiente base y que se trata, más bien, de una leyenda urbana. Sin embargo, en nuestra opinión, lo que esos estudios documentan es que el fraude no ha crecido durante las últimas décadas, de la misma forma que no ha crecido el número de artículos retractados (retirados de la publicación por los editores) en términos relativos. Pero no es tan clara la conclusión de que no hay problemas de reproducibilidad, porque el procedimiento seguido para llegar a esa conclusión es demasiado indirecto, mientras que los estudios que documentan las dificultades para reproducir resultados anteriores son bastante más directos.
En nuestra opinión, la falta de reproducibilidad procede de una progresiva relajación de los estándares que se consideran aceptables en cuanto calidad de la evidencia científica; nos referimos a asuntos tales como tamaños de muestra, claridad de la significación estadística más allá del valor de p, calidad de los blancos, etc. Los científicos como colectivo somos a la vez autores de los experimentos, autores de los artículos y revisores de estos. Que poco a poco se vayan aceptando niveles cada vez más bajos nos conviene si nuestro objetivo es el de publicar más rápidamente y engrosar un currículo investigador en un tiempo breve. Pero eso conduce, lógicamente, a un declive del rigor y exigencia generales. Ahora bien, al tratarse de un declive gradual, no se aprecia con nitidez la pérdida de calidad. Sin embargo, cuando el deterioro se acentúa se acaban dando por buenos (publicándolos) resultados que realmente no responden a hechos reales y por tanto no se pueden reproducir.
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo La crisis de reproducibilidad en ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El legado de Fisher y la crisis de la ciencia
- Ciencia Patológica
- Sesgos cognitivos que aquejan a la ciencia
Prestakuntza hobea duten pertsonek osasun hobea ere badute
Alabaina, duela lau hamarkada baino gehiago, Samuel Preston demografoa eta soziologoa konturatu zen aldagai horien arteko erlazioa ez zela uste bezain sinplea. Egiaztatu zuen herrialde askotan biztanleen bizi-itxaropena ez zetorrela bat eskema horrekin eta, horretaz gain, ikusi zuen XX. mendean zehar, bizitza-luzera aberastasunaren hazkundearen efektuz espero zitekeena baino handiagoa zela. Eta, orduan, pentsatu zuen agian guztia ez zegoela diru-sarreren mailaren mende. Proposatu zuen osasun kondizioek izandako hobekuntzak eta medikuntzan gertatutako aurrerabideak –faktore ekonomikoen araberakoak ez erabat– izan zirela bizi-itxaropena handiagotzearen eragile nagusiak. Hamarkada bat geroago, John C. Caldwell demografoak ikusi zuen eskualde pobreetan (adibidez, Indiako Keralan, Sri Lankan eta Costa Rican) bizi-itxaropenak nabarmen egiten zuela gora osasun zerbitzuak hobetzeaz gain emakumeek hezkuntzarako sarbidea zuten tokietan.

Irudia: Hezkuntza maila eta osasunaren arteko harremana ikertu zuten 2018an Wolfgang Lutz eta Endale Kebede ikertzaileek. Lortutako emaitzen arabera hainbat egilek adierazitako diru-sarreren eta osasunaren arteko korrelazio estatistikoa faltsua izan litekeela ikusi zuten. Ikerketan adierazi zuten hezkuntza maila hobea dela osasun hobearen eta diru-sarrera gero eta handiagoen funtsezko determinatzailea. (Argazia: Steffen Eckart. Iturria: Pixabay.com)
Datu horiek eta beste azterlan batzuetan ikusitakoa kontuan izanik, Wolfgang Lutz eta Endale Kebede ikertzaileek osasunaren eta bizi-itxaropenaren baldintzatzaile nagusia identifikatzen saiatu ziren, eta, horretarako, oso aberastasun maila desberdinak dituzten 174 herrialderen datuak baliatu zituzten; datuak, 1970‑2010 tartekoak, bost urteko tartetan sailkatu zituzten azterlanerako. Azterlan horretan, jaiotzean bizi-itxaropenean eta haurren heriotza-tasan eragina izan dezaketen bi faktore hartu zituzten kontuan: batetik, herrialdeen batez besteko aberastasun maila (pertsona bakoitzeko barne produktu gordina); bestetik, biztanleriaren hezkuntza maila (azterlan batean, 15 urtetik gorakoen eskolatze urteak; bestean, 20-39 urteko emakumeen eskolatze urteak).
Datuen azterketa estatistikoen arabera ondoriozta daitekeenez, hezkuntza mailak diru-sarreren mailak baino askoz ere hobeki azaltzen du biztanleriaren osasun egoera. Ondorio hori azaltzeko beste modu bat da, jendearen hezkuntza maila herrialdearen aberastasun maila baino garrantzitsuagoa dela haurren heriotza-tasa eta bizi-itxaropenean. Ikertzaileek proposatzen dute hezkuntza mailak irizpide hobea ematen diela pertsonei, osasunarekin loturiko ondorioak dituzten erabakiak hartzeko orduan, dela elikadurari dagokionez, dela bizi ohitura orokorrei gagozkiela. Aberastasun mailaren efektua ez litzateke benetakoa izango; aitzitik, egileen hitzetan, lotura faltsua izango litzateke: herrialde aberatsenetan jendea hobeto prestatuta egotearen ondorioa litzateke diru-sarreren mailaren eta osasun-egoeraren arteko erlazioa.
Azterlanak ez du kontuan hartzen osasun sistemara bideratzen diren baliabideek bizi-itxaropenean duten eragina. Baina, jada azaldu den bezala, zenbat eta handiagoa izan biztanleen prestakuntza maila, orduan eta handiagoa izango da herrialdearen aberastasuna eta, horrenbestez, gehiago dira osasun sistemara bideratzen diren baliabideak. Berriz ere agerian geratzen da prestakuntzan baliabideak inbertitzea oso errentagarria dela. Prestakuntza ona duten pertsonen bizitza ez ezik, biztanleria osoarena ere hobeagotzen du.
———————————————————————————-
Egileaz: Juan Ignacio Pérez Iglesias (@Uhandrea) UPV/EHUko Fisiologiako katedraduna da eta Kultura Zientifikoko Katedraren arduraduna.
———————————————————————————
The post Prestakuntza hobea duten pertsonek osasun hobea ere badute appeared first on Zientzia Kaiera.
Roberto Frucht, matemático en tránsito
Alberto Mercado Saucedo
Fueron varias las fronteras que cruzó Roberto Frucht tanto en las matemáticas como en su trayectoria personal. Obtuvo resultados de gran importancia y profunda belleza en teoría de grafos, cuando esta área recién comenzaba a definirse como tal en el medio académico internacional, y fue autor de algunos de los primeros artículos de investigación matemática realizada en Chile, publicados en revistas internacionales en los años cuarenta del siglo veinte. Además, dejó cantidad de gratos recuerdos entre colegas y estudiantes de la Universidad Técnica Federico Santa María –UTFSM- en Valparaíso, donde fue profesor durante más de medio siglo.
Hace un tiempo tuve la oportunidad de presenciar un bello e inesperado testimonio del poeta Raúl Zurita, que estudió ingeniería a fines de los años sesenta y tuvo a Frucht como profesor. El 2015 Zurita recibió el doctorado honoris causa de la universidad, y en su discurso de aceptación dedicó varios minutos a recordar una clase dictada por un “profesor ya mayor, de baja estatura” en la que el entonces futuro poeta se encontró con la “elegancia, simpleza y belleza” de cierta fórmula matemática. Como si la clase ocurriera en esos momentos, la voz del poeta recordó el áspero andar de la tiza en el pizarrón de cuarenta años atrás: el profesor Roberto Frucht explicando a sus estudiantes la fórmula de Euler, quizá una de las expresiones más hermosas de la matemática, como bien lo percibió Zurita.
¿Dónde reside la belleza de esta fórmula? Quizá simplemente en que aparecen distintos números bien conocidos: los irracionales e, junto con el imaginario i, la raíz cuadrada de -1, relacionados por operaciones matemáticas. Pero también podemos pensar que la fórmula relaciona los mundos del álgebra y la geometría: expresa que el número -1 hace ángulo con el eje x en el plano complejo; lo mismo ocurre con el valor de para cualquier ángulo Quizá fueron estos cruces lo que impactó a Zurita y provocó tan duradero recuerdo.
De hecho, la obra literaria de Zurita hace recurrentes alusiones al mundo de las matemáticas, tema del que no hablaremos ahora pero que podemos conjeturar se originó en momentos iluminadores como el anterior, que en el discurso del poeta tuvo un trágico contrapunto en la alusión al golpe de estado y el inicio de la dictadura, lo cual afectó directamente a Zurita y dejó al pueblo chileno un triste legado, aún vigente en nuestros días. Precisamente, el profesor Frucht había llegado a Sudamérica treinta años antes huyendo de horrores similares.

Roberto Frucht nació el 9 de agosto de 1906 en Brno, ciudad que hoy pertenece a la República Checa, y luego vivió en Berlin desde los dos años de edad, cuando su familia se instaló en la ciudad alemana. Allí finalizó estudios universitarios y decidió continuar especializándose en matemáticas, para lo que obtuvo su doctorado en 1930 en teoría de grupos, área del álgebra abstracta. Obtener una de las escasas plazas en la universidad era sumamente difícil, e impartir clase en un Gimnasium (colegio) estaba reservado para los alemanes, nacionalidad que no poseía Frucht. Estas circunstancias, por no hablar del contexto internacional, de lo más complicado para un descendiente de familia judía, hicieron que en 1930 se trasladara a Trieste, Italia, donde trabajaría en una compañía de seguros por casi ocho años. Allí, inició una relación con María Mercedes Bertogna, compañera de trabajo de origen argentino, con quien se casó en 1932.
Podemos imaginar que durante esos años en Trieste el trabajo de Roberto era rutinario, pero se las ingenió para publicar artículos -escritos en alemán- sobre la investigación realizada en su doctorado, además de otros trabajos de contabilidad escritos en italiano. Pero lo mejor estaba por venir, pues un día cualquiera de 1936 un hecho fortuito determinó la trayectoria de Roberto Frucht: recibió en su oficina de seguros un catálogo con información de un libro del matemático húngaro Dénes Kőnig sobre teoría de grafos, prácticamente el primero sobre la materia, y se interesó por el título de un capítulo que era algo así como “aplicaciones de la teoría de grupos a los grafos”. Ordenó el libro y desde que lo recibió se convirtió, según sus propias palabras, en un entusiasta de la teoría de grafos. Tan fue así, que se dedicó a estudiar el tema en detalle y en especial a trabajar en los problemas abiertos planteados en el libro.
Para comprender la idea de esta área de las matemáticas, pensemos que un grafo es una colección de vértices junto con segmentos que los unen en una combinación dada, y es esta combinación lo que determina el grafo en particular. Por ejemplo un polígono: los triángulos, cuadrados y demás son grafos.

También es un grafo el diagrama del mapa del metro en una ciudad, si pensamos que cada estación es un vértice, que está unido con otro si es que hay una línea de metro entre las estaciones. Lo importante en un grafo es su estructura: el cómo se dan las conexiones, la combinación precisa, y no importan la longitud o la forma con que dibujemos sus segmentos. Es lo mismo que para el usuario del metro cuando lee el mapa, pues lo que le importa es saber si un par de vértices/estaciones dados están o no conectados.

En teoría de grafos se estudian problemas planteados sobre estas estructuras, problemas que pueden ser geométricos, combinatorios, algebraicos o de otra índole. El tema en el que se interesó Frucht está relacionado con determinar el conjunto de automorfismos de un grafo, que son permutaciones entre los vértices que no cambian su estructura. Los automorfismos son una especie de simetrías del grafo respecto a sus conexiones, y son transformaciones que forman un grupo, pues se puede definir una operación entre dos de ellas: la composición, que consiste en aplicar una transformación y luego la otra. En el caso de un triángulo, es fácil ver que todas sus permutaciones son simetrías: ya sea realizar una especie de rotación entre los tres vértices o bien intercambiar dos de ellos como en una reflexión especular (el lector podrá determinar cuántos automorfismos hay).
Hacemos hincapié en que no es importante el largo o forma de los segmentos. Por ejemplo, el grafo con forma de pentágono mostrado abajo posee un solo automorfismo (además de la identidad), que consiste en intercambiar los vértices verdes uno con el otro, lo mismo que los vértices rojos también entre sí, dejando fijo el vértice de color azul.
Tras estudiar el libro de teoría de grafos, uno de los primeros resultados de Roberto fue determinar el grupo de automorfismos de algunos sólidos platónicos (equivalente tridimensional de los polígonos regulares). Un año más tarde, resolvió un problema mucho más importante: König había planteado en su libro la pregunta abierta si dado un grupo finito cualquiera, éste corresponderá necesariamente a los automorfismos de un grafo, el que habría que determinar. Esto significa pasar del álgebra a la geometría, algo así como dibujar el grupo dado por medio de su grafo. Frucht respondió afirmativamente a esta pregunta, y definió un procedimiento constructivo para determinar el grafo a partir del grupo dado, lo que se conoce como Teorema de Frucht. Además, encontró un grafo especial: uno que no posee ninguna simetría más que la identidad. A este grafo se le conoce como Grafo de Frucht y se ha convertido en un ejemplo clásico en el área. Es mostrado en la siguiente figura, donde se puede notar que cada vértice posee exactamente tres conexiones; de hecho este es el grafo más pequeño con tal estructura y que no tiene automorfismos.

Frucht realizó estos trabajos entre 1936 y 1938, tristes años en Europa, en pleno auge del nazismo alemán y del fascismo italiano. Por esos años se aprobaron en Italia discriminadoras leyes raciales que complicaron la continuidad laboral de Roberto en Trieste. La familia, que ya incluía a su hija Érica, nacida en Trieste poco antes, decide mudarse a Argentina, donde vivían parientes de Mercedes. A principios de 1939 viajaron en el buque de vapor Augustus hasta el puerto de Buenos Aires, donde Frucht trabajó de nuevo en una compañía de seguros, pero también encontró la forma de seguir pensando en matemáticas, pues publicó varias notas sobre geometría diferencial en la revista de la Unión Matemática Argentina UMA, en ediciones bilingües en alemán y español.
De manera un tanto azarosa, la estadía en Buenos Aires llegó pronto a su fin, pues Roberto se encontró con la oportunidad de optar por una plaza como profesor en la UTFSM, institución que había sido recientemente creada y se abocaba a contratar un número de profesores extranjeros, sobre todo alemanes, para poder lograr rápidamente una masa crítica de académicos. Del Atlántico al Pacífico, seguramente la vida en el puerto de Valparaíso era más tranquila que en Trieste o Buenos Aires; en todo caso la familia se acostumbró sin dificultad a Valparaíso, excepto por los no poco frecuentes temblores, según Roberto contaba, un poco en tono de broma, a sus cercanos.
Roberto continuó publicando algunas notas sobre geometría diferencial y álgebra en revistas de la UMA, escritas en español y ahora con afiliación UTFSM. Retomó su trabajo en teoría de grafos gracias a una invitación del matemático Harold S.M. Coxeter para contribuir al recién creado Canadian Journal of Mathematics, para lo que se dispuso a trabajar contra el tiempo, y logró obtener interesantes refinamientos de sus resultados anteriores y publicar un artículo en 1949.
Durante las décadas que siguieron, Roberto Frucht continuó con su investigación en teoría de grafos y se convirtió en uno de los pioneros de la matemática en Chile. Fue decano de la Facultad de Ciencias de la universidad entre 1948 y 1968, director y miembro fundador de la Sociedad de Matemáticas de Chile SOMACHI, colaborador frecuente de la revista local Scientia, entre otras labores académicas, y en 1970 fue nombrado profesor emérito. Desde entonces y hasta poco antes de su fallecimiento en 1997 continuó impartiendo clases en la universidad, como aquella donde enseñó la formula de Euler y transmitió a sus alumnos, en las palabras del poeta que entonces ocupaba un pupitre de estudiante anónimo, la irremediable melancolía de lo que nos parece extremadamente bello.
Referencias:
Gary Chartrand, Ping Zhang. A First Course in Graph Theory. Dover Publications 2012.
R. Frucht. Herstellung von Graphen mit vorgegebener abstrakter Gruppe
Compositio Mathematica, tome 6 (1939), p. 239-250.
Robert Frucht. Graphs of degree three with a given abstract group. Canad. J. Math. 1 (1949), 365–378.
Roberto W. Frucht. (1982). How I became interested in graphs and groups. Journal of Graph Theory. 6(2), 101-104 https://doi.org/10.1002/jgt.3190060203
Harary, F. (1982). Homage to roberto frucht. Journal of Graph Theory, 6(2), 97–99. https://doi:10.1002/jgt.3190060202
Héctor Hevia. Grafos con grupo dado de automorfismos. Proyecciones Vol 14 No 2 (1995).
Iván Szántó, Betsabe González. Breve reseña histórica de la Revista Scientia y las publicaciones de Matemática en Chile. Boletín de la Asociación Matemática Venezolana, Vol. XXI, No. 1 (2014).
Reinhard Siegmund-Schultze. Mathematicians Fleeing from Nazi Germany Individual Fates and Global Impact. Princeton university press. 2009.
Raúl Zurita Canessa. No nos hemos perdido (Discurso). Cuadernos de Educación. Publicación Trimestral Gratuita – ISSN 0719-0271. N 35, 2016.
Sobre el autor: Alberto Mercado Saucedo es profesor de matemáticas en la Universidad Técnica Federico Santa María (Valparaíso, Chile)
Sobre la ilustradora: Constanza Rojas Molina es profesora del departamento de matemáticas de la CY Cergy Paris Université (Cergy-Pontoise, Francia)
El artículo Roberto Frucht, matemático en tránsito se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Ilustraciones artísticas de un matemático
- Pierre Fatou, un matemático poco (re)conocido
- Solomon Lefschetz, matemático ‘por accidente’
Asteon zientzia begi-bistan #291
Esteban Abad Holgado CSICeko kimikaria elkarrizketatu dute Berrian, Zaldibarko luiziaren harira. Zabortegiko suteetako kearen bidez airera zabaldu diren partikulak (dioxinak eta furanoak) kezka dira. Horiei buruz hitz egin du adituak: “Toxikoak dira; kontrolatu egin behar dira maila apaletan ere. OME Osasunerako Mundu Erakundeak berak esana du minbizia eragiten dutela; disruptore endokrino ere badira”. Halere, kimikariak dio ez zaiola aparteko larritasunik eman behar egoerari: “Kezka iturri dira dioxinekiko esposizio iraunkorrak. Kasu honetan, hamar-hamabi eguneko esposizio bati buruz ari gara; ezin dugu esan hori iraunkorra denik”.
Berriki publikatu den ikerketa batek aditzera eman du permafrostean zein izotz-geruzen azpian bilduta dagoen metanoa askatzeak ez duela izango orain uste den bezainbesteko eragina klima-aldaketan. Ondorio horretara iristeko, zientzialari talde batek duela 18.000-8.000 urte inguru, Antartikako izotzetako aire-burbuiletan bildutako metanoa aztertu du. Elhuyar aldizkarian aurkituko dituzue xehetasunak.
OsasunaAurreko artikulu batean, Josu Lopez-Gazpiok glukosaren metabolismoan intsulinak duen garrantzia azaldu zigun. Eta oraingoan, erregulazio horretan akatsak daudenean gertatzen dena izan du mintzagai. Jakina denez, glukosaren metabolismoa intsulinak erregulatzen du eta bere funtzio garrantzitsuena glukosa odoletik zeluletara igarotzen laguntzea da. Baina pankreak intsulinarik jariatzen ez badu, zeluletako paretetan dauden glukosa garraiatzaileak ez dira behar bezala aktibatzen eta glukosa ez da modu eraginkorrean sartzen zeluletara. Horri 1 motako diabetesa deritzo.
Tontakeria bat dirudi baina aireportuetatik igarotzen diren bidaiariek eskuak ondo garbitzen badituzte, gaitz infekziosoen hedapena murriztu daiteke. Hala adierazi dute Massachusettseko Teknologia Institutuko ikertzaileek. Proposatu dutenez, munduko hamar aireportutan eskuak garbitzeko tasa handitze soilarekin, gaitz biral baten zabalkuntza asko murriztuko litzateke. Informazio guztia Juanma Gallegoren artikuluan.
Berdeguneetatik hurbil bizitzeak menopausia atzeratzen duela erakutsi du ikerketa batek. Datuek argitu digute bidea: hurbil bizi diren emakumeek urrun bizi direnak baino 1,4 urte geroago izaten dute menopausia. Ikertzaileek azaldu dutenez, menopausia hasteko adinean hainbat faktorek dute eragina, hala nola genetikak eta bizi-ohiturek; tabakoa erretzeak, obesitateak, jarduera fisikoa egiteak, etab. Berdeguneen faktoreak kortisolarekin du harremana Elhuyar aldizkarian irakur daitekeenez.
PaleontologiaNeanderthal heldu baten gorpuzkiak topatu dituzte Hego Kurdistanen, inguruan polen arrastoak dituela, eta hori hileta errituak frogatzeko aztarna bat izan daiteke. Cambridge Unibertsitateko laborategietara eraman dute gorpua, haren berreraiketa digitala egiteko. Halaber, ikertzaile taldea leizean aurkitutako sedimentuak ere aztertzen ari da, Berriaren artikuluaren arabera.
AstrofisikaLehenengo aldiz, eguzki-sistematik kanpoko planeta batek bere izarrean eragin ahal izan dituen aurorak identifikatu dituzte. Hala, exoplaneta berri bat aurkitu dutela adierazi dute. Elhuyar aldizkaria azaldu digu LOFAR erabilita –Europan zehar banatutako 20.000 irrati-antenen sarea– hauteman dutela GJ 1151 izar nanoan eztanda aurorarra. Oraingoz hipotesi bat da horren aurkikuntza.
FisikaAntihidrogenoaren propietate fisiko bat doitasun handiz neurtzea lortu dute CERNeko zientzialariek. Ikusi dute propietate hori ohiko hidrogenoaren parekoa dela eta horrekin ikertzaileek berretsi dute materiaren eta antimateriaren arteko simetria. Elhuyar aldizkariak azaldu digunez, antihidrogeno atomo batean dauden bi energia-mailaren arteko aldea neurtu dute eta hidrogenoan atzeman daitekeen alde hori antihidrogenoan ere dagoela frogatu dute.
MikrobiologiaLurpeko biosferari (mikrobio materia iluna deitzen zaio) arreta jarri dio Tennesseeko Unibertsitateko ikertzaile talde batek; izan ere, mikrobio horien populazioa lehen aldiz kalkulatu du. Datuak harrigarriak dira oso: organismo horiek guztiak 2 mila milioi km³-ko arroka bolumenean banatuta daude (Lurreko ozeano guztiek okupatzen duten bolumenaren bikoitza), Lurreko mikrobio-bizitzaren %70 izango litzateke. Nolakoak dira mikroorganismo horiek? Ez galdu artikulu interesgarria hau!
KimikaTeknologia arloan, material porotsuak lortzeko nahia gero eta handiagoa da. Material horien artean ezagunak dira zirkonio-MOFak (ingelesez metal-organic frameworks), propietate bikainak dituelako eta bere sendotasunagatik. Halere, azken urteotan, MOFen aurrerakuntza horrekin lotuta berezko arazoak ere ageri dira, haien artean ezegonkortasun kimikoa eta termikoa. Egun, zientzialariak sendoagoak diren MOFen bila ari dira, artikuluan irakur daitekeenez.
Emakumeak zientzianUPV/EHU Euskal Herriko Unibertsitateko fisika eta matematika departamentuetan emakumeek jasaten duten diskriminazioari buruzko ikerketa bat abiatzea pentsatu zuen Nastassja Ciprianik (Erroma, 1987). Emakunderen beka bati esker, datuekin hori frogatu du. Fisika eta matematika departamentuetako maila guztietako ikertzaileei eta irakasleei galdetuta, gehienek ez zuten ikusten emakumeen diskriminazioa. “Jende askok uste du diskriminazioa sexu jazarpen esplizitua dela”, dio Ciprianik. Ez galdu Berriako elkarrizketa interesgarri hau!
Jone Uria Albizuri matematikan doktorea elkarrizketatu dute honetan Unibertsitatea.neten. Egun BCAM-en ari da doktoretza ondoko ikertzaile gisa, Neurozientzia Matematiko, Konputazional eta Esperimentalen lan taldean. Bertan, neurozientzia ikuspuntu matematiko batetik aztertzea dute helburu. Horretaz gain, elkarrizketa honetan, bere matematikarekiko zaletasunaz eta egindako ikerketaz eta tesiaz mintzatu da.
Iraganera jauzi eginez, Jean Sammet informatikaria ezagutzeko aukera izan dugu artikulu honen bitartez. Zenbakiak maite zituen eta arlo konputazionalean murgildu zen: COBOL (COmmon Business Oriented Language) eta FORMAC (FORmula MAnipulation Compiler) programazio-lengoaiak diseinatu eta garatzeagatik bilakatu zen aitzindari.
–——————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
———————————————————————————-
Egileaz: Uxue Razkin (@UxueRazkin) kazetaria da.
———————————————————————————-
The post Asteon zientzia begi-bistan #291 appeared first on Zientzia Kaiera.
Los ecos del fondo submarino: imágenes de las estructuras geológicas.
Los fósiles, los minerales o las rocas son, entre otras cosas, en lo primero que pensamos al hablar de geología, pero lo cierto es que la física es un ámbito científico que difícilmente se puede desvincular de la geología. Y es que el fundamento físico resulta clave a la hora de explicar algunos procesos geológicos que suceden tanto en el océano como en la superficie terrestre.
Con el fin de poner sobre la mesa la estrecha relación entre la geología y la física, los días 27 y 28 de noviembre de 2019 se celebró la jornada divulgativa “Geología para poetas, miopes y despistados: La Geología también tiene su Física”. El evento tuvo lugar en la Sala Baroja del Bizkaia Aretoa de la UPV/EHU en Bilbao.
La segunda edición de esta iniciativa estuvo organizada por miembros del grupo de investigación de Procesos Hidro-Ambientales (HGI) de la Facultad de Ciencia y Tecnología de la Universidad del País Vasco, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Geoparque de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.
Gemma Ercilla, investigadora del CSIC en el Instituto de Ciencias del Mar (Barcelona), nos explica cómo estudiar el fondo marino usando el sonido y que podemos aprender de este estudio.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Los ecos del fondo submarino: imágenes de las estructuras geológicas. se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Otra mirada al planeta: arte y geología
- Geología: la clave para saber de dónde venimos y hacia dónde vamos
- Geología, ver más allá de lo que pisamos
Ezjakintasunaren kartografia #296
Arroparen etiketak ez nabaritzea da ohikoena. Jantzi ostean denbora pasata, arropa bera ez nabaritzea da ohikoena. Ohitze deitutako mekanismoa da hau, bizitzarekin aurrera egitea ahalbidetzen duena. Berdin funtzionatzen du, baina, autismoa duten pertsonengan? JR Alonsoren Habituation and autism
Argumentazio bide bati eusteko arazo batzuk ebakuntzarekin konpondu daitekeen zioa izan dezakete: minbizia. How a meningioma can make you lose your train of thought while speaking Cheyenne Svaldiren eta Adrià Rofesen eskutik.
Hall efektu kuantikoak dirudien baino kontribuzio gehiago ditu. Horietako batzuk errelatibistak dira eta argiaren abiaduraren araberakoak dira. DIPCren An additional contribution to the spin Hall effect induced by an electric current.
–—–
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #296 appeared first on Zientzia Kaiera.
La topología frágil es una extraño monstruo
Los electrones circulan sobre la superficie de ciertos materiales cristalinos inusuales, los aislantes topológicos, excepto las veces que no lo hacen. Dos nuevos estudios publicados en la revista Science explican la fuente de ese insólito comportamiento y describen un mecanismo para restaurar la conductividad en estos cristales, apreciados por su potencial uso en futuras tecnologías, incluyendo los ordenadores cuánticos.

Durante los últimos 15 años, una clase de materiales conocidos como aislantes topológicos ha dominado la búsqueda de los materiales del futuro. Estos cristales tienen una propiedad poco común: su interior es aislante —los electrones no pueden fluir—, pero sus superficies son conductoras perfectas, donde los electrones fluyen sin resistencia.
Esa era la realidad hasta que hace dos años se descubrió que algunos materiales topológicos son incapaces de conducir la corriente en su superficie, un fenómeno que se acuñó con el nombre de «topología frágil».
«La topología frágil es una extraño monstruo: ahora se predice su existencia en cientos de materiales», comenta B. Andrei Bernevig, profesor de física en Princeton y coautor de ambos trabajos. «Es como si el principio habitual en el que nos hemos basado para determinar experimentalmente un estado topológico se desmoronara”.
Para conocer cómo se forman los estados frágiles, los investigadores recurrieron a dos recursos: las ecuaciones matemáticas y la impresión 3D. Con la colaboración de Luis Elcoro, profesor del Departamento de Física de la Materia Condensada de la Facultad de Ciencia y Tecnología de la UPV/EHU, Bernevig y el investigador postdoctoral de Princeton Zhi-Da Song, construyeron una teoría matemática para explicar lo que ocurre en el interior de los materiales. A continuación, Sebastian Huber y su equipo en el ETH Zurich, en colaboración con investigadores de Princeton, el Instituto Científico Weizmann en Israel, la Universidad Tecnológica del Sur de China y la Universidad de Wuhan, probaron esa teoría construyendo un material topológico de tamaño real con piezas de plástico impresas en 3D.
Los materiales topológicos toman su nombre del campo de las matemáticas que explica cómo objetos diferentes, por ejemplo las rosquillas o las tazas de café, están relacionadas (ambas tienen un agujero). Esos mismos principios pueden explicar cómo saltan los electrones de un átomo a otro en la superficie de los aproximadamente 20.000 materiales topológicos identificados hasta la fecha. Los fundamentos teóricos de los materiales topológicos les valieron el Premio Nobel de Física de 2016 a F. Duncan Haldane, David J. Thouless y Michael Kosterlitz.
Lo que hace que estos cristales sean tan interesantes para la comunidad científica son sus paradójicas propiedades electrónicas. El interior del cristal no tiene la capacidad de conducir la corriente, es un aislante. Pero si se corta el cristal por la mitad, los electrones se deslizarán sin ninguna resistencia por las superficies que acaban de surgir, protegidos por su naturaleza topológica.
La explicación radica en la conexión entre los electrones de la superficie y los del interior. Los electrones pueden ser considerados no como partículas individuales, sino como ondas que se extienden como las ondas de agua que se generan al arrojar un guijarro a un estanque. En esta visión de la mecánica cuántica, la ubicación de cada electrón se describe por una onda que se extiende y que se denomina función de onda cuántica. En un material topológico, la función de onda cuántica de un electrón del interior se extiende hasta el borde del cristal, o límite de la superficie. Esta conexión entre el interior y el borde da lugar a un estado en la superficie perfectamente conductor.
Esta “correspondencia de interior-borde (bulk-boundary correspondence en inglés)” fue ampliamente aceptada para explicar la conducción topológica de la superficie hasta hace dos años, cuando varios trabajos científicos revelaron la existencia de la topología frágil. A diferencia de los estados topológicos habituales, los estados topológicos frágiles no contienen estados de conducción en la superficie. «El habitual principio de interior-borde se desmoronó», explica Bernevig. Pero no se pudo esclarecer cómo sucede exactamente.
En el primero de los dos trabajos publicados en Science, Bernevig, Song y Elcoro proporcionan una explicación teórica para una nueva correspondencia interior-borde que explica la topología frágil. Los autores muestran que la función de onda de los electrones en topología frágil solo se extiende hasta la superficie en condiciones específicas, que los investigadores han acuñado como correspondencia interior-borde retorcida.
El equipo descubrió, además, que se puede ajustar esa correspondencia interior-borde retorcida, y así hacer reaparecer los estados conductores de la superficie. «Basándonos en las formas de la función de onda, diseñamos un conjunto de mecanismos para introducir interferencias en el borde de tal manera que el estado del borde se convierta inevitablemente en conductor perfecto», comenta Luis Elcoro, profesor de la UPV/EHU.
Encontrar nuevos principios generales es algo que siempre fascina a los físicos, pero este nuevo tipo de correspondencia interior-borde podría además tener un valor práctico, según los investigadores. «La correspondencia interior-borde retorcida de la topología frágil proporciona un procedimiento potencial para controlar el estado de la superficie, que podría ser útil en aplicaciones de mecánica, electrónica y óptica», declara Song.
Pero probar que la teoría funciona era prácticamente imposible, dado que se tendría que interferir en los bordes a escalas atómicas infinitesimalmente pequeñas. Así que el equipo recurrió a otros colaboradores para construir un modelo de tamaño real con el que poner a prueba sus ideas.
En el segundo artículo de Science, Sebastian Huber y su equipo en el ETH Zurich construyeron la imitación en plástico de un cristal topológico a gran escala imprimiendo sus partes en impresoras 3D. Utilizaron ondas de sonido para representar las funciones de onda de los electrones. Insertaron barreras para bloquear el tránsito de las ondas sonoras, lo que es análogo a cortar el cristal para dejar al descubierto las superficies conductoras. De esta manera, los investigadores imitaron la condición de borde retorcido, y luego mostraron que manipulándolo, podían demostrar que una onda sonora que circula libremente se propaga a través de la superficie.
«Esta fue una idea y una ejecución muy de vanguardia», añade Huber. «Ahora podemos mostrar que prácticamente todos los estados topológicos que se han materializado en nuestros sistemas artificiales son frágiles, y no estables como se pensaba en el pasado. Este trabajo proporciona esa confirmación, pero aún más, introduce un nuevo principio general».
Referencias:
Valerio Peri, Zhi-Da Song, Marc Serra-Garcia, Pascal Engeler, Raquel Queiroz, Xueqin Huang, Weiyin Deng, Zhengyou Liu, B. Andrei Bernevig, and Sebastian D. Huber (2020) Experimental characterization of fragile topology in an acoustic metamaterial Science doi: 10.1126/science.aaz7654
Zhi-Da Song, Luis Elcoro, B. Andrei Bernevig (2020) Twisted Bulk-Boundary Correspondence of Fragile Topology Science doi: 10.1126/science.aaz7650
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La topología frágil es una extraño monstruo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Aislantes topológicos en sólidos amorfos
- La teoría de bandas de los sólidos se hace topológica
- Un aislante topológico intrínsecamente magnético
Jean Sammet (1928-2017): programazioaren lengoaiak argitu zizkigun emakumea

1. irudia: Jean Sammet informatikaria aitzindaria izan zen konputazio lengoaien alorrean. (Argazkia: SDTimes)
Batzuek akaso, programazioa, alor gisa alegia, kaotiko eta nahasi samar ikusiko dute; miopiadun batek betaurrekoak kentzean sentituko lukeen sentsazioa bailitzan. Ez zitzaion, alabaina, estatubatuar informatikariari horixe gertatu, hark zenbakiak maite zituen eta. Agian, gainerakoak horrenbeste harritzen dituen horrek gidatuta aukeratu zuen Matematika, eta helburu bakarra izan zuen: jende guztiak gai izan beharko luke ordenagailu batekin komunikatzeko.
COBOL (COmmon Business Oriented Language) eta FORMAC (FORmula MAnipulation Compiler) programazio-lengoaiak diseinatu eta garatzeagatik bilakatu zen Sammet aitzindari arlo konputazionalean. Halaber, ACM (Association for Computing Machinery) elkarteko fundatzailea eta lehenengo zuzendaria izan zen.
Uko egitetik liluraraJean Sammet 1928an jaio zen New Yorken. Bere gurasoak, Harry eta Ruth Sammet, abokatuak ziren. Euren alabaren nahia Bronx High School of Science-n ikastea zen, hiriko eskola ospetsuenetarikoan, alegia, baina ez zuten onartu emakumea izateagatik. Hortaz, Julia Richman High School ikastetxean eman zuen izena. Horren ondotik, Matematikako gradua ikasi zuen Mount Holyoke Unibertsitatean. 1948an, titulua lortzeaz gain, arlo horretako klaseak eman zituen laguntzaile gisa. Urtebete geroago, matematikako masterra egin zuen Illinoisko Unibertsitatean.
Ordenagailuen munduak ez zuen batere erakartzen hasieran, alor horri uko egitetik oso gertu zegoen, baina ikasketa akademiko gisa ezarri zutenean, iritziz aldatu zuen. Izan ere, Jeanek 2000. urteko elkarrizketa batean azpimarratu zuen moduan, ordenagailu bat ikusten zuen bakoitzean pentsatzen zuen ez zuela “hardware-pieza lizun horrekin” zerikusirik izan nahi. Batzuetan, norberaren uste osoa zalantzan jarri, eta hasieran pentsatzen zenuenaren kontrakoa egin behar da. Hori dibertigarriagoa da.
1951n, Metropolitan Life Insurance enpresan hasi zen lanean. Urtebete baino ez zuen eman bertan, irakasle izatea nahiago baitzuen. Hala, irakaskuntzan murgildu zen, eta Columbiako Unibertsitatean eman zituen klaseak. Bere programatzaile-lanari dagokionez, esan beharra dago hiru espaziotan garatu zuela. Lehenik, 1955ean, Sperry Gyroscope enpresan hasi zen, eta programatzaileen lehen taldea ikuskatu zuen bertan. Edonola ere, ez zuen alboratu irakasle-lana, horrek ere asebetetzen baitzuen. Modu honetan, 1956 eta 1958 bitartean, Adelphi Unibertsitateko graduondoko batean, Ordenagailuen programazioa ikasgaiaz arduratu zen.

2. irudia: Jean Sammet informatikaria, 1979. urtean hitzaldi bat eman aurretik Marylandeko Unibertsitatean. (Argazkia: Nytimes.com / Ben Shneiderman)
Bigarrenik, Sylvania Electric Products enpresan kontratatu zuten eta 1961era arte iraun zuen bertan. Hasieran, oinarrizkoak ziren lanak egin zituen, adibidez, MOBIDIC (MOBIle DIgital Computer) ordenagailuaren softwarearen garapena kudeatu zuen. Ordenagailu hori AEBtako Seinaleen Armada-gorputzarentzat eraiki zuten. Oro har, enpresa hartan, matematikariak postu ugari izan zituen; aipagarriena da COBOL programazio-lengoaia garatu zuen taldeko kide izan zela. Mundu guztiak bere ordenagailuan erabil zezakeen lengoaia zen COBOL, baina, kontuan hartu behar da sistema hori negozio kontuetarako bideratuta zegoela batez ere. Sammetek hobekuntzak egin zituen, unibertsalagoa bihurtu zuen sistema, gainontzeko arloetan ere erabili ahal izateko, hala nola, bankuetan eta osasunean.
Azkenik, 1961ean, IBM taldean hasi zen lanean; bertan, Bostoneko Programazio Zentroa kudeatzea eta antolatzea izan zuen helburu. Kalkulu sinbolikorako erabili zen lehenengo lengoaia eta programazio-sistemaren (FORMAC) garapena zuzendu zituen. Horretaz gain, programazio-lengoaiaren teknologiako gerente bilakatu zen Sammet 1965ean, aipaturiko enpresako sistema-garapenen departamentuan. Geroago, ADA programazio-lengoaia sortzeko proiektua zuzendu zuen.
Eskuliburu bat eta goraipamen ugariUrteetan zehar egindako lan eta ezagutza guztiak Programming Languages: History and Fundamentals liburuan (1969) bildu zituen, programazio-lengoaien inguruan idatzitako oinarrizko eskuliburuan. Argitalpenaz gain, ugariak izan ziren jaso zituen goraipamenak programazio alorrean egindako lanagatik. 1974an, ACMren (Association for Computing Machinery) lehendakari izateko hautatu zuten (bi urte igaro zituen karguan). Horretaz gain, 1978an, SIGPLAN izeneko elkartea zuzendu zuen, ACMren barruan zegoen erakundea, hain zuzen ere.
1977an, Konputazioaren Historiaren batzordea antolatu zuen American Federation of Information Processing Societies (AFIPS) izeneko elkarterako. Gainera, Sammet bertako zuzendaria izan zen. Halaber, Estatu Batuetako Ingeniaritza Akademiako kide izendatu zuten. Urtebete geroago, honoris causa doktoretza eman zioten Mount Holyoke Unibertsitatean. Horretaz gain, Bostoneko Ordenagailuaren Museoko Administrazio Kontseiluko kide bilakatu zen.
1988an erretiroa hartu eta gutxira, Ada Lovelace Saria jaso zuen, Konputazio alorrean lan egiten duten Emakumeen Elkartearen eskutik. Aipaturiko sari eta errekonozimendu askok ziurtatzen dute Sammetek egindako lan aitzindaria, bera izan baitzen programazio-lengoaien munduan bide-urratzaileetako bat. Sariei dagokienez, nabarmentzekoak dira, alde batetik, IEEE Institutuak (Institute of Electrical and Electronics Engineers) 2009. urtean eman zion saria, eta bestetik, 2013an National Center for Women & Information Technologyren (NCWIT) eskutik jaso zuena.
Badira euren lanaren bitartez besteon bizitza erraztea lortzen duten pertsonak. Sammet izango genuke horren adibide. Haren lanak eta programazio-lengoaien erabilerak erraztu egin zuten gizakien eta makinen arteko harremana; bat-batean, ordenagailuak lan batzuk egiteko tresna eraginkorrak bihurtu ziren. Hiru urte pasa dira ikertzaile estatubatuarra hil zenetik, baina bere ondareak bizirik dirau. 50eko hamarkadan fikzioa zirudien erronka gainditzea lortu zuen.
Iturriak:
- Computer History Museum, Jean Sammet.
- El Mundo, 2017ko ekainaren 5a: Muere Jean Sammet, pionera de los lenguajes de programación.
- Foro Histórico de las Telecomunicaciones, Sammet, Jean E.
- The New York Ties, 2017ko ekainaren 4a: Jean Sammet, Co-Designer of a Pioneering Computer Language, Dies at 89.
———————————————————————–
Egileaz: Uxue Razkin (@UxueRazkin) kazetaria da.
———————————————————————–
The post Jean Sammet (1928-2017): programazioaren lengoaiak argitu zizkigun emakumea appeared first on Zientzia Kaiera.
Así funcionan las baterías de litio
Antes de que se empezasen a fabricar baterías de litio ya se fantaseaba con la idea de poder hacer baterías de litio. La razón es que el litio es un metal que tiene tendencia a desprenderse de su electrón más externo. Al fin y al cabo, la electricidad es el tránsito de electrones, así que para producir electricidad necesitamos sustancias que tiendan a desprenderse de ellos.

El litio es el metal con el menor potencial de reducción (-3,05V). Esto significa que es el elemento químico que más tendencia tiene a regalar electrones. Cuando regala su electrón más externo, el litio se queda cargado positivamente. Lo representamos como Li+ y lo llamamos ion litio. De ahí que las baterías de litio también se llamen baterías de ion-litio.
Que el litio ceda electrones con tanta alegría obviamente es una ventaja, pero al mismo tiempo es una maldición. Cede electrones a cualquiera. Al aire, al agua, a todo. Esto significa que es un metal muy inestable, que se oxida rápidamente en contacto con el aire, y que en contacto con el agua reacciona de forma violenta. Esa es la razón por la que la historia de las baterías de litio no ha sido un camino de rosas.
Las baterías tienen todas un mismo esquema fundamental:
-
Ánodo o electrodo negativo. Aquí es donde alguna sustancia se desprende de electrones. A estas reacciones de pérdida de electrones las denominamos reacciones de oxidación. Por convenio, al representar baterías o pilas el ánodo se dibuja a la izquierda.
-
Cátodo o electrodo positivo. Aquí es donde alguna sustancia acepta los electrones. A estas reacciones de captura de electrones las denominamos reacciones de reducción. Es la reacción inversa a la oxidación. Por convenio, al representar baterías o pilas el cátodo se dibuja a la derecha.
-
Electrolito. El electrolito actúa como separador entre el cátodo y el ánodo. Sirve para mantener el equilibrio entre las cargas del ánodo y el cátodo, ya que, si los electrones fluyen de ánodo a cátodo, se produce una diferencia de potencial, algo así como una descompensación de cargas, que frena el flujo de más electrones. El electrolito permite el flujo de iones (no de electrones) que reequilibran la carga entre ambos lados.
El ánodo y el cátodo están unidos en la batería por medio del electrolito. También se unen por fuera por medio de un conductor externo a través del cual solo circulan electrones. El conductor tiene dos extremos, polo positivo y polo negativo, como cualquier pila. Así que por el electrolito fluyen los iones de litio de un extremo a otro, y por el conductor externo fluyen los electrones.
En las baterías recargables las reacciones de oxidación (ceder electrones) y reducción (captar electrones) son reversibles, pueden fluir en ambas direcciones.

Las baterías de ion litio actuales más habituales tienen un cátodo de óxido de cobalto y un ánodo de un material similar al grafito denominado coque. Tanto el cátodo como en el ánodo tienen una disposición laminar en la que pueden albergar al litio. El litio viajará de cátodo a ánodo o de ánodo a cátodo a través del electrolito según el ciclo de carga o descarga. Los electrones, en cambio, circularán a través de un circuito externo.
-
Esto es lo que ocurre cuando se usa la batería
Cuando la batería está cargada, todo el litio está en el ánodo de coque. Durante la descarga los iones fluyen a través del electrolito desde el ánodo de coque hacia al cátodo de óxido de cobalto-litio. Los electrones también fluyen desde el ánodo al cátodo, pero lo hacen a través del circuito exterior, alimentando el móvil, el ordenador o el coche.
Como los iones de litio en el coque están a un potencial electroquímico más alto que en el óxido de cobalto-litio, caen desde el potencial del ánodo al potencial del cátodo. Esa es la razón por la que la batería aporta energía al aparato al que esté conectada.

El voltaje ofrecido por la batería depende de la diferencia de potencial entre el cátodo y el ánodo. Cuanto mayor sea esta diferencia, mayor voltaje obtendremos.
Cuando todos los iones de litio llegan al cátodo, la batería estará completamente descargada.
-
Esto es lo que ocurre cuando cargamos la batería
La carga de la batería se realiza conectando la batería a una fuente de energía externa como la red eléctrica. Los electrones de la red eléctrica entran en el ánodo a través del circuito externo. Esto provoca que los iones de litio abandonen el cátodo y regresen al ánodo a través del electrolito. Tanto los electrones como los iones litio se quedan acomodados en el ánodo entre las diferentes capas de coque. Cuando no fluyen más indica que la batería está completamente cargada.
La batería almacena energía en este proceso porque el potencial electroquímico del coque es más elevado que el del óxido de cobalto-litio. Esto quiere decir que los iones de litio han tenido que subir desde el potencial del cátodo hasta el potencial del ánodo.
-
Las evolución de las baterías de litio
A lo largo de la historia se han creado diferentes baterías. La de Volta, de 1800, usaba como electrodos zinc y cadmio, llegando a obtener hasta 1,1 V. Las baterías de plomo-ácido que hoy en día se utilizan en muchos coches producen 2 V cada una. Se suelen colocar 6 para producir los habituales 12V. También hay baterías de níquel-hierro (NiFe), de niquel-cadmio (NiCd), de níquel-hidruro metálico (NiMH)…
El problema que presentan estas baterías es que contienen metales tóxicos como el plomo o el cadmio. Además, ofrecen densidades energéticas relativamente bajas. Cuanto mayor sea la densidad de energía, más energía habrá disponible para acumular o transportar (por volumen o por masa). Así, las baterías de plomo-ácido ofrecen 30 Wh/kg de densidad energética, las de NiFe 40 Wh/kg, las de NiCd 50 Wh/kg y las de NiMH 80 Wh/kg. En cambio, las de ion litio ofrecen al menos 120 Wh/kg y un voltaje mayor, de 4,2 V. Hay que tener en cuenta que las pilas alcalinas clásicas, las AA, solo ofrecen 1,5 V. Por eso las baterías de litio son tan compactas y los teléfonos móviles se han aligerado tanto.
El boom en la carrera investigadora de las baterías de litio se desató en los 70 a causa de la crisis del petróleo. Estaba claro que el ánodo perfecto tendría que ser de litio. Ahora faltaba descubrir el cátodo perfecto.
La primera batería de ion litio tenía un cátodo de sulfuro de litio y titanio (LixTiS2) que era capaz de acomodar en su interior los iones de litio que llegaban desde el ánodo. El ánodo era de litio metálico, y el electrolito era de LiPF6 disuelto en carbonato de propileno. En este electrolito el litio estaba protegido tanto del agua como del aire, ganando estabilidad. Así se lograban 2,5 V. La primera batería de litio comercial fue una evolución de esta, desarrollada por la empresa Exxon. En ella se usaba litio como ánodo, TiS2 como cátodo y perclorato de litio (LiClO4) disuelto en dioxolano como electrolito.

Pero se encontraron con un problema: cuando estas baterías se sobrecalentaban, llegaban a explotar. Descubrieron que lo que ocurría es que tras cada ciclo de carga y descarga se iban formando dendritas de litio que traspasaban la barrera de electrolito hasta llegar al cátodo, produciendo así un cortocircuito.
El problema parecía resolverse usando un ánodo diferente. En lugar de un sulfuro metálico, se probó con un óxido metálico, en concreto el dióxido de cobalto (CoO2) que, combinado con el litio se denomina óxido de cobalto-litio (LiCoO2). El LiCoO2 tiene un potencial de reducción tan alto, que ni siquiera hacía indispensable el uso de litio metálico puro como ánodo, sino que podría usarse otra sustancia que acomodase al litio de forma más estable y segura.

La respuesta llegaría en 1985 de la mano de la corporación japonesa Asahi Kasei. Descubrieron que el coque de petróleo —un sólido carbonoso derivado del refinado del petróleo— era capaz de acomodar al litio de forma muy eficiente. En muchos textos se le llama grafito. Es cierto que se le parece, pero no es exactamente grafito, sino un material de carbono que presenta dominios cristalinos grafíticos —en capas— y dominios no cristalinos. Entre unos y otros se acomodan los iones de litio.

En 1991, la empresa Sony, en colaboración con Asahi Kasei, sacaron a la venta la primera batería ion litio comercial con ánodo de óxido de cobalto-litio y cátodo de coque. El hecho de que los iones de litio entren y salgan ordenadamente en el ánodo y en el cátodo, forzados por las estructuras bidimensionales del coque y del óxido del cobalto, garantiza que las baterías apenas tengan efecto memoria. Es decir, las podemos cargar sin esperar a que se hayan descargado completamente sin miedo a que la batería se vicie.
En la actualidad se producen baterías de litio con cátodos todavía más eficientes. Como el cobalto es un elemento químico caro y relativamente escaso, el óxido de cobalto-litio se ha sustituido por el de fosfato de hierro-litio (LiFePO4) haciéndolas más baratas de producir. Se conocen como LFP, y adoptan estructuras cristalográficas diferentes. La de LFP con estructura tipo olivino es la que en la actualidad comercializa Sony. Puede durar 10 años si se carga a diario, cuando normalmente no sobrepasaban los 3-4 años. También tienen carga rápida, ya que en 2 h cargan el 95% de su capacidad.
En 2019 el desarrollo de las baterías de ion litio logró el Premio Nobel de Química repartido a partes iguales entre el alemán John B. Goodenough, el británico M. Stanley Whittingham, y el japonés Akira Yoshino. Whittingham fue quien lideró la investigación en la electrointercalación de iones de litio en disulfuros metálicos en los años 70. John Goodenough, que trabajó para Exxon, en los años 80 fue quien propuso la solución a que las baterías explotasen cuando se calentaban. Lo resolvió con el cátodo de óxido de cobalto-litio. Akira Yoshino, que trabajaba para la Corporación Asahi Kasei, en 1985 propuso el ánodo de coque.
La investigación actual en baterías de ion-litio se fundamenta en mejorar su eficiencia y el número ce ciclos de carga y descarga que pueden soportar. Se está experimentando con baterías de dióxido de carbono y litio, aunque hay expertos que aseguran que el futuro estará en el litio-grafeno.
Referencias:
They developed the world’s most powerful battery. Nobelprice.org.
Scientific Background on the Nobel Prize in Chemistry 2019 LITHIUM-ION BATTERIES. Nobelprize.org.
Baterías de iones litio, ¿cómo son?. Por Ignacio Mártil en CdeComunicación
Premio Nobel de Química 2019: Goodenough, Whittingham y Yoshino por las baterías de ión-litio. Por Francis Villatoro en La ciencia de la mula Francis.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Así funcionan las baterías de litio se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Baterías de litio y oxígeno sólido
- Las baterías ion sodio, la alternativa estacionaria
- ADN para la nueva generación de baterías
Zirkoniozko material porotsu berriak: egitura sendoen bila

1. irudia: Zr-MOFek basamortuan uraren lorpena ahalbidetu dute. 2018. urtean,.
MOFak (ingelesez metal-organic frameworks) ordena handiko material hibrido porotsuak dira, metalez eta estekatzaile organikoz osatutako koordinazio-konposatuen sare hedatuak. Konposatu horietako sare-nodoak ioi metalikoz edo kluster metalikoz osatuta daude. Kluster horiei bigarren mailako eraikin-unitate deritze, edo SBU (ingelesez, secondary building units). Barruko metalaren arabera mota askotako SBUak daude, MOFen eraketan faktore determinatzailea izanik. Nodoen arteko konexioetan estekatzaile organikoak zubi gisa agertzen dira (nagusiki azido karboxilikoak), eta koordinazio-loturen bidez SBUekin lotuta geratzen dira. Antolamendu horren ondorioz porotasun iraunkorra duten sare irekiak sortzen dira, kristalezko esponja molekularrak antzekoak direnak.

2. irudia: Plastilinaz eta zotzez eratutako MOFa. (Irudia: Luz Fidalgo).
Hurrengo analogia hau argigarria izan daiteke. Demagun plastilina bolatxoak eta zotzak ditugula. Bolatxo batean 90 graduko angelua eratuz lau zotz sartuko ditugu eta zotz bakoitzari beste bolatxo bat gehituko dugu. Jarraian bolatxo bakoitean posizio berdinean beste hiru zotz kokatuko ditugu. Hiru dimentsioetan prozedura honi jarraituz, espazioan hedatzen den sare porotsu bat eratuko da, 1.irudian agertzen den moduan. Bolatxoak Zr-klusterrak badira eta zotzak ligando organikoak, horra hor gure Zr-MOFa!
Ikusgarriak dira eskaintzen dizkiguten aukerak bai metalari bai estekatzaile organikoari dagokienez. Hain aldakortasun handiak milaka konposatu sortzeko modua ematen du, eta CSD (Cambridge Structural Database) datu-basean 84000 mila MOFen egiturak agertzen dira. Konposatu horiek porotsuak izan daitezke beren bolumenaren % 90 arte, eta BET (Brunauer-Emmmett-Teller) azalera espezifikoari dagokionez, MOF bat azukre-koskor bat izatekotan sei futbol-zelaiei dagokiena izango litzateke. Harrigarria!
Azken urteotan, MOFen aurrerakuntza horrekin lotuta berezko arazoak ere ageri dira, haien artean ezegonkortasun kimikoa eta termikoa. Hori dela eta, propietate horiek areagotu nahian izugarrizko esfortzuak egin dira eta zientzialariak sendoagoak diren MOFen bila ari dira. Abiapuntua konposatu horietako loturek irmotasuna irabaztea da eta xede horretarako Zr(IV) MOFak baliagarriak izan daitezkeela egiaztatu dute.
Zirkonioak oxidazio-egoera, karga-dentsitatea eta eratzen dituen loturen polarizazioa altua du. Faktore horien ondorioz, Zr(IV)-aren eta karboxilato anioien artean afinitate handia sortzen da.
Zr-MOFen lotura honen sendotasunaren lehendabiziko froga 2008.urtean lortu zen, Osloko unibertsitateko Cavka eta lankideek Zr(IV)-MOFaren sintesi berria argitaratu zutenean. 2. irudian ikusten dira UiO-66, UiO-67 eta UiO-68 deritzen MOFak, guztietan SBU bera agertzen denez, Zr6(µ3–O)4(µ3–OH)4(CO2)12. Konposatu horiek guztiek ohiz kanpoko portaera dute. Beraren agerpenak iraultza bat ekarri zuen ikerkuntza-eremu honetara.

3. irudia: Zr(IV)-MOF a) Cu-aren gelaxka-unitatea; b) UiO-66-ren egitura; c) UiO-67-ren egitura; d) UiO-68-ren egitura. (Iturria: DOI: 10.1021/ja8057953)
4. irudian azken urteotan izugarrizko garapena izan duten MOFen aplikazio batzuk ageri dira. Nanoteknologia arloan, ere, agertzen ari dira nano-MOF motako konposatuak.

4. irudia: MOFen zenbait aplikazio.
Ikerketa-talde askok Zr-MOFek duten propietateen artean adsortzioarekiko selektibotasuna azpimarratu dute. Adibidez, CO2/CH4 eta CO2/N2 nahasketekin egindako lana, negutegi-efektuan gas horiek duten eraginagatik.
Bestalde, Zr-MOFek basamortuan uraren lorpena ahalbidetu dute. 2018. urtean, Omar Yaghy eta lankideek garatutako gailuan, gaueko aire hezea adsortzioz eta egunean geroko kondentsazioz, 200mL MOF-Kg-tik eskuratu dute.
Azkenik, Zr-MOFak aplikazio biologikoetarako bereziki egokiak dira, bio-bateragarritasun bikaina baitute eta farmakoen askapenean erabiliak dira. Zalantzarik gabe, Zr-MOFak etorkizun handiko materialak dira.
Gehiago jakiteko:
- Chen, Zhijie, et al., (2019). Reticular chemistry in the rational synthesis of functional zirconium cluster-based MOFs. Coordination Chemistry Reviews 386 (2019) 32–49. DOI: https://doi.org/10.1016/j.ccr.2019.01.017
- Fathieh, Farhad, et al., (2018). Practical water production from desert air. Science. Advance, 4. DOI: https://doi.org/10.1126/sciadv.aat3198
- Aldizkaria: Ekaia
- Zenbakia: Ekaia 35
- Artikuluaren izena: Zirkoniozko material porotsu berriak: egitura sendoen bila.
- Laburpena: MOFak (ingelesez metal-organic frameworks) ordena handiko material hibrido porotsuak dira, ioi metalikoz eta estekatzaile organikoz osatutako koordinazio-konposatuen sare hedatuak. Azken urteotan, material porotsuek teknologiaren arloan izan duten interes handiak sustatuta MOF konposatuen aurrerakuntza handia izan da. Hala gertatzeko arrazoien artean berezko ezaugarri eta propietate interesgarriak daude, baita aplikazio ugari eta askotarikoak ere. Aurrerakuntza horrekin lotuta MOFen arazoak ere ageri dira, haien artean ezegonkortasun kimikoa eta termikoa. Hori dela eta, zientzialariok sendoagoak diren MOFen bila ari gara, eta, ildo horri dagokionez, Zr-MOFak adierazgarriak dira beren ohiz kanpoko portaeragatik. Zalantzarik gabe, etorkizun handiko materialak dira.
- Egileak: Luz Fidalgo Mayo.
- Argitaletxea: UPV/EHUko argitalpen zerbitzua.
- ISSN: 0214-9001
- Orrialdeak: 165-183
- DOI: 10.1387/ekaia.19546
————————————————–
Egileez:
Luz Fidalgo Mayo UPV/EHUko Farmazia Fakultateko Kimika Ez-Organikoa sailekoa da.
———————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post Zirkoniozko material porotsu berriak: egitura sendoen bila appeared first on Zientzia Kaiera.
Teselando el plano con pentágonos

Una teselación o mosaico del plano consiste en una serie de polígonos –las teselas o losetas– que lo cubren sin dejar zonas vacías, de manera que si dos teselas se tocan, lo hacen necesariamente lado con lado o vértice con vértice.
En su obra Harmonice mundi el astrónomo Johannes Kepler estudió qué polígonos regulares podían cubrir el plano. Es decir, se preguntaba si existen mosaicos que utilicen un polígono regular como única tesela base. La respuesta es sencilla: los únicos que existen son los mosaicos por triángulos, cuadrados y hexágonos regulares.

¿Por qué no hay más? Por ejemplo, en el caso del pentágono regular, su ángulo interno es de 108 grados. Si deseáramos teselar el plano con pentágonos regulares, los vértices de dos losetas colindantes deberían tocarse sin dejar ningún hueco. Pero esto imposible, ya que 360 no es divisible por 108. De otra manera, si colocamos pentágonos regulares alrededor de un vértice, se observa en seguida que solo pueden colocarse tres, pero queda un espacio que no puede cubrirse con pentágonos.
Recordemos que un polígono regular de n lados posee ángulos internos de 180(n-2)/n grados. Así, para polígonos con siete o más lados, el ángulo interior es mayor que 120 grados pero menor que 180, con lo que llegamos a la misma conclusión que con el pentágono. Es decir, el triángulo, el cuadrado y el hexágono (regulares) son los únicos polígonos regulares cuyos ángulos internos (60 grados, 90 grados y 120 grados, respectivamente) son divisores de 360 grados.
En el estudio de mosaicos podríamos proseguir preguntarnos qué sucede al mezclar varios polígonos regulares para cubrir el plano –teselaciones semirregulares, de estos solo hay ocho–, o al usar una única pieza no regular, o al utilizar varias no regulares. Estos problemas no son sencillos de resolver. Cuando su estudio comenzó a sistematizarse llevó al desarrollo de técnicas matemáticas complejas aplicadas al estudio de teselaciones del plano (y del espacio) que después han encontrado utilidad en otros campos.
Vamos a elegir uno de estos problemas tomando el pentágono como pieza clave. La pregunta que nos planteamos es: ¿se puede teselar el plano con un único pentágono (convexo) no regular? La respuesta es que se puede, y además existen solo quince maneras de hacerlo –parece casi seguro que esta es la cantidad, aunque está en fase de revisión–.

Citamos a continuación a las personas que han descubierto estas quince clases de pentágonos: Karl Reinhardt(1895-1941)encontró cinco en 1918 (ver [1]);Richard B. Kershner (1913-1982) halló tres más en 1968 (ver [2]); Richard James descubrió el noveno tipo en 1975 tras leer un artículo de Martin Gardner sobre teselaciones pentagonales en la revista Scientific American; ese artículo también inspiró a Marjorie Rice (1923-2017) quien halló otros cuatro tipos en 1976 y 1977 (ver [3] y [4]); Rolf Stein (ver [5]) encontró el decimocuarto tipo de pentágono en 1985; y en 2015 Casey Mann, Jennifer McLoud y David Von Derau descubrieron una nueva clase (ver [6]) con ayuda de un programa informático.
El 1 de mayo de 2017 Michaël Rao anunció (ver [7]) que había realizado una prueba asistida por ordenador en la que demostraba que estos quince pentágonos convexos eran los únicos que teselaban el plano con un único tipo de loseta. La parte computacional de su demostración ha sido revisada y no contiene errores, aunque aún no se ha publicado la prueba definitiva revisada por pares.
De este grupo de personas, algunas no son matemáticas. Richard James es informático y Marjorie Rice matemática aficionada. Ambos se enamoraron de este problema leyendo el artículo de Martin Gardner indicado anteriormente. Y emprendieron su búsqueda en solitario.
El caso de Marjorie es muy especial: aunque no tenía formación en matemáticas, desarrolló su propio sistema de notación para representar las restricciones y las relaciones entre los lados y ángulos de los pentágonos que estaba intentando encontrar. Fue la matemática Doris Schattschneider quien descifró la notación de Marjorie Rice y quien se ocupó de difundir sus descubrimientos entre la comunidad matemática. En la página Intriguing Tesselations, Marjorie Rice mostraba con orgullo sus descubrimientos y algunos mosaicos decorativos que diseñó a partir de ellos. ¡Admirable!
Referencias:
[1] Karl Reinhardt.Über die Zerlegung der Ebene in Polygone, Dissertation Frankfurt am Main (1918), páginas 77-81
[2] Richard Kershner. On paving the plane, American Mathematical Monthly 75 (8) (1968) 839-844
[3] Doris Schattschneider.Tiling the plane with congruent pentagons, Mathematics Magazine 51 (1) (1978) 29-44
[4] Marjorie Rice. Tesselations, Intriguing Tesselations
[5]Doris Schattschneider. A new pentagon tiler, Mathematics Magazine 58 (5) (1985) 308
[6] Casey Mann, Jennifer McLoud-Mann, David Von Derau, Convex pentagons that admit i-block transitive tilings. arXiv:1510.01186(publicado posteriormente en Geometriae Dedicata 194 (2018)141-167)
[7] Michael Rao.Exhaustive search of convex pentagons which tile the plane. arXiv:1708.00274
[8] Natalie Wolchover. Pentagon Tiling Proof Solves Century-Old Math Problem. Quanta Magazine, 11 julio 2017
[9] Pedro Alegría. El caso de los 14 pentágonos que embaldosan un espacio infinito. ABC Ciencia, 10 abril 2017
[10] Teselados pentagonales, Wikipedia [consultado 15 febrero 2020]
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo Teselando el plano con pentágonos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El teorema de los cuatro colores (2): el error de Kempe y la clave de la prueba
- Shizuo Kakutani y sus teoremas
- La característica de Euler de una superficie: un invariante topológico
Eskuak ondo garbitzea, gaitz infekziosoen aurkako gakoetako bat
Komun publiko batetik atera berritan bazaude eta, doktoretza tesia egiteko adinean egon daitekeen gazteren bat ikusten baduzu, libreta eskutan, zertan ari zaren kuxkuxeatzen eta gaizki disimulatzen, ez haserretu. Edo, behintzat, ez moskeatu gehiegi. Kontuan izan agian ikertzaile bat izan daitekeela, gizateria salbatu nahian. Ados, bai, agian hau gehiegi esatea da. Gizateria salbatzen lagundu nahian, akaso.
Kuxkuxeroaren helburua zure portaera behatzea izan daiteke. Zertarako, bada? Ba, jakiteko ea, behin heldutasunera iritsita, gurasoek txikitan behin eta berriz gogorarazten zizuten agindu hori benetan jarraitzen ote duzun: “Komunetik ateratzean, arren, ondo garbitu eskuak”.

1. irudia: Argi dago eskuen garbitze soilarekin ez dagoela modurik gaitz baten zabalkuntza nazioartean ekiditeko, baina ikertzaileek uste dute oso lagungarria izango litzatekeela garbiketa-tasak handitzea. (Argazkia: Dan Watson/Unsplash)
Ez da soilik arreta erakartzeko kazetariek erabiltzen duten amu txotxolo horietako bat. Era horretako ikerketak egin egiten dira. 2003an, esaterako, halako behaketa baten gaineko emaitzak argitaratu zituzten, mikrobiologiari buruzko kongresu batean. AEBtako aireportuetan egindako ikerketa izan zen. New York, Chicago, San Francisco, Dallas, Miami eta Toronto hirietako aireportuetan 7.541 lagunen portaera aztertu zuten. Eta emaitzek berretsi zutenez, benetako datuak eskuratzeko, galdetzea baino, beharrezkoa da zuzenean begiratzea. Aurreko ikerketetan ikusia zuten jendeari galdetuz gero %95ek esaten zutela baietz, eskuak garbitzen zituztela, baina benetan soilik %67k egiten zuten. 2003ko azterketa horretan, SARS gaitzaren zabalkuntza puri-purian zegoenean, behaketetan eskuratutako datuak hobeak izan ziren: ikusi zuten %78k hori benetan egiten zutela. Sexuaren arabera, emakumezkoak (%83) gizonezkoak (%74) baino txukunago aritu ziren.
Ikerketa horiek aireportuetan egiteak badu arrazoi garrantzitsu bat: nodo baten modura funtzionatzen dute. Bai airelineatarako, pertsonentzako… zein birusetarako ere. Aireportuetan leku askotako lagunak elkartzen dira eta, normala denez, objektu desberdin asko ukitzen dituzte: aulkietako beso-euskarriak, segurtasun-kontroletan objektu pertsonalak uzteko erabiltzen azpilak edota ateetako heldulekuak, esate baterako.
Hori guztia kontuan hartuta, azpiegitura horietan higienea handitzearen garrantzia nabarmendu dute ikerketa berri batean. Massachusettseko Teknologia Institutuko ikertzaileek Risk Analysis aldizkarian proposatu dutenez, munduko hamar aireportutan eskuak garbitzeko tasa handitze soilarekin, gaitz biral baten zabalkuntza asko murriztuko litzateke.
Dena dela, garbiketa horrek egokia izan behar duela azaldu dute. Izan ere, eskuak garbitzen dituztenen artean ere, askok ez dute ondo egiten. Ondo egiteko, gomendatzen da ura eta xaboia erabiltzea, 15-20 segundo inguruz eskuak igurtziz. Halere, askok ura baino ez dute erabiltzen. Germenen propagazioa ekiditeko, gainera, gutxienez ordubetean behin egin behar dela diote. Eta oraingoan aipatu ez badute ere, aurreko ikerketa batek agerian utzi zuen garbitzeaz gain garrantzitsua dela ere eskuak ondo lehortzea.
Hortaz, kalkulatu dute aireportuetan dabiltzan bidaiarien %20k baino ez daramatzatela eskuak ondo garbituta. Bada, munduko aireportu guztienetan kopuru hori hirukoiztuz gero –ondo garbitutako eskuak dituzten bidaiarien kopurua %60ra pasata–, horrek lortuko luke mundu mailan gaitzaren propagazio-maila ia %70 atzeratzea.

2. irudia: Munduko hainbat aireporturen kokapena eta beste aireportuekiko loturak aztertu dituzte, eta ikusi dute faktore horiek trafiko-kopurua baino garrantzitsuagoak direla gaitzen zabalkuntzari dagokionez. Irudian, Honoluluren adibidea. (Irudia: Nicolaides et al./Risk Analisys)
Halako neurri bat munduko aireportu guztietan ezartzea zaila litzatekeela aitortuta, kalkulatu dute noraino lagunduko lukeen horrelako garbitze-tasak munduko hamar aireportutan lortzeak. Gaitzen zabalkuntza %37 atzera litekeela ondorioztatu dute. Aireportu horien aukeraketa, gaitz infekziosoaren hasierako agerraldiaren jatorriaren arabera egin beharko litzateke. Wuhango koronabirusaren gorakada baino lehenago egindako ikerketa izan arren, egileek diote azken krisi honetan ere aplikagarri direla ondorioak, kutsagarria den edozein gaitzi dagokiolako.
Epidemiologia ereduetan eta datuetan oinarritutako simulazioak baliatu dituzte ikerketa egiteko. Besteak beste, nazioarteko hegaldien inguruko datuak, aireportuetan izaten diren itxarote-tasak eta pertsonen arteko zein pertsonen eta objektuen arteko elkarrekintzei buruzko balioespenak kontuan hartu dituzte, eta baita historikoki izurriteek izan duten bilakaeraren inguruan aurreko ikerketek esan dutena ere.
Higiene neurriak indartzeko, gaiari buruzko komunikazio kanpainen beharra azpimarratu dute. Egin duten beste kalkulu baten arabera, munduko aireportu guztietan eskuen garbitze-tasa %10 handituz gero, nazioarteko gaitz infekziosoen zabaltzea %24 murriztuko litzateke.
Ikertzaileek identifikatu dituzte munduan gaitzen zabalpenean eragin handiena izan dezaketen 120 aireportuak, eta ikusi dute ez direla izan behar, halabeharrez, trafiko gehien dutenak. Kokapena ere garrantzitsua izan daiteke. Tokio (Japonia) eta Honolulu (AEB) jarri dituzte adibidetzat. Hurrenez hurren, trafikoari dagokionez 46. eta 117. postuetan daude, baina euren kokapena eta bertan izaten diren loturak direla eta, garrantzi nabarmena izan ahal dute nazioarteko gaitz infekziosoen zabalkuntzan.
Erreferentzia bibliografikoa:
Nicolaides, C., Avraam, D., Cueto‐Felgueroso, L., González, M.C. and Juanes, R. (2020). Hand‐Hygiene Mitigation Strategies Against Global Disease Spreading through the Air Transportation Network. Risk Analysis. doi:10.1111/risa.13438
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Eskuak ondo garbitzea, gaitz infekziosoen aurkako gakoetako bat appeared first on Zientzia Kaiera.
El principio de complementareidad

La mecánica cuántica se fundó sobre la existencia de la dualidad onda-corpúsculo de la luz y la materia, y el enorme éxito de la mecánica cuántica, incluida la interpretación de probabilidad, parece reforzar la importancia de esta dualidad. Pero, ¿cómo puede considerarse un corpúsculo como que «realmente» tenga propiedades de onda? ¿Y cómo puede pensarse que una onda tenga «realmente» propiedades de corpúsculo?
Se podría construir una mecánica cuántica consistente sobre la idea de que un haz de luz o un electrón pueden describirse simultáneamente por los conceptos incompatibles de onda y corpúsculo. En 1927, sin mebargo, Niels Bohr se percató de que precisamente la palabra «simultáneamente» era la clave para mantener la coherencia. Se dio cuenta de que nuestros modelos, o imágenes, de la materia y la luz se basan en su comportamiento en distintos experimentos en nuestros laboratorios. En algunos experimentos, como el efecto fotoeléctrico o el efecto Compton, la luz se comporta como si constara de partículas; en otros experimentos, como el experimento de doble rendija, la luz se comporta como si estuviera formada por ondas. Del mismo modo, en experimentos como el de J.J. Thomson con los rayos catódicos, los electrones se comportan como si fueran partículas; en otros experimentos, como los estudios de difracción de su hijo G.P. Thomson, los electrones se comportan como si fueran ondas. Pero la luz y los electrones nunca se comportan simultáneamente como si estuviesen constituidos por partículas y ondas. En cada experimento específico se comportan como corpúsculos o como ondas, pero nunca como ambos.
Esto le sugirió a Bohr que las descripciones corpusculares y ondulatorias de la luz y de la materia son ambas necesarias aunque sean lógicamente incompatibles entre sí. Deben considerarse como «complementarias» entre sí, es decir, como dos caras diferentes de la misma moneda. Esto llevó a Bohr a formular lo que se llama el principio de complementariedad:
Los dos modelos, corpuscular y ondulatorio, son necesarios para una descripción completa de la materia y de la radiación electromagnética. Dado que estos dos modelos son mutuamente excluyentes, no se pueden usar simultáneamente. Cada experimento, o el experimentador que diseña el experimento, selecciona una u otra descripción como la descripción adecuada para ese experimento.
Bohr demostró que este principio es una consecuencia fundamental de la mecánica cuántica. Afrontó la cuestión de la dualidad onda-corpúsculo, no resolviéndola a favor de ondas o partículas, sino incorporándola en los cimientos mismos de la física cuántica. Al igual que hizo con su modelo de átomo, Bohr transformó una dificultad en la base del sistema, a pesar de que esto supusiese contradecir la física clásica.
Es importante comprender qué significa realmente el principio de complementariedad. Al aceptar la dualidad onda-corpúsculo como un hecho de la naturaleza, Bohr lo que afirmaba es que la luz y los electrones (u otros objetos) tienen potencialmente las propiedades de las partículas y las ondas, hasta que se observan, momento en el que se comportan como si fueran una cosa u otra, dependiendo del experimento y la elección del experimentador. Esta era una afirmación de una enorme importancia, porque significaba que lo que observamos en nuestros experimentos no es lo que la naturaleza realmente es cuando no la estamos observando.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El principio de complementareidad se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El principio de incertidumbre, cualitativamente
- El comportamiento corpuscular de la luz: el efecto Compton
- El principio de incertidumbre, cuantitativamente
Diabetesa ulertzeko bidean (II): metabolismoan akatsak daudenean

Irudia: Diabetesa duten gaixoentzat beharrezkoa da odoleko glukosaren kontzentrazioa kontrolatzea eta beharrezkoa denean intsulina injektatzea. (Argazkia: Steve Buissinne – domeinu publikoko irudia. Iturria: pixabay.com)
Diabetesa aspalditik ezagutzen den gaixotasuna da. Ideia bat emate aldera, kontuan izan behar dugu diabetesaren lehen deskribapena Ebers papiroan dagoela, k.a. 1.500. urtean. Erromatarrek eta greziarrek diabetesa ezagutzen zuten. Garai hartan, norbaitek diabetesa zuen edo ez jakiteko haren gernua dastatu behar zen. Horrela, greziarrak konturatu ziren zenbait lagunen gernua mellitus zela, alegia, gozoa zela -eztia, mellita hitzetik dator-. Orain badakigu zapore hori gehiegizko glukosa kontzentrazioaren kausa dela. Modu horretan, greziarrek bazekiten gaixotasun hori zutenek edari gozoak edan bezala kanporatzen zituztela gernuaren bidez -alegia, gernua ere gozoa zela- sifoi bat balitz bezala. Sifoi hitzaren baliokide greziarra diabetes da eta hortik, hain zuzen ere, diabetes mellitus.
Diabetesa duten gaixoek egarri handia izan ohi dute eta baita pixa egiteko gogo handia ere. Sintoma horietan oinarrituta, historian zehar hainbat aurkikuntza egin dira diabetesari buruz. 1679an, Thomas Willis mediku ingelesak sintoma horiek zituzten gaixoen gernuaren hondakinak dastatu zituen eta bi diabetes mota berezitu zituen: diabetes gozoa eta zaporerik gabeko diabetesa -esan beharrik ez dago nola iritsi zen ondorio horretara-. Gaur egun dakigunez, diabetes mellitusa diabetes gozoa da eta odoleko glukosa maila handiegiarekin lotzen da. Zaporerik gabeko diabetesa, aldiz, guztiz desberdina den gaixotasuna da eta hormona antidiuretikoaren gabeziarekin lotzen da. Hala ere, antzeko sintomak ematen dituenez, izen bera dute biek. Hortaz, garrantzitsua da jakitea diabetes mellitus eta diabetes zaporegabea fisiologikoki gaixotasun desberdinak direla. Oro har, diabetesa aipatzen denean lehenengoaz ari gara.
Diabetesa, beraz, pertsona baten odoleko glukosa maila behar baino gorago dagoenean izaten da. Oro har, odoleko azukre maila normaltzat jotzen da 65-100 mg/dl artean badago -baraurik- eta 140 mg/dl azpitik otordutik ordu bat edo bi igaro denean. Maila hori gaindituz gero, litekeena da pertsona horrek diabetesa izatea. Azukre kantitate handiegi horrek hainbat kalte ekar ditzake begietan, giltzurrunen funtzionamenduan, nerbio sisteman, eta abar. Oro har, epe luzera agertzen diren arazoak izan ohi dira. Diabetesa mota desberdinetakoa izan daiteke, baina, motarik arruntenak 1 mota eta 2 mota deiturikoak dira. Horien arteko desberdintasuna ulertzeko, lehenik eta behin beharrezkoa da glukosaren metabolismoaren erregulazioan gehiago sakontzea.
Glukosaren metabolismoa intsulinak erregulatzen du. Bere funtzio garrantzitsuena glukosa odoletik zeluletara igarotzen laguntzea da, modu horretan odoleko glukosa kontzentrazioa murriztuz. Era berean, intsulinak gibeleko glukogeno sintesia aktibatzen du eta prozesu horrek ere glukosa kontzentrazioa murrizten du. Alabaina, pankreak intsulinarik jariatzen ez badu, zeluletako paretetan dauden glukosa garraiatzaileak ez dira behar bezala aktibatzen eta glukosa ez da modu eraginkorrean sartzen zeluletara. Egoera honi 1 motako diabetesa deritzo, alegia, intsulina gabeziaren ondorioz odoleko glukosa kontzentrazioa murrizten ez denean.
Halere, bada beste akats mota bat glukosaren metabolismoaren erregulazioan. Zenbait kasutan, intsulina egon daiteke, bai, baina zeluletako intsulina hartzaileetan egotea akatsa -alegia, intsulinarekin lotu behar diren zelulako paretaren atalak-. Lotura hori ez bada modu egokian gertatzen, glukosa garraiatzaileak ez dira behar bezala aktibatzen eta glukosa ez da zeluletara sartzen. Bigarren arazo hori duten gaixoek 2 motako diabetesa dute, hots, pankreak intsulina jariatzen du, baina, intsulina ez da modu egokian lotzen hartzailearekin.
1 motako diabetesa haurtzaro edo nerabezaroan agertu ohi da, nahiz eta beranduago ere ager daitekeen. Oro har, mota honetako diabetesa bat-batean agertzen da eta intsulina hartuz kontrola daiteke. 2 motako diabetesa helduaroan agertzen da normalean eta horrek ez du zertan betirako izan behar; tratatzen bada, adibidez gizentasunaren aurka egiten bada, desagertu egin daiteke. 1 motako diabetesa baino askoz ere ohikoagoa da biztanlerian -%90-95- eta, orokorrean, sintomak ez dira hain agerikoak. Askotan ez du inongo minik sortzen eta denbora luzean oharkabean pasa daiteke -horrexegatik daude diagnostikatu gabeko kasu asko-. Oro har, 2 motako diabetesa elikadura desegokiaren eta kirol gabeziaren ondorioa izaten da. 1 motakoa, aldiz, ezin da era eraginkorrean saihestu. 1 motako diabetesa norberaren immunitate-sistemak pankrean dauden beta zelulak erasotzen dituenean gertatzen da eta horren arrazoiak genetikoak edo ingurunearenak izan daitezke -esaterako, gaixotasun birikoak jasan ondoren-.
Diabetes mellitusaren tratamenduari dagokionez, historian zehar hainbat modutara egin da, aurkikuntza berriek tratamendu eraginkorragoak ekartzen zituzten neurrian, baina, hori guztia hurrengorako utziko dugu.
—————————————————–
Egileaz: Josu Lopez-Gazpio (@Josu_lg) Kimikan doktorea, irakaslea eta zientzia dibulgatzailea da. Tolosaldeko Atarian Zientziaren Talaia atalean idazten du eta UEUko Kimika sailburua da.
—————————————————–
Diabetesari buruzko artikulu-sorta:
- Diabetesa ulertzeko bidean (I): glukosaren metabolismoa
- Diabetesa ulertzeko bidean (II): metabolismoan akatsak daudenean
The post Diabetesa ulertzeko bidean (II): metabolismoan akatsak daudenean appeared first on Zientzia Kaiera.
Sesgos ideológicos que aquejan a la ciencia

Los cognitivos no son los únicos sesgos que afectan al desarrollo de la ciencia. También hay sesgos ideológicos. Quienes se dedican a la investigación científica no son ajenos a la influencia de la cosmovisión, la ideología, las creencias, etc., y esos factores inciden en el desarrollo de la ciencia o en aspectos colaterales a la misma aunque de importantes repercusiones sociales. Los científicos llevados por sus creencias se ven afectados por sesgos (inconscientes, no serían casos de mala ciencia voluntaria) que les llevan realizar una actividad científica poco rigurosa (eligiendo datos -cherry picking- , interpretándolos, etc.) en la dirección de sostener con sus conclusiones científicas lo que ya creían antes de comenzar. El “razonamiento motivado” a que se ha hecho mención en la anotación anterior estaría en la base cognitiva de este comportamiento y la motivación sería un fuerte convencimiento ideológico.
En lo que a este aspecto se refiere y antes de poner algunos ejemplos ilustrativos, conviene advertir de que la incidencia de los sesgos es mayor cuanto más complejos son los sistemas que se estudian, más son las variables en juego y más difícil resulta aislar los efectos de los factores cuyo efecto se desea establecer empíricamente. La ciencia funciona a partir de la identificación de regularidades en los sistemas que estudia, pero esa identificación arroja mayores garantías cuando el sistema permite fijar o excluir factores que pueden incidir en ellas de forma incontrolada y limitar el análisis al efecto de aquellos que pueden ser modificados a voluntad o, al menos, medidos con precisión. La física es, en ese sentido, la disciplina cuyas observaciones ofrecen mayores garantías pues los sistemas que estudia son fácilmente acotables. Y a las ciencias sociales les ocurre lo contrario: es muy difícil eliminar factores de confusión y fijar con garantías los factores que se desea analizar. Y cuando es especialmente difícil descartar factores de confusión y fijar o controlar efectos de unas pocas variables, queda un amplio margen para la influencia de las motivaciones de carácter ideológico, tanto en el diseño de las investigaciones como en el posterior análisis de los resultados.
Quizás los antecedentes más antiguos del efecto de los sesgos ideológicos se remontan a los mismos orígenes de la ciencia moderna. En la controversia acerca del heliocentrismo o la naturaleza geométrica de las órbitas de los planetas (del movimiento de los cuerpos celestes, al fin y al cabo) ejercieron un efecto claro las creencias de sus protagonistas.
Algunos de los sesgos tuvieron carácter general en ciertas épocas. Las ideas de superioridad de la (supuesta) “raza blanca” o de las personas de origen caucásico con respecto a otras (supuestas) “razas” o procedencias condicionaron la investigación que se hizo en las épocas en que eran predominantes. Los prejuicios en relación con la capacidad de las mujeres para desempeñar roles considerados masculinos han ejercido una influencia muy fuerte en fechas relativamente recientes e, incluso, hoy lo siguen ejerciendo. Marlenne Zuk (2013) ha revisado críticamente algunas ideas muy extendidas acerca del (supuesto) “origen evolutivo” de las diferencias entre hombres y mujeres y ha refutado las bases de algunas de ellas.
Las creencias religiosas han alimentado actitudes claramente anticientíficas. En la actualidad el ejemplo más claro, quizás, de esta actitud es el del bioquímico Michael J. Behe, profesor de la Universidad de Lehigh, en Pensilvania (EEUU). Behe se opone a la teoría de la evolución por selección natural y defiende el llamado “diseño inteligente” que es, en realidad, una forma sofisticada de creacionismo. Según Behe, ciertas estructuras bioquímicas son demasiado complejas como para poder ser explicadas en virtud de los mecanismos de la evolución. Desarrolló el concepto de “complejidad irreducible” como un “sistema individual compuesto de varias partes bien coordinadas que interaccionan para desempeñar la función básica de este, de modo que si se eliminara cualquiera de esas partes dejaría de funcionar por completo”.
La ideología política puede tener también una influencia notable. No solo entre el púbico general, también en la comunidad científica la negación del cambio climático, en sus diferentes modalidades, está vinculada al campo conservador. La base ideológica está aquí relacionada con lo que podría considerarse una visión “optimista” del mundo, según la cual la naturaleza no tiene límites, ni desde el punto de vista de la disponibilidad o existencia de los recursos naturales, ni de la capacidad para asimilar la influencia de las actividades humanas. Esa visión optimista, junto con el hecho de que los efectos que se le atribuyen al cambio climático nos remiten a un futuro que se percibe como indefinido, neutraliza el peso de los argumentos y datos en que se basa el consenso científico al respecto.
Las actitudes anticientíficas más características de la izquierda suelen estar relacionadas con cuestiones de carácter ambiental y de salud. Sostienen que ciertas tecnologías ejercen efectos negativos sobre la salud de las personas y del medio ambiente. Se incluye en esa categoría, por ejemplo, la oposición a los organismos modificados genéticamente. Quienes defienden esas posturas suelen invocar el hecho de que son fuente de enriquecimiento para las empresas que las fabrican y comercializan, y que sus intereses se anteponen a otras consideraciones, incluidas las relativas a la salud de las personas o del medio ambiente.
Es probablemente una motivación de esa naturaleza la que anima a investigadores como Gilles-Eric Seralini. Seralini es conocido por sus opiniones contrarias a los transgénicos. En 2012 publicó un artículo en Food and Chemical Toxicology cuya conclusión era que el consumo de maíz transgénico provocaba el crecimiento de tumores en ratas de laboratorio que acababa provocándoles la muerte. El artículo, tras ser duramente criticado por numerosos científicos, fue finalmente retractado al año siguiente al entender el editor que no cumplía los estándares propios de una publicación científica debido a sus graves deficiencias metodológicas. La impresión que causa un caso como ese es que el investigador ha sacrificado el rigor exigible a un trabajo científico al objeto de obtener los resultados que mejor se acomodan a sus expectativas. J M Mulet (2013) ha expuesto aquí con claridad los pormenores de este caso.
Fuente:
Zuk, M (2013): Paleofantasy: What Evolution Really Tells Us about Sex, Diet, and How We Live. Norton & Co, New York.
Este artículo se publicó originalmente en el blog de Jakiunde. Artículo original.
Sobre los autores: Juan Ignacio Perez Iglesias es Director de la Cátedra de Cultura Científica de la UPV/EHU y Joaquín Sevilla Moroder es Director de Cultura y Divulgación de la UPNA.
El artículo Sesgos ideológicos que aquejan a la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sesgos cognitivos que aquejan a la ciencia
- Ciencia Patológica
- #Naukas14 Algunos trucos para reducir sesgos