Germenez

Zientzia Kaiera - Thu, 2018/10/04 - 09:00
César Tomé López Germen (hazi) hitza, jatorri latindarrekoa, XIX. mendean erabili zen aurrenekoz mikrobio patogenoez aritzeko. Gaixotasunen jatorria “hazi” batekin lotzea antzinate klasikoan bila badaiteke ere, De contagione liburua aipatu ohi da erreferentzia garaikide gisa, Girolamo Fracastoro-k 1546an argitaratua.

1. irudia: Mikroskopioaren garapenari esker, ordura arte ezezagunak ziren izakiak aurkitu ziren.

Mikroskopiaren garapenak, XVII. mendearen hasieran, ahalbidetu zuen ordura arte ezezagunak ziren izaki bizidunak aurkitzea. Antoni van Leeuwenhoek-ek mendearen azken laurdenean egindako behaketa aitzindariek agerian jarri zuten “animaliakulu”-en existentzia ur ezberdinetan, hortzetan edo giza esperman. Eskuragai zeuden tresna optiko gehienen akatsek eragotzi zuten behaketa zinez esanguratsuak egitea XIX. mendeko 30eko urteak arte.

1835ean Agostino Maria Bassi-k frogatu zuen onddo ñimiño batek muskardina eragiten zuela zeta-harretan. Laster lotuko ziren mikrobioak beste gaixotasun batzuekin: aipagarria da Casimir Joseph Davaine, behin eta berriz behatu zituena barra-itxurako egiturak –berak “bakteridia” deitutakoak – karbunkoz (antrax) hiltzen ziren animalien odolean. Egitura horien eta gaixotasunaren arteko lotura, alegia kausa ala ondorio ote ziren, eztabaida irekia zen.

2. irudia: Karbunkoz (antrax) hiltzen ziren animalien odolean topatutako egiturak ‘Bacillus anthracis’ bakteria zen.

Garai horretatik aurrera, hartzidura- eta usteltze-prozesuetan interesatutako zientzialari europarrak pixkanaka hasi ziren gaixotasunaren teoria germinal bat garatzeko bidean. 1840an Jacob Henle-k horrelako teoria baterako marko teoriko orokorra finkatu zuen; aldi berean, Theodor Schwann-ek frogatu zuen airean zegoen zerbait –eta ez airea bera– zela izaki bizidunen gorputzetan usteltzea hasten zuena. 1864an Louis Pasteur-ek zientzialarien eta herritarren arreta erakarri zuen teoria germinalaren kausalitatearen bere azalpenarekin. Horrek eztabaida handia sortu zuen hurrengo hamarkadan, harik eta Robert Koch-ek lehenbizi karbunkoaren azken eragilea identifikatu zuen arte (1876) eta geroago tuberkulosia eta kolerarena. Dena den, gaixotasunaren hainbat teoria germinalek hedatzen jarraitzen zuten XIX. mendeko azken hamarkadetan; XX. mendeko hasiera arte ez zen adostasunik lortuko.

Koch-ek eta bere kolaboratzaileek teoria germinalari egindako ekarpena mikroorganismoen identifikaziotik haratago zabaldu zen. Kochek programa bat idatzi zuen, informalki “Kochen postulatuak” izenaz ezagutzen zena. Programa horrek indarrean jarraitzen du hainbat berrikuspenen ondoren, oinarrizko tresna gisa baita mikrobio jakinen eta gaixotasunen arteko lotura kausala berresteko. Kochek eta bere kideek ekarpen garrantzitsuak egin zizkioten bakterioen identifikazioari, tindaketa-teknikak garatuz garaiko koloratzaile industrialetan oinarrituta; horrela, 1900erako finkatuta zeuden dozenaka gaixotasunen kausa bakterianoak. Horrek bi ondorio nagusi izan zituen: lehenik, mediku asko konbentzitu ziren gaixotasun bakoitzaren kausa bakterio bat izan behar zela, eta bigarrenik, gaixotasunak soilik sintomen bidez ezagutzeari utzi zitzaion, eta beren kausengatik ere hasi ziren ezagutzen, laborategian.

Bakterio-iragazpen prozesuen hobekuntzek, 1880. urtetik aurrera, ikusarazi zien ikertzaile askori existitu behar zirela gaixotasunak eragiten zituzten agenteak, bakterio ezagunak baino txikiagoak zirenak. Horrela, 1896an Martinus Willen Beijernick-ek birus iragazlearen ideia proposatu zuen, oso eztabaidagarria baina balioduna: ustez uretan disolbagarria den mikrobio bat, aski txikia iragazkietatik pasatzeko, eta ikusezina garaiko mikroskopioetan. Identifikatutako mota horretako lehen eragileak tabakoaren mosaikoarena, ahoeriarena (abereen sukar aftosoa) eta sukar horiarena izan ziren. Birologia azkar asko garatu zen zientzia gisa XX. mendearen hasieran. Fagoen fenomenoa ―bakterioak bakarrik kutsatzen dituzten birusak― Frederick William Twort eta Félix d’Hérélle-k identifikatu zuten, nork bere aldetik, Lehen Mundu Gerran. Mikroskopio elektronikoaren garapenak, 30eko urteetan, birusak ikustea ahalbidetu zuen.

3. irudia: Tabakoaren mosaikoaren birusa da identifikatu zen lehen birusa.

XX. mendean zehar germenen ideia herritarren kontzientzian errotu zen, neurri handi batean erakundeen publizitate-kanpainei esker eta, neurri handiagoan, norberaren eta etxearen garbiketarako produktuei esker.

Germenak, oraindik ere, etengabeko mehatxu dira giza osasunerako, mundu-mailako garraioaren unibertsaltasun eta bizkortasunak, eta industria-mailan prozesatutako elikagaien erabilerak larriagotua.

Birusen egituraren argitzeak eta, XX. mendeko azken hamarkadetan, prioien (proteina infekziosoak) aurkikuntzak ezinbesteko egin dute teoria germinal klasikoa berrikustea, organismo patogeno bizien ideian oinarritzen dena.

——————————————–

Egileaz: Cesár Tomé López (@EDocet) zientzia dibulgatzailea da eta Mapping Ignorance eta Cuaderno de Cultura Cientifica blogen editorea.

Itzulpena: Leire Martinez de Marigorta

Hizkuntza-begiralea: Gidor Bilbao

——————————————–

The post Germenez appeared first on Zientzia Kaiera.

Categories: Zientzia

El tamaño sí importa, que se lo pregunten a Colón (o de la geometría griega para medir el diámetro de la Tierra)

Cuaderno de Cultura Científica - Wed, 2018/10/03 - 11:59

Si miramos a nuestro alrededor, puede dar la impresión de que vivimos en un planeta plano, como así lo creyeron muchos pueblos en la antigüedad. Babilonios, egipcios, chinos, incas, nativos americanos, o incluso los primeros griegos, pensaron que la Tierra era plana. Según el filósofo y matemático griego Tales de Mileto (aprox. 624-547 a.n.e.), la Tierra es un disco flotando en un mar de agua, mientras que, para su discípulo Anaximandro (aprox. 610-545 a.n.e.), es un cilindro, con la ecúmene (el mundo habitado) en una de sus tapas planas. Precisamente, el mapa de la ecúmene de Anaximandro está considerado uno de los primeros mapas geográficos del mundo.

Reconstrucción del mapa de Hecateo, basado en el mapa de Anaximandro, perteneciente al “Cram’s atlas of the world, ancient and modern” (1901), de G. F. Cram. Imagen de la David Rumsey Map Collection [2] Sin embargo, también fueron los antiguos griegos quienes pronto descubrirían que la Tierra tiene forma esférica, como aparece recogido en el diálogo del filósofo griego Platón (aprox. 427-347 a.n.e.) Fedón o la inmortalidad del alma o en el Tratado del Cielo de su discípulo Aristóteles (384-322 a.n.e.), este último con argumentos físicos y lógicos que lo demostraban.

El siguiente pasaje es del diálogo Fedón o la inmortalidad del alma (Platón, Diálogos, Espasa-Calpe, 1984):

Primeramente, repuso Sócrates, estoy convencido de que, si la Tierra está en medio del cielo, y es de forma esférica, no tiene necesidad ni del aire ni de ningún otro apoyo que la impida caer…

Además, estoy convencido de que la Tierra es muy grande y que no habitamos en ella más que esta parte que se extiende desde Fasis hasta las columnas de Hércules, repartidos alrededor del mar como las hormigas y las ranas alrededor de un pantano…

Se dice, mi querido Simmias, que si se mira esta Tierra desde un punto elevado, se parece a uno de esos balones de cuero…

Por otra parte, los argumentos de la esfericidad terrestre que aparecen en la obra de Aristóteles son sencillos y contundentes, como puede leerse en el libro El sueño del mapa perfecto (RBA, 2010), la posición de las estrellas en el firmamento, la existencia de usos horarios o la existencia y forma del horizonte.

Representación de la Tierra vista desde el espacio utilizando datos obtenidos por la NASA y NOAA. Imagen de la NASA realizada por Reto Stöckli

Una vez conocida la forma del planeta en el que vivimos, surge la cuestión de conocer cuál es su tamaño. De nuevo, fue la ciencia griega la que se puso manos a la obra, y realizó algunas estimaciones, utilizando la geometría, del perímetro terrestre.

Ya Aristóteles, en el mencionado Tratado del cielo, escribía que los “matemáticos” habían calculado la longitud de la circunferencia del globo terráqueo, estableciéndola en 400.000 estadios (más adelante, discutiremos el valor de esta unidad de longitud). Según parece la estimación citada por Aristóteles se debía al matemático y astrónomo griego Eudoxo de Cnido (aprox. 400-347 a.n.e.), considerado el fundador de la astronomía matemática.

La siguiente estimación del tamaño de la Tierra aparece en la obra El Arenario de uno de los más grandes científicos griegos, Arquímedes de Siracusa (aprox. 287-212 a.n.e.), quien en el transcurso de la discusión sobre la cantidad de granos de arena que se necesitarían para llenar todo el universo, y, por tanto, sobre el tamaño del universo, afirma que “el perímetro de la Tierra es de 3.000.000 de estadios y no más”, aunque también reconoce que hay quienes afirman que es de 300.000 estadios, que a él le parece demasiado pequeña.

“Muerte de Arquímedes”, del pintor francés Edouard Vimont (1846-1930)

La medición griega más famosa, y certera, del perímetro de la Tierra se debe al sabio polifacético griego Eratóstenes de Cirene (276-194 a.n.e.). Eratóstenes trabajó en geografía, matemáticas, astronomía, filosofía, cronología, gramática, crítica literaria e incluso escribió poesía, lo que motivó que sus compañeros le pusieran el mote “pentathlos”, en referencia a la prueba atlética “penthlaton” que integraba cinco disciplinas. Pero el hecho de que trabajara en tantos campos también fue la razón por la cual le pusieran también otro apodo, “beta”, es decir el segundo, que puede interpretarse como una persona que ocupa el tiempo en muchas cosas no puede ser excelente en cada una de ellas. A pesar de este apodo, Eratóstenes fue uno de los grandes sabios de la antigüedad. Con 30 años fue nombrado director de la Biblioteca de Alejandría, puesto en el que permaneció hasta su muerte, 45 años después.

Antes de continuar nuestro viaje, una breve parada para hablar de la Biblioteca y el Museo de Alejandría.

Tras anexionar Egipto a su imperio, Alejandro Magno (356-323 a.n.e.), rey de Macedonia, fundaría la ciudad de Alejandría en el año 331 a.n.e., la cual se convertiría en la ciudad más importante e influyente durante siglos, sustituyendo a Atenas en hegemonía cuando esta perdió su esplendor. A la muerte de Alejandro, cuando este contaba con 33 años, se desmanteló su imperio y en el trono de Egipto se instaló el rey Ptolomeo I, fundando la dinastía de los Lángidas. Este decide poner en práctica el proyecto aristotélico de un saber universal, motivo por lo que construye la Biblioteca y el Museo, y hace el siguiente llamamiento: “Pido a todos los soberanos y gobernantes de la Tierra que envíen a nuestra ciudad de Alejandría las obras de poetas y prosistas, retóricos y sofistas, médicos y adivinos, historiadores, filósofos y …”.

La Biblioteca llegaría a tener 700.000 rollos. Hay que tener en cuenta que las obras se escribían en papiros (el nombre griego para papiro es Biblos, de donde surge la palabra Biblioteca), los cuales no se plegaban, sino que se enrollaban alrededor de un bastón. Cada obra podía estar formada por varios rollos (volumen en latín), es decir, varios volúmenes.

Imagen de la película “Ágora” (2009), dirigida por Alejandro Amenábar, en la que vemos a Hipatia, interpretada por la actriz Rachel Weisz, en la Biblioteca de Alejandría, aunque en esa época ya no era la Gran Biblioteca, sino la Biblioteca hija, mucho más humilde, intentando salvar algunos rollos de dicha biblioteca, durante su destrucción por orden del emperador Teodosio el Grande

“Buscadores de libros” se pusieron a rastrear en los principales mercados del mundo mediterráneo, comprando, a precio de oro, todos los manuscritos que encontraban, y si no podían comprarlos, los conseguían por otros medios (robo, soborno o extorsión). Además, cuando un navío entraba en el puerto de Alejandría los soldados entraban en el barco en busca de todos los manuscritos que se encontraban en el navío para llevarlos a los talleres de la Biblioteca, donde eran cuidadosamente estudiados y copiados por escribas. Si se trataba de un ejemplar raro, se le devolvía al dueño la copia. A esta colección de la Biblioteca se la llamó “los fondos de los barcos”.

El Museo era una especie de centro de investigación financiado por el estado, dedicado a todas las Musas, de ahí su nombre, es decir, a todo tipo de conocimiento. Por él pasaron grandes sabios como Euclides, Apolonio, Eratóstenes, Hiparco, Aristarco, Herón o Ptolomeo.

Con el paso de los siglos el sueño de toda la sabiduría del mundo reunida en la Biblioteca de Alejandría se desvanecería. Diferentes desastres asolaron Alejandría, miles de libros se quemaron y la Biblioteca acabó totalmente destruida. Lo cierto es que la destrucción de las obras de la Biblioteca de Alejandría es sin duda una de las mayores tragedias de la historia de la humanidad, en la que se han perdido para siempre parte de la cultura y ciencia humanas.

Pero volvamos a la estimación del diámetro de la Tierra realizada por Eratóstenes, quien estableció en 252.000 estadios la longitud del meridiano terrestre que pasa por Alejandría. Conocemos el método utilizado por Eratóstenes gracias al astrónomo griego Cleomedes (aprox. 10-70) y a algunos autores clásicos como Herón, Estrabón, Plinio o Vitrubio, entre otros.

La medición de la circunferencia terrestre realizada por Eratóstenes tenía en cuenta que la Tierra es esférica, que podemos considerar que los rayos del Sol llegan paralelos al encontrarse con la superficie terrestre, debido a la distancia a la que se encuentra el astro, así como que las ciudades consideradas, Alejandría y Siena (en la actualidad, Asuán), estaban situadas en el mismo meridiano.

La primera estimación necesaria para el cálculo fue la de la distancia entre Alejandría y Siena, que el director de la Biblioteca consideró de 5.000 estadios. Según cuenta la leyenda, Eratóstenes preguntó a los caravaneros que comerciaban entre ambas ciudades, quienes le contestaron que un camello, que recorría una distancia aproximada de 100 estadios al día, tardaba 50 días en ir de una ciudad a otra. Aunque es muy probable que el sabio griego consultase ese dato en los libros de la biblioteca, contrastando las informaciones que caravaneros o saldados pudieran proporcionarle.

Por otra parte, la ciudad de Siena se encontraba en el trópico de Cáncer, es decir, que al mediodía del solsticio de verano (hacia el 21 de junio) los rayos solares caían perpendicularmente sobre la ciudad, lo cual podía ser comprobado observando que la luz se reflejaba en el fondo de un pozo profundo.

Además, Eratóstenes necesitaba medir el ángulo de inclinación del sol en Alejandría con respecto a la vertical (el ángulo α en la imagen con el esquema de la medición), lo cual se podía calcular con un sencillo gnomon (es decir, una estaca vertical colocada sobre una base horizontal), como se muestra en el esquema, aunque parece ser que Eratóstenes utilizó un gran obelisco.

Haciendo uso del gnomon y su sombra mediante los rayos solares se calcula la altura angular del Sol

Haciendo uso de un particular gnomon, el obelisco en la ciudad de Alejandría, Eratóstenes midió el ángulo de la inclinación del Sol respecto a la vertical (el ángulo α) en el mediodía del solsticio de verano, que, según sus cálculos, era 1/50 de una circunferencia, es decir, 360º / 50 = 7,2º. Como ya hemos dicho, el sol cae verticalmente en ese momento sobre la ciudad de Siena, luego el arco del ángulo del meridiano entre Alejandría y Siena es también 7,2º.

Al mediodía del solsticio de verano, los rayos solares caían verticalmente sobre la ciudad egipcia de Siena, por lo que se reflejaba en el fondo de cualquier pozo, mientras que sobre Alejandría caían formando un ángulo de 7,2º con la vertical, por ejemplo, un obelisco

Ya solo queda un pequeño cálculo. Si la longitud de un arco de meridiano de 7,2º, entre Alejandría y Siena, es de 5.000 estadios, entonces la circunferencia completa, correspondiente a los 360º, será de (360º / 7,2º) x 5.000 = 50 x 5.000 = 250.000 estadios.

Aunque según algunos autores, Eratóstenes llevó a cabo diferentes mediciones hasta considerar la estimación final de 252.000 estadios.

Uno de los problemas actuales para poder valorar las estimaciones antiguas del perímetro terrestre es el valor de la medida de longitud utilizada, en este caso, el estadio. En aquellos tiempos no existían medidas unificadas y el valor de los estadios variaba de unos lugares a otros, por lo que existen diferentes posibilidades a la hora de convertir los estadios en metros. Si consideramos el estadio egipcio, cuyo valor era de 157,5 metros, la estimación de Eratóstenes del perímetro terrestre era de 39.690 kilómetros. Si tenemos en cuenta que la longitud de uno de los meridianos terrestres es aproximadamente de 39.940 kilómetros (mientras que el ecuador mide 40.075 kilómetros), podemos decir que la de Eratóstenes no era una mala estimación.

Curiosamente, todas las estimaciones que realizó el director de la Biblioteca de Alejandría fueron ligeramente incorrectas, pero los errores se compensaron para dar una estimación que se aproxima bastante a la realidad. Las ciudades de Alejandría y Siena no se encontraban exactamente en el mismo meridiano, la longitud entre ambas ciudades era imposible de calcular en aquella época con cierta exactitud y con el método del gnomon el cálculo del ángulo de los rayos solares era más bien aproximado.

Reconstrucción del plano de la antigua Alejandría, realizado en 1898 por G. Botti, director del Museo Greco-Romano. Imagen de la página web Alexanders Tomb

Otra estimación importante del tamaño de la Tierra fue realizada por el político, astrónomo y filósofo estoico griego Posidonio (aprox. 130-50 a.n.e.), quien fuera uno de los grandes geógrafos de su tiempo. Al igual que en el anterior caso, su medición también nos ha llegado a través de diferentes autores clásicos.

De nuevo, la idea fue medir un arco de meridiano, en concreto, entre las ciudades de Rodas y Alejandría (aunque, como en el caso anterior, no están exactamente sobre el mismo meridiano). Desde su observatorio en Rodas, Posidonio observó que la estrella Canopus, la segunda más brillante del cielo, se encontraba sobre el horizonte, mientras que esa misma estrella se veía elevada en el cielo un ángulo de 1/48 de circunferencia completa, es decir, 7,5º (el ángulo θ en la siguiente imagen). Por lo tanto, el ángulo del arco de meridiano entre Rodas y Alejandría era también 7,5º. Según Cleomedes, Posidonio consideró que la distancia entre Rodas y Alejandría era de 5.000 estadios, lo que hacía que la estimación de la Tierra fuera de 48 x 5.000 = 240.000 estadios. Sin embargo, el geógrafo e historiador griego Estrabón (aprox. 63 a.n.e.-24 n.e.), en su Geografía, recoge la posterior estimación de Posidonio de 180.000 estadios, obtenida al realizar un cálculo más acertado de la distancia entre ambas ciudades de 3.750 estadios.

Esquema de la medición del meridiano terrestre que pasa por Alejandría y Rodas. Cuando la estrella Canopus se ve en el horizonte desde Rodas, en Alejandría se ve con un ángulo θ, igual al ángulo del arco de meridiano terrestre entre Rodas y Alejandría

Si consideramos los estadios egipcios la estimación de Posidonio, de 180.000 estadios, equivalía a 28.350 kilómetros, quedando así reducidas las dimensiones reales de la Tierra.

El método de Posidonio es, como el de Eratóstenes, sencillo, ingenioso y geométricamente impecable, aunque comete un error desde el punto de vista de la física. El filósofo estoico no tuvo en cuenta la refracción atmosférica terrestre, que provoca que cuando observamos objetos celestes cerca del horizonte su posición esté más baja de lo que nosotros creemos. Lo cual provoca que veamos el Sol, o las estrellas, por encima de su posición real. Si los rayos de luz no sufrieran este efecto, Posidonio no habría visto Canopus cuando lo vio, sino más tarde, y, en consecuencia, el ángulo que habría obtenido habría sido menor.

Esquema de la refracción atmosférica terrestre

El astrónomo, matemático y geógrafo greco-romano Claudio Ptolomeo (aprox. 90-170), dio por buena la estimación de Posidonio de 180.000 estadios (unos 28.350 kilómetros), y es la que recogió en su obra Geografía cuando en la misma aborda la cuestión del tamaño de la Tierra.

La Geografía de Ptolomeo, que estaba formada por 8 libros, era una recopilación de todo el saber geográfico del mundo en su tiempo. El libro I era un tratado de cartografía, de los libros II al principio del VII se daban las coordenadas geográficas, longitud y latitud, de gran cantidad de lugares de la ecúmene, 8.000 ubicaciones diferentes, en el final del libro VII se describían tres proyecciones cartográficas para crear mapas del mundo (aunque los mapas de Ptolomeo que conocemos hoy en día se deben a las primeras ediciones impresas del siglo XV) y el libro VIII era un atlas de mapas regionales, que contenía cuatro mapas de África, doce de Asia y diez de Europa.

Mapa del mundo con la primera proyección de Ptolomeo, que aparece en el Codex Vaticanus Urbinas Graecus 82 (Constantinopla, aprox. 1300), copia manuscrita bizantina de la “Geografía” de Ptolomeo. Imagen: Wikimedia Commons

Los diferentes manuscritos de la Geografía de la época de Ptolomeo se perdieron y la obra estuvo “perdida” hasta el siglo XIII que apareció una copia bizantina. La primera edición manuscrita en latín fue de 1406, y le seguirían muchísimas más (de hecho, se han conservado 38 códices o libros manuscritos). Pero fundamentalmente, a partir del momento en el que se empiezan a realizar ediciones impresas de las obras, junto con los dos conocidos mapas del mundo y los demás mapas regionales (en especial la hermosa edición impresa en Ulm, de 1482, con los conocidos grabados de mares azules y bordes amarillos, uno de cuyos mapas puede verse en la entrada Imago mundi, 7 retratos del mundo), la obra se convierte en una referencia fundamental en geografía y cartografía, y un auténtico “best-seller” durante varios siglos.

Terminaremos esta entrada del Cuaderno de Cultura Científica con un par de comentarios sobre el navegante y explorador italiano (aunque hay expertos que opinan que pudo ser catalán, gallego, portugués, andaluz, e incluso vasco) Cristóbal Colón (1451-1506) y el “descubrimiento” de América.

“Colón en Salamanca” (1887), de Joan Brull i Vinyoles (1863-1912). Imagen de Catàleg d’obres de Joan Brull i Vinyoles

El primer comentario está relacionado con la forma de la Tierra. Una de las creencias asociadas al descubrimiento de América, que nos enseñaron en nuestra etapa escolar, es que en aquél tiempo todo el mundo creía que la Tierra era plana, y que Colón tuvo que enfrentarse a esa creencia para encontrar quien apoyara su búsqueda de las Indias por el Océano Atlántico.

Es cierto, que una interpretación literal de la Biblia en la Edad Media llevó a la concepción de una Tierra plana. Esta idea fue popularizada por la famosa Topographica Christiana del monje griego Cosmas Indicopleustes (siglo VI). La forma plana del Orbis Terrarum se convirtió en una verdad oficial defendida por muchos teólogos cristianos y personas afines al poder, y fue la creencia que mucha gente humilde a la que no llegó otro conocimiento más que el que recibían de la Iglesia.

Mapa del mundo de Cosmas Indicopleustes. Orientado con el norte hacia arriba, el mapa muestra la Tierra rectangular, colocada en el centro y rodeada por el Océano. A la izquierda se observa el mar Mediterráneo, en el que desemboca el río Nilo, mientras que a la derecha están representados, arriba, el mar Caspio y, abajo, los golfos Árabe (Mar Rojo) y Pérsico, en este último desembocan los ríos Tigris y Eufrates. Imagen: Wikimedia Commons.

Sin embargo, como hemos comentado, muchos siglos antes los griegos ya habían descubierto que la Tierra tenía forma esférica, y esta idea no fue abandonada por los sabios, ni las personas cultas, durante la Edad Media. Por este motivo, en los tiempos de Cristóbal Colón no había ninguna duda sobre la forma del planeta. Este mito erróneo tiene su origen en la biografía romántica que escribió el escritor estadounidense Washington Irving (1783-1859), Vida y viajes de Cristóbal Colón (1828).

El segundo comentario está relacionado con el tamaño de la Tierra. Entre los libros que se conoce que leyó, y anotó, Cristóbal Colón están Historia rerum ubique gestarum (1477) del Papa Pío II (Aeneas Sylvius Piccolomini, 1405-1464), que contiene la estimación de Eratóstenes del tamaño de la Tierra, la versión impresa (1480) del Imago Mundi de Pierre d’Ailly (1350-1420), la primera versión en latín (1478) de la Geografía de Ptolomeo, con la estimación de Posidonio y sus mapas cónicos del mundo, así como la primera edición en latín (1485) del libro de Marco Polo (1254-1324), narrando sus viajes a Catay (China) y Cipangu (Japón), De consuetudinibus et condicionibus orientalium regionum (1300).

Una de las personas que creyó en el relato que Marco Polo hizo de su viaje fue el matemático y astrónomo italiano Paolo Toscanelli (1397-1482). Toscanelli, después de hablar con algunos navegantes e influenciado el tamaño de la Tierra recogido en las Geografías de Estrabo y Ptolomeo, propuso alcanzar Asia viajando por el oeste y diseñó un mapa del Atlántico que mostraba la cercanía, por otra parte errónea, de Catay y Cipangu, con Europa, sin América, que no se sabía que existía, de por medio.

Mapa del océano Atlántico (1468) de Paolo Toscanelli Reconstrucción moderna, con la silueta del continente americano dibujada en su posición más o menos real, de un mapa del océano Atlántico (1474) de Paolo Toscanelli, enviado al obispo de Lisboa, y posteriormente, a Cristóbal Colón

El navegante Cristóbal Colón tuvo conocimiento de las ideas y el mapa de Toscanelli, además de leer la Geografía de Ptolomeo, con la medida del perímetro terrestre de Posidonio, lo que le animaría a aventurarse en un viaje hacia las Indias a través del océano Atlántico. En el camino “descubriría” un “nuevo mundo”, que en un principio llamarían las “Indias Occidentales”, en contraposición a las “Indias Orientales”, a las que nunca llegó.

“Por el Oro, Dios y la Gloria” (2016), de Igor Babailov. Imagen de [7]

Biblioteca

1.- Raúl Ibáñez, El sueño del mapa perfecto; cartografía y matemáticas, RBA, 2010.

2.- David Rumsey Map Collection.

3.- Aubrey Diller, The Ancient Measurements of the Earth, Isis, vol. 40, n. 1, p. 6-9, 1949.

4.- I. E. Drabkin, Posidonius and the Circumference of the Earth, Isis, vol. 34, n. 6, p. 509-512, 1943.

5.- V. Frederick Rickey, How Columbus Encountered America, Mathematics Magazine, vol. 65, n. 4, p. 219-225, 1992.

6.- Denis Guedj, El Teorema del Loro, Anagrama, 2000

7.- Catàleg d’obres de Joan Brull i Vinyoles

8.- Página de Igor Babailov

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo El tamaño sí importa, que se lo pregunten a Colón (o de la geometría griega para medir el diámetro de la Tierra) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La geometría de la obsesión
  2. #Naukas14 El tamaño sí importa…sobre todo en el nanomundo
  3. El tamaño importa en organismos, empresas, ciudades y economías
Categories: Zientzia

Salaketa faltsuak atzemateko gai den softwarea garatu du Poliziak

Zientzia Kaiera - Wed, 2018/10/03 - 09:00
Juanma Gallego VeriPol izeneko sistemak adimen hizkuntzaren prozesamendua eta ikasketa automatikoa baliatzen ditu salaketetan jasotako testuak aztertzeko eta bertan idatzita dagoenaren inguruko “ebazpen” bat emateko. %91 asmatzen omen du.

XIX. mendean Eugene Vidocq detektibeak kriminalistikaren oinarriak jarri zituenetik denbora dezente igaro da, eta askotarikoak dira delituak argitu aldera komisaldegietan erabiltzen diren teknikak. Horietako batzuk oso ezagunak dira, bai telebistan edota auzi ospetsuenetan agertu direlako: DNA bidezko identifikazioak, erretratu robotak edota hatz-aztarnak dira horren adibide.

1. irudia: Kriminalistikaren alorrean delituak atzemateko teknika ugari garatzen ari dira, besteak beste, delitua noiz eta non izango den aurreratu nahian. (Argazkia: Juanma Gallego)

Baina badira beste zenbait teknika hain ezagunak ez direnak, batez ere garapen bidean daudelako, eta segurtasunari eta norbanakoen askatasunei eragiten dieten faktore guztietan bezala, halabeharrez tentu handiz garatu behar direlako.

Adibidez, datu espazialak, denborazkoak eta jarduera kriminalari lotutako estatistikak batuz, geodelituaren arloa garatzen ari da, eta AEBtako hainbat estatutan app gisa erabiltzen hasiak dira, patruilariek erronda egin baino lehenago eremurik “beroenak” zeintzuk izan litezkeen jakin dezaten. Gugandik gertu, duela hainbat urte Gasteizko Delituen Atlasa osatu zuen Eileen Matz ikasleak, Udaltzaingoarentzat erabilgarria izango zelakoan, baina Udalak ez du zabaldu izan nahi horren erabileraren inguruko informaziorik.

Datuen bidezidor beretik, bestelako aplikazioak zabaldu dira. Adibidez, Journal of Drug Issues aldizkarian argitaratutako ikerketa batean AEBtako zenbait hiritan kokainak zuen prezioari buruzko datuak erabili zituzten trafikatzaileek erabiltzen hasiak zituzten ibilbide berriak azalarazteko.

Are gehiago, neurozientziaren alorrean ere hasierako probak egin dira azken urteotan, pertsona batek esandakoa egia ote den igartzen saiatzeko, poligrafoaren famatuaren bertsio berritu bat balitz bezala. Neurozuzenbidea deitu izan zaio diziplinari. Jose Ramon Valdizan neurofisiologo espainiarra da mundu mailan teknika horietako bultzatzaile handienetako bat, eta bereziki P300 garuneko uhinaren analisia baliatu du ospa handiko hainbat kasu ikertzeko. Kazetari honi Valdizanek aitortu dio teknikak duen trabarik handiena: Espainiako legeak ez du teknika hori aintzat hartzen, eta defentsako abokatuek hori baliatzen omen dute sumario osoa bertan behera uzten saiatzeko.

Duela gutxi teknika honen aldaera berri bat aurkeztu dute. Kasu honetan, auzipetuen testigantzak ez, baizik eta lapurreta txikien haritik idatziz jasotako salaketak ikertzen duen softwarea asmatu dute. Hala izanik, ez dirudi traba legal gehiegirik izango duenik.

VeriPol izena eman diote, eta funtsean salaketen testua aztertzen duen programa bat da. Knowledge-Based Systems aldizkarian argitaratutako ikerketa artikuluan zehaztu dutenez (Researchgaten ere eskuragarri), sistema eraikitzeko hiru metodologia erabili dituzte: Hizkuntzaren Prozesamenduko algoritmoak, aldagaien aukeraketa, eta ikasketa automatikoko algoritmoak. “Honek aukera ematen digu ulertzeko jendeak nola gezurra esaten dion poliziari, eta baita benetako salaketa batek zer nolako itxura duen jakiteko”, zehaztu dute artikuluan.

Bertan azaldu dutenaren arabera, lapurretei buruz egiten diren salaketa faltsuak zehaztea zaila da, baina egileek kalkulatu dute halako salaketen %57 ez direla egiazkoak.

2. irudia: Batez ere telefono mugikorren ustezko lapurretak atzeman dituzte VeriPol ereduari esker; asko asmatzen omen dira asegurua kobratzeko. (Argazkia: Josh Felise / Unsplash)

Egoera horri aurre egin nahi izan zion Miguel Camacho Espainiako Polizia Nazionaleko inspektoreak. Polizia izateaz gain, matematikaria eta estatistikaria da Camacho, eta polizia prediktiboan doktoretza egin du Los Angeleseko UCLA Unibertsitatean. Bertatik Espainiara itzultzean bururatu zitzaion software hori garatzea, El País egunkariak argitaratutako artikulu baten arabera.

Hainbat kolaboratzailerekin batera VeriPol izeneko eredua garatu du, eta Espainiako Polizia Nazionalak salaketak biltzeko erabiltzen duen SIDENPOL izeneko fitxategian txertatu ahal izateko prestatu zuten. Modu horretan, poliziak jasotako salaketa errealekin probatu ahal izan dute tresna. Ikerketa artikuluan bertan zehazten dutenez, zientzia literaturan ikerketa helburuetarako erabili diren beste ereduak ez bezala, benetako testuekin frogatu eta balioztatu den lehen eredua da VeriPol.

Artikuluan aitortu dute oso arlo berria dela honakoa, eta, horregatik, zaila egin zaie orain arte proposatu diren beste hainbat eredurekin alderatzea. Gainera, testu faltsuak atzemateko ereduek posta elektronikoan izaten den spam-a edo internet bitartez egindako produktuen kritika faltsuak izan dituzte ohiko jomuga.

Poliziari gezurra esaten zaionean maizen erabiltzen diren hitz multzoak atzematen ditu VeriPolek. Sistema “entrenatzeko” 2015ean jasotako 1.122 salaketa izan dituzte oinarri. Horietatik 534 benetakoak ziren, eta 588, faltsuak. Salaketa horietan guztietan argi zegoen benetakoak ala faltsuak ote ziren, itxitako auziak zirelako. Gehienetan, lapurreta txikiak azaltzen zituzten salaketak ziren, hala nola mugikorren edo diru-zorroen ebasteak. Antza, salaketa gehienak sakelako telefonoarekin lapurretari lotuta daude, eta arlo honetan salaketa faltsu asko omen daude aseguruak kobratzeko. Baina erraza omen da iruzur horiek atzematea: egileen arabera, VeriPolek %91 asmatzen du. Horretan trebatuta dagoen polizia baten kasuan, asmatze tasa %75 dela kalkulatu dute.

Artikuluaren egileen esanetan, benetako salaketek zehaztasun gehiago eskaini ohi dituzte, baina salaketa faltsuetan zehaztasun horiek alboratzen dira. Era berean, benetako salaketek gertatutakoa eta lapurra bera sakontasun handiagorekin deskribatzen dituzte. Diskurtso faltsuan, berriz, ustez lapurtutako objektuan jartzen dute arreta, teorian izan den gertakarian arreta jarri beharrean. Hortaz, “asegurua”, “kontratua”, edota “iPhone” bezalako hitzak maiz agertzen dira.

Ba dira bereziki esanguratsuak diren bestelako terminoak. “Eguna” da horietako bat (“duela hiru egun lapurtu zidaten”, “ostegunean lapurtu zidaten” esan beharrean). “Motxila”, “kaskoduna” edo “beltzez jantzita” dira salaketa faltsuetan sarri errepikatzen diren terminoak.

Sinesgarritasunaren adierazle diren terminoak ere badira, hala nola “autobusa”, “tiratu” edo “hil”. Norabide berdinean, “ataria” edo “eskailburua” bezalako terminoek ere fidagarritasuna daukate, etxetik gertu izandako gertaeraren adierazle direlako; aldiz, gezurra diotenek ustezko gertakaria etxetik “urrun” kokatu nahi dute. Ezezko esaldi asko egoteak zalantzagarritasun adierazletzat hartzen da, eta baita “apenas” bezalako hitzak.

Proba pilotua izan da honakoa, baina egileek espero dute sistema polizialean txertatu ahal izatea. Iazko abenduak sistema honek Espainiako Polizia Fundazioaren Ikerketa saria eskuratu zuen, sustantzia arriskutsuak atzematea errazten duen “sudur elektroniko” batekin batera.

Erreferentzia bibliografikoa:

Quijano-Sánchez, Lara, et al., (2018). Applying automatic text-based detection of deceptive language to police reports: Extracting behavioral patterns from a multi-step classification model to understand how we lie to the police. Knowledge-Based Systems 149, 155-168. DOI: https://doi.org/10.1016/j.knosys.2018.03.010

———————————————————————————-

Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.

———————————————————————————-

The post Salaketa faltsuak atzemateko gai den softwarea garatu du Poliziak appeared first on Zientzia Kaiera.

Categories: Zientzia

Cristalografía (y 15): El siglo de Bragg

Cuaderno de Cultura Científica - Tue, 2018/10/02 - 11:59

En la conferencia que impartió Thomson ante la Sociedad Filosófica de Cambridge el 11 de noviembre de 1912, en la que presentaba las propuestas de W Lawrence Bragg, estuvo presente el físico Charles TR Wilson (que se haría famoso por sus cámaras de niebla para localizar rayos cósmicos y otras partículas y que le valdrían el premio Nobel en 1927). En el turno de preguntas Wilson sugirió que los rayos X también deberían reflejarse en las caras externas de los cristales, siempre y cuando las caras fuesen suficientemente lisas.

La idea tenía sentido, por lo que Lawrence realizó inmediatamente una serie de experimentos en las caras de exfoliación de la mica, ya que se suponía que debía de ser muy plana incluso a escala atómica. Lawrence pudo fotografiar esta reflexión y en diciembre, esto es, poco más de un mes después de la sugerencia de Wilson, aparecía en Nature su The Specular Reflexion of X-rays.

Por su parte William H Bragg demostró poco después que el espectrómetro de rayos X que había construido podía detectar los rayos X monocromáticos difractados, pero no con una placa fotográfica sino con un detector de ionización de gas.

La importancia de la ley de Bragg, así como la capacidad del espectrómetro para registrar las intensidades de los rayos X de una longitud de onda determinada, quedó demostrada de forma espectacular en dos artículos aparecidos en los Proceedings of the Royal Society en 1913. En uno de ellos, firmado sólo por Lawrence, se analizaban las estructuras de los cristales de los cloruros de sodio y potasio, y del bromuro e ioduro de potasio; en el otro, de Lawrence con William, se estudiaba la estructura del diamante.

La metodología desarrollada por los Bragg constituía una forma fiable de determinar la estructura interna de todos los sólidos cristalinos y, por tanto, de explicar sus propiedades. Una vez que se descubrió la estructura del diamante, con átomos de carbono enlazados firmemente en tres dimensiones, era fácil entender que fuese tan duro. Cuando en los años treinta se determinó la estructura del grafito, de idéntica composición química que el diamante, se entendió que, a pesar de ello, fuese tan blando, que reaccionase químicamente de forma tan diferente y que tuviese comportamiento electrónico tan distinto.

Durante las décadas siguientes la ecuación de Bragg y el espectrómetro se convirtieron en los ejes de la investigación difracción de rayos X, desplazando el método policromático de Laue. Con todo, algunos investigadores usaban ambos procedimientos, el más famoso Linus Pauling en la determinación de las estructuras de la hematita y el corindón en 1925.

En 1919 Lawrence sucedió a Ernest Rutherford en la cátedra de física de la Universidad de Manchester. Allí se dedicó al estudio de las propiedades químicas y físicas de los silicatos, los minerales más abundantes en la corteza terrestre y que, sin embargo, las aproximaciones químicas tradicionales no habían terminado de explicar satisfactoriamente a nivel atómico. Por ejemplo, hoy sabemos por qué la mica y el talco son blandos o el berilo duro gracias al trabajo de Lawrence en esta época.

Lawrence demostró que muchos minerales, especialmente los silicatos, están dominados por el oxígeno cargado negativamente que ocupa buena parte del espacio mientras que los cationes metálicos ocupan los intersticios que dejan. En el caso de los silicatos descubrió una coordinación tetraédrica de cuatro átomos de oxígeno independiente del ratio silicio: oxígeno.

También durante la época de Manchester, Lawrence resolvió las estructuras del latón-gamma y de varias aleaciones magnéticas, fundamentales para el desarrollo de la teoría moderna de los metales.

En 1938, Lawrence volvía a suceder a Rutherford, esta vez al frente del laboratorio Cavendish de Cambridge, al que revolucionaría, sobre todo tras el esfuerzo bélico de la Segunda Guerra Mundial, orientándolo hacia la cristalografía de interés biológico, donde él veía el futuro. Aquí, basándose en el trabajo de 1934 de JD Bernal y Dorothy Crowfoot (después Hodgkin) que demostraba que las proteínas cristalizadas difractaban los rayos X en patrones complejos, alentaría a Max Perutz y John Kendrew (ambos Nobel de química 1962), en la determinación cristalográfica por rayos X de la estructura, endiabladamente compleja, de las proteínas hemoglobina y mioglobina. Más tarde daría rienda suelta a las investigaciones de Francis Crick y James Watson sobre el ADN (ambos Nobel de medicina o fisiología 1962).

En 1953, Lawrence se convirtió en director de la Royal Institution. De nuevo su impulso revolucionaba una institución: la nueva línea de la cristalografía de estructuras biológicas se veía potenciada con la construcción de un difractómetro lineal de rayos X automatizado, primero en su género. Fue este aparato el que permitió a Kendrew, al que Bragg había incorporado como investigador “honorario”, junto a David Phillips determinar los últimos detalles de la primera proteína caracterizada, la mioglobina. También ayudaría a Phillips y a Louise Johnson con la determinación y modo de actuación de la estructura de la primera enzima, la lisozima.

Desde su descubrimiento en 1912 el método de los Bragg permitió el establecimiento de múltiples grupos de investigadores en todo el mundo trabajando en la determinación de todo tipo de estructuras moleculares. No menos de 24 premios Nobel se han concedido relacionados con la difracción de rayos X. Hoy día sigue estando en el corazón de la cristalografía y, con esta, en todas las ramas de la ciencia.

Referencias generales sobre historia de la cristalografía:

[1] Wikipedia (enlazada en el texto)

[2] Cristalografía – CSIC

[3] Molčanov K. & Stilinović V. (2013). Chemical Crystallography before X-ray Diffraction., Angewandte Chemie (International ed. in English), PMID:

[4] Lalena J.N. (2006). From quartz to quasicrystals: probing nature’s geometric patterns in crystalline substances, Crystallography Reviews, 12 (2) 125-180. DOI:

[5] Kubbinga H. (2012). Crystallography from Haüy to Laue: controversies on the molecular and atomistic nature of solids, Zeitschrift für Kristallographie, 227 (1) 1-26. DOI:

[6] Schwarzenbach D. (2012). The success story of crystallography, Zeitschrift für Kristallographie, 227 (1) 52-62. DOI:

Este texto es una revisión del publicado en Experientia docet el 20 de febrero de 2014

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Cristalografía (y 15): El siglo de Bragg se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cristalografía (14): Generación X
  2. Cristalografía (11): Asimetrías y juegos de luz
  3. Cristalografía (8): Morfismos químicos
Categories: Zientzia

Zientzia, noren izenean?

Zientzia Kaiera - Tue, 2018/10/02 - 09:00
Josu Lopez-Gazpio Zientziaren munduan lehiakortasun izugarria dago. Publish or perish -argitaratu ala hil- deitu izan zaionaren diktaduran bizi da zientzia eta ikerketa-artikuluak argitaratzeko obsesio modukoa nabari da. Zenbait kasutan ikerketak zatikatzen dira ahalik eta artikulu gehien argitaratu ahal izateko. Azken horri salami publication deritzo: ahalik eta informazio-kantitate txikiena jartzen da artikulu bakoitzean, ikerketa berak hainbat argitalpen eman ditzan. Horiek kontu arrotzak izan daitezke zientzian ez dabiltzan irakurleentzako, baina, ikertzaileek -batez ere karrera akademikoa hasten ari direnek- ondo ezagutzen dituzte argitalpenen diktaduraren legeak.

1. irudia: Ikerketa-artikuluak sinatzea ezinbestekoa da ibilbide akademikoan aurrera jarraitzeko. (Argazkia: Free-Photos – domeinu publikoko irudia. Iturria: pixabay.com)

Zientzialari baten curriculumak ezer gutxi balio du ikerketa-artikuluak -zientziaren munduan paper deitzen direnak- sinatzen ez baditu. Are gehiago, zenbat eta paper gehiago sinatu, haren curriculuma beteagoa egongo da. Egia da beste hainbat ezaugarri ere kontuan hartzen direla, baina, pisu gehiena argitalpen zientifikoek daramate. Horren harira, duela gutxi J. Ioannidis, R. Klavans eta K. Boyack ikertzaileek zientzia-artikuluen egile hiperoparoak identifikatu dituzte Nature aldizkariarentzat. Izen hori jarri diete urte batean 72 artikulu baino gehiago argitaratzen dituzten egileei -bost egunez behin argitalpen bat litzateke hori-. Horietako egileak ez dira gutxi: 9.000 baino gehiago daude munduan.

Zientzia-artikuluen garrantzia

Zientzia-argitalpenen mundua oso arrotza izan daiteke gertutik ezagutzen ez dutenentzat. Argitalpenen garrantzia honetan datza: zientzialari batek ikerketa egin ostean, zientzia-komunitateari bere ikerketen emaitzak jakinarazi behar dizkio; izan ere, komunikatzen ez den zientzia egiten ez denaren parekoa da. Horretaraino guztizko adostasuna dago. Alabaina, egun, kalitate altuko aldizkarietan argitaratutako artikuluek garrantzi handia dute eta, hortaz, lehia sortzen da aldizkari horietan argitaratzeagatik. Aldizkari horietan argitaratzen ez denak pisu txikia du ikertzailearen curriculumean eta, hortaz, ibilbide akademikoan jarraitzeko aukerak murrizten zaizkio etengabe argitaratzen ez badu. Era berean, diru-laguntzak jasotzeko edota akreditazioak lortzeko ikertzaileak argitaratu dituen artikuluak zenbatu ohi dira: artikulu kopurua eta artikuluak argitaratu direneko aldizkarien kalitatea hartu ohi dira kontuan, nagusiki.

2. irudia: Egunotan ohikoa da ikerketa-talde handiek elkarlanean lan egitea eta, hortaz, sinatzaile asko izan ditzakete ikerketa-artikuluek. (Argazkia: rawpixel – domeinu publikoko irudia. Iturria: pixabay.com)

Esandakoaren ondorioz, ahalik eta artikulu gehien argitaratzea da ikertzaile askoren nahia -eta beharra, kasu askotan-. Ildo horretatik, Nature aldizkarian argitaratu berri den gutunean egile hiperoparoak aztertu dituzte, hots, 5 egunean behin ikerketa-artikulu bat argitaratzen dutenak. Horrek, jakina, ez du esan nahi praktika okerrak egiten ari direnik -egiten ari ez direnik ere ez-. Egile oparo horiek identifikatzeko datu-baseetan ikertzaileak bilatu dituzte, eta baita aurkitu ere. Azalpena sinplea da: ikertzaile garrantzitsuek talde handiak gidatzen dituzte, edota hainbat talde, eta talde horiek argitaratzen dituzten ekarpen guztiak sinatzen dituzte. Esaterako, fisikaren alorreko punta-puntako ikerketetan ez da arraroa artikulu batek bostehun edo mila egiletik gora izatea.

Ioannidis eta bere lankideek identifikatu dituzten 9.000 egile hiperoparoen %86 fisikaren esparrukoak dira. Beste 1.000 inguru txinatarrak edo korearrak dira eta egileek zalantzan jarri dituzte autoretza horiek -diru truke argitaratutakoak izan ote litezke, edo ustelkeria kasuekin lotuta egon litezke-. Bi talde horiek alde batera utzita, 265 egile identifikatu dituzte. Kopuru hori handia edo txikia den testuinguruan jartzeko, esan behar da ikertzaile hiperoparoen kopurua 20 aldiz handitu dela 2001etik 2014ra -egile arrunten kopurua, berriz, 2,5 aldiz handitu da-. Berriro ere azpimarratu behar da horrek ez duela esan nahi, inondik inora ere, egileok praktika okerrak egiten ari direnik. Alabaina, Nature-ko gutuna sinatu dutenek zientzia-argitalpenen autoretzaren gaiak ekar ditzakeen arazoak plazaratu nahi izan dituzte.

Autoretza zer den

Guzti honek zientzia-ekarpen baten autoretza norena den erabakitzeko irizpideak berraztertzea eska dezake. Ikerketa-artikulua sinatu behar al du lanaren berrikuspena bakarrik egin duen zientzialariak? Sinatu behar al du diru-laguntza lortu duen ikertzaileak? Sinatu behar al du lan automatizatu hutsak egin dituen ikertzaileak? Zentzu horretan, lan baten egile izatea zer den erabakitzeko Vancouver irizpideak dira onartuenak. Irizpide horien arabera, argitalpen baten egile izango da ekarpen adierazgarriak egin dituen ikertzailea -datuak lortzen, analizatzen edo interpretatzen-, lana idazten edo berrikusten parte hartu duena, azken emaitza onetsi duena eta ikerketa-lanaren atal guztien erantzule dena. Era berean, irizpide horien arabera artikulu baten edozein sinatzailek gai izan behar du beste egile guztiek zein lan zehatz egin duten jakiteko eta, gainera, beste egileen lanean konfiantza osoa izan behar dute. Azaldutako irizpide horiek guztiak betetzen ez dituztenen izenak “esker onak” atalean izendatu beharko dira, baina, ez dira argitalpenaren egileak izango -ez lukete izan beharko behintzat Vancouver irizpideen arabera-.

Vancouver irizpideak betetzea zaila da eta, ziur asko, sarri askotan ez dira betetzen. Esaterako, diru-laguntzen lorpen hutsak edota talde baten zuzendaritzak soilik ez du bidezko egiten ikerketa-artikulua sinatzea. Zientziaren izen ona mantendu nahi bada, zientzialariok paper baten autoretza modu egokian sinatzea ezinbestekoa da, baina, baita diru-laguntzak eta curriculum akreditazioak ematen dituzten erakundeen aldetik curriculum ekarpenak modu egokian egitea. Zientziaren izenean.

Erreferentzia bibliografikoa:

Ioannidis, John P.A., Klavans, Richard & Boyack Kevin W., (2018). Thousands of scientists publish a paper every five days. Nature 561, 167-169. DOI: https://doi.org/10.1038/d41586-018-06185-8

Informazio osagarria:

—————————————————–
Egileaz: Josu Lopez-Gazpio (@Josu_lg) Kimikan doktorea, irakaslea eta zientzia dibulgatzailea da. Tolosaldeko Atarian Zientziaren Talaia atalean idazten du eta UEUko Kimika sailburua da.
—————————————————–

The post Zientzia, noren izenean? appeared first on Zientzia Kaiera.

Categories: Zientzia

Una fórmula para dominarlos a todos: El trabajo

Cuaderno de Cultura Científica - Mon, 2018/10/01 - 11:59

A los científicos nos encanta ir reduciendo la multiplicidad del mundo observable a combinaciones de objetos más simples o a leyes más generales.

Con esta actitud hemos desarrollado explicaciones relativamente sencillas que dan cuenta de multitud de fenómenos de mucha mayor complejidad. Podríamos citar como ejemplos la tabla periódica o las ecuaciones de Maxwell.

Es preciso recordar que la naturaleza no tiene por qué ser simple ni elegante y que hay cierta complejidad con la que tenemos que lidiar, bastante agradecidos deberíamos estar de que se “deje” describir con las matemáticas.

Entre todos los científicos quizá los físicos seamos de los más recalcitrantes en esta actitud. Desearíamos que cualquier factor de una fórmula fuera una combinación de las constantes universales: c, ℏ, e… mientras que un ingeniero, que tiene que vérselas con el intransigente MundoRealTM, no tendrá mayores reparos en ir haciendo pruebas y ajustar su valor “a mano”, perdón, heurísticamente.

Con las fórmulas nos pasa algo parecido. Por ejemplo, la ley de la palanca, todo el mundo la conoce, todo el mundo la aplica (imagen de abajo). Muy bien, pero, ¿por qué? ¿De dónde sale eso? Cuando juntemos las fórmulas claves de la ciencia: las leyes de la termodinámica, las leyes de Newton… ¿habrá que hacerle un hueco a esta “ley de la palanca” que nadie sabe de dónde salió ni a quién debe pleitesía?

P · Bp = R · Br. La fuerza que se hace por un lado multiplicada por la distancia al punto de giro será igual a la fuerza que se resiste por el otro lado multiplicada por la distancia al punto de giro. Fuente: Dnu72 / Wikimedia Commons

Pues no. Esta fórmula es fácilmente derivable de nuestra vieja amiga, la conservación de la energía que, como ya os contamos aquí, es de los asuntos que más claro vemos (aunque haya quien siga buscando un móvil perpetuo de primera especie y que Lisa Simpson lo tire por tierra con un proyecto escolar).

Nuestro objetivo en esta serie será derivar las fórmulas de los distintos mecanismos a partir de la conservación de la energía.

Como vamos a hablar de energía y trabajo quizá lo primero sería explicar cómo definimos el trabajo en física.

Para ser más precisos diremos “el trabajo que hace una fuerza”. Y dicho en palabras más sencillas sería: ¿Qué efecto ha producido esa fuerza en el sistema?

A ver qué os parece esta metáfora:

Tenéis una mina y un grupo de trabajadores que están con el mineral y las vagonetas. Miremos por la ventana.

Trabajador1: Está sentado tan tranquilo.

Trabajador2: Está empujando una vagoneta y esta se mueve en el sentido que está siendo empujada.

Trabajador3: Está empujando una vagoneta que se mueve por unos raíles, pero el tipo la empuja perpendicularmente al movimiento.

Trabajador4: Mientras dos trabajadores empujan una vagoneta en un sentido, nuestro amigo empuja en sentido contrario.

Volvamos a nuestra oficina y vayamos pensando en las nóminas de este mes.

El trabajador número uno, cuya fuerza es cero, supongo que no esperará ningún pago. Podríamos decir en lenguaje común que el trabajo ha sido cero.

El trabajador número dos sí que parece que nos esté aportando algún efecto, algún trabajo. La vagoneta se mueve y tiene que ver con la fuerza que está recibiendo. Muy bien. De hecho, si empujase con más fuerza o la vagoneta se moviese más distancia, me plantearía pagarle más.

El trabajador número 3 suda como un pollo, el pobre, pero no me aporta nada, la fuerza que él hace no tiene un efecto sobre el resultado que vemos. Lo siento, pero no cobrará, trabajo = cero.

El trabajador número cuatro me va a oír cuando acabe el día. No sólo no está aportando, sino que está dificultando, no diré que no tiene un efecto sobre el sistema, sí que lo tiene: negativo. Así que, bien podría pedirle yo dinero, en lugar de dárselo.

Escribamos esto como una ecuación:

El trabajo (el efecto) es directamente proporcional a la fuerza que se hace, a la distancia que se recorre… pero resulta importante el ángulo con el que se hace. Siendo lo más favorable estar alineado y apuntar en el mismo sentido, de influencia cero si se está perpendicular y negativo si se aplica la fuerza en sentido contrario al movimiento. Esto matemáticamente queda bien definido de la siguiente manera:

W = F · d · cos ɸ

W: Trabajo

F: Fuerza

d: distancia

ɸ: ángulo entre la fuerza y el desplazamiento.

La función coseno nos selecciona esa “parte” de la fuerza que está alineada con el desplazamiento y nos dará el valor negativo si va en sentido contrario.

Por lo tanto, si fuerza y desplazamientos están alineados y van en el mismo sentido, tendremos:

W = F · d

En la próxima entrega hablaremos de conservación de la energía y cómo aplicar estos argumentos a la obtención de la ley de la palanca.

Sobre el autor: Javier Fernández Panadero es físico y profesor de secundaria además de escritor de libros de divulgación.

El artículo Una fórmula para dominarlos a todos: El trabajo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ciencia para todos a través del cine y la literatura de ciencia ficción
  2. Arte & Ciencia: ¿Qué interés puede tener para los artistas el trabajo de un científico?
  3. La fórmula para una fiesta ‘acústicamente’ perfecta
Categories: Zientzia

Materialak bioelektronikarako

Zientzia Kaiera - Mon, 2018/10/01 - 09:00
Polimeroak eta polisakaridoak konbinatzea bioelektronikarako, giza ehunetan hobeto txertatuko diren materialak sortzeko, proposatzen du ikerketa batek.

Eroankortasun ioniko eta elektronikoko material polimeriko berriak sintetizatu dira ikerketan bioelektronikan erabiltzeko eta etorkizun oparoko emaitzak lortu dituzte ehun-ingeniaritzaren eremuan.

Propietate mekaniko bigunak eta eroankortasun ioniko eta elektronikoa dituzten eta ehun biologikoekiko bateragarriak diren materialen belaunaldi berria lortzeko behar handia dago bioelektronikaren arloan. Gaur egungo aplikazio bioelektronikoetan gehien erabiltzen den polimero eroalea PEDOTa da (poli 3,4-etilendioxitiofenoa) eta PSSarekin (poli(3,4-etilendioxitiofeno)-poli(estireno sulfonato)arekin) dopatu ohi da, eroankortasun elektroniko eta ioniko, biobateragarritasun eta egonkortasun handiak baititu.

PEDOTa PSSarekin dopatuta merkaturatzen da egun, baina eragozpen bat du: ez da biofuntzionala. Haren biobateragarritasuna hobetzeko, PEDOT-material berriak ekoiztea izan du ardatz ikerketak; PSSa erabili beharrean, hainbat polisakaridorekin egonkortu dute PEDOTa, hala nola xantana gomarekin eta guar gomarekin, materiala hobeto txerta dadin giza ehunetan.

Biobateragarritasuna hobetzea

Ikerlan honetan egin diren PEDOT-polisakarido konbinazioetatik abiatuz, bi material berri sortu dira:

1. Gel ionikoak. PEDOTa duten lehen gel ionikoak dira. Propietate paregabeak ditu, osatzen duten materialen konbinazioaren ondorioz: eroankortasun elektronikoa PEDOTaren eraginez, eroankortasun ionikoa likido ionikoagatik eta elastikotasuna guar goma polisakaridoari esker. Material honek gainditu egiten ditu dagoeneko existitzen diren PEDOT-hidrogelak, ez baita lehortzen, egonkorragoa da eta ez ditu galtzen ez propietate mekanikoak ez eroankortasuna. Propietateak eta bioelektronikan dituzten aplikazioak ikertzen ari dira, besteak beste, elektrofisiologiarako larruazaleko elektrodo gisa duten erabilera. Larruazalaren gainean jarrita, gorputzeko jarduera elektrikoa transmititzen dute elektrodoetara, erregistratzeko.

2. Scaffold hiru dimentsioko egitura porotsuak. Zelulak hiru dimentsiotan hazteko eta ehunak sortzeko euskarriak dira. Polisakarido edukiari eta elkarrekin konektatuta dauden poroei esker, zelulek afinitate handia dute aldamioekiko. Frogatu dute material horien porositatea eta propietate mekanikoak oso erraz eralda daitezkeela, eman nahi zaien erabileraren arabera. PEDOTaren eta polisakaridoaren edukia aldatuz, poroek diametro handiagoa edo txikiagoa izan dezakete eta aldamioa, oro har, bigunagoa edo gogorragoa izan.

Emaitzen arabera material polimeriko hauen propietate paregabeei esker, aplikazio berriak zabaldu daitezke bioelektronikaren arloan: gailu elektronikoak gure gorputzarekin txertatzea lortzen dute, baita egungo aplikazioak hobetu.

Iturria: UPV/EHUko prentsa bulegoa. Etorkizun oparoko materialak bioelektronikarako

The post Materialak bioelektronikarako appeared first on Zientzia Kaiera.

Categories: Zientzia

La cultura del fútbol

Cuaderno de Cultura Científica - Sun, 2018/09/30 - 11:59

En un partido que acabó siendo legendario se llegó, incluso, a invocar la mano de Dios.”

Juan Ignacio Pérez.

En el fútbol hay que intentar engañar al contrario, ¿sí o no?”

Mauricio Pochettino, entrenador.

Todo el estudio de los políticos se emplea en cubrirle el rostro a la mentira para que parezca verdad, disimulando el engaño y disfrazando los designios.”

Diego de Saavedra Fajardo (1584-1648).

El lenguaje político está diseñado para que las mentiras parezcan verdades.”

George Orwell.

Hay tres cosas que la mayoría de los estadounidenses toman como un artículo de fe: el cielo es azul, el Papa es católico, y los políticos son mentirosos.”

Brian Montopoli, periodista CBS, 2012.

Todo cuanto sé con mayor certeza sobre la moral y las obligaciones de los hombres, se lo debo al fútbol.”

Albert Camus.

En julio de este año los medios comentaron un informe, publicado por el Washington Post, sobre las mentiras que Donald Trump ha dicho desde que tomó posesión de la presidencia en enero de 2017. Solo en los dos últimos meses antes de la publicación del informe había mentido unas 1000 veces con mentiras totales, afirmaciones falsas o medias verdades. Algo así, como media, unas 16 mentiras al día. A esta conducta, los psiquiatras la diagnostican como mitomanía, mentira patológica o pseudología fantástica. Trump y sus colegas lo llaman hechos alternativos o postverdades.

No hay muchas estadísticas pero se ha propuesto que uno de cada diez adultos es mitómano, sin diferencias entre géneros. Las estadísticas de Trump, según el Washington Post, indican que va a peor pues miente cuatro veces más que cuando llegó a presidente: entonces el promedio era de 4.6 mentiras al día y, ahora, hemos visto que llega a las 16 al día.

Y, también en el mes de julio, la prensa publicó un estudio de la cadena suiza de televisión RTS sobre el tiempo que pasó en el suelo el jugador brasileño Neymar durante los cuatro primeros partidos que jugó en el Campeonato Mundial de Fútbol de Rusia. En total fueron 14 minutos, en el suelo, derribado y con muchos dolores y aspavientos. Después de la publicación del informe de la RTS, en el siguiente partido, el quinto que jugó Neymar, casi no cayó al suelo. Brasil perdió y fue eliminada.

Es una conducta habitual en el fútbol. Como decía Pochettino en la cita que abre este texto, si hay que engañar, se engaña y ya está. Sobre la conducta de Neymar, el exjugador internacional brasileño Rivaldo escribió en las redes sociales que

Neymar, juega como siempre lo hiciste y no te preocupes con los comentarios de los otros países, porque muchos ya regresaron a casa. Si tienes que eludir, elude. Si tienes que hacer un filigrana, hazla. Si tienes que hacer un gol, anótalo. Si tienes que caer por una falta, cae. Y si tienes que ganar tiempo quedándote en el piso, gánalo. Porque todos hacen los mismo.”

Es la cultura del fútbol, hay que ganar como sea. Como dice Rivaldo, los que pierden ya están en casa. En el estudio de Paul Morris y David Lewis, de la Universidad de Portsmouth, en Inglaterra, sobre imágenes de la Premier inglesa y con el diagnóstico de 30 observadores cualificados, se detecta cuándo y cómo se simula una falta. Hay cuatro conductas que indican que el jugador está simulando una falta:

  • se agarra partes del cuerpo que no han sido tocadas por el contario.
  • exageran de más al tocar el suelo (grita, se retuerce, rueda sobre sí mismo.,…).
  • después del contacto, da unos pasos y cae al suelo.
  • al sentir la proximidad del contrario levanta ambos brazos con las manos abiertas, echa el tórax y dobla las piernas hacia atrás, queda arqueado en el aire y, después, cae al suelo. Los autores denominan, con ironía, esta gesticulación como el “arco del arquero”.

Simular un derribo es una estrategia muy utilizada por los futbolistas para conseguir que el árbitro pite una falta o un penalti. Después de todo, en el fútbol el reglamento se aplica a criterio de los árbitros. Pero, la simulación es, a su vez, una jugada ilegal según el ¡reglamento. Para detectar faltas simuladas, Peter Renden y su grupo, de la Universidad Libre de Amsterdam, están desarrollando, con las propuestas de lenguaje corporal de Morris y Lewis, un protocolo para descubrir las simulaciones. Solo necesitan revisar los movimientos del jugador y el diagnóstico de observadores expertos como árbitros y jugadores.

En la práctica del juego, tirarse en el área para simular un penalti lo estudiaron Eran Sabag y su colegas, del Instituto Wingate de Netanya, en Israel, con 160 grabaciones de 339 jugadas de la Primera División israelí analizadas por 16 árbitros experimentados.

En el 34.5% de las jugadas analizadas el delantero se tira cuando siente al defensa y simula la falta. Y en el 14% de las jugadas simuladas, el delantero ve la tarjeta amarilla por simular la falta pero, también, en el 8.5% de las simulaciones el árbitro pita penalty. Según los evaluadores, el porcentaje de simulaciones es el doble, con el 17.7%, que las jugadas en que el defensa derriba realmente al delantero.

Pero también hay simulaciones en el resto del campo y no solo en el área de penalti. Según la revisión de Daryl Rosenbaum y sus colegas, de la Universidad Wake Forest de Winstom-Salem, en Estados Unidos, del repaso de grabaciones de 89 partidos en cuatro torneos internacionales, en cada equipo y por partido hay una media de 5.27 lesiones atendidas por los servicios médicos de cada club y que permiten seguir jugando al futbolista atendido. Pero también hay una media de 0.41 lesiones que obligan al jugador a retirarse. Y las lesiones que permiten seguir jugando abundan más en el último tercio del segundo tiempo y en jugadores del equipo que va ganando.

En el fútbol femenino y según un estudio del mismo grupo, el número de lesiones atendidas es parecido, 5.74 de media para las que permiten seguir jugando y 0.78 de las que obligan a cambiar a la jugadora.

Es evidente para cualquier practicante de este deporte que el engaño es esencial en su juego. El grupo de Iris Guldenpenning, de la Universidad de Paderborn, en Alemania, ha estudiado como una de las más espectaculares jugadas de fútbol, el dribling a un contrario, se basa en engañarle y provocar su movimiento para esquivarle y seguir la jugada. Ahí intervienen las neuronas espejo cerebrales que más adelante mencionaré.

Tan evidente y, a veces, tan escandalosa, es la utilización del engaño en el fútbol que el grupo de Francisco Javier Ponseti, de la Universidad de las Islas Baleares, ha preparado un cuestionario para cuantificar la disposición al engaño en los deportistas jóvenes. Lo prueban con 110 adolescentes, con 41 chicas, de 10 a 19 años y una edad media de 14.6 años. Entre ellos, hay 42 practicantes de fútbol y, para ellos, hay una propensión al engaño superior a la media. En esta investigación falta una encuesta a entrenadores y responsables de las canteras de los clubs sobre que jugadores elegirían para sus equipos, los que están por debajo o por encima de la media de simulaciones.

Volvamos a Donald Trump, a su extraordinario récord de mentiras y a la abundante presencia del engaño en la práctica política. Mentira y política van unidas desde hace siglos, desde siempre. Jonathan Swift ya lo comentaba con su típica ironía en su breve tratado titulado “El arte de la mentira política”, publicado en 1733. Allí dice que desconoce, a pesar de sus prolongadas investigaciones, quien convirtió la mentira en un arte y la adaptó a la política. Quizá, si leemos lo que escribió Swift, nos convenzamos de que, proféticamente, describía a Trump, o quizá los políticos de su tiempo eran ya muy parecidos a los actuales.

La superioridad de su genio no consiste en otra cosa que en un fondo inagotable de mentiras políticas, que distribuye con largueza cada minuto que habla y que, por una generosidad sin paralelo, olvida, y consecuentemente contradice la siguiente media hora. Hasta ahora no se ha detenido a considerar si una proposición es verdadera o falsa, sino si es conveniente en tal momento y para tal compañía.”

Y, como seguidor de la teorías de Swift, seguro que Trump apoya la definición de mentira política que ofrece:

el arte de hacer creer al pueblo falsedades saludables con vistas a un buen fin.”

Swift concluye que “todo el mundo miente”, tanto en política como, aunque en aquellos años lo ignoraba, en el fútbol.

Para confirmar, quizá, lo que proponía Swift, nos servirá el estudio, publicado en 2013, por Alessandro Bucciol y Luca Zarri, de la Universidad de Verona, en el que revisaban 2459 declaraciones, de 2007 a 2012, de 444 líderes políticos de Estados Unidos, tomadas de la base de datos PolitiFact que estudia la veracidad de las declaraciones de los políticos de aquel país.

El 64% de las declaraciones son, más o menos, mentiras y, en concreto, el 27.5% son mentiras totales. Como media, mienten más a los 56 años, y lo hacen, sobre todo, cuando tratan de finanzas públicas, de política en general y de economía. Mienten más los republicanos que los demócratas. Por ejemplo, en las elecciones en que salió elegido Obama fue el candidato que menos mentía. Lo cual no quiere decir que no mentía, solo que lo hacía con menos intensidad. Ya lo afirmó Otto von Bismarck en el siglo XIX: “Nunca se miente más que después de una cacería, durante una guerra y antes de las elecciones.”

Los últimos datos, del 15 de agosto, sobre Donald Trump en la PolitiFact dicen que miente, más o menos, el 69% de sus declaraciones, y el 47% de ellas son absolutamente falsas.

Por supuesto, no debemos creer que solo Neymar y Trump o, si se quiere, futbolistas y políticos, son los únicos que mienten. Un equipo formado por decenas de expertos llamado Grupo de Investigación Global sobre el Engaño, entre los que está Jaume Masip, de la Universidad de Salamanca, ha investigado la mentira y el engaño con voluntarios de 75 países con 43 idiomas diferentes. La conclusión es que todas las culturas conocen al estereotipo del mentiroso. Y su conducta más reconocible es que no miran a los ojos de su interlocutor, están nerviosos y su conversación puede ser incoherente. Pero, sobre todo, su conclusión es que en todas partes hay mentirosos. Un mundo de mentiras se titula la publicación de este grupo.

Cuando alguna conducta de la especie humana está extendida en muchos, casi todos por no exagerar, los individuos, podemos plantear la hipótesis de que ha sido seleccionada por el proceso de la evolución. De alguna manera ayuda a la supervivencia y la reproducción y es seleccionada para la mejor adaptación de la especie. Así, el engaño y la mentira son conductas beneficiosas para la especie humana.

Esta propuesta la han revisado Charles Bond y Michael Robinson, de la Universidad Cristiana de Texas en Fort Worth. En primer lugar, concluyen que la mentira y el engaño no son conductas exclusivas de nuestra especie sino que abundan en plantas, insectos, moluscos como, por ejemplo, los pulpos, camaleones, chimpancés, Homo sapiens y muchos otros.

Definen la mentira y el engaño como “una comunicación falsa que busca el beneficio del comunicador”. La búsqueda del beneficio puede ser consciente o no como ocurre en el caso de mimetismos y camuflajes permanentes. La conclusión de los autores es que la propensión a la mentira y el engaño es, en parte y según la especie, genética, y en parte puede basarse en el entorno social, en la cultura y en el aprendizaje. En nuestra especie, la genética de la mentira se basa en estudios con gemelos, en familias y en grandes grupos de voluntarios. De algún modo todavía no muy conocido, mentir es una ventaja evolutiva en Homo sapiens. Como especie, no solo como futbolista o político.

Detrás de la selección evolutiva de esta conducta, empezamos a conocer el funcionamiento del cerebro cuando se miente o engaña. Sería la base funcional de la adaptación que se ha seleccionado. Se ha sugerido la participación de las neuronas espejo. Estas neuronas cerebrales se activan cuando se observa una acción en otro individuo. Por tanto, reflejan el comportamiento del otro y participan en conductas como la imitación o la empatía. Así, se pueden adivinar en el otro sentimientos y sensaciones que, es obvio, es importante conocer para engañar o mentir.

En la actualidad, se investiga la intervención de las neuronas espejo tanto en el fútbol como en la política. Quizá, en algún momento, se encuentren evidencias de que las neuronas espejo de Donald Trump y de Neymar se parecen o, por lo menos, que funcionen parecido y provoquen conductas similares. Es la cultura del fútbol en la política, o viceversa, o, en todo caso, la mentira y el engaño y sus beneficios en nuestra especie. Es la cultura del engaño en que las reglas para su control se aplican a criterio del árbitro o del juez. Ante los mismos hechos, la aplicación puede no ser la misma.

Referencias:

Bond, Jr., C.F. & M. Robinson. 1988. The evolution of deception. Journal of Nonverbal Behavior 12: 295.307.

Bucciol, A. 2018. False claims in politics: Evidence from the US. Research in Economics 72: 196-210.

Bucciol, A. & L. Zarri. 2013. Lying in politics: Evidence from the US. Working Paper University of Verona Series 22: 43 pp.

Camus, A. 1957. Lo que debo al fútbol. France Football. Octubre.

Courtine, J.-L. 2006. Introducción. En “El arte de la mentira política”, p. 7-21. Sequitur. Madrid. 96 pp.

Morris, P.H. & D. Lewis. 2009. Tackling diving: The perception of deceptive intentions in association football (soccer). Journal of Nonverbal Behavior 34: 1-13.

Guldenpenning, I. et al. 2017. How to trick your oponent: A review article on deceptive actions in interactive sports. Frontiers in Psychology 8: 917.

Pennisi. E. 2011. Soccer and the art of deception. Science 331: 280.

Pérez, J.I. 2018. Fútbol es fútbol. Deia. 1 julio.

Ponseti, F.J. et al. 2012. El Cuestionario de Disposición al Engaño en el Deporte (CDED): su aplicación a jóvenes deportistas. Revista de Psicología del Deporte 21: 75-80.

Renden, P.G. et al. 2014. Foul or dive? Motor contributions to judging ambiguous foul situations in football. European Journal of Sport Science 14: S221-S227.

Rosenbaum, D.A. et al. 2010. Estimation of injury simulation in international men´s soccer. International Journal of Sport Science 31: 747-750.

Rosenbaum, D.A. et al. 2011. Estimation of injury simulation in international women´s football. Research in Sports Science 19: 162-169.

Sabag, E. et al. 2018. To dive or not dive in the penalti área? The questionable art of deception in soccer. International Journal of Sport and Exercise Psychology doi: 10.1080/1612197X.2018.1462100.

The Global Deception Research Team. 2006. A world of lies. Journal of Cross Culture Psychology 37: 60-74.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo La cultura del fútbol se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Fútbol es fútbol
  2. Fórmulas matemáticas y números: cómo ayuda la economía al fútbol
  3. Los beneficios de las prendas de compresión para los jugadores de fútbol
Categories: Zientzia

Asteon zientzia begi-bistan #222

Zientzia Kaiera - Sun, 2018/09/30 - 09:00
Uxue Razkin

Astronautika

Asteroide batean bi ibilgailu jarri ditu Japoniako espazio-agentziak. Hori egiten den lehen aldia da. JAXAtik jakinarazi dutenez, bi ibilgailuak egoera onean daude, irudiak eta datuak bidaltzen ari dira. Asteroidearen irudiak lortzeaz gain, gainazaleko tenperatura neurtzen dute ibilgailuek. Baina misioa ez da hemen amaituko. Hayabusa2 espazio-ontziak beste bi zunda askatu eta asteroidean jartzea dute aurreikusita.

Sustatuk ere eman du albiste honen berri eta asteroidetik egindako argazkia ere ikus daiteke artikuluan. Testuan zehar Ryugu asteroidearen ezaugarriak ezagutu ditzakegu: kilometro bat inguruko diametroa du, eta ondorioz, oso grabitate baxua du. Hayabusa2 asko gerturatu behar izan zaio roverrak bere gainera askatzeko, 55 metroraino.

Kimika

Noizbait saiatu zara espagetiak bi zatitan banatzen? Lehendabiziko ikerketek azaldu zuten espagetia apurtzean alderantzizko indarrak eta bibrazioak sortzen direla eta horiek dira, hain zuzen, espagetia zati gehiagotan apurtzea eragiten dutenak. Josu Lopez-Gazpiok gogoratzen digu gainera, espagetien inguruko ikerketari esker bi fisikari frantziarrek lortu zuteko 2006ko Ig Nobel Saria. Orain, MITeko bi matematikarik espagetiak zatitzearen fenomeno hori azaltzea lortu dute eta, gainera, irtenbidea eman diote. Jo ezazu artikulura!

Medikuntza

2004an diagnostikatu zioten aplasia medularra eta 2006an hezur muineko transplante batek sendatu ondoren, mediku ikasketak hasi zituen Blai Signesek. Egun, mediku egoiliarra da Nafarroako Ospitale Gunean. Hezur muineko transplanteaz mintzatu da nagusiki: “Jendeak hezur muina ematea eta bizkarrezur muina ematea nahasten ditu, eta uste du oso mingarria dela, baina ez da horrela. Bizirik gaudela egin daiteke; hiru-lau ordutan sofa batean eserita egiten da, eta ez du minik ematen. Pertsona bati bizia salba diezaiokezu”.

EHUko irakasle batek gizakiaren eta makinaren arteko nahasketaren eta zibermedikuntzaren gaurko panorama erretratatu du nazioartean argitaraturiko txosten batean. Horretaz gain, Gorka Oribe teknologia hezurraren sorkuntzan aplikatzeko lanean ari da. Begi bionikoak, burmuinean txertaturiko elektrodoak depresioa tratatzeko, gorputzaren parametroak kontrolatzen dituzten tatuaje elektronikoak izan dira mintzagai artikulu interesgarri honetan. Ez galdu!

Neurozientzia

Neurozientzialariek aurretik ezagutzen zuten irakurketarekin lotutako eremu nagusia baina orain eremu hori bi zatitan banatzen dela argitu dute. Ikerketa honen arabera, atzealdeko zatiak ikusizko informazioa jasotzen du eta aurrealdekoa informazio lexiko-semantikoaz arduratzen da.

Genetika

Genetika herri-kulturan pisu handia hartzen ari da Koldoren ustez. Albiste, adierazpen edota publizitateetan aurki ditzakegu “gure DNAn dago”, “geneen boterea zure eskura” eta halako esaldiak. Koldoren esanetan, ordea, euren produktuari sinesgarritasuna emateko erabiltzen dute baina horrek zientzia gaizki interpretatzea dakar. Horregatik, testu honen bidez bere ardura azaltzen du, “primeran” dagoelako genetika kontzeptuak hedatzea baina betiere gizartea genetikan alfabetatzea helburu izanik.

Ingeniaritza

Adimen artifizialaren alorrean egiten diren aurrerapausoek miresmena eta kezka sortzen dute aldi berean. Adituek, beraz, adimen artifizialaren arriskuak ekidin eta onurak eskuratu nahi dituzte. Gaiaren alde etikoa da nagusiki nabarmentzen dutena. Arautze etikoa “konplexua” baina “beharrezkoa” dela azpimarratu dute. Orobat, partekatutako erantzukizunak ezartzen dituzten sistemen alde azaldu dira adituak.

Biologia

Elefante afrikarrari eta zeroiei buruz idatzi dute Juan Ignacio Perezek eta Miren Bego Urrutiak. Ezaugarri komunak dituzte bi espezie hauek, elkarrengandik gertu ez dauden arren. Lehenengoa, lehorreko espeziea da eta bestea, itsasokoa. Bizitza luzekoak dira biak, 60 urtera hel baitaitezke, eta bizitzaren bigarren hamarkadan heltzen dira ugaltze-heldutasunera. Janari tona asko jaten dute biek ala biek eta bide luzeak egiten dituzte janariaren bila joateko. Ezaugarri gehiago dituzte komunean, irakur ezazue artikulua osorik horiei buruz gehiago jakiteko.

Zilarrezko partikulen eraginpean zebra arrainek epe luzera jasandako ondorioak aztertu ditu ikerketa batek. Zilarra uretan agertzeko duen moduak (disolbatuta edo nanopartikulatan) eragina du metalak arrainen organoetan duen banaketan ikerketaren emaitzen arabera. Gainera, jakin da zilar disolbagarriak epe laburreko alterazioak eragiten dituela eta nanopartikulek, berriz, epe luzeagora.

——————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.

———————————————————————–

———————————————————————–

Egileaz: Uxue Razkin kazetaria da.

——————————————————————

The post Asteon zientzia begi-bistan #222 appeared first on Zientzia Kaiera.

Categories: Zientzia

Maia García Vergniory: “Materiales que nos cambiaron”

Cuaderno de Cultura Científica - Sat, 2018/09/29 - 11:59

Las grandes transformaciones sociales y los cambios de paradigma registrados a lo largo de la historia de la humanidad suelen ir aparejados al descubrimiento de un nuevo material, cuyas novedosas aplicaciones acaban desencadenando una gran revolución. Este fue el hilo conductor de la charla “Materiales que nos cambiaron“, que la investigadora del Donostia International Physics Center (DIPC) Maia García Vergniory ofreció en Naukas Bilbao 2018, celebrado en el Palacio Euskalduna de Bilbao del 13 al 16 de septiembre.

Imagen: Maia García Vergniory, investigadora Ikerbasque en el Donostia International Physics Center, durante su charla en Naukas Bilbao 2018. (Fotografía: Iñigo Sierra)

La investigadora relató la relevancia de los materiales para el progreso de la civilización y aseguró que “El hombre deja de ser recolector con el uso de la calcita”.

Más adelante, el uso del hierro tuvo un impacto fundamental en el devenir de la civilización. Ese material está unido a la industria armamentística y a las guerras, pero también a la revolución industrial, las migraciones del campo a los grandes núcleos urbanos y a las transformaciones sociales que esos movimientos de población generaron.

Y si avanzamos hasta el momento presente las cosas no son muy distintas. La actualidad también está marcada por un material que ha revolucionado nuestras vidas: el silicio.

“Este material semiconductor es la base para la fabricación de cualquier transistor y el transistor es la base de nuestra tecnología”, dijo García.

Su gran abundancia -se trata del segundo elemento más presente en la corteza terrestre tras el oxígeno- y su relevancia para la industria electrónica han convertido al silicio en uno de los protagonistas de la era contemporánea, pero el uso masivo de las tecnologías digitales en las comunicaciones, las administraciones públicas, el transporte, los servicios financieros o la fabricación industrial está ejerciendo una fuerte presión para provocar la llegada de nuevas alternativas.

“Hay que encontrar un material nuevo porque el silicio ha llegado al límite de su capacidad en memoria y además consume mucha energía”, según la investigadora.

Uno de los candidatos a convertirse en el nuevo icono pop de los materiales es el grafeno, un material flexible, ligero, elástico, conductor térmico y eléctrico y con capacidad de modificarse para ser empleado en diferentes aplicaciones, pero, según la investigadora, todavía “queda bastante trabajo por delante” para que este material se convierta en una alternativa de mercado real.

Sobre la autora: Marta Berard, es periodista en la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Maia García Vergniory: “Materiales que nos cambiaron” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Un atlas para materiales 2D
  2. Selección sexual: la evolución de las diferencias entre los sexos, por Ambrosio García Leal
  3. Materiales tipo perovskita como contacto en pilas de combustible de óxido sólido
Categories: Zientzia

Ezjakintasunaren kartografia #230

Zientzia Kaiera - Sat, 2018/09/29 - 09:00

Pentsamenduei forma ematen die kulturak. Literalki. Esperimentu burutsuaren ostean lortutako emaitza da. Elger Abrahamse, ikertzaileetako batek azaltzen digu: Culture ´literally´ shapes our thoughts

Zer neurritan du eragina genetikak ikasketa mailan? Ez da galdera erraza, JR Alonsoren erantzuna Genetics of educational attainment

Espin kauntikoko Hall efektua agertzen duten materialak interesgarriak dira. DIPCko jendearen lan honen ostean, are interesgarriago Structurally well-defined boundaries in a fully accessible quantum spin Hall insulator

–—–

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #230 appeared first on Zientzia Kaiera.

Categories: Zientzia

La elasticidad es más importante que el tamaño a la hora de atravesar nanoporos

Cuaderno de Cultura Científica - Fri, 2018/09/28 - 11:59
Las nanopartículas con gran elasticidad tienen la capacidad de cambiar su conformación hasta ser capaces de atravesar poros incluso 10 veces menores que ellas. (studiom1-123RF)

El grupo de Polímeros y Materia Blanda de la UPV/EHU, donde confluyen investigadores del Centro de Física de Materiales-CFM (centro mixto CSIC-UPV/EHU), del Departamento de Física de Materiales y del Donostia International Physics Center (DIPC) ha publicado recientemente los resultados de un estudio en el que han investigado el paso (translocación) de nanopartículas sintéticas blandas a través de nanoporos y nanohendiduras de menor diámetro.

“Una de las áreas de investigación de nuestro grupo es la síntesis de cadenas de polímeros y su plegamiento hasta formar nanopartículas, intentando asemejar ese doblamiento al que se produce en las proteínas, en la naturaleza —expone el miembro del grupo Josetxo Pomposo, profesor de investigación Ikerbasque en la UPV/EHU—. Una posible aplicación de estas nanopartículas podría ser la dosificación de medicamentos, que serían transportados en los huecos que se forman al plegar las cadenas, que harían las veces de bolsillos, y se liberarían cuando la nanopartícula llegase a la zona a tratar”.

Pero para llegar a cumplir con esa función, las nanopartículas deben ser capaces de atravesar las membranas de las células diana, y “esa capacidad de atravesar los poros o hendiduras de las membranas, que son más pequeños que las propias nanopartículas, se ve condicionada por el nivel de plegamiento y la elasticidad que presenten”, detalla el investigador.

En este estudio, el grupo de investigación ha trabajado con un modelo de nanopartículas, a nivel teórico, para poder anticipar el comportamiento que presentarán las nanopartículas reales a la hora de tener que atravesar un nanoporo o una nanohendidura. Tal como explica el Dr. Pomposo, “se da la circunstancia de que hay nanopartículas bastante grandes que son capaces de pasar por poros pequeños, por su alta elasticidad, y otras más pequeñas, pero también más rígidas, que, sin embargo, no pueden atravesarlos”.

El trabajo ha resultado en una serie de leyes de escala, que relacionan el diámetro más pequeño que podrá atravesar una nanopartícula, con su tamaño y su elasticidad, o la tasa de flujo crítica que es necesaria para que se dé la translocación de las nanopartículas a través de nanoporos, entre otros. “Lo que hace es aportar la base teórica de lo que se estaba observando en diferentes estudios de este tipo”, destaca.

Esta información podría dar pie, incluso, a desarrollar técnicas de caracterización que hoy en día no existen, como la determinación de la elasticidad de las nanopartículas blandas, haciéndolas pasar por una serie de nanoporos, o la separación de estas en función de su elasticidad o el nivel de cohesión interna. El Dr. Pomposo recalca el nivel de resolución al que se está llegando con las nuevas técnicas de caracterización, ya que “están dando información sobre nanopartículas individuales, de tamaños nanométricos”.

Referencia:

Jose A. Pomposo, Jon Rubio-Cervilla, Edurne Gonzalez, Angel J. Moreno, Arantxa Arbe, Juan Colmenero (2018) Ultrafiltration of single-chain polymer nanoparticles through nanopores and nanoslits Polymer DOI: 10.1016/j.polymer.2018.06.030

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo La elasticidad es más importante que el tamaño a la hora de atravesar nanoporos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Es hora de prepararse para el Maquinoceno
  2. Ni lo más importante ni lo más divertido
  3. Nanopartículas lipídicas como vectores en terapia génica
Categories: Zientzia

Iker Badiola: “Metastasiaren prozesua eragiten duen zelula oso erresistentea eta gaiztoa da” #Zientzialari (101)

Zientzia Kaiera - Fri, 2018/09/28 - 09:00

Osasunerako Mundu Erakundearen datuen arabera, minbiziaren 14,1 milioi kasu berri diagnostikatzen dira urtero. Izan ere, herrialde garatuetako gaixotasun hedatuenetariko bat da.

Minbiziaren aurpegi latzenetako bat, zalantzarik gabe, metastasia da, tumore primarioa gorputzeko beste atal batera zabaltzen denean sortzen den prozesua.

Hilkortasuna murrizteko eta gaixotasuna sendatzeko eraginkorrak diren tratamenduak garatzeko ezinbestekoa da metastasia ondo ezagutzea. Hori defendatzen du Iker Badiolak, UPV/EHUko Medikuntza eta Erizaintza Fakultateko Biologia zelularra eta Histologia saileko irakasleak. Berarekin elkartu gara metastasiaren prozesuari buruz hitz egiteko.

“Zientzialari” izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.

The post Iker Badiola: “Metastasiaren prozesua eragiten duen zelula oso erresistentea eta gaiztoa da” #Zientzialari (101) appeared first on Zientzia Kaiera.

Categories: Zientzia

Selección natural en poblaciones humanas actuales

Cuaderno de Cultura Científica - Thu, 2018/09/27 - 11:59

Hasta hace poco tiempo existía la creencia de que en la actualidad la selección natural no opera en seres humanos. Ello sería debido al efecto neutralizador que ejercen determinadas prácticas y adquisiciones culturales como las características de la vivienda, el saneamiento, la alimentación y la medicina, al permitir la supervivencia de individuos que, sin su concurso, no sobrevivirían. Sin embargo, ya vimos que algunas prácticas culturales, -relacionadas con la agricultura, ganadería y producción de alimentos-, han ejercido influencia en nuestro genoma, propiciando la extensión de rasgos fisiológicos que permiten utilizar recursos alimenticios que estaban vedados a nuestros congéneres en el Paleolítico.

Pero además de esa objeción, también la misma naturaleza de la selección natural, sus mecanismos, son tales que no hay razón para que no operen en la actualidad. Porque la cuestión no es tanto si hay o no supervivencia diferencial de determinados individuos, cuanto si hay variabilidad en el éxito reproductor y si esa variabilidad depende de rasgos heredables. En efecto, si algún rasgo que se transmite genéticamente de una generación a la siguiente propicia un mayor éxito reproductor, ese rasgo está siendo seleccionado positivamente y se extenderá rápidamente en la especie.

Estas cuestiones han suscitado interés en el campo de la medicina, pues se supone que hay rasgos de importancia médica que pueden estar siendo objeto de selección natural y ello podría tener consecuencias prácticas. Por otro lado, el interés puramente teórico de estos estudios es indudable.

S. G. Byars y colaboradores examinaron la medida en que determinados rasgos están sometidos a selección natural en mujeres y realizaron proyecciones que estiman la variación esperable en esos rasgos durante las siguientes diez generaciones, suponiendo (aunque sea mucho suponer) que las condiciones ambientales relevantes no se modificarán de forma sustancial durante ese periodo. Las variables médicas analizadas fueron colesterol total, presiones sanguíneas diastólica y sistólica, y glucosa en sangre. Además, se analizaron otras variables, también de interés médico pero, sobre todo, de evidente importancia desde el punto de vista de la biología evolutiva de la especie. Estas incluyeron el peso, la altura, la edad a la que tienen el primer hijo y la edad de la menopausia. Las mujeres eran norteamericanas de origen mayoritariamente europeo.

Pues bien, de acuerdo con sus estimaciones, las mujeres serán cada vez más bajitas, algo más gruesas, tendrán su primer retoño un poco antes y se retrasará algo la menopausia. Todo ello ocurrirá, supuestamente, porque el éxito reproductivo ha sido mayor en mujeres que presentaban esos rasgos en las dos generaciones de mujeres estudiadas hasta ahora. Y en todo caso, el cambio previsto es muy lento (1 kg más de peso en 10 generaciones, por ejemplo).

Para acabar, es importante tener en cuenta que estos datos se han obtenido de un estudio cuyo objeto no era el de realizar un análisis como el que aquí se ha presentado. Si se hubieran analizado otras variables, hormonales, por ejemplo, quizás se hubiesen observado cambios más rápidos. Lo importante no es si el cambio es más o menos rápido, sino el que tal cambio se produzca y sea consecuencia de la selección natural.

Referencia:

S. G. Byars, D. Ewbank, D. R. Govindaraju y S. C. Stearns (2010): “Natural selection in a contemporary human population” 107 (suppl 1): 1787-1792.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Selección natural en poblaciones humanas actuales se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La cultura no protege de la selección natural
  2. La unidad de selección en la evolución y el origen del altruismo (7): La selección multinivel
  3. La unidad de selección en la evolución y el origen del altruismo (6): La crítica de Godfrey-Smith a la selección centrada en el gen
Categories: Zientzia

Kolosoen bat-etortzea

Zientzia Kaiera - Thu, 2018/09/27 - 09:00

Juan Ignacio Pérez eta Miren Bego Urrutia Geroari begira

———————————————————————————————————–

Txibia kolosalez eta hondo abisaletako beste animalia erraldoiez aritu gara «Erraldoi abisalak» izenburuko atalean. Animalia erraldoiekin jarraitu nahi dugu hemen, baina oraingo honetan bi espezieri buruz bakarrik arituko gara, lehortarra bata eta itsastarra bestea. Elefante afrikarra da lehorreko espeziea eta zeroia edo kaxalotea itsasokoa.

Irudia: elefanteak eta zeroiak, ugaztun handiak eta inteligenteak dira eta oso antzekoak dira haien talde-egiturak. (Irudiak: Bernard Dupont [ezk.] eta Geckochasing [esk.]).

Elkarrengandik hurbil ez dauden arren, ezaugarri komunak dituzte bi espezie horiek, eta hori, nonbait, harritzekoa da, ingurumen oso desberdinetan bizi baitira. Ikus ditzagun, bada, partekatzen dituzten ezaugarri horiek.

Biak bizi dira ingurumen egonkorretan, oso egonkorrak baitira bai itsasoa eta bai sabana. Bizitza luzekoak dira, 60 urtera hel baitaitezke, eta bizitzaren bigarren hamarkadan heltzen dira ugaltze-heldutasunera. Biek izaten dituzte kume gutxi, oso ondo zaintzen dituzte kumeak eta gehienak iristen dira ugaltze-heldutasunera. Kumeen jaiotzen arteko tarteak bost urtekoak izaten dira eta 40 urteko adinetik aurrera jaitsi egiten da ugaltze-ahalegina. Elefante eme zaharrenek zeregin garrantzitsua betetzen dute elefante-taldean, eta, seguru asko, gauza bera gertatzen da zeroi eme zaharrekin. Zuzentzen dituzten eme-taldeetako egiazko matriarkak dira eme zaharrak.

Janari tona asko jaten dute euren bizitza luzeetan zehar eta mugimendu luzeak, oso luzeak, egiten dituzte janari horren bila joateko. Elefanteak landare desberdinez elikatzen dira eta, esan bezala, kantitate handiak jaten dituzte; izan ere, gizakia albo batera utzita, Afrikan eragin handiena izan duen espeziea dugu. Ez da erraza zeroiek beren ingurumenean duten eragina ondo ezagutzea. Askotariko janariz osatutako dieta dute, txibia eta arrain espezie asko jaten baitituzte. Ugaltzeko edo elikatzeko, migrazio luzeak egiten dituzte. Bada, nahiz eta XIX. eta XX. mendeetan kaxaloteen populazioak nabariki murriztu, urteko 100 milioi tona janari kontsumitzen dute, gizakiak arrantzaren bitartez lortzen duen kantitate bera gutxi gorabehera.

Hamar bat elefantek osatzen dute elefante-talde bat. Familia matrilinealak dira eta emeek, seguru asko, bizitza osoa ematen dute familia-talde berean. Talde horietako kideek gauza asko elkarrekin eta batera egiten dituzte: batera mugitu, jan, edan eta atsedena hartzen dute. Familia bateko kideek elkar ukitu, usaindu eta ferekatu egiten dute. Elkarren artean komunikatzeko, ukimena, usaimena, ikusmena eta, batez ere, entzumena erabiltzen dute. Horri esker mantentzen dituzte elkarren arteko lotura hain estuak. 12-36 Hz-eko infrasoinuak igortzen eta jasotzen dituzte, 100 dB-tik gorako potentziarekin horietako zenbait; izan ere, 4 km-ra dauden elefanteak harremanetan egon daitezke infrasoinuen bitartez.

Zeroien talde-egitura ere antzekoa da, nahiz gutxiago dakigun haiei buruz; gutxi gorabehera dozena bat kaxalotek osatzen dute taldea. Taldekideek denbora luzea ematen dute urpean, ehizan; 400 metrotik beherakoak izaten dira urperatzeak eta 40 min-ko iraupena izaten dute, batez beste. Urpean dauden artean soinu bereziak ―klaskak deiturikoak― egiten dituzte tarte jakinetan. Soinu horien frekuentziak oso desberdinak dira, 200 Hz-etik 32.000 Hz-erako tartean. Ekolokalizazio-seinaleak bide dira klikak, eta harrapakinak kokatzeko erabiltzen ei dituzte.

Kumeak dituzten taldeetan, taldeak hartzen du kumeen zaintzaren ardura eta ez da arraroa kume batek bere ama ez den eme baten bularretik edoskitzea; elefanteek ere egiten dute hori askotan. Arratsean urperatzeari uzten diote, eta sei ordu egoten dira igeri egiten astiro, lasai, jolasean, hegalekin eta masailekin elkar ferekatzen. Horrela jokatzen dutenean, klik sortak egiten dituzte, eta litekeena da taldearen kohesiorako komunikazio-sistema izatea, bai eta taldearen mugimendua koordinatzeko ere.

Biak, elefanteak eta zeroiak, ugaztun handiak eta inteligenteak dira. Oso antzekoak dira haien talde-egiturak. Biek baliatzen dute taldekide zaharrenek duten ezagutza, baliabideei buruzkoa batez ere. Urtearen sasoiarekin batera gertatzen diren janari-gertutasunaren aldaketak edo ura non eta noiz aurkitu daitekeen, tankera horretakoa da kide zaharrek duten informazioa; balio handikoa izan daiteke, taldeko kideen biziraupena horren araberakoa izan baitaiteke. Seguru asko, elefante eta kaxaloteen bizitzak hain luzeak izateak zerikusi handia du ezagutza ekologiko horrekin.

—————————————————–

Egileez: Juan Ignacio Pérez Iglesias (@Uhandrea) eta Miren Bego Urrutia Biologian doktoreak dira eta UPV/EHUko Animalien Fisiologiako irakasleak.

—————————————————–

Artikulua UPV/EHUren ZIO (Zientzia irakurle ororentzat) bildumako Animalien aferak liburutik jaso du.

The post Kolosoen bat-etortzea appeared first on Zientzia Kaiera.

Categories: Zientzia

¿Entendiendo la cuarta dimensión?

Cuaderno de Cultura Científica - Wed, 2018/09/26 - 11:59

Flatland: A Romance of Many DimensionsPlanilandia: Una novela de muchas dimensiones– es una novela satírica publicada en 1884 bajo el seudónimo de A SquareUn cuadrado–. Su autor era en realidad Edwin Abbott Abbott (1838-1926).

Portada de Flatland (sexta edición). Imagen: Wikimedia Commons.

La historia está narrada por un cuadrado que vive en un mundo bidimensional. Abbott critica la jerarquía social de la época victoriana mediante la descripción de las diferentes castas a las que pertenecen los habitantes de Planilandia. En este mundo, cada nueva generación nace con una arista más que la anterior. Las mujeres ocupan el lugar más bajo en la jerarquía –son simples líneas y no evolucionan–, les siguen los triángulos, los cuadrados, etc., subiendo de categoría social a medida que se añaden aristas a los polígonos. Los círculos –bueno, ‘casi’ círculos, son polígonos con ‘muchos’ lados– son los sumos sacerdotes…

Independientemente de la crítica social contenida en la novela, Planilandia es un texto que ayuda a entender y explicar los conceptos de múltiples dimensiones. En particular, el narrador –el cuadrado– llega a entender el concepto de dimensión tres cuando recibe la visita de una esfera tridimensional que atraviesa su mundo. Las diferentes secciones que genera la esfera al traspasar Planilandia son circunferencias que van creciendo de radio hasta llegar al ecuador, momento en el que las secciones circulares comienzan a disminuir hasta desaparecer.

Las siguientes tiras cómicas del ilustrador Rob Nance pueden ayudar a comprender mejor el anterior argumento. En este caso es Bucky –no es una esfera, pero es un ser de dimensión 3– quien llega a Planilandia. Varias figuras geométricas –triángulos, rectángulos, un hexágono y varios círculos– conversan en el bar Isósceles. Un cuadrado, con cigarrillo en la boca, entra y pide una cerveza. De repente, una enorme sombra invade el bar… un gigantesco pie aparece.

En el bar Isósceles (parte 1 de 3). © Rob Nance.

Es el pie de Bucky que ha pisado varias figuras-clientes del bar: algunas se han roto, otras han reventado, un círculo se ha dividido en dos semicírculos, un rectángulo –el mostrador del bar– se ha partido en dos paralelogramos… Y lo más curioso del caso es que ha aparecido otro objeto: es circular, de color rosáceo y con un círculo central de color blanco. ¿Qué es? La última viñeta de esta tira lo aclara. Es la pierna de Bucky que ha atravesado Planilandia justo por encima del bar Isósceles. Ese objeto extraño de color rosáceo es la intersección de su pierna y el plano del bar –la carne es la parte rosácea y el hueso la porción blanca–.

El pie de Bucky… y mucho más. © Rob Nance.

El cuadrado increpa a Bucky, quien saca al polígono de cuatro lados del plano de Planilandia en el que vive… Bucky se lo come –el juego de palabras de ‘square meal’ no tiene sentido en castellano, cuya traducción sería ‘comida completa’– terminando de manera trágica –al menos para el cuadrado– la historia.

El desenlace. © Rob Nance.

De manera análoga se puede explicar el concepto de dimensión 4: si un objeto de dimensión 4 estuviera cerca de nuestro mundo, no lo detectaríamos a no ser que nos atravesara. ¿Y cómo lo veríamos? Al ver pasar –como objetos de dimensión 3– las diversas secciones de su cuerpo en nuestro mundo. Esto ya lo explicaba Raúl Ibáñez en Hipercubo, visualizando la cuarta dimensión (y 2).

Por cierto, en esa cuarta dimensión podrían pasarnos cosas muy raras a unos simples habitantes de un mundo de tres dimensiones, como le sucede al pobre Gottfried Plattner en La historia de Plattner narrada por H.G. Wells…

Bonus

Flatland: The Movie (2007) es una película de animación, un corto inspirado en la novela de Edwin A. Abbott, en el que la protagonista es Hex –un hexágono que habita en Planilandia–, nieta de Arthur Square, que desea demostrar la existencia de la tercera dimensión. Al final del corto se alude a la posible existencia, incluso, de ¡una cuarta dimensión! Debajo puede verse el tráiler oficial.



Flatland2. Sphereland (2012) es la continuación de Flatland: The Movie. Han pasado veinte años y Hex es ahora es una científica. Este corto se basa, de nuevo, en la novela de Edwin A. Abbott y en Sphereland:A Fantasy About Curved Spaces and an Expanding Universe (1965) del físico Dionys Burger (1892-1987), una secuela de Flatland que continúa explicando la tercera dimensión a las criaturas que habitan en un mundo plano. En esta aventura aparecen incluso objetos fractales, como un Mandelbulb y otros objetos extraordinarios que provienen de universos de dimensiones arbitrariamente grandes… Debajo puede verse el tráiler oficial de esta extraordinaria aventura.


Para saber más:

Marta Macho Stadler, Flatland: The Movie, ZTFNews.org, 10 mayo 2013

Marta Macho Stadler, Flatland 2: Sphereland, ZTFNews.org, 12 mayo 2013

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo ¿Entendiendo la cuarta dimensión? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Plattner y la cuarta dimensión
  2. Hipercubo, visualizando la cuarta dimensión
  3. Hipercubo, visualizando la cuarta dimensión (y 2)
Categories: Zientzia

Adimen artifizialari buruz seriotasunez hitz egiteko ordua iritsi da

Zientzia Kaiera - Wed, 2018/09/26 - 09:00
Juanma Gallego Teknologia honen garapenak dituen abantailez eta arriskuez ohartuta, adimen artifizialaren inguruan aritzen diren agente guztiek partekatutako erantzukizuna izan behar dutela proposatu dute zientzialariek.

Aitortu beharra dago: kazetariok robot hiltzaileak maite ditugu. Irakurlearen arreta eskuratzea gero eta zailagoa den honetan, horrelako izateen inguruan hitz egiteak berehalako arrakasta dakar. Eta informazioaz mozkortuta bizi den gizarte batean, hainbat minutuko arreta erakartzea ez da batere erraza.

Baina ez da “hiltzaile” kategoriara iritsi behar ezinegona sortzeko. Noizean behin, Boston Dinamics bezalako enpresen aurrerapenen berri ematen dituzten bideoek miresmena eta kezka eragin ohi dituzte, aldi berean. Animalien edo gizakien itxura hartzen duten robotak hain jarduera “arruntetan” ikusi izanak bereziki eragin dezake kezka, uncanny valley edo haran beldurgarriaren ideia garatu dutenek ondo dakiten moduan.

1. irudia: Adituen esanetan, adimen artifizialak hartzen dituen erabakien zergatia jakitea eta erabaki horiek aurreikustea funtsezkoa izan daiteke arazo bat bilaka ez dadin. (Argazkia: Franck V / Unsplash)

Lasai, adimen horiek izugarri aurreratuko balira ere, ez omen dira maltzur bihurtuko. Baina, antza, horrek ez du arazoa konpontzen. “Makinak maltzur bihurtuko direneko beldurrak ez gaitu kezkatu behar”, dio Life 3.0 liburuan, Max Tegmark Future of Life Institutuko fundatzaileetako batek. “Benetan kezkagarria dena ez da maltzurkeria, lehia baizik. Definizioaz, adimen artifizial superadimentsu bat oso trebea da bere helburuak lortzeko orduan, helburu horiek direnak direla, eta horregatik gure kezka izan behar da helburu horiek geure helburuekin talka egin ez dezatela”.

Inurriekin alderatu du egoera Tegmarkek: normalean gizakiok ez ditugu nahita inurriak zapaltzen, baina zentral hidroelektriko bat zabaltzeko eskualde bat ureztatu behar badugu, ez dugu kezka handirik sentituko inurri horien patua dela eta. “Adimen artifizial onuragarri baten aldeko mugimenduak ekidin nahi du gizakiak inurri horien lekua hartzea”, laburtu du fisikariak.

Hortaz, adimen artifizialaren arriskuak ekidin eta onurak eskuratu nahi dituzte adituek. Izan ere, arriskuez gain, onura asko eta asko badira, noski, eta seguruenera pentsaezinak izango dira bidean egon daitezkeenak.

Eta ez gara soilik robotez ari, askoz harago doalako adimen artifiziala. Bestalde, Tegmark ez da konspiranoiko bat, eta berak bezala, beste aditu askok adimen artifizialari buruzko eztabaida baten beharra azpimarratu dute. Norabide horretan arlo akademikotik etorri den azken ekarpena Science aldizkarian idatzitako editorial batean, Alan Turing Institutuko (Oxfordeko Unibertsitatea) Maria Rosaria Taddeo eta Luciano Floridi adituek proposatutakoa da. Ontasuna helburu duen adimen artifizialaren erabilpenak nazioarteko kooperazioaren beharra izango duela argudiatu dute bertan.

Arautzearen beharra izango duen teknologia batetik baino askoz harago, “gure inguruak, elkarrekintza pertsonal eta profesionalak eta eguneroko praktikak aldatuko dituen indar boteretsutzat” jo dute adimen artifiziala.

Aurrean dauden erronken artean, gizakiaren autodeterminazioaren babesa bereziki premiazkoa dela defendatu dute. Internet bitartez kontsumitzaileen profila eskuratzeko eta osatzeko teknikak, eta horiei esker burutu ahal izan diren manipulazio kanpainak jarri dituzte horren adibide, Cambridge Analytica-ren eskandaluaren auzia aipatuz.

Baina arazoa ez da horretara mugatzen: gizarte osoan du eragina dagoeneko. “Adimen artifizialeko aplikazioak limurtzaile bihurtzen ari dira. Erabiltzeak haietan jartzen dute konfiantza ataza asko egiteko, ondasunak eskatzeko edota nazio segurtasuna bermatzeko”, diote editorialean.

Halere, arriskuen inguruan hitz egiteak ohi dakarren diskurtso teknofobikoa ekidin nahian edo, dauden onuren adibide zehatzak eskaini dituzte ere. Horietako bat erabat adierazgarria da: bularretako minbizia diagnostikatzeko akatsak %85 txikitu dira horrelako teknikei esker.

2. irudia: Adimen artifizialak ekar lezakeen arazorik handiena ez omen da “maltzurra” bilakatzea, gizakien helburuekin talka egitean gizakiak alboratzea baizik. (Argazkia: Markus Spiske / Unsplash)

Onurak aitortuta, arazoei ekin diete. Besteak beste, adimen artifizialak hartzen dituen erabakiak azaltzeko eta horiei aurrea aztertzeko beharra azpimarratu dute. Norabide horretan, AEBtako DARPA erakunde militarrak abiarazitako proiektu bat aipatu dute (duda zalantzarik gabe, garapen teknologikorako munduan den agentzia nagusienak, aurrekontuei dagokionean bederen). Explainable Artificial Intelligence (azaldu daitekeen adimen artifiziala) programaren helburua da makinen erabakiak azalduko dituzten azalpen teknikak garatzea.

Partekatutako erantzukizuna

Gaiaren alde etikoei ekin diete, eta partekatutako erantzukizunak ezartzen dituzten sistemen alde azaldu dira. Halako sistemek erakunde edo egitura oso batean jartzen dute ardura: guztiok prest egon behar dute erantzukizunez jarduteko, arazoren bat izatekotan, errua guztiontzako baita. Modu horretan, delituaren paradoxa famatua alboratuko zen. Adimen batek delituren bat eginez gero, norena da errua? Diseinatzailearena, fabrikatzailearena, saltzailearena ala jabearena? Proposatutako eskeman, modu batean edo bestean, guztiok izango lirateke erantzule. Alabaina, ikusteko dago halako proposamen teoriko bat nola gauzatuko litzatekeen mundu errealean.

Arautze etikoa “konplexua” baina “beharrezkoa” dela azpimarratu dute. Eta hori egin ezean, arazoak suerta daitezkeela onetsi dute. Ohi bezala, iraganeko adibideei joatea besterik ez dago. “Gizateriak modu gogorrean ikasi zuen ikasgai hau industria iraultzak lan indarretan izango zituen eraginak arautu ez zituenean, eta baita ere industrializazio masiboaren eta kontsumismo globalaren ingurumen eragina azken momenturaino aintzat hartu ez zuenean”. Horrelako adibideen aurrean, irakaspen garbia atera dute: “Adimen artifizialaren iraultza aipatutako aldaketa horiek bezain esanguratsua da, eta gizateriak ez luke akats berdina egin behar”.

Erreferentzia bibliografikoa:

Tadeo, Mariarosaria and Floridi, Luciano, (2018). How AI can be a force for good. Science 361 (6404), 751-752. DOI: 10.1126/science.aat5991

———————————————————————————-

Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.

———————————————————————————-

The post Adimen artifizialari buruz seriotasunez hitz egiteko ordua iritsi da appeared first on Zientzia Kaiera.

Categories: Zientzia

Cristalografía (14): Generación X

Cuaderno de Cultura Científica - Tue, 2018/09/25 - 11:59

En el discurso que dio con motivo del aniversario de la Sociedad de Física de Berlín a comienzos de 1896 su presidente no se mostró demasiado ilusionado con el futuro de esta ciencia. Poco después, cuando conoció el descubrimiento que había realizado Wilhelm Röntgen, a la sazón en la Universidad de Würzburg, el 8 de noviembre del año anterior y que había publicado el 28 de diciembre, cuando su discurso ya estaba listo, mostró su entusiasmo porque este descubrimiento suponía que “los segundos cincuenta años de esta institución habían comenzado tan brillantemente como los primeros”.

Su reacción fue representativa: desde el momento en que los científicos empezaron a tener noticia del descubrimiento de los rayos X, supieron que estaban ante un tónico revitalizante de una ciencia envejecida: suponía un reto para la teoría, incitaba a realizar nuevos experimentos, creó sensación entre el público general y le daba de golpe y porrazo a los médicos una nueva herramienta diagnóstica increíblemente potente. De hecho, hubo un tiempo, hasta que los médicos dispusieron de sus propios aparatos, en el que la gente que se tragaba un alfiler o recibía una perdigonada era derivada a los laboratorios de física para localizar estos objetos.

Los rayos X se resistían a ser clasificados en las categorías existentes. No se curvaban en presencia de campos magnéticos o eléctricos, por lo que no estaban constituidos por partículas cargadas; y, desde el momento en el que no se observaba reflexión o refracción, no parecían ser radiación electromagnética estándar. Muchos físicos empezaron a hablar de una nueva física en la que los rayos X eran una forma desconocida de radiación electromagnética. Sin embargo, las peculiaridades de los rayos X hacían que no terminasen de encajar con el concepto de onda,a pesar de la teoría que al respecto había desarrollado Arnold Sommerfeld. Así, por ejemplo, un tal William Henry Bragg, profesor en ese momento en la Universidad de Leeds, llamaba la atención sobre el hecho de que los rayos X eran capaces de suministrar a un electrón casi tanta energía como la empleada en la producción de los rayos; pero claro, razonaba WH Bragg, si los rayos X fuesen una onda tendrían que propagarse desde el punto de origen, difundiendo su energía, ¿cómo era posible entonces que una pequeña sección del frente de onda portase casi toda la energía original? Todo indicaba que los rayos X eran algún tipo de partícula desconocida. Y entonces llegó 1912.

El hijo de de WH Bragg, William Lawrence, fue con sus padres a la costa de Yorkshire a pasar sus vacaciones de verano. Lawrence se acababa de graduar en física y matemáticas con excelentes calificaciones en Cambridge y estaba en su primer año como investigador bajo la dirección de J.J. Thomson. Estando allí WH recibió una carta en la que se detallaba una conferencia espectacular dada por el físico teórico Max Laue. En ésta Laue daba cuenta de una observación hecha por sus colegas Walter Friedrich y Paul Knipping (los tres del departamento de Sommerfeld en la Universidad de Munich), una observación que hizo que WH se pusiese en pie de un salto y empezase a gritar llamando a su hijo: esos alemanes decían que habían comprobado la existencia de un patrón de difracción de rayos X en un cristal de sulfuro de cinc (ZnS): ¡los rayos X eran una onda! Se acabó la discusión sobre la naturaleza de los rayos X, aparentemente.

Padre e hijo no podían estar sin hacer nada con aquella información. Así que pasaron el resto del verano en el laboratorio de Leeds haciendo experimentos de difracción con rayos X como locos. En el viaje de vuelta a Cambridge al final de sus vacaciones, Lawrence no podía dejar de darle vueltas a los resultados que habían obtenido. Y al poco de llegar la idea revolucionaria había tomado forma: los resultados de Laue y sus colegas podrían interpretarse fácilmente con sólo suponer que se producían por la reflexión de los ratos X en los distintos planos atómicos del cristal. Lawrence fue un paso lógico más allá: la difracción de rayos X podía dar información a partir de la cual podría deducirse la disposición de los átomos en el cristal.

Para explicar los patrones que habían encontrado Laue et al habían asumido que la fuente de rayos X era policromática (en concreto que contenía 6 ó 7 longitudes de onda, no más) y que la estructura del ZnS consistía en una disposición tridimensional de pequeños cubos con los átomos de zinc y azufre ocupando vértices alternos.

Pero Lawrence examinó con detalle las fotografías de rayos X y se dio cuenta de que algunos puntos de difracción eran elípticos y que tenían diferentes intensidades. En un artículo leído por su supervisor, Thomson, ante la Sociedad Filosófica de Cambridge el 11 de noviembre de 1912, Lawrence hacía dos importantes propuestas para justificar estos hechos. Propuestas de un jovenzuelo de 22 años cuyas consecuencias están hoy en todos los libros de texto que traten la estructura de la materia y que le valdrían un Nobel con 25.

En primer lugar sugirió que los resultados de Laue et al eran la consecuencia de la reflexión de un continuo de longitudes de onda por los planos atómicos dentro del cristal. La cuantificación de esta idea le llevó a lo que hoy conocemos como ley de Bragg, a saber, nλ = 2d sen θ, donde θ es el ángulo de incidencia de los rayos X de longitud de onda λ, d es la separación de los planos reflectantes y n es un número entero. En segundo propuso que el patrón de difracción del ZnS era característico de átomos no sólo colocados en los vértices de una disposición tridimensional de cubos, sino también en las caras de dichos cubos: una red centrada en las caras.

Aquella conferencia fue el inicio de una reacción en cadena que llega hasta nuestros días. Y es que entre la audiencia estaba CTR Wilson. Pero de esto hablaremos en la próxima entrega.

No podemos terminar esta, sin embargo, sin nombrar a dos investigadores habitualmente olvidados en la historia de la difracción de rayos X que llegaron independientemente a resultados equivalentes a los de W Lawrence Bragg. Por una parte el teórico GV Wulf , de la Universidad de Moscú, derivó la ley de Bragg y la publicó en 1913.; y por otra Torahiko Tareda, de la Universidad de Tokyo, que como consecuencia de sus estudios con varios minerales, llegó a la conclusión de que los puntos de difracción obtenidos se correspondían a la reflexión de los rayos X en los distintos planos reticulares, algo antes que Bragg (su manuscrito, enviado antes desde Japón, alcanzó la redacción de Nature después de la conferencia de Thomson).

Referencias generales sobre historia de la cristalografía:

[1] Wikipedia (enlazada en el texto)

[2] Cristalografía – CSIC

[3] Molčanov K. & Stilinović V. (2013). Chemical Crystallography before X-ray Diffraction., Angewandte Chemie (International ed. in English), PMID:

[4] Lalena J.N. (2006). From quartz to quasicrystals: probing nature’s geometric patterns in crystalline substances, Crystallography Reviews, 12 (2) 125-180. DOI:

[5] Kubbinga H. (2012). Crystallography from Haüy to Laue: controversies on the molecular and atomistic nature of solids, Zeitschrift für Kristallographie, 227 (1) 1-26. DOI:

[6] Schwarzenbach D. (2012). The success story of crystallography, Zeitschrift für Kristallographie, 227 (1) 52-62. DOI:

Este texto es una revisión del publicado en Experientia docet el 13 de febrero de 2014

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Cristalografía (14): Generación X se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cristalografía (12): In vino veritas
  2. Cristalografía (5): Copos de nieve, Frankenheim o el nuevo Euclides
  3. Cristalografía (13): Fiat Pasteur
Categories: Zientzia

Zergatik ezin ziren espagetiak erdibitu (eta orain bai)?

Zientzia Kaiera - Tue, 2018/09/25 - 09:00
Josu Lopez-Gazpio Espagetiak osorik egosi ohi dira, baina, bada eltzean hobeto sartzeko-edo zatitua egostea nahiago izaten duenik. Hori egiten saiatzen direnek sukaldea espageti zatitxoz betetzen dute; izan ere, oso zaila da espagetiak bitan zatitzea hegan ateratzen diren zatitxo txikiak egin gabe. Zuk zeuk proba egin dezakezu oraintxe bertan: espageti bat hartu eta erdibitzen ahalegindu. Zenbat zatitan banatu da? Ziur asko, hiru edo gehiagotan. Eta, ziur asko, inoiz ez zinen horretaz konturatu ere egin.

1. irudia: Espagetiak egosteko erdibitzen saiatzean nekez lortzen da espageti bakoitza bi zatitan bakarrik banatzea. (Argazkia: Jeshootscom – domeinu publikoko irudia. Iturria: pixabay.com)

Espagetiak bitan zatitzea zein fenomeno konplexua den Richard Feynman fisikari ospetsua bera ere ohartu zen. Diotenez, bere sukaldean orduak eta orduak igaro zituen espagetiak bitan zatitzen ahalegintzen. Haren ustez, espagetiak zailtasunik gabe zatitu behar ziren bitan; izan ere, espagetiaren kurbadura handiegia bilakatzen denean, espagetia bitan apurtzeak energia askatuko zuen kurbadura murrizteko. Hori horrela zela uste bazuen ere, ez zuen lortu espagetiak bi zatitan apurtzea. Nahi eta ezin. Jarraian ikusgai dagoen bideoan -50. segundotik aurrera- ikus daiteke espagetiak erdibitu nahi direnean zer gertatzen den.

Lehen ikerketak

Feynmanek egindako esperimentuen ondoren, espagetien gaia ikertzen jarraitu zuten zientzialariak egon ziren eta, hain zuzen ere, 2006an espagetiak erdibitzeko ezintasunaren fenomenoa azaltzea lortu zuten Audoly eta Neukirch zientzialariek. Fisikariek espagetia apurtzean gertatzen diren indarrak deskribatu zituzten. Azaldu zutenez, espagetia apurtzean alderantzizko indarrak eta bibrazioak sortzen dira eta horiek dira, hain zuzen, espagetia zati gehiagotan apurtzea eragiten dutenak -erreakzio-turrusta modukoa-. Hortaz, intuitiboa ez bada ere, espageti harian zehar erlaxazio-uhin bat hedatzen da eta hedapen horrekin batera espagetia zatitxo txikitan apurtzen da. Esan behar da espagetien inguruko ikerketari esker bi fisikari frantziarrek 2006ko Ig Nobel saria irabazi zutela. Sariok, umore kutsuan izan dezaketen ikerketak saritzen dituzte -Nobel sarien parodia modura-, baina, Ig Nobelek ere zientzia asko dute atzean eta, haiek diotenez, barrea eragin ondoren pentsarazi egiten duten sariak ere badira. Sariaren ostean, espagetien arazoa ezagunagoa egin zen, baina, oraindik galdera bat zegoen erantzuteke. Tira, orain badakigu zergatik den hain zaila espagetiak erdibitzea, baina, ba al dago modurik espagetia bitan -eta bitan bakarrik- zatitzeko?

Azken aurrerapausoak espagetien ikerketan

Orain, MITeko bi matematikarik fenomeno hori azaltzea lortu dute eta, gainera, irtenbidea eman diote. Horretarako espagetiak apurtzeko makina diseinatu eta eraiki dute eta hainbat eta hainbat espageti zatitzen saiatu dira modu desberdinetan. Horri esker jakin dutenez, espagetiak biratzen diren bitartean apurtzen badira -270 º-ko angeluaz-, indarrak gehiago sakabanatzen dira eta espagetia zati gehiagotan apurtzea ekiditen da. Hain zuen ere, apurketa-tentsioa eta biraketa-tortsioa elkartuz, espagetiak simetrikoki zatitzen dira. Espagetiaren lehenengo apurketak eragiten duen bibrazioa tortsio mugimenduan kanalizatzen da eta espagetiaren egituran tentsio gutxiago eragiten du.

2. irudia: Espagetientzat egindako eredu matematikoak bestelako egituretan ere aplikatu ahal izango da, hala nola nanohodiak eta zelula-mikrotubuluak. (Argazkia: quintheislander – domeinu publikoko irudia. Iturria: pixabay.com)

Beraz, MITeko ikertzaileen ondorioen arabera jarraian ikusgai dagoen bideoan ikusten den moduan erdibitu behar dira espagetiak. Eskuz egitean beti ez da lortzen, baina, antza, hauxe da espagetiak erdibitzeko modurik eraginkorrena.

Hasiera batean dirudienaren gainetik, ikerketa honek aplikazio ugari izango ditu; izan ere, espagetientzat garatutako eredu matematikoa bestelako egituretan aplikatu ahal izango da eta kaskada-hausturak saihestea lor daiteke. Beraz, Ig Nobel sarien kasuan gertatzen den antzera, ikerketa xelebre eta bitxienek ere badute funtsa. Hori bai, agian errazagoa da espagetiak osorik egostea…

Erreferentzia bibliografikoa:

Heisser, Ronald H., et al., (2018). Controlling fracture cascades through twisting and quenching. PNAS 115(35), 8665-8670. DOI: https://doi.org/10.1073/pnas.1802831115

Informazio osagarria:

—————————————————–
Egileaz: Josu Lopez-Gazpio (@Josu_lg) Kimikan doktorea, irakaslea eta zientzia dibulgatzailea da. Tolosaldeko Atarian Zientziaren Talaia atalean idazten du eta UEUko Kimika sailburua da.
—————————————————–

The post Zergatik ezin ziren espagetiak erdibitu (eta orain bai)? appeared first on Zientzia Kaiera.

Categories: Zientzia

Formas moleculares de excreción de restos nitrogenados

Cuaderno de Cultura Científica - Mon, 2018/09/24 - 11:59

Como apuntamos en la primera anotación de esta serie, la mayor parte de los animales eliminan sus restos nitrogenados a través de los sistemas de excreción y osmorregulación. En las anotaciones anteriores nos hemos ocupado de los mecanismos mediante los que esos sistemas producen la orina y la forma en que los tubos excretores mantienen los equilibrios hídrico y salino. Ha llegado el momento de referirnos de manera específica a las moléculas que se utilzan para eliminar los restos nitrogenados.

El metabolismo animal da lugar a la formación de productos tales como H2O y CO2. El agua metabólica pasa a formar parte de los elementos que intervienen en el balance hídrico, por lo que no ha de ser eliminada. El CO2, sin embargo, sí ha de ser expulsado, por las razones que expusimos en su día. Y el metabolismo de proteínas y ácidos nucleicos da lugar a la producción de restos nitrogenados.

Amonio

El producto terminal mayoritario del metabolismo de las sustancias nitrogenadas es el amoniaco (NH3), aunque en condiciones fisiológicas suele encontrarse en forma de ión amonio (NH4+). De hecho, lo más probable es que esta sea la molécula de excreción primitiva de los animales. Pero el amonio es una molécula muy tóxica. Entre otros efectos negativos, interfiere con el funcionamiento de la ATPasa de Na+/K+, lo que provoca una grave alteración de la integridad funcional de las membranas celulares. Esa es la razón por la que los efectos tóxicos del amonio se manifiestan, sobre todo, en el funcionamiento de las neuronas, que es muy dependiente de los fenómenos transmembrana. Concentraciones de amonio tan bajas como 2 mM en peces y 0,5 mM en mamíferos perjudican seriamente la función neuronal. Por esa razón el amonio ha de ser o bien eliminado o mantenerse muy diluido. Los animales acuáticos (en este caso ha de precisarse: animales que respiran en agua) no suelen tener mayores problemas. De hecho, no es raro que eliminen el amonio directamente a través de la pared corporal o de los epitelios branquiales. Así lo hacen la mayor parte de invertebrados marinos, peces teleósteos (tanto dulceacuícolas como marinos) y anfibios (larvas y adultos de vida acuática). A todos estos animales se les denomina amoniotélicos y a la forma de excreción, amoniotelismo.

Hay muy pocos animales terrestres que sean amoniotélicos, ya que para eliminar amonio hace falta mucha agua. De hecho, los pocos que eliminan amonio, o bien son animales de hábitats muy húmedos o lo hacen directamente en forma de NH3 gaseoso, como algunos isópodos terrestres. Algunos caracoles también, aunque no son amoniotélicos, eliminan parte de sus restos nitrogenados en forma gaseosa. Al parecer, esa forma de excreción está relacionada con la deposición de carbonato cálcico en el exoesqueleto.

Urea

Otra molécula de excreción muy frecuente en el dominio animal es la urea. Es muy soluble y atraviesa con facilidad las membranas biológicas, aunque también tiene cierta toxicidad. De hecho, las concentraciones sanguíneas humanas se mantienen entre 3 y 7 mM, aunque pueden llegar a valores muy superiores. Por lo tanto, la excreción de restos nitrogenados en forma de urea necesita mucha menos agua que la excreción de amonio. En contrapartida, así como el amonio no requiere de un esfuerzo metabólico especial porque es el producto terminal que resulta de una secuencia de transaminaciones y desaminaciones de aminoácidos y sustancias similares, la urea ha de ser sintetizada y su síntesis requiere gasto de ATP (4 o 5 moléculas de ATP por molécula de urea). Este gasto es, pues, el coste que pagan los organismos que excretan sus restos nitrogenados en forma de urea a cambio de un importante ahorro de agua.

Ese ahorro explica el hecho de que la mayor parte de los animales que recurren a la urea como molécula mayoritaria de excreción sean vertebrados terrestres. Son ureotélicos los anfibios de vida adulta terrestre, algunas tortugas y todos los mamíferos. Sin embargo, apenas hay invertebrados que recurran al ureotelismo. Lo más probable es que este rasgo surgiera en los vertebrados que colonizaron el medio terrestre. Eso es lo que cabe deducir del hecho de que los peces de agua dulce –el grupo del que surgen los tetrápodos- sean mayoritariamente amoniotélicos. Del mismo modo, los anfibios terrestres transitan del amoniotelismo, característico de su fase larvaria acuática, al ureotelismo, propio de la vida adulta terrestre. La transición ocurre en paralelo a la metamorfosis y se produce al activarse –por efecto hormonal- la síntesis de las cinco encimas que catalizan las reacciones del ciclo de la urea. Los peces pulmonados y otras especies de peces también empiezan a sintetizar urea y dejan de producir amonio cuando se ven expuestos a estrés hídrico con carácter transitorio.

Como vimos aquí, además de ser usada como molécula de excreción, los condrictios y celacantos acumulan urea en su medio interno con fines osmóticos. Este dato indica que probablemente todos los vertebrados disponen de los genes necesarios para contar con un ciclo de la urea funcional; es la hipótesis que mejor explica el hecho de que la capacidad para sintetizar la molécula se encuentre tan extendida en este grupo y ocurra bajo circunstancias tan diversas.

Ácido úrico

El ácido úrico y algunas formas químicas derivadas constituyen el tercer gran producto o grupo de productos de excreción de restos nitrogenados. Se suelen incluir en el grupo al ácido úrico, el ácido úrico dihidrato y los uratos, todas ellas purinas. Tienen una característica que las hace muy interesantes como moléculas de excreción: su baja solubilidad. Un litro de agua a 37ºC puede contener 0,4 milimoles de ácido úrico (lo que viene a ser 65 mg); por encima de esa concentración precipita. Por esa razón, en muchas ocasiones esas sustancias se eliminan en forma sólida o semisólida, de manera que se produce un gran ahorro de agua.

La baja solubilidad del ácido úrico es muy útil cuando un animal experimenta fuertes restricciones hídricas. Bajo esas circunstancias, en vez de aumentar su concentración, que es lo que ocurriría con la urea, una vez alcanzada la saturación, las cantidades adicionales precipitarían, acumulándose de forma sólida y, por lo tanto, evitando ejercer efectos tóxicos. Además del ácido úrico y los uratos, otras purinas, como la guanina o derivados del úrico, como la alantoína o el ácido alantoico, también son utilizados como molécula de excreción.

No hay acuerdo entre los especialistas acerca de los costes que conlleva la síntesis de ácido úrico. Algunos sostienen que son similares a los de la urea, aunque según otros pueden llegar a triplicar aquellos. No obstante, aunque la diferencia no llegue a ser tan importante, lo más probable es que, efectivamente, los costes sean mayores. Las ventajas que se derivan de su baja solubilidad, sin embargo, parecen compensar esa diferencia, por el gran ahorro de agua que conlleva su excreción. Eso explica que la mayor parte los animales terrestres sean uricotélicos. Lo son las aves, los lagartos, las serpientes, las tortugas que ocupan medios muy secos (ácido úrico), los arácnidos (guanina), la mayoría de insectos terrestres (ácido úrico, alantoína o ácido alantoico) y, en general, la mayoría de invertebrados terrestres.

Las reacciones metabólicas que posibilitan el uricotelismo son variantes de la vía de síntesis de las purinas, lo que explica el hecho de que hayan aparecido en tantos grupos animales. No está clara cuál es la razón por la que los mamíferos no son uricotélicos, aunque podría ser por la gran capacidad que han desarrollado para concentrar la orina en la urea gracias a su excepcional nefrona. Ello les permite un importante ahorro de agua a pesar de todo.

Para terminar, conviene reparar en el hecho de que todos los animales uricotélicos tienen desarrollo cleidoico, por lo que la posibilidad de almacenar úrico de forma sólida en el interior del huevo ha podido ser un factor determinante para la aparición del uricotelismo.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Formas moleculares de excreción de restos nitrogenados se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Así forman la orina los animales
  2. Las relaciones hídricas, osmóticas y salinas de los condrictios
  3. Economía del agua en animales terrestres
Categories: Zientzia

Pages