Bizi-ziklo analisiaren irismenaren optimizazioa eraikinen birgaitze energetikoen ingurumen- eta ekonomia-analisietan

Irudia: Donostiako etxebizitza blokea oinarri harturik , eraikinaren gaur egungo eta zenbait birgaitze-estrategia aplikatu ondorengo ingurumen eta ekonomia inpaktua aztertzeaz gain, bizi-zikloan zehar, eraikinaren etapa bakoitzean sortuko diren inpaktuak zenbatu dira.
2010/31/EU zuzentarauan zehaztutako eraikinen portaera energetikoaren mugetan oinarrituz, eraikinak gero eta energetikoki eraginkorrago bihurtu eta haien erabilera etaparen inpaktua ia zeroko balioetara murriztuko da, honela, bizi zikloaren beste etapen ingurumen eta ekonomia inpaktuen garrantzia handituz. Hau da, 2018tik aurrera eraikiko diren eraikin berrien ingurumen eta ekonomia portaera lantzean, Europako Batzordeak edo “Bizi-zikloan zehar zero energiako eraikinen” inguruan egindako lanek proposatutako lan lerroei jarraituz, ezinbestekoa izango da eraikinen portaera bizi-zikloaren ikuspegitik ebaluatzea.
Bizi-zikloaren analisiari loturik, azterketa lan honen helburua ondorengo galdera hau argitzean oinarrituko da: beharrezkoa al da eraikin baten birgaitze energetikoko estrategien artean aukeratzeko garaian eraikinaren bizi-zikloko etapa guztietan sorturiko inpaktuak zenbatzea, edo nahikoa litzateke erabilera etaparekin loturiko inpaktuak zenbatzea? Zer puntutaraino sinplifikatu daiteke ebaluazio sistemaren irismena, emaitzen zehaztasuna eta, ondorioz, harturiko erabakiak arriskuan jarri gabe?
1963an Donostian eraikitako etxebizitza bloke batean oinarriturik, eraikinaren gaur egungo eta zenbait birgaitze-estrategia aplikatu ondorengo ingurumen eta ekonomia inpaktua aztertzeaz gain, bizi-zikloan zehar, eraikinaren etapa bakoitzean sortuko diren inpaktuak zenbatu dira. Hala ere, egoera bakar baten analisia eginik lorturiko emaitzak ondorio orokor bezala erabiltzeak dakartzan arazoak ikusirik, lan honetan sentiberatasun analisi sakon bat proposatu da, metodologia kalkuluan zehar eragin zuzena izango duten parametro gehienen inguruko egoera berriak proposatzeko. Besteak beste, aipatzekoak dira eraikinaren bizi iraupena, produktuen aurreikusitako bizi iraupena, produktuen barne energia, energiaren prezioaren eboluzioa, produktuen garraio distantzia, gune klimatikoa, energia eskaria, inflazio tasa edo ingurumen konbertsio faktoreen inguruan proposatutako balioak. Datu berri horiek sorturiko egoera hauen guztien azterketa egin ostean (775 ingurumen eta 682 ekonomia egoera), emaitzen zehaztasun gehikuntza eta bizi zikloaren etapa guztiak zenbatzearen arteko erlazioaren inguruko erantzun bat erdiesten da.
Lehen ondorioak erakusten du ingurumenaren ikuspegitik ebaluatu diren agertokien %98n garraio, eraikuntza-prozesu eta deuseztatzeak sortutako inpaktuaren kuantifikazioak %1eko baino gutxiagoko inpaktua izango duela azken emaitzetan. Gauza bera gertatzen da bizi-zikloaren ikuspegia duen ebaluazio ekonomiko batean, non lortutako emaitzek erakusten baitute agertokien %99ren garraio eta deuseztatze etapetan sortutako inpaktuaren kuantifikazioak %5eko baino gutxiagoko eragina izango duela azken emaitzetan.
Beste etapen garrantziari dagokionez, azterlan honetan bi agertoki erabat desberdin finkatu dira. Batetik, erabilera-etaparen pisu erlatiboa oso txikia duten agertokiak aurkitzen dira. Kasu horietan, birgaitutako beste bizi-etapa batzuetan sortutako inpaktua kuantifikatzeaz gainera, beharrezkoa da kuantifikatzea bizi-zikloaren beste etapa batzuetan sortutako inpaktuak, besteak beste, ekoizpena, eraikuntza prozesua, mantentzea eta ordezkatzea Hala ere, bigarren agertokian ikus daitekeen bezala, ingurumen azterlanean %74an eta azterlan ekonomikoen %19n, eraikinaren erabilera etapan zehar izaten den murrizketa bizi-ziklo osoan eraikina birgaitu ondoren murriztutako inpaktuaren %90etik gora dela; horrek frogatzen du bizi-zikloko beste etapa guztiek (ekoizpena, garraioa, eraikuntza prozesua, mantentzea, ordezkatzea eta deuseztatzea) inpaktuaren %10 baino gutxiago dutela. Hau da, emaitzek aditzera ematen duten bizi-zikloko analisiaren irismena guztiz sinplifikatu, eta eraikinaren erabilera-etapa aztertzera bakarrik mugatutako kalkuluetan lorturiko emaitzen eta bizi-ziklo analisian oinarritutako kalkuluetako emaitzen arteko aldea %10ekoa baino txikiagoa izango dela.
Artikuluaren fitxa:- Aldizkaria: Ekaia
- Zenbakia: Ale berezia. 2018
- Artikuluaren izena: Bizi-ziklo analisiaren irismenaren optimizazioa eraikinen birgaitze energetikoen ingurumen- eta ekonomia-analisietan
- Laburpena: Eraikuntza-sektorerako bizi-ziklo analisiaren metodologia estandarizatu arren, ikertzaileek sistemaren irismenaren inguruan sinplifikazio batzuk aplikatzeko joera dute bizi-zikloaren fase batzuk alde batera utziz. Birgaitze energetikoetan, erabilera-etapan jartzen da arreta bereziki, energiaren erabilera murriztea baita birgaitze horien helburu nagusia. Artikulu honek etxebizitzen birgaitze energetikoko proiektuetan, ingurumen- eta ekonomia-inpaktu orokorrarekin alderatuta, bizi-zikloko etapa bakoitzaren garrantzia ebaluatzen du. Azterketa kasuko birgaitze-estrategien analisiaren emaitzen arabera, garraio- eta deuseztatze-etapek garrantzi txikia dutela ikusten da. Eraikuntza-prozesuaren etapak ere garrantzi txikia du ingurumen-azterketan. Ekoizpen-, mantentze- eta ordezkatze-etapek, oro har, garrantzi handiagoa dute, batez ere, ebaluazio ekonomikorako. Sentsibilitate-analisi zabal batek bizi-zikloaren mugak sinplifikatzeak dakartzan zailtasunak erakusten ditu, azterketa hauek klima, eraikinaren tipologia, edo aurreikusitako erabilera-bizitza bezalako aldagaiekin duten lotura zuzena azalduz.
- Egilea: Amaia Munarriz-Ibarrola
- Argitaletxea: UPV/EHUko argitalpen zerbitzua
- ISSN: 0214-9001
- Orrialdeak: 143-162
- DOI: 10.1387/ekaia.17650
————————————————–
Egileez:
Xabat Oregi, Maitane Otaño eta Patxi Hernandez Tecnalia Research & Innovationen dabiltza eta Rufino Hernandez UPV/EHUko Arkitektura Goi Eskola Teknikoan.
————————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post Bizi-ziklo analisiaren irismenaren optimizazioa eraikinen birgaitze energetikoen ingurumen- eta ekonomia-analisietan appeared first on Zientzia Kaiera.
La forma fractal de mapas y pulmones
Los mapas isócronos son mapas que representan tiempos: en general, el tiempo que se tarda en llegar de un lugar a otro. Distintos tonos de color corresponden a distintos valores de tiempo y, en consecuencia, dos puntos del mapa del mismo color están a la misma “distancia temporal” de otro que se haya tomado como origen.
Si la superficie representada en el mapa fuese la de un terreno liso, igualmente transitable en todas las direcciones, podríamos esperar que un mapa isócrono fuese, sencillamente, una especie de diana: círculos concéntricos trazados a partir del origen elegido. En lugar de eso, el patrón que nos encontramos es este:
El vídeo, publicado por Alberto Hernando de Castro, muestra un mapa isócrono de España con origen en la Plaza Mayor de Madrid, creado con herramientas de software libre (el autor explica cómo aquí, por si queréis jugar). Pero existe una galería completa de mapas isócronos que podéis consultar: Estados Unidos, Japón, Brasil… y todos ellos tienen la misma forma. Una forma que recuerda poderosamente a la de un fractal.
No es casualidad, claro. Esta es la forma que tienen, en general, los caminos construidos por humanos mirados desde un único punto de origen (o de destino). Pero también; la forma que adopta nuestro sistema circulatorio. O las ramificaciones de nuestros pulmones. O las raíces de un árbol… Todos estos sistemas se parecen porque todos dan solución a un problema muy concreto: el problema del transporte, o de cómo cubrir una superficie (léase, un objeto de dimensión n) usando sólo líneas (de dimensión n-1).

Los fractales son, quizás, una de las estrellas pop de la matemática moderna y, francamente, no me extraña. Presentan un equilibrio intrigante de sencillez y complejidad, como los mejores puzzles de lógica: una premisa aparentemente fácil va escalando poco a poco y da lugar a una trama mucho más rica y minuciosa. Puede que su atractivo visual algo que ver con esto. O puede que nos hechice saber que ninguna de sus líneas se debe al capricho: cada una obedece un camino preciso, exacto, sin que ningún diseñador haya tenido que trazarlo, sin que ningún espectador vaya a poder recorrerlo por completo jamás.
A pesar de su encanto y su fama, los fractales son también grandes incomprendidos: la idea popular los pinta como objetos idénticos a sí mismos a distintas escalas. Sin embargo, esta no es una característica compartida por todos los fractales, sólo por los llamados autosimilares. Como definición, resultaría demasiado restrictiva, demasiado “ideal”. Los fractales, en cambio, nacieron en los años 70 con la ambición de describir objetos muy reales de la naturaleza, que no podían ser delimitados por las líneas suaves a las que nos tenía acostumbrado el cálculo, o la geometría. Lo que Mandelbrot tenía en mente era capturar la idea de rugosidad: como la de la costa de Gran Bretaña o, sí, como el contorno de una carretera. Para representar esta idea matemáticamente, podemos utilizar el concepto de dimensión fractal.
Fácil y divertido. O… no tanto. Veamos qué es esto: ¿qué es una dimensión?
A todos nos suena más o menos, aunque sólo sea como salmodia, que “un punto no tiene dimensiones”, que una línea recta es un objeto unidimensional, una superficie tiene dos dimensiones y los volúmenes que nos rodean ocupan un espacio de tres dimensiones (4 si consideramos el tiempo). De manera intuitiva, podemos decir que una dimensión es un parámetro de cambio que puede ser fijado mediante una coordenada. Por lo tanto, el número de dimensiones de un objeto será igual al número de coordenadas necesarias para definir un punto sobre el mismo.
Ahora bien, tomemos un fractal e intentemos poner a prueba esta idea: por simplicidad, elegiremos un fractal de los más populares, autosimilar, como el copo de nieve de Koch. A primera vista, parece ser una línea (unidimensional), por lo que debería bastar una única coordenada para definir un punto sobre ella. En este caso, claro, al no estar sobre una línea recta, nuestra coordenada será una especie de “punto kilométrico” sobre la curva.
Bien, imaginemos que buscamos el punto “1,5” de la curva, siendo sus segmentos rectos de longitud 1. Para ello, hacemos zoom y nos quedamos con un fragmento lo más sencillo posible del copo de nieve. Algo como esto:
Lo dicho ¡fácil y divertido! O… no tanto. En realidad, al intentar simplificar el problema, hemos hecho una pequeña trampa. Hemos eliminado, precisamente, la rugosidad del fractal. De hecho, si nos fijamos un poco mejor y añadimos más detalle a la curva de Koch, nos encontramos con que el punto 1,5 ya no donde lo habíamos encontrado:
Y con una tercera iteración, el punto se desplaza todavía más:
Supongo que veis adónde va a parar esto. Realmente, no es posible localizar nuestro punto de esta manera porque la longitud un fragmento cualquiera de la curva de Koch es infinito.
Como lo sería (figuradamente) el contorno de Gran Bretaña medido alrededor de cada grano de arena de su costa (o del peinado de Boris Johnson). El detalle de nuestra medida, la “escala” elegida, altera la medida misma. Esto es lo que se conoce como el efecto Richardson.
Nuestro primer intento, por tanto, no ha funcionado. Pensemos en otra manera de entender la dimensión de un objeto. Partamos, de nuevo, ejemplos conocidos: un fragmento de recta, un cuadrado, un cubo e imaginemos que queremos “pesarlos”. En este caso, se tratará de un peso imaginario, intuitivo. Podemos usar una báscula matemática de masas platónicas para medirlo, si queréis. En concreto, nos interesa saber cómo cambia la masa de estos objetos al cambiar su escala y multiplicarla por 3.
Bien: si tomamos la recta y multiplicamos su tamaño por 3, su masa se multiplicará también por 3. En el caso del cuadrado, al triplicar su escala, obtendremos un peso 9 veces mayor (dicho de otro modo: el cuadrado original cabe 9 veces en el ampliado). El cubo, pasará a pesar 27 veces más… Supongo el patrón es fácil de ver: 3=31, 9=32, 27=33. La dimensión de cada objeto nos indica a qué número debemos elevar el cambio de escala (3) para obtener el valor de la nueva masa.
¿Qué sucede entonces con la curva de Koch? Bien, en este caso, si ampliamos un fragmento de nuestro copo por 3, obtenemos un fragmento que contiene 4 veces al fragmento original. Es decir: su peso se multiplicará por 4.
Siguiendo el razonamiento del párrafo anterior, podemos calcular cuánto vale la dimensión del fractal, encontrando el valor de este exponente (x): 3x=4
¿A cuánto hay que elevar el factor de escala (3) para que el peso se multiplique por 4? La solución de la ecuación, x = log4 / log3 nos indica que la dimensión fractal de la curva de Koch no es ni 1 ni 2: es, aproximadamente, 1,26.
Esta es la magia de los fractales: su dimensión puede ser un número no entero. El infinito que llevan en su ADN (infinitas torsiones, infinitas ramificaciones) los coloca a mitad de camino entre líneas y superficies, o superficies y volúmenes. Existen, incluso, curvas ¡de dimensión fractal 2! capaces de llenar el plano. Este es el caso de la curva de Hilbert, por ejemplo, pero existen muchas otras.
Pero volvamos a los ejemplos reales. Ciertamente, nuestros pulmones no se ramifican de manera infinita ni tienen una masa platónica. Sin embargo, es precisamente su parecido con un fractal lo que les permite maximizar su superficie siguiendo un patrón de crecimiento relativamente sencillo (similar a distintas escalas). Los pulmones, como árboles invertidos (y los árboles, como pulmones invertidos), intercambian gases en la punta de cada rama, donde se encuentran los alvéolos (las hojas). La cantidad de gases que consiguen aprovechar es directamente proporcional a su superficie total. Y aquí es donde viene el dato sorprendente: aunque el volumen de los pulmones humanos es apenas de unos 4 a 6 litros, su superficie ronda los 140 metros cuadrados1, algo más de media cancha de tenis. En esto consiste, precisamente, la idea de rugosidad. Para cuantificarla, eso sí, pueden tomarse distintas aproximaciones: en el caso de los pulmones, la dimensión fractal varía, según distintos autores, entre 2,26 y 2,882.

Volviendo a las líneas del precioso mapa isócrono que, sin quererlo, se han ramificado hasta dar forma a esta digresión: se ha estimado que podrían tener una dimensión de 1,83. Resulta difícil asegurar si la fractalidad de estas carreteras se debe, quizás, a la rugosidad del propio terreno sobre el que se construyen. O si el truco radica en tomar un punto de origen sobre una red mucho más compleja. En cualquier caso, es bonito pensar que nuestros caminos son, de hecho, equivalentes a pulmones, o al sistema circulatorio de un organismo inmenso del que, sin saberlo, formamos parte. Un organismo vivo que nosotros mismos hemos ido construyendo.
Bonus track: Este es el aspecto de los ríos y sus afluentes
Referencias:
1 E.N. Marieb, K.N. Hoehn. Human anatomy and physiology.
2 K. Lamrini Uahabi and M. Atounti. New approach to the calculation of fractal dimension of the lungs
3 P. Pavón et al. Multifractal approach for comparing road transport network geometry: The case of Spain
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo La forma fractal de mapas y pulmones se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Ciencia en la cocina: Fractal de cochinilla
- Frank Stella, la forma del lienzo
- La nueva forma de enfriar que lo cambiará todo
Eklipseez

1. irudia: XIX. mende erdialderako astronomoek eguzkiaren kanpo-atmosferarekin lotzen zituzten jada eklipse osoetan ikusgai diren eguzki-koroa eta protuberantziak.
Ilargiak proiektatutako itzalak oso gutxi ebakitzen duenez Lurraren gainazala, eguzki-eklipse oso bat ibilbide estu batetik baino ezin daiteke ikusi. Gehienez ere, eklipse oso batek zazpi minutuko iraupena izaten du. Edmond Halley astronomoak grabitazio-fisika newtondarra erabili zuen Ilargiaren mugimendu orbitala kalkulatzeko, horren ondorioz, eguzki-eklipse baten ibilbidea lehen aldiz aurreikusteko gai izan zen 1715ean.
Eguzki-eklipse oso batek aukera ematen du beste era batera antzemateko zailak diren eguzki-ezaugarriak ikusteko. Hain zuzen, XIX. mende erdialderako astronomoek eguzkiaren kanpo-atmosferarekin lotzen zituzten jada eklipse osoetan ikusgai diren eguzki-koroa eta protuberantziak. Era berean, kromosferako argi-keinuak (flashak) 1870ean hartu ziren eta XX. mendeko 30eko hamarkadarako bazekiten koroa oso ionizatuta zegoela eta bataz besteko tenperatura 1.000.000º C baino askoz altuagoa zuela.

2. irudia: 2017an Estatu Batuetan ikusgai izan zen eklipsean zehar hartutako irudian kromosferako argi-keinuak ikus daitezke.
Eguzki-eklipseen ikerketa beste mota bateko informazio iturri ere bada. Historian zehar, lekuko askok eklipseen ibilbide posizioak ikusi izan dituzte, zeinak hainbat txostenetan bildu izan baitira; horiek gertutik ikertu ostean, ikusi da Ilargia gero eta urrutiago dagoela Lurretik. Ondorioz, mendetik mendera, eguna bi milisegundo luzeagoa da.
Arthur Eddington astrofisikariak 1919ko maiatzaren 29ko eguzki eklipsea erabili zuen Einsteinen erlatibitate orokorraren teoria «baieztatzeko». Teoriak aurreikusi zuen Eguzkiaren grabitazio-eremuak 1,75 segundo hirurogeitar desplazatzen zituela bere gainazalera tangentzialki pasatzen ziren izarren argi-izpiak eta Eddingtonek antzeko kopurua antzeman zuen.
Ilargi-eklipseei dagokienez, Ilargia Lurrak proiektatzen duen itzal-konotik pasatzen denean jazotzen dira. K.a. III. mendean, Samoko Aristarkok ondorioztatu zuen Ilargia 60 lur-erradiora dagoela Lurretik; izan ere, batetik modu zehatzean neurtu zituen Ilargi-eklipsearen faseen denborak eta, bestetik, Ilargiaren diametro angeluarra zein Lurraren erradioa ezagutzen zituen.

3. irudia: Ilargia Lurrak proiektatzen duen itzal-konotik pasatzen denean gertatzen dira ilargi eklipseak.
Halaber, Eguzki-sistemako beste eklipse batzuek ere garrantzia izan dute astronomiaren historian. XVII. mendean Ole Rømer daniarrak Jupiterren ilargien eklipseen iraupena neurtu zuen Lurra bere orbitaren posizio desberdinetan zegoenean. Hala, nahikoa informazio izan zuen argiaren abiaduraren kalkulu bat egiteko. Galileok, zeinak 1609an sateliteak aurkitu baitzituen, proposatu zuen eklipseak nahiz sateliteen arteko bat etortze optikoak oinarria izan zitezkeela Lurreko hainbat lekutatik ikusi ahalko zen erloju estandar baterako. Nolanahi ere, halako erloju baten aplikazio nagusia, hau da, itsas zabaleko ontziek luzera zehaztea, ezinezkoa zen praktikan, zeren bat etortzeak neurtzeko beharrezko teleskopioa ezin zen gauzatu ontzian bertan. Berrikiago (1985 eta 1991 artean), Plutonen Karonte satelitearen eklipseak behatuz, bi gorputzen tamaina eta koloreen kalkulu zehatzak egitea lortu zen.
Azkenik, izar-eklipseen garrantzia Edward Pigott eta John Goodricke astronomoei esker hasi zen ezagutzen. XVIII. mendeko 80ko hamarkadan Algol (Beta Persei) izarraren distira-aldaketak behatu ostean, proposatu zuten aldaketa horiek gutxi gorabehera Algolen tamaina erdia zuen planeta batek eragin zitzakeela, zeinak izarraren inguruan orbitatu eta noizbehinka eklipsatzen baitzuen.
Friedrich Argelander astronomoak, berriz, datu zehatzagoak eman zituen izar-eklipseek eragindako distira-aldaketen inguruan 1843. eta 1870. urteen artean. 1919an, Gustav Müller eta Ernst Hartwig astronomoek eklipsatzen ziren 131 izar bitarrez osatutako katalogoa argitaratu zuten. Joel Stebbins-ek selenio-fotometroa sortu zuen 1910ean eta haren bitartez Algolen argi-kurbaren gutxiengo sekundarioa aurkitu zuen; horrek adierazten zuen albokoa izar ahula zuela eta ez planeta bat. Eklipsatzen diren izar bitarren argia analizatzeak bi izarren tamaina eta argitasunaren inguruko informazioa lortzea ahalbidetzen du.
——————————————–
Egileaz: Cesár Tomé López (@EDocet) zientzia dibulgatzailea da eta Mapping Ignorance eta Cuaderno de Cultura Cientifica blogen editorea.
Itzulpena: Lamia Filali-Mouncef Lazkano
Hizkuntza-begiralea: Gidor Bilbao
——————————————–
The post Eklipseez appeared first on Zientzia Kaiera.
La misteriosa sucesión de Kolakoski
William Kolakoski (1944-1997) fue un artista que se dedicó también a la matemática recreativa. Es conocido –fuera del ámbito artístico– por la sucesión que lleva su nombre y que él mismo introdujo en 1965 en la revista American Mathematical Monthly:

El matemático Rufus Oldenburger ya había descrito esta sucesión en 1939, aunque parece en ese momento no llamó la atención de la comunidad científica.
En este ‘problema 5304’ planteado en la American Mathematical Monthly, Kolakoski escribía los primeros términos de la sucesión, proponía describir una regla para construirla, encontrar su n-ésimo término y decidir si se trata de una sucesión periódica.
Para describirla se puede recurrir a la llamada ‘sucesión contadora’ de una dada, es decir, la sucesión formada por aquellos enteros positivos que indican el número de bloques de símbolos consecutivos iguales en la sucesión. Por ejemplo, la sucesión contadora de:
a, b, b, a, a, b, b, b, a, b, a, a, b, b,…,
es 1, 2, 2, 3, 1, 1, 2, 2…; porque el término a aparece una vez, la b dos veces, la a dos veces, la b tres veces, la a una vez, la b una vez, la a dos veces, la b dos veces,…
La sucesión de Kolakoski posee bloques de uno o dos dígitos de ‘1’ y ‘2’; los primeros son:
1, 2, 2, 1, 1, 2, 1, 2, 2, 1, 2, 2, 1, 1, 2, 1, 1, 2, 2, 1, 2, 1, 1, 2, 1, 2, 2, 1, 1,…
Su sucesión contadora es:
1, 2, 2, 1, 1, 2, 1, 2, 2, 1, 2, 2, 1, 1, 2, 1, 1, 2, 2,…,
ya que los bloques de dígitos van agrupados de la siguiente manera:
1, 2, 2, 1, 1, 2, 1, 2, 2, 1, 2, 2, 1, 1, 2, 1, 1, 2, 2, 1, 2, 1, 1, 2, 1, 2, 2, 1, 1,…
Es decir, la sucesión contadora de la de Kolakoski… ¡vuelve a ser la de Kolakoski!
Cada término de la sucesión de Kolakoski genera un ‘camino’ de uno o dos términos ‘futuros’. ¿Cómo? El primer 1 de la sucesión genera un camino de “1”, es decir, a sí mismo. El primer 2 genera el camino “2, 2” (que se incluye a sí mismo) y el segundo 2 genera un camino “1, 1” y así sucesivamente.

En [5] se demuestra que la sucesión de Kolakoski no es periódica. En [6] el autor proporciona una fórmula recursiva para la sucesión… Pero muchos otros problemas relativos a esta sucesión quedan aún abiertos, como los siguientes:
-
dada una cadena de dígitos en la sucesión, ¿vuelve a aparecer en algún otro lugar de la sucesión?
-
dada una cadena de dígitos en la sucesión, ¿la cadena inversa también aparece en algún otro lugar de la sucesión?
-
¿aparecen los dígitos 1 y 2 con la misma frecuencia en la sucesión de Kolakoski?
En este video del canal de YouTube de Numberphile, el divulgador Alex Bellos explica algunas de las curiosidades sobre la misteriosa sucesión de Kolakoski…
Existen numerosas variaciones –incorporando más cifras a la sucesión, o cifras diferentes, etc. (ver [4])– que añaden dificultad al tema y hacen surgir otro tipo de preguntas, muchas de ellas aún sin solución. Así avanzan las matemáticas… aumentando la dificultad de los retos y buscando nuevas ideas y diferentes técnicas que puedan ayudar a resolverlos.
Referencias
[1] William Kolakoski (1965). Problem 5304, The American Mathematical Monthly 72: 674.
[2] The Kolakoski Sequence, Futility Closet, 5 octubre 2018
[3] N. J. A. Sloane, A000002 Kolakoski sequence, The On-Line Encyclopedia of Integer Sequences (y los 10 500 primeros términos de la sucesión).
[4] Kolakoski Sequence, Wikipedia (consultado: 6 octubre 2018)
[5] Necdet Üçoluk (1966). Problem 5304, The American Mathematical Monthly 73, 681-682.
[6] Steinsky, Bertran (2006). A recursive formula for the Kolakoski sequence A000002. Journal of Integer Sequences. 9 (3).
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo La misteriosa sucesión de Kolakoski se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- John Rainwater no existe
- Los números (y los inversos) de Fibonacci
- El teorema de los cuatro colores (y 4): ¿Podemos creer la prueba de la conjetura?
Kideak zaintzeak ordainsaria dakar, sari ebolutiboa bederen
Literatura paleoantropologikoak luze eta zabal deskribatu ditu osasun arazo larriak zituzten gizakien fosilak. Horiek guztiek ezinbestean euren ingurukoen laguntza behar izan zuten aurrera egiteko. Agian ezagunena Miguelonen buru-hezurra da, duela 450.000 urte inguru Atapuercan (Burgos) bizi izan zen Homo heidelbergensis baten fosila. Infekzio larria zuen Miguelonek, eta janaria mamurtzeko arazoak izan behar zituen. Hortaz, seguruenera taldearen laguntza izan behar izan zuen bizirik jarraitu ahal izateko.

1. irudia: Antropologo talde baten ustez, kideak zaintzeak abantaila ebolutiboa ekarri zion gizakiari, gaixotasunari aurre egiteko bideak zabaldu zirelako. (Argazkia: Josh Appel / Unsplash)
Kanibalismoaren aztarnak ikusten dugunean hori egin zuten gizakien aldetik zein urrun gauden ikusi nahi dugun modu berdinean, horrelako “gizatasunaren” adierazle diren aztarnen aurrean garaiko gizakiengandik hurbiltasuna sentitzen dugu. Jakina da biak ala biak, alde iluna eta argia, gizakiaren baitan dagoen txanponaren bi aldeak direla, baina egia da ere zibilizazioak aurrera joan ahala txanponaren alde argitsua gero eta gehiago ateratzen dela. Edo, behintzat, hori imajinatu nahi dugu. XX. mendean zehar hildakoen zifrek ez dute ideia hori berresten, baina, esan ohi denez, itxaropena da galtzen den azken gauza.
Orain proposatu dutenez, gizatasunaren adierazle den ezaugarri horietako batek zentzu ebolutiboa izan dezake. Scientific Reports aldizkarian ikertzaile talde batek argitu du, hain zuzen, kideak zaintzeak abantaila ebolutiboa ekarri ziola gizakiari.
Espekulazio hutserako bidea eman dezaketelako, bereziki antropologia kulturalaren baitan egin diren ikerketa askok kritikak berenganatu ohi dituzte. Humanitateen parean egoteak abantailak baditu, baina baita horrelako desabantailak ere. Horregatik, beharrezkoa horrelako proposamenak mundu errealean bildutako frogekin babestea. Paleoantropologiaren alorrean ezinezkoa da zuenean ikerketa gaira hurbiltzea, ez bada aztarna arkeologikoen edo genomikaren bitartez. Baina, hurbilketa horren faltan, gaur egingo ehiztari-biltzaileengana jotzea da maiz urratzen den bidea. Oraingoan, baina, beste aukera bat baliatu dute, eta ordenagailu bidezko simulazioetara jo dute.
Sharon Kessler Durhameko Unibertsitateko (Erresuma Batua) antropologoak gidatutako taldeak bide hori jorratu du jakiteko zein izan zitekeen 50 eta 200 lagun arteko taldeetan gaixoen zaintzaren eragina. Ikuspuntu horretatik, giza eboluzioan lerrokatu diren Homo generoko hainbat espezie ikertu dituzte: Homo habilis, Homo erectus, Homo heidelbergensis, Homo neandertalensis eta Homo sapiens.
Bi eredu asmatu dituzte: zaintza eraginkorra eta eraginkorra ez den zaintza, eta horien arabera neurtu dituzte lau egoera ezberdin: oinarrizko primateak, ahaidetasunean oinarritutako egoera, bikote egonkorrak eta elkarrekikotasunm egoera. Lau egoera horiek, noski, gizarte gero konplexuagoak irudikatzen dituzte: hurrenez hurren, 50, 100, 150 eta 200 kidez osatutako gizarteak dira. 200 kilometro koadroko lurraldea irudikatu dute, eta “unibertso” txiki horretan abiatu dituzte simulazioak eta ondorengo analisi estatistikoak.

2. irudia: Atapuercan aurkitutako Miguelonen buru-hezurra –irudian, horren berreraiketa bat- infekzio larria zuen eta bere kabuz jateko gai ez zen Homo heidelbergensis batena zen. (Argazkia: Juanma Gallego)
Simulazio horietan egiaztatu ahal izan nola sortu ziren eta nola eboluzionatu zuten lehen “zaintza” sistema horiek. Hasiera batean gertuko familia arduratu zen zaintzaz. Nahigabean bada ere, horrek abantaila bat ekarri zuen: zailago bihurtu zuen gaixotasun kutsakorren hedapena. Modu berean, gaixotasun horren zaintzari lotutako “gastua” sendiaren baitan banatuta geratzen zen.
Alabaina, denborarekin, zaintza sistemaren zirkulua ireki egin zen, eta horrek indartu zituen giza sistemen konplexutasuna eta aniztasuna. Gainera, ekonomia garatu ahala, gero eta zailagoa zen jendea zaintzea, patogenoak biderkatu zirelako. Neolitoaren etorrerak, beraz, gauzak konplikatu zituen. Batez ere animalien etxekotzea eta nekazaritzaren hastapena faktore garrantzitsuak izan ziren, baina beste tokietara iristea eta beste hainbat giza espezieekin hibridatzea ere jo dituzte arrisku hori handitzen zuten faktoretzat.
Funtsean, egoera berri horietara egokitu izanak presio ebolutiboak eragin zituen, eta, hein batean, horrek gaur egungo gizakiak dituen ezaugarriak moldatu zituen.
Modu berean, gaixotasunak ezagutzeko eta horiei aurre egiteko gaitasuna hobetu zuen gizakiengan. Arlo biologikoan sartuta, sistema immunitarioa belaunaldiz belaunaldi eraginkorragoa bihurtu zela proposatu dute ikertzaileek. Iradoki dute ere gaixo zeuden lagunak zaintzeak gaixotasunen transmisioa ekiditeko giltzarri izan zela.
Ikerketa artikuluan horrela laburbildu dute mahai gainean jarritako proposamena: “Giza leinuan gertatu den zainketaren eboluzioak gure arbasoei aparteko aukera eman zien haien populazioen bitartez gaixotasunen bilakaera aldatzeko, eta, antza, horrek ere eragina izan zuen bai patogenoen zein giza sistema immunitarioaren garapenerako”.
Erreferentzia bibliografikoa:
Kessler, Sharon E., Bonnell, Tyler R., Setchell, Joanna M. & Chapman, Colin A. (2018). Social Structure Facilitated the Evolution of Care-giving as a Strategy for Disease Control in the Human Lineage. Scientific Reports, volume 8, article number: 13997. DOI: https://doi.org/10.1038/s41598-018-31568-2
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Kideak zaintzeak ordainsaria dakar, sari ebolutiboa bederen appeared first on Zientzia Kaiera.
La clasificación actual de los minerales
En Esa pesadilla científica llamada mineralogía dábamos una definición de mineral que nos ha servido suficientemente bien por el recorrido que hemos hecho por la historia de esta ciencia. Y, sin embargo, esa definición no es del todo correcta. Y no es exactamente correcta porque la historia tiene cosas que decir.
En los listados existen algunos minerales que, según las reglas actuales, no podrían considerarse minerales y sin embargo lo son oficialmente. Esas reglas las establece una comisión específica de la Asociación Mineralógica Internacional (IMA, por sus siglas en inglés), un organismo fundado en Madrid en 1958 y que agrupa actualmente a 40 sociedades nacionales. La AMI publica regularmente el listado de especies minerales reconocidas, listado que se ha actualizado en septiembre de 2018 y que puede ser descargado aquí. Pero vayamos por orden y veamos el origen de la clasificación actual de los minerales reconocida oficialmente.
La clasificación actual de los minerales, la 10ª Edición de la Nickel-Strunz, tiene su origen en el trabajo de Karl Hugo Strunz.
Strunz nació en Weiden (Baviera, Alemania) en 1910 y estudió ciencias naturales en la Universidad de Múnich, especializándose en mineralogía. Obtuvo una beca de investigación en la Universidad Victoria en Manchester (Reino Unido), donde trabajó con el físico y cristalógrafo William Lawrence Bragg, quien en 1912 descubrió lo que hoy se conoce como la ley de difracción de rayos X de Bragg, la base para a determinación de la estructura cristalina. Posteriormente, Strunz ocupó puestos de investigación con Paul Niggli en Zurich y Paul Ramdohr en Berlín. Ocupó cargos de profesor en la Universidad Friedrich-Wilhelm, ahora Universidad Humboldt en Berlín, en la Universidad de Ratisbona y en el Instituto de Tecnología de Berlín.
Strunz desarrolló una clasificación de los minerales que se basaba tanto en su composición química como en su estructura cristalina. Su trabajo reagrupó las categorías de James Dwight Dana en un sistema más útil, pero también más complejo.

Las Mineralogische Tabellen de Strunz se publicaron por primera vez en 1941, cuando era curador del Museo de Mineralogía de la Universidad Friedrich-Wilhelm. Strunz había estado clasificando la colección del museo de acuerdo con las propiedades cristalinas y químicas.
Strunz fue miembro fundador y luego presidente de la Asociación Mineralógica Internacional. Él mismo descubrió 14 nuevos minerales, y la strunzita lleva su nombre.
El sistema de Strunz se sometió a una revisión importante en 1966 y tras la colaboración con Ernest Henry Nickel para la novena edición, publicada en 2001, el sistema pasó a conocerse como la clasificación Nickel-Strunz. Actalmente está en vigor la décima edición.
La clasificación de Strunz dividía los minerales en nueve clases que se dividen aún más según la composición y la estructura del cristal. La décima edición establece 10 categorías. Estas categorías son (pueden verse con algo más de detalle aquí):
1 – Minerales elementos
2 – Minerales sulfuros y sulfosales
3 – Minerales haluros
4 – Minerales óxidos e hidróxidos
5 – Minerales carbonatos y nitratos
6 – Minerales boratos
7 – Minerales sulfatos
8 – Minerales fosfatos
9 – Minerales silicatos
10 – Compuestos orgánicos
Decíamos al comienzo que nuestra definición no es del todo correcta porque la historia tiene cosas que decir. Recordemos: Un mineral es una sustancia que:
a) existe en la naturaleza (esto incluye cualquier parte del universo) naturalmente, esto es, sin intervención humana;
b) tiene una composición química característica, aunque no tiene por qué tener una fórmula química exacta;
c) posee una estructura generalmente cristalina. Esta afirmación implica que los minerales son, en principio, sólidos, que la estructura cristalina puede tener alteraciones debido a impurezas, y que además se usa la definición actualizada de cristal (sólido con un patrón de difracción definido) lo que incluye a los cuasicristales.
Pero, si la definición incluye a los cuasicristales y los minerales extraterrestres, ¿que es lo que la clasificación de Nickel-Strunz admite que no cumple con la definición? La clave está en la condición de cristalinidad.
Existe un mineral aprobado actualmente que es un líquido a temperatura ambiente, el mercurio, que, al ser un líquido, no tiene estructura cristalina y no puede producir un patrón de difracción. De hecho existe una familia del mercurio y sus amalgamas (la 1.AD de Strunz).
También existe todo un conjunto minerales amorfos. El ópalo es, quizás, el más conocido. Ello se debe a que cuando la composición se define con precisión mediante un análisis cuidadoso, se demuestra que la sustancia es única, está en una sola fase y, a pesar de ello, se comprueba que no existe un patrón de difracción, la CNMNC (la comisión de la IMA encargada) puede considerar incluir en los listados una sustancia amorfa. Esto se hace siempre caso por caso. El ópalo, sílice hidratada (SiO2·nH2O), sin embargo, es otra de estas excepciones históricas que nunca se aprobarían como mineral bajo las normas actuales (la n indica que la composición es variable). De momento el ópalo aparece clasificado como óxido: 4.DA.10 de Strunz, pero es muy posible que en una futura edición tanto el ópalo como el mercurio pierdan su estatus.
Ya lo dijimos, la mineralogía es una pesadilla científica. Pero fascinante.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La clasificación actual de los minerales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Errusiar mendiak eta giltzurruneko harriak

1. irudia: Errusiar mendian ibiltzean gertatzen diren mugimendu bortitzekin giltzurrun-kalkuluak kanporatu zituztela esan zioten hainbat gaixok Wartinger medikuari. (Argazkia: Free-Photos – domeinu publikoko irudia. Iturria: pixabay.com)
Giltzurruneko harriak edo giltzurrun-kalkuluak giltzurrunean harrapatuta geratzen diren harriak dira eta haien konposaketaren arabera mota desberdinetakoak izan daitezke. Ohikoenak kaltziozkoak izaten dira; izan ere, kaltzioa gure dietako ohiko minerala da eta hezurretan zein muskuluetan behar ez den kaltzioa giltzurrunetara doanean agertzen dira. Arazorik ez dagoenean, kaltzio hori gernuaren bidez kanporatzen da, baina, zenbat kasutan kaltzio hori pilatzen joan daiteke hauspeakinak osatuz. Osatzen diren gatzak kaltzio oxalatozkoak eta kaltzio fosfatozkoak izaten dira. Beste giltzurrun-kalkuluek azido urikoa, zistina eta estrubita izan dezakete.
Zenbait kasutan kalkuluak modu espontaneoan kanporatzen dira, baina, beste zenbait kasutan tratemenduak behar dira harriak kanporatzeko -besteak beste, eta kalkulu motaren arabera, dieta aldatuz, sendagaiak hartuz edo ebakuntza eginez kentzen dira-. Soilik AEBetan urtean 300.000 larrialdi izaten dira giltzurrun-kalkuluekin lotuta. Hori gertatzen denean, harria kanporatzeko gaixoari posizioa aldarazten zaio, hidratatu egiten zaio edo gorputzari indarra egiten zaio harria kanpora dezan. Nolanahi ere, teknika horiek arrakasta aldakorra izan ohi dute.
Errusiar mendiaren eraginaWartinger eta bere lankideen ikerketan hainbat gaixok esandakoa kontuan hartu zuten. Ziotenez, errusiar mendian ibili ondoren modu espontaneoan giltzurrun-kalkuluak kanporatzen zituzten eta, kasu gehienetan, jolas-parkeko atrakzio bera aipatzen zuten, hain zuzen ere, Big Thunder Mountain Railroad errusiar mendia. Atrakzioa hori tren motakoa da, eta ez da Orlandoko Disney World jolas-parkeko atrakziorik modernoena, ezta azkarrena ere. 56 km/h da bere gehienezko abiadura eta ez du kanpai-bueltarik ematen, alegia, bidaiariak ez dira buruz behera jartzen.

2. irudia: Big Thunder Mountain Railroad errusiar mendiaren irudia, Orlandoko (Florida) Walt Disney Wolrd parkean. (Argazkia: Sam Howzit – CC BY 2.0. Iturria: flickr.com)
Ikerketa egiteko zientzialariek silikona gardenezko giltzurrunaren eta ureterraren hiru dimentsiotako eredua egin zuten -ureteroskopiak eta renoskopiak simulatzeko erabiltzen direnenen antzekoa- eta giltzurrun-kalkuluak jarri zituzten barruan. Tamaina desberdinetako harriekin egin zuten proba: 4,5 mm3, 13,53 eta 64,43 mm-koak, gernuan murgilduta. Harri horiek gaixo bati erauzitakoak ziren, esperimentuak baldintzarik errealenetan egiteko asmoz. Eredua motxila batean sartu eta atrakzioan ibili ondoren, kalkuluaren posizioa aztertu zuten ikertzaileek. Guztira 60 giltzurrun-kalkuluren posizioa aztertu zuten -20 bidaia eginez ereduan 3 harri jarrita-.
Datuak aztertuta, baieztatu ahal izan zuten gaixoek kontatzen zutena horrela zela. Hain zuzen ere, atrakzioan ibili ondoren kalkuluak kanporatzea probableagoa da. Are gehiago, atrakzioko trenean hartutako eserlekuaren arabera probabilitate hori aldatu egiten da. Aurrekaldeko eserlekuetan kalkuluen %16,7 kanporatzen da, baina, atzekaldekoetan %63,9. Probabilitate horiek emateko, kalkuluen tamaina eta giltzurrunean zuten posizioa aztertu zuten. Nolanahi ere, ondorioa argi da: Big Thunder Mountain Railroad errusiar mendian ibili ondoren giltzurrun-kalkulua kanporatzeko probabilitatea handiagoa da.
Hori kontuan hartuta, ikertzaileek gomendatzen dute giltzurrun-kalkuluak izan ostean geratzen diren kalkulu mikroskopikoak kanporatzeko errusiar mendian ibiltzea -intentsitate ertaina duena, hori bai-. Era berean, haurdun geratu nahi duten eta kalkulu txikiak dituzten emakumeentzat ere gomendatzen dute kaltzio eta D bitamina gehigarriak hartu behar badituzte. Gomendio horiek emanda, ikertzaileek ere haien lanaren mugak azaleratu nahi izan dituzte: giltzurrunaren silikonazko eredua erabiltzea, gaixo bakarraren giltzurrun-kalkuluekin esperimentatzea eta atrakzio bakarra aztertzea izan dira, zientzialarien iritziz, ikerketaren hutsune nagusiak. Hala ere, ikerketak argi utzi du errusiar mendiak -aztertutakoak behintzat-, eraginda baduela kalkuluen kanporaketan.
Ig Nobel sariaWartingerrek eta Mitchellek, bere lankideak, lortutako emaitzak eta ondorioak 2016an argitaratu zituzten zientzia-komunitateari egindako lanaren berri emateko. Bi urte beranduago, ikertzaileek medikuntzako Ig Nobel saria jaso zuten egindako lanarengatik. Ig Nobel sariak Nobel sarien parodia modukoa dira, hasiera batean barregarriak diren ikerketei emandakoak, baina, bigarren irakurketan pentsarazi egiten duten ikerketak izan ohi dira. Wartinger bera egon zen saria jasotzeko ekitaldian eta ekitaldiaren ondoren egiten den saioan ere egon zen azalpenak ematen -bideoan, 18. minututik aurrera-.
Ig Nobel sariak, zalantzarik gabe, ikusgarritasuna eman dio Wartinger eta Mitchell ikertzaileen lanari eta, horri esker, ikerketek aurrera jarraitzea errazagoa izangoa da. Lortutako ondorioez gain, ikertzaileek beste gauza garrantzitsu bat erakutsi dute: hasiera batean gaixoek kontatutako anekdota hutsak benetako zientzia bihurtu dute. Orain bai, azalpen zientifikoekin argudiatuz, esan daiteke probableagoa dela giltzurrun-kalkulu bat kanporatzea Big Thunder Mountain Railroad errusiar mendian ibili ondoren.
Erreferentzia bibliografikoa:
Mitchell, Marc A., Watinger, David D., (2016). Validation of a functional pyelocalyceal renal model for the evaluation of renal calculi passage while riding a roller coaster. The Journal of the American Osteophatic Association, 116, 647-652. DOI: https://doi.org/10.7556/jaoa.2016.128
Informazio osagarria:
- Cómo expulsar piedras del riñón con una montaña rusa, Javier Yanes, elespanol.com, 2016.
- Ig Nobel win for kidney stone removing roller-coaster, Pallab Ghosh, 2018, bbc.com
—————————————————–
Egileaz: Josu Lopez-Gazpio (@Josu_lg) Kimikan doktorea, irakaslea eta zientzia dibulgatzailea da. Tolosaldeko Atarian Zientziaren Talaia atalean idazten du eta UEUko Kimika sailburua da.
—————————————————–
The post Errusiar mendiak eta giltzurruneko harriak appeared first on Zientzia Kaiera.
Modalidades de alimentación
Los animales necesitan obtener de su entorno ciertas moléculas orgánicas para construir y renovar sus propias estructuras. Además también necesitan un suministro de energía que les permita desarrollar las actividades que les son propias. Esa energía la obtienen también de moléculas orgánicas, algunas de ellas coincidentes o muy similares a las que se utilizan como sillares de construcción de sus estructuras. Las moléculas que obtienen los animales de su entorno son, principalmente, carbohidratos, grasas y proteínas. Una vez adquiridas, las fragmentan hasta disponer de ellas en forma de sus unidades constitutivas, que son azúcares simples, ácidos grasos y aminoácidos, que es la forma en que serán utilizadas bien para renovar y construir las estructuras corporales propias, bien para degradarlas metabólicamente para sintetizar moléculas utilizables como moneda de intercambio energético; se trata, principalmente, de trifosfato de adenosina (ATP), molécula cuyos enlaces fosfato contienen la energía que se utiliza en las células para desarrollar trabajo biológico cuando es necesario. Además de componentes estructurales y sustratos para la obtención de energía, los animales han de ingerir ciertas vitaminas y oligoelementos que son esenciales para el normal funcionamiento del organismo.
Se denomina alimento al conjunto de sustancias que se adquieren con los fines dichos. Y el procesamiento para la posterior utilización incluye su adquisición, su digestión y la absorción de los productos de la digestión.
Los primeros animales realizaban la digestión dentro de las células, pero esa forma de proceder está limitada por el pequeñísimo tamaño que han de tener las partículas de alimento para su introducción en el interior celular. Esa limitación se pudo salvar cuando aparecieron estructuras específicas en forma de saco o de tubo y abiertas al exterior, en cuyo interior pudieron digerirse los alimentos. Los cnidarios, por ejemplo, tienen una cavidad general tapizada por un endodermo interno llamado gastrodermis, que se abre al exterior por un orificio (que hace funciones de boca) en cuyo perímetro se disponen una serie de tentáculos de los que se sirve el animal para atrapar el alimento y llevarlo a la boca.
En otros grupos de posterior aparición, el fondo del saco se abrió al exterior dando lugar a un tubo y un segundo orificio. El orificio inicial era la boca y el segundo, el ano. El tubo resultante era un aparato digestivo cuyas células epiteliales fueron evolucionando y dando lugar a áreas especializadas en diversas funciones. Así, las células especializadas en la digestión ácida quedaron en un compartimento separado de la zona en que quedaron las células especializadas en la digestión alcalina. Además, otras áreas se dedicaron a la recepción y almacenamiento inicial del alimento, y otras al procesamiento de los residuos. De esta forma, no todo el alimento ingerido tiene por qué ingresar en las células digestivas, quedando el material indigerible fuera de ellas.
Se han desarrollado formas muy diversas de adquirir el alimento, formas que están relacionadas, a su vez, con las características del mismo. Aunque como ocurre con muchas otras clasificaciones, también en lo relativo a la alimentación las categorías tienen fronteras no muy bien definidas, los modos de alimentación pueden clasificarse de acuerdo con las categorías que se presentan a continuación.
Comedores de fluidos. Entran en este grupo todos aquellos que succionan fluidos de plantas o animales de mayor tamaño que ellos mismos. Aquellos que permanecen unidos durante largos periodos de tiempo al organismo del que se alimentan son considerados parásitos. Moscas blancas, cochinillas y pulgones se alimentan de la savia de las plantas; vampiros, mosquitos, y sanguijuelas, de la sangre de animales; y luego están los que, como las tenias y otros parásitos intestinales, se alimentan de jugos intestinales.
Filtradores (o suspensívoros). Son aquellos cuyo alimento se encuentra en suspensión en una masa de agua; lo atrapan haciendo pasar el agua por un cedazo en ingiriendo lo que queda retenido en él. El alimento pueden consistir en bacterias, microalgas unicelulares, partículas detríticas, protozoos, y hasta pequeños animales, como los crustáceos eufasiáceos (krill) que sirve de alimento a las ballenas. Entre la macrofauna, los filtradores más abundantes son los bivalvos, que se alimentan de todo tipo de partículas de materia orgánica en suspensión. A este grupo pertenecen, entre otros, esponjas, copépodos, poliquetos, bivalvos y ballenas.
Sedimentívoros. Son los que se alimentan de partículas de sedimento en el que abunda la materia orgánica, normalmente de carácter detrítico. De hecho, en ocasiones se utiliza la denominación “detritívoro” para referirse a los sedimentívoros. La mayor parte de los sedimentívoros son, como la mayoría de los suspensívoros, micrófagos, porque ingieren partículas microscópicas. En este grupo se encuentran los gusanos de tierra (oligoquetos, por ejemplo), o algunos bivalvos y holoturias.
Herbívoros. Se consideran parte de este grupo a aquellos animales macrófagos (que capturan trozos macroscópicos de alimento) que se alimentan de materia vegetal predominantemente (algas, plantas, frutas o semillas, sobre todo). Dado que una parte importante de los materiales que sirven de alimento a los herbívoros es difícil de digerir, no es extraño que muchos herbívoros hayan desarrollado modalidades de digestión en las que intervienen microorganismos simbiontes. Los rumiantes, como las vacas, han recurrido a una fermentación pregrástrica a cargo de diferentes microbios que ponen a disposición del animal sustancias que de otra forman no estarían a su alcance. Otros, como caballos y conejos, cuentan con un dispositivo para la digestión microbiana simbióntica que se encuentra en el intestino posterior, ya sea el colon del animal, ya en sacos intestinales ciegos.
Carnívoros. Como los anteriores, también estos son macrófagos. Capturan presas animales y las ingieren, a veces troceándola, como el león, y en otras ocasiones introduciéndola entera en su aparato digestivo, como la serpiente pitón.
Omnívoros. Los omnívoros son los que consumen indistintamente material vegetal o animal, aunque su sistema digestivo se asemeja más al de los carnívoros que al de los herbívoros. Los cerdos y los seres humanos entramos dentro de esta categoría.
Animales con simbiontes autótrofos en sus tejidos. Algunos ejemplos son los cnidarios (corales) con dinoflagelados simbiontes (fotosintetizadores) en su interior que proporcionan al hospedador parte de su alimento; o los anélidos siboglínidos que habitan los entornos de fuentes hidrotermales sulfurosas en fondos oceánicos, y que contienen bacterias quimiolitotrofas que proporcionan al gusano todo el alimento que necesita.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Modalidades de alimentación se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Amazoniako landare batek giza tumore-zelulen kontra darabilen mekanismoa argitu dute

Irudia: Vismia baccifera landareak gibeleko minbizi-zelulei zelan eragiten dieten argitu dute ikerketan.
Jatorriz Amazonas kolonbiarrekoa den Vismia baccifera landareak giza gibeleko minbizi-zelulen kontra zer eragin duen argitu dute: zeluletan estres oxidatiboa eragiten du landarea eta horrek, azkenean, zelulen heriotza dakar.
Interes handia dago gaur egun landareetatik eratorritako konposatuak identifikatzeko eta kimioterapiarako gai gisa erabiltzeko, tumoreen hazkuntza gelditzeko gaitasuna dutelako edo metastasia tratatzeko balio dutelako, besteak beste.
Kolonbiako Amazoniako Vismia baccifera landarea aukeratu dute ikerketarako. Talde indigenek hanturari aurre egiteko erabiltzen dute, baita gernu-traktuko gaixotasunen edo larruazaleko gaitzen kontra. Aurreko ikerketa batzuetan erabilitako gibeleko minbizi-zelulen kontra erakutsitako gaitasun antitumoral handiagatik aukeratu dute ikerketarako.
Ikerketa in vitro egin dute giza gibeleko tumore-zelulen eredu batekin eta zelulak tratatzeko Vismia baccifera landarearen hostoen estraktu akuoso bat erabili dute, infusio-eran prestatua, medikuntza tradizional indigenan erabiltzen duten bezala. Estraktu horrekin berarekin tratatu dituzte, halaber, giza gibeleko zelula osasuntsuak, zelula osasuntsuei ere eragiten dien egiaztatzeko.
Toxikoa tumore-zelulentzat, baina ez osasuntsuentzatVismia bacciferaren estraktuak tumore-zeluletan erantzun toxikoa sorrarazten duela frogatu dute. Erradikal askeak ugaritzea eragiten du, bereziki hidrogeno peroxidoa, eta horrek tumore-zelulen heriotza dakar. Hidrogeno peroxidoak, besteak beste, ziklo zelularra blokeatzen du (zelulek ugaltzeari uzten diote), material genetikoa kaltetzen du eta apoptosi deritzon heriotza-prozesua aktibatzen du zeluletan.
Tumore-zeluletan eta zelula osasuntsuetan duen eragin zitotoxikoa alderatzean, ikusi dute minbizi-zelulak bakarrik kaltetzen dituela. Gibeleko zelula arruntei ez die eragiten; aurretik ere hori bera ikusi zuten arratoi-zeluletan.
Iturria: UPV/EHUko prentsa bulegoa: Amazoniako landare batek giza tumore-zelulen kontra darabilen mekanismoa argitu dute
Erreferentzia bibliografikoa
Trepiana, Jenifer, Ruiz-Larrea, M. Begoña, Ruiz-Sanz, José Ignacio, (2018). Unraveling the in vitro antitumor activity of Vismia baccifera against HepG2: role of hydrogen peroxide. Heliyon, 4 (6) e00675. DOI: https://doi.org/10.1016/j.heliyon.2018.e00675
The post Amazoniako landare batek giza tumore-zelulen kontra darabilen mekanismoa argitu dute appeared first on Zientzia Kaiera.
Los ‘Lugares de Encuentro’ de Chillida y la importancia de la restauración.
Preámbulo:
Desde el celebérrimo Ecce Homo de Borja hemos visto cómo, de tanto en tanto, desastrosas intervenciones realizadas sobre obras de arte de gran valor se convierten en noticia. Son tan sólo una muestra más del descuido al que se ve sometido parte de nuestro patrimonio cultural que debería ser atendido exclusivamente por profesionales de la Conservación-Restauración. Con el fin de aumentar la visibilidad de esta profesión, ACRE (Asociación Profesional de Conservadores Restauradores de España) ha impulsado una serie de eventos que se realizarán a lo largo de esta semana con motivo del Día Europeo de la Conservación-Restauración a celebrarse el próximo 14 de octubre. No dudéis en visitar la página web para consultar si hay alguna actividad programada en vuestra ciudad. Desde KimikArte nos queremos unir a esta iniciativa dando a conocer uno de los muchos trabajos que realizó el Departamento de Conservación y Restauración del Museo de Bellas Artes de Bilbao durante el 2017. Porque aunque las intervenciones que no acaban arruinando obras de arte rara vez aparecen en los medios son las que realmente deberíamos visibilizar.

Se suele pensar que los museos son edificios impasibles al paso del tiempo, quizás porque su función habitual es albergar obras de arte que pretenden perdurar eternamente. Pero lo cierto es que son lugares en constante cambio, cambios que van mucho más allá que la inauguración de una exposición temporal o la adquisición de una nueva obra. Si no, que se lo pregunten al Museo de Bellas Artes de Bilbao cuyo edificio antiguo fue construido en 1945 con un claro porte clásico. En los 70 se realizó una ampliación en la que se añadió un edificio de estilo mucho más moderno. La última ampliación llegó con el cambio de milenio y sirvió para integrar mejor ambos edificios. Tiene mérito que con 55 años de diferencia entre construcciones se mantenga una cohesión arquitectónica. Sin embargo, alguien que visitase el museo en 1999 difícilmente reconocería el espacio que alberga el hall hoy en día. Uno de los principales motivos sería que una gran pieza de hormigón que habitaba en ese lugar desapareció para crear un espacio mucho más diáfano (Imagen 2). Pero dicha obra no ha abandonado el museo o, por lo menos, no del todo. Ahora flanquea una de sus dos entradas, sirviendo de perfecto contrapunto a Euterpe, la musa que se encarga de guardar la otra. Hablamos de Lugar de Encuentros IV, una creación del inconfundible Eduardo Chillida. Por supuesto, el cambio de hábitat expuso la pieza a unos cambios de temperatura más bruscos y la privó de abrigo contra las constantes lluvias. Teniendo en cuenta esas nuevas condiciones el equipo de Conservación y Restauración del museo bilbaíno prestó especial atención al cuidado de la obra, hasta que en 2017 se tomó la decisión de llevar a cabo un proceso de restauración.

La obra
Como ya habréis intuido, si nuestra protagonista se llama Lugar de Encuentros IV es porque no es única en su especie. El escultor donostiarra concibió una serie de obras como “espacios para el diálogo y la convivencia”. La primera de ellas la elaboró en 1964 en madera de roble y se expuso en Nueva York, aunque ahora es propiedad del Museo Peggy Guggenheim de Venecia. La segunda escultura la creó en acero en 1971 y decora la Plaza del Rey de Madrid. En la misma ciudad encontramos Lugar de Encuentros III (1972), también conocida como La Sirena Varada, que cuelga de un puente que atraviesa la Castellana y es parte del Museo de Arte Público. Con esa obra, que no estuvo exenta de polémica, Chillida inicia la construcción de esculturas de hormigón de gran tamaño. Así, en 1973 nace nuestra protagonista de hoy, junto con Lugar de Encuentros V que se puede disfrutar en Toledo. Ambas se fabricaron con el mismo encofrado, pero la “gemela” castellana reposa sobre una base cilíndrica en posición inversa. Chillida todavía realizaría una obra más para la Fundación Juan March en Madrid (1974) y remataría su serie con Lugar de Encuentros VII (1974) en Palma de Mallorca. Como podéis ver en la Imagen 3, todas estas obras son un juego de curvas y rectas con las que el artista genera un espacio interior. En sus propias palabras: “Para definir esos espacios interiores es necesario envolverlos, haciéndolos casi inaccesibles para el espectador situado al exterior… yo aspiro a definir lo tridimensional hueco por medio de lo tridimensional lleno, estableciendo al mismo tiempo una especie de diálogo entre ellos”.

Pero centrémonos ahora en Lugar de Encuentros IV. Chillida sigue el camino que había iniciado con su predecesora, donde debemos de destacar dos aspectos. Primero, desde un punto de vista artístico, la idea de que la escultura esté sujeta por cables que permiten que levite a 60 centímetros del suelo, logrando sensación de ingravidez. Segundo, desde una perspectiva técnica, el uso del hormigón como material artístico que sería recurrente en otras obras del donostiarra. Como siempre, el material empleado es de especial importancia, sobre todo a la hora de abordar un proceso de restauración, como veremos a continuación. Se podría hablar largo y tendido sobre el hormigón en el arte, pero quedémonos con lo esencial: es una mezcla de cemento (el aglomerante) y áridos que tras mezclarse con agua se fragua (gracias al cemento) para formar un material pétreo. Para más información os recomiendo encarecidamente visitar la entrada de Deborah García Bello que tiene como protagonista otra obra de Chillida: El Elogio del Horizonte.
Lugar de Encuentros IV tiene unas dimensiones de 215 x 475 x 408 cm y pesa más de 16 toneladas. Para crear una obra de tan espectaculares dimensiones Chillida contó con la colaboración del ingeniero José Antonio Fernández Ordoñez. A la escultura se le dio forma mediante un encofrado de madera permitiendo que el hormigón fraguara alrededor de una armadura metálica. Tras el fraguado Chillida aplicó ácido sobre el hormigón con lo que cambió la textura y matizó el color. El resultado final es una obra llena de contrastes: es de rudo hormigón, pero delicada; su peso es dantesco, pero levita y su masa es grande, pero crea vacío. La escultura lleva en el museo desde que el artista la donase en 1982. Entonces se colocó en la planta baja (lo que hoy es el hall de entrada), para moverse, como ya hemos dicho antes, al exterior en el año 2000, en ambos casos bajo la atenta supervisión del escultor.

El deterioro y el estudio previo
Lugar de Encuentros IV sobrepasaba ya los 40 años cuando el museo decidió someterlo a un proceso de restauración. Pero, antes de afrontar intervenciones de este, lo primero que nos debemos preguntar es: ¿por qué se está produciendo el deterioro? Para contestar tenemos que entender la composición química de la obra de arte y su interacción con los factores externos. En el caso de la estructura de Chillida, dos son las principales causas: la colonización biológica y, por encima de todo, la carbonatación del hormigón. Una vez producida la hidratación y fraguado del cemento que sirve de aglomerante en el hormigón, el producto resultante tiene un elevado pH debido a la gran cantidad de hidróxido cálcico. Cuando este compuesto entra en contacto con el dióxido de carbono (proceso que sucede en disolución) se forma carbonato cálcico. Esta reacción química tiene dos consecuencias que pueden resultar nefastas. Por una parte aumenta la porosidad del hormigón, lo que facilita la penetración del agua y, por otra, disminuye el pH, lo que permite que el hierro de la armadura se oxide. Debido a esta oxidación la armadura aumenta su tamaño y provoca grietas en la estructura que pueden ocasionar las pérdidas que alguna vez habréis observado en alguna construcción de hormigón.

Para conocer mejor las propiedades físicoquímicas de la obra y su estado de deterioro se sometió a diversos análisis técnicos, siempre sobre trozos que se habían desprendido, para no perjudicar a la escultura El estudio petrográfico sirvió para saber que el árido que forma el hormigón se podía dividir en dos fracciones: una gruesa compuesta por material calcáreo (gran cantidad de carbonato cálcico) y una más fina que contenía principalmente silicatos y rocas metamórficas. Además, mediante difracción de rayos X se obtuvo información valiosísima sobre la composición química del hormigón. Así, se detectaron compuestos silíceos del árido y aluminosilicatos que apuntan al uso de cemento portland y aluminoso. Además, se observó que la temida carbonatación del cemento se había producido, por lo menos en la muestra analizada.
La restauración
Una vez se conocía perfectamente la obra, era el momento de comenzar con la intervención. Para ello el museo contó con la ayuda de Instituciones y expertos en el campo; a destacar la colaboración con Javier Chillida, especialista en la conservación y restauración de este tipo de materiales y con amplia experiencia en obras de Eduardo Chillida. Como estáis viendo, el trabajo que lleva restaurar una sola obra es más complejo de lo que podríamos pensar, y eso que todavía no le hemos puesto la mano encima. Vamos allá.
El primer paso fue colocar un andamio alrededor de la escultura, ya que si no sería imposible llegar a todos los puntos en los que hay que intervenir. A continuación, con sumo cuidado y la ayuda de brochas o pequeños aspiradores, se realizó una limpieza superficial en la que se quitaron desde hojas a excrementos de aves. Así, la obra estaba lista para recibir el primer tratamiento químico: la aplicación de un biocida que serviría para eliminar esa capa verdosa que podemos apreciar en tantos superficies (formada por musgos y líquenes). Se dejó actuar al biocida durante un día cubriendo la obra con polietileno y posteriormente se procedió a la limpieza.

Como la obra ya había sido sometida a otras intervenciones, antes de proceder con la restauración se decidió eliminar reintegraciones anteriores. Es decir, se quitaron adiciones que se habían realizado para sustituir a las pérdidas de hormigón. A continuación se eliminó el óxido que se había creado sobre todas las partes de la estructura de hierro que quedaban al descubierto. Para ello se empleó una herramienta rotativa equipada con cepillos de acero, siempre dejando una pequeña capa de óxido para que hiciera las veces de protector. Los trozos de metal se limpiaron con etanol y se les aplicó una disolución que contenía ácido tánico. Quizás os preguntéis cómo puede un ácido evitar la corrosión si antes hemos dicho que el descenso del pH era perjudicial para la armadura interior. Pues bien, en este caso no tenemos que centrarnos en ese parámetro. En algunos metales la aparición de óxidos forma una capa sobre la superficie del metal que impide que siga en contacto con el oxígeno. En esa situación hablamos de pasivación, ya que el metal no seguirá oxidandose. En el caso del hierro, dicha capa no es homogénea y no cumple una misión protectora frente al agua y el oxígeno. Sin embargo, el compuesto que se forma entre los iones de hierro y los taninos sí que crea una película protectora, de ahí que se emplee como agente pasivante. El uso de esta reacción entre hierro y taninos quizás os suene por su papel en la tinta ferrogálica.
Pero no nos vayamos por las ramas y sigamos con la intervención sobre Lugar de Encuentros. Ya tenemos la obra limpia, libre de plagas biológicas y reintegraciones anteriores y el hierro visible está pasivado. A todos aquellas partes metálicas que no iban a ser tapadas posteriormente se les puso una protección más: una resina acrílica que se aplicó con pincel. La obra estaba en este punto lista para el proceso de consolidación y reintegración. Las grietas y fisuras se rellenaron con una mezcla de cemento y agua (lechada) que contenía una pequeña cantidad de resina acrílica. Por supuesto, antes de aplicar esa lechada se estudió si podría haber pérdidas durante la aplicación. Si no, podría haber sido como intentar llenar una botella agujereada. Dicho proceso se realizó con una disolución de agua y alcohol, y allí donde se observaron fugas se taparon con un mortero especialmente elaborado para tal propósito.

Además de fisuras y grietas, la escultura tenía una pérdida de un tamaño destacable que supuso un desafío mayor. Se decidió realizar una reintegración empleando un hormigón lo más parecido posible al original. Para ello se realizaron varias pruebas y finalmente se empleó un mortero que contenía, entre otros áridos, mármol rojo de Alicante como el que usara Chillida. Por último, se realizó una reintegración cromática o, en otras palabras, se homogenizó el color del mortero aplicado con el de la obra aplicando con pincel una pintura acrílica con pigmentos.

Tras la reintegración cromática la intervención estaba prácticamente completada, pero como es mejor prevenir que curar (o conservar que restaurar), se aplicó sobre la superficie un hidrofugante. Es decir, un producto que servirá de impermeable a la obra y que, en este caso, es un producto nanotecnológico. También se aplicó biocida nuevamente para retrasar el crecimiento de hongos y líquenes y se dieron los últimos retoques de color con acuarela y pintura acrílica.
Y hasta aquí el proceso de restauración de Lugar de Encuentros IV que, como habéis visto, va mucho más allá de preparar un poco de cemento y ponerlo de mala manera sobre los agujeros. Es un proceso que ha implicado a un gran número de profesionales que han trabajado con rigurosidad y cuyas indagaciones servirán sin duda para futuras intervenciones en otras obras de Chillida. Como colofón os dejo un video en el que podéis ver cada uno de los pasos que he tratado de explicar.

Agradecimientos
Me gustaría agradecer a todos los miembros del Departamento de Conservación y Restauración del Museo de Bellas Artes de Bilbao su total predisposición a compartir el trabajo que realizan, especialmente a Maria José Ruíz-Ozaita y a Sandra Rodríguez por el tiempo empleado en las explicaciones. Del mismo modo quiero agradecer al Museo y a la Sucesión Chillida su gentileza al darnos permiso para emplear las imágenes que aparecen en este artículo.
Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.
Nota: Si se pretende republicar este artículo se debe solicitar permiso expreso de los titulares del copyright de cada una las imágenes antes de reproducirlas.
El artículo Los ‘Lugares de Encuentro’ de Chillida y la importancia de la restauración. se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Asteon zientzia begi-bistan #223
Ernalketa prozesua azaltzeko, oso ohikoa da tonu epikoa erabiltzea: “Bidean espermatozoide ahulenak bazterrean geratzen dira, eta espermatozoide onenak baino ez dira iristen helburura”. Espermatozoide “irabazlea” hartzen da protagonistatzat eta bigarren mailakotzat jotzen da obulua. Antropologian, eboluzioan eta giza ugalketan espezializatutako Robert D. Martin biologoaren arabera ikuspegi hori okerra da. Teoria hori argudiatzeko, esaterako, Martinek dio espermatozoideen ugaritasuna ez dela halabeharrez seinale ona: haietako asko eta asko akastunak dira; horregatik behar dira hainbeste.
Lindus 2 proiektuan lanean ari da Gabi Berasategi biologoa. Hegazti migratzaileak behatzean datza eta ingurumenean dauden arazoak antzemateko tresna “oso sendoa” dela dio Berriak egin dion elkarrizketa honetan. “Ornodunek oso bizkor erantzuten diete aldaketei. Lurraren berotzeari lotuta, bidaiak aurreratu edo atzeratzen dituzte, edo gutxiago migratzen dute”, adierazi du Berasategik.
Germenak izan dira protagonista gaurkoan. XVII. mendearen hasieran, mikroskopioaren garapenak ahalbidetu zuen ordura arte ezezagunak ziren izaki bizidunak aurkitzea. 1835ean Agostino Maria Bassi-k, adibidez, frogatu zuen onddo ñimiño batek muskardina eragiten zuela zeta-harretan. Laster lotuko ziren mikrobioak beste gaixotasun batzuekin. Hainbat teoria germinalek hedatzen jarraitzen zuten XIX. mendean zehar; XX. mendeko hasiera arte ez zen adostasunik lortu. 1880. urtetik aurrera ikertzaile askok ikusi zuten existitu behar zirela gaixotasunak eragiten zituzten agenteak, bakterio ezagunak baino txikiagoak zirenak. 1896an, birus iragazlearen ideia proposatu zen lehenengo aldiz. Hala, mikroskopio elektronikoaren garapenak, 30eko urteetan, birusak ikustea ahalbidetu zuen.
Nobel sariakJames P. Allison eta Tasuku Honjo ikertzaileek jasoko dute Fisiologia edo Medikuntzako Nobel saria, minbizia tratatzeko bide berri bat aurkitzeagatik. Erakundearen iritziz, garatutako metodoa “iraultzailea” da, immunologia-sistemak berak minbizi-zelulei aurre egiteko erabiltzen duen sistema baliatzen baitu, minbizi-zelulak zuzenean suntsitzen saiatu beharrean.
Fisikako nobelari dagokionez, aurtengo sarituak Arthur Ashkin, Gerard Mourou eta Donna Strickland ikertzaileak izango dira, “laserraren fisikan egindako ekarpen iraultzaileengatik”. Bi zatitan banatu dute: erdia Arthur Ashkinentzat izango da, pintza optikoak asmatzeagatik eta haiek biologian aplikatzeagatik. Sariaren beste erdia Gerard Mourou eta Donna Stricklandentzat izango da, intentsitate handiko pultsu ultramotzak sortzeko teknika asmatzeagatik.
Azkenik, Kimikakoa Frances Arnold-ek, George Smith-ek eta Gregory Winter-ek jasoko dute, lehenengoak entzimen eboluzio gidatua garatzeagatik, eta beste biek farmakoak sortzeko fago erakusleen teknika (phage display) garatzeagatik. Sarituen artean, azpimarratzekoa da Arnolden lana: Kaliforniako Teknologia Institutuan irakaslea da eta bertan eboluzioa ikertzen du, medikuntzan, kimikan zein energian izan ditzakeen aplikazioak bilatzeko.
TeknologiaSalaketa faltsuak atzemateko gai den softwarea garatu du poliziak. VeriPol du izena sistemak eta adimen hizkuntzaren prozesamendua eta ikasketa automatikoa baliatzen ditu salaketetan jasotako testuak aztertzeko. Alegia, salaketen testua aztertzen du eta horren inguruan “ebazpen” bat ematen du. Artikuluaren egileen esanetan, benetako salaketek zehaztasun gehiago eskaini ohi dituzte, baina salaketa faltsuetan zehaztasun horiek alboratzen dira.
IkerketaArgitalpenen diktaduraren legeari heldu dio Josu Lopez-Gazpiok aste honetan. Zientzialari baten curriculumak ezer gutxi balio du ikerketa-artikuluak egiten ez baditu. Horren harira, duela gutxi J. Ioannidis, R. Klavans eta K. Boyack ikertzaileek zientzia-artikuluen egile hiperoparoak identifikatu dituzte. Horiek dira urte batean 72 artikulu baino gehiago argitaratzen dituzten egileak. Identifikatu dituzten 9.000 egile hiperoparoen %86 fisikaren esparrukoak dira.
PaleontologiaNeandertalen galera azaltzeko faktoreen artean, askotan aipatzen dena klima da. Orain, klima lokalaren ezaugarriak aztertu dituzte Bizkaiko eta Gipuzkoako zenbait kobazulotan. Jasotako informazioari esker, ondorioztatu dute neandertalak galdu ondoren klima hotza eta lehorra izan zela, landa irekiak basoak ordezkatu zitutela eta animaliak ehizatzeko eremua oso zabala zela. Hala ere, klimaren aldaketa beste toki batzuetan baino apalagoa izan zen.
BiokimikaPolimeroak eta polisakaridoak konbinatzea bioelektronikarako, giza ehunetan hobeto txertatuko diren materialak sortzeko, proposatzen du ikerketa batek. Gaur egungo aplikazio bioelektronikoetan gehien erabiltzen den polimero eroalea PEDOTa da (eta PSSarekin dopatu ohi da, eroankortasun elektroniko eta ioniko, biobateragarritasun eta egonkortasun handiak baititu. Bada, eragozpen bat du: ez da biofuntzionala. Haren biobateragarritasuna hobetzeko, PEDOT-material berriak ekoiztea izan du ardatz ikerketak.
MedikuntzaBurmuineko lesioen ondorioz afasia ager daiteke, hizkuntza-arazoak, alegia. Elebidunen kasuan, gerta daiteke hizkuntza batean arazoak agertzea eta bestean arazorik ez azaleratzea edota bi hizkuntzak ez berreskuratzea maila berean. Ikerketa honen emaitzek erakutsi dute bi hizkuntzak eta hizkuntza-osagaiak hein batean modu bereizian daudela antolatuta elebidunen burmuinean, hau da, gerta daiteke hizkuntzak eta hizkuntza-osagaiak modu bereizian eta desberdinean urratuta suertatzea.
Emakumeak zientzianAmaia Arranz Otaegui arkeobotanikariaren azken ikerketak frogatu du gaur egun Jordania den eremuan, duela 14.000 urte talo-itxurako ogia egiten zutela. Arranz pozik dago ikerketak izan duen hedapenarekin; dibulgazioak garrantzia handia du harentzat. Txikitatik gustuko izan ditu paleontologia, arkeologia eta halakoak: “Hamabost urterekin, lortu nuen Egiptora joatea amarekin, eta museoan negarrez hasi nintzen, hunkituta”. Historia ikasi zuen Bartzelonan, ondoren Kuaternarioko Masterra burutu zuen UPV/EHUn. Doktorego-aldian Arkeobotanika landu zuen, Ekialde Hurbileko hainbat aztarnategietako landareak aztertuz. Gaur egun, doktorego-ondorengo ikertzailea da Kopenhageko Unibertsitatean.
——————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
———————————————————————–
———————————————————————–
Egileaz: Uxue Razkin kazetaria da.
——————————————————————
The post Asteon zientzia begi-bistan #223 appeared first on Zientzia Kaiera.
Helena Matute: “Los algoritmos nos ganan en cualquier partida que juguemos contra ellos”
La catedrática de Psicología Experimental Helena Matute explica cómo las grandes empresas de internet utilizan los conocimientos sobre la conducta humana y el aprendizaje para influir en los usuarios
Qué difícil es explicar las leyes del condicionamiento instrumental y su relación con los algoritmos de internet en apenas diez minutos, pero la catedrática de Psicología Experimental en la Universidad de Deusto Helena Matute no ha temido el desafío.
El escenario escogido fue la octava edición de Naukas, el evento de divulgación científica que llenó Bilbao de conocimiento del 13 al 16 de septiembre en el Palacio Euskalduna de la capital vizcaína.
En la charla “Humanos, algoritmos y otros bichos”, Matute relató cómo los psicólogos Edward Thorndike y B.F. Skinner hicieron una contribución capital a la ciencia en el siglo XX. Así sus experimentos y ensayos culminaron en las leyes del aprendizaje humano y del condicionamiento instrumental. Esas teorías, para las que se usaron gatos que tenían que conseguir salir de una caja a cambio de un premio, llegaban a la conclusión de que el proceso de aprendizaje está relacionado con las consecuencias derivadas de nuestras acciones, por lo que una conducta que desencadena un resultado positivo o consigue una recompensa se repetirá y, ¡ojo!, también al revés.

“Toda conducta que va seguida de consecuencias agradables tenderá a repetirse. Toda conducta que no vaya seguida de consecuencias agradables tenderá a extinguirse. Es como la evolución, pero en comportamiento”, explicó la experta.
Pero ¿qué relación guardan estas teorías con los mecanismos de aprendizaje de la inteligencia artificial y los algoritmos de internet?
En la actualidad los grandes gigantes de la red como Amazon, Google o Facebook emplean los frutos de esas investigaciones psicológicas para afinar sus algoritmos y mejorar las funciones de los motores de búsqueda, pero también para influir en el usuario y motivar comportamientos.
“Todos los principios de modificación de conducta se están aplicando a día de hoy. Cosas que hemos estudiado los psicólogos creyendo que eran para el beneficio de la humanidad, investigaciones que hemos desarrollado para contribuir al progreso, se están utilizando para meternos dentro de esa caja de Skinner gigantesca”, alertó.
La experta relató cómo las compañías más influyentes en la red disponen de equipos formados por grandes profesionales que están volcando todo el conocimiento atesorado durante décadas sobre la psicología de la personalidad, de la persuasión y de las emociones, así como las teorías de modificación de la conducta y de sesgo cognitivo, con objetivos de los que no hemos sido debidamente informados.
“Lo que están haciendo los psicólogos y los ingenieros (que trabajan para los gigantes de internet) es desarrollar algoritmos que exploten nuestros sesgos, que exploten nuestras debilidades”, razonó.

En opinión de Matute se trata de un círculo vicioso, porque el algoritmo aprende de los humanos y aprovecha ese aprendizaje para influir posteriormente sobre sus actos.
“Decimos al algoritmo lo que nos gusta continuamente, lo reforzamos y nos da más. Nos ponen un titular loco y lo retuiteamos. El siguiente que nos ponen es todavía más loco. Da igual lo que haya detrás o si refleja una realidad verdadera”, añadió la catedrática, quien advirtió: “Los algoritmos aprenden, recordad que nos ganan en cualquier partida que juguemos contra ellos porque han aprendido de nosotros”.
Sin embargo, Matute, que dejó claro que el problema nunca es la tecnología, sino el mal uso que pueda derivarse de los avances científicos y tecnológicos, se mostró esperanzada con el futuro.
“Esto acaba de empezar, no vengamos con eso de que ya no podemos hacer nada. Estamos empezando. Tenemos que hacer algo, tenemos que volver a equilibrar la balanza. Tenemos que conseguir, entre todos, que toda esa inteligencia artificial que se ha desarrollado para el progreso humano (…) se reoriente y vuelva a tener interés para la especie humana”, concluyó.
Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Helena Matute: “Los algoritmos nos ganan en cualquier partida que juguemos contra ellos” se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ezjakintasunaren kartografia #231
Eskizofrenia sintomekin lotuta dago marihuanaren gehiegizko kontsumoa. Leyre Urigüen eta bere taldeak lotura honen mekanismo molekularrak topatu dituzte: Molecular mechanisms underlying the link between cannabis abuse and schizophrenia
Lortutako emaitzak publikatzen diren medioen kontrola zientifikoek hartuko balute? Ferran Martinez-Garciaren hausnarketa Gold Open Access Journals: From scientists’ “publish or perish” to publishers’ “publish to get rich”
Richard Feynmanen ametsa betetzear dago. Eta DIPCkoek horren parte dira How to build structures atom by atom using a scanning transmission electron microscope
–—–
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #231 appeared first on Zientzia Kaiera.
La paleodieta de una aldea visigoda
El equipo encabezado por Maite Iris García Collado, de la UPV/EHU, ha reconstruido la dieta de la población que habitaba la aldea de Boadilla, un asentamiento de campesinos de época visigoda (siglos VI-VIII e.c.) situado a las afueras del actual municipio de Illescas, en Toledo. El análisis biomolecular ha permitido no sólo reconstruir cómo se alimentaba un grupo de población, sino que ha demostrado ser una alternativa real para historiar conjuntos antropológicos que tendrían escaso potencial si sólo se estudiaran mediante métodos tradicionales.

El objetivo de la investigación era comprobar hasta qué punto las técnicas de arqueología biomolecular pueden ser una alternativa útil para obtener nuevos datos sobre diversos aspectos sociales y económicos de las sociedades rurales de la Península Ibérica en la Alta Edad Media y así devolver el valor histórico a esos conjuntos antropológicos.
Para ello, por un lado, se realizó un estudio antropológico tradicional para determinar el tamaño de la población enterrada en Boadilla y su perfil demográfico (edad y sexo), lo cual determinó que se trataba de una población estable en la que estaban representadas todas las categorías de edad. Por otro lado, se llevaron a cabo los análisis de isótopos estables de carbono y nitrógeno de una parte de la población seleccionada aleatoriamente. “Esta técnica se basa en la premisa de que la composición química de los alimentos que tomamos queda reflejada en la composición química de los tejidos de nuestro organismo. Por lo tanto, analizando la composición de los restos antropológicos de una población arqueológica, podemos conocer su dieta”, explica García Collado.
Se sabe poco sobre los hábitats rurales de esa época porque las fuentes escritas apenas cuentan nada sobre ellos y los restos arqueológicos que dejaron son escasos y poco visibles. “En ese tipo de contextos son frecuentes los cementerios que ocupan grandes extensiones, con tumbas que forman hiladas irregulares, en las que se inhumaban una o varias personas sucesivamente, a menudo acompañadas de distintos tipos de objetos”, comenta la investigadora. Sin embargo, el material antropológico procedente de esos cementerios, es decir, los huesos y los dientes de las personas que habitaron esas aldeas, no han recibido mucha atención, porque frecuentemente están fragmentados y mal conservados. Eso ha sido un obstáculo para el conocimiento de esas poblaciones, ya que se asumía que la información que se podía sacar de sus restos antropológicos era muy escasa. Ahora, con esta investigación, se demuestra que la aplicación de ese tipo de análisis permite no sólo reconstruir la dieta de un grupo de población, sino que constituye una alternativa real para historiar conjuntos antropológicos que tendrían escaso potencial si sólo se estudiaran mediante métodos tradicionales.
La alimentación de la población enterrada en Boadilla, según los datos aportados por el análisis de los isótopos de carbono, estaba basada en cereales de invierno, una categoría que incluye el trigo, la cebada, el centeno o la avena. No obstante, los cereales de ciclo corto, que en esta cronología están restringidos al mijo y el panizo, también formaban parte importante de la dieta de esa comunidad. “Esto es relevante porque este y otros estudios anteriores apuntan a que la producción y el consumo de esos cereales menores podría ser un rasgo característico de grupos de campesinos con cierta autonomía y control sobre su producción. Los mijos son cereales muy nutritivos y eficientes ecológicamente, pero que tradicionalmente han sido poco apreciados. Por eso no responden a las lógicas en las que un poder superior controla los productos que se cultivan, sino que tienen más sentido en contextos en los que los propios campesinos pueden decidir diversificar sus cosechas”, destaca García Collado.
En cuanto a las proteínas de origen animal (carne, huevos, leche, lácteos) que se han podido detectar a través de los isótopos de nitrógeno, su consumo sería limitado y ocasional. Asimismo, se ha podido descartar el consumo de pescado.
A partir de ahí, se analizó la variabilidad en la dieta dentro de la población. “No detectamos ninguna diferencia en cuanto al consumo de cereales a lo largo de las diferentes categorías de edad. Sin embargo, sí que identificamos una pauta en lo que respecta al consumo de proteínas de origen animal”, comenta la investigadora de la UPV/EHU.
Según los resultados de los isótopos de nitrógeno, los individuos más jóvenes (entre 2 y 8 años) eran los que menos productos de origen animal consumían. El consumo de carne, huevos, lácteos y otros productos derivados se incrementaba ligeramente entre los 8 y los 14 años, para ponerse a la misma altura que los adultos durante la adolescencia (a partir de los 14 años). “Eso quiere decir que el acceso a ese tipo de productos estaba condicionado por la edad y que los individuos más jóvenes tenían un acceso muy restringido a ellos. Además, nos indica que era a partir de los 14 años aproximadamente cuando los adolescentes empezaban a ser tratados como adultos”, puntualiza.
Otra cuestión interesante investigada fue la existencia de diferencias en la alimentación entre los individuos enterrados con objetos de adorno personal o herramientas de uso cotidiano y los que se enterraron sin nada de ello. “A menudo, se ha considerado que esos objetos, que en ocasiones se depositaban junto a los cuerpos, podrían denotar la posición social del individuo. No obstante, de ser así, no habría habido diferencias significativas entre la dieta de los individuos más y menos relevantes”, concluye García Collado. Además, se pudo comprobar que las dietas de los individuos enterrados dentro de la misma tumba tendían a ser similares, un argumento a favor de la hipótesis de que esas estructuras funerarias se usasen como panteones de grupos familiares extensos.
Por último, también se analizó un conjunto de muestras de animales domésticos, ya que determinar las pautas alimenticias de esos animales es útil para caracterizar la ganadería que se practicaba en esa aldea. “El resultado más interesante es que se practicaban diferentes estrategias para cada especie. Las vacas, las ovejas y las cabras probablemente pastaban en tierras cercanas a la aldea, lo cual contribuía al abonado de los campos de cultivo. En cambio, seguramente los caballos eran enviados a pastos abiertos más alejados del asentamiento”, explica la investigadora.
Referencia:
Maite I. García-Collado, Paola Ricci, Raúl Catalán Ramos, Simona Altieri, Carmine Lubritto, Juan Antonio Quirós Castillo (2018) Palaeodietary reconstruction as an alternative approach to poorly preserved early medieval human bone assemblages: the case of Boadilla (Toledo, Spain) Archaeological and Anthropological Sciences (Julio 2018) doi: 10.1007/s12520-018-0672-0
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La paleodieta de una aldea visigoda se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Amaia Arranz: “Egiptora joan nintzen lehen aldian, negar egin nuen, hunkituta”
Arranz gustura dago ikerketak izandako hedapenarekin, eta garrantzi handia ematen dio dibulgazioari: “Ikerketa gehienak ez dira gizartera iristen. Ikertzaileon zeregina da gure lana gizarteratzea; azken finean, gizarteari gure ikerketak finantzatzeko jarri duena itzultzeko modu bat da”. Haren esanean, dibulgatzaile ona izateko ikasi egin behar da, baina, hasteko, nahikoa da borondatea izatea: “Ikerketa honekin komunikabide askotatik deitu didate, eta oso esperientzia polita izan da”. Hain polita, ezen dibulgazioan sakontzen jarraitu nahiko bailuke.

Irudia: Amaia Arranz Otaegui arkeobotanikaria.
Dibulgazioa gustuko duela nabari bazaio ere, are grina handiagoa erakusten du ikerketaz hitz egitean. Aitortu duenez, txikitatik zituen gustuko paleontologia, arkeologia eta halakoak: “Anaiak fosil batzuk zituen, eta haiekin ibiltzen nintzen. Egiptorekin, berriz, txundituta nengoen; dena irakurtzen nuen. Azkenean, hamabost urterekin, lortu nuen Egiptora joatea amarekin, eta museoan negarrez hasi nintzen, hunkituta“.
Ekialde Hurbilak liluratutaArgi zuen bide hori hartu nahi zuela, eta, horretarako, Historia ikastera joan zen Bartzelonara, oso irakasle onak zeudelako han eta etxetik urruntzeko gogoa ere bazuelako. Lizentziatura amaitutakoan, Eusko Jaurlaritzako beka bat eskatu zuen, masterra eta tesia egiteko. “Kontua zen ezin nuela gaia aukeratu, dena gustatzen zitzaidan. Adibidez, Paco Etxeberriarekin hitz egin nuen… Justu orduan Siriako indusketa batera joateko gonbidatu ninduten, Bartzelonako talde batekin; tartean ziren Juan Jose Ibañez, Bartzelonako ikertzaile garrantzitsu bat, eta Lydia Zapata, Euskal Herrian arkeobotanika garatu duena. Eta tesirako gaia proposatu zidaten: hango landare-aztarnak ikertzea, nekazaritzaren sorrera eta hori dena. Niri gai hori oso ikertua zegoela eta dena ezaguna zela iruditzen zitzaidan, baina baiezkoa eman nuen”.
Horrela hasi zen Ekialde Hurbilarekiko lotura. Siriako gerra hasi zen arte, urtero joan zen hango aztarnategira, eta geroztik Jordaniara joan ohi da. Libanon ere izan da, eta beti itzuli da Ekialde Hurbilera. “Penaz itzultzen naiz handik, lankideak baino gehiago lagunak uzten baititut han”.
Dena ez da gozoa izaten, baina, eta egoera desatseginak bizitzea ere egokitu zaio, batez ere Iranen, emakume izateagatik: “Oso hierarkizatuta dago, eta, emakumea bazara, denen behetik zaude. Ni eskerrak doktore nintzen, bestela, ez ninduten aintzat hartuko ezertarako. Eta, hala ere, ez zidaten uzten ezer egiten bakarrik, ez nuen askatasunik”. Jordanian, ordea, bestelakoa da egoera, eta han ez du arazorik parez pare lan egiteko hango ikertzaileekin. “Agintzen dutenak denak gizonak dira, baina hori Europan ere geratzen da gaur egun”.
Bestelako zailtasunak ere aurkitzen ditu, ez emakume izateagatik, baizik eta idatzita dagoena hankaz gora jartzeagatik. “Paleolitoan ogia egiten zela erakustea uste zenaren aurka doa. Baina ez da adibide bakarra, beste zenbaitetan ere frogatu dugu ustea okerra zela, eta ez dute onartu nahi. Esaterako, jarraitzen dute esaten Turkian etxekotu zirela landareak lehen aldiz, nahiz eta gure aurkikuntzek erakutsi duten hori ez dela horrela. Erresistentzia handiak daude”. Hala ere, Arranz ez da isilik eta besoak gurutzatuta geratzen, eta orain arte bezainbesteko irrikaz jarraituko du ikertzen, iragana ezagutzeko eta ezagutarazteko.
Fitxa biografikoa:Amaia Arranz Otaegui Tolosan jaio zen 1987an. Historian lizentziatu ondoren, Kuaternarioko Masterra burutu zuen UPV/EHUn. Doktorego-aldian Arkeobotanika landu zuen, Ekialde Hurbileko hainbat aztarnategietako landareak aztertuz. Gaur egun, doktorego-ondorengo ikertzailea da Kopenhageko Unibertsitatean, eta ehiztari-biltzaile/nekazari trantsizioa ikertzen jarraitzen du.
———————————————————————————-
Egileaz: Ana Galarraga Aiestaran (@Anagalarraga1) zientzia-komunikatzailea da eta Elhuyar Zientzia eta Teknologia aldizkariko erredaktorea.
———————————————————————————-
Elhuyar Zientzia eta Teknologia aldizkariarekin lankidetzan egindako atala.
The post Amaia Arranz: “Egiptora joan nintzen lehen aldian, negar egin nuen, hunkituta” appeared first on Zientzia Kaiera.
Afasia elebiduna: hizkuntza-arazoak osagai eta hizkuntza guztietan?

Irudia: Afasiaren sintomak ez dira modu eta neurri berean azaleratzen elebidunen bi hizkuntzetan.
Afasiko elebidunaren hizkuntza-jokabidea xeheki ikertzeko hizkuntza-arazoak nola azaleratzen diren behatu da bi hizkuntzetan honako hiru metodo hauek konbinatuz: behaketa bidezko metodoak (hizketa espontaneoa), afasia aztertzeko bateria orokorrak eta ariketa esperimentalak. Halaber, afasikoaren antzeko ezaugarriak zituen hizkuntza-arazorik gabeko elebidun kontrol baten jokabidea ere aztertu zen.
Euskara-gaztelania afasiadun honen kasu-azterketan bi emaitza nagusi aurkitu ziren. Alde batetik, afasiak modu espezifiko eta bereizian eragin diezaieke hizkuntza-osagai eta prozesuei. Hiztegiari dagokionez, adibidez, ikusi zen afasiadunak bi hizkuntzetan zenbait arazo zituela hitzak eskuratzeko (euskaraz arazoak nabarmenago ziren). Arazo horiek prozesu eta maila jakin batzuei eragiten zieten soilik: lexiko osteko maila fonologikoari (hotsei) eta hitzaren irudikapen lexiko fonologikoari (hitzari), baina ez, ordea, maila semantikoari (esanahia). Hala erakutsi zuten hitzak ekoitzarazteko ariketa batean ageri ziren akats fonologikoen kopuruak (adb. eltzea ekoiztea iltzearen ordez) eta mihi-puntako fenomenoaren sintomek. Emaitza horiek aditzera ematen dute esanahia eta forma disoziatuta daudela hizkuntzaren irudikapenean, beste lan batzuek erakutsi dutenez.
Maila morfosintaktikoari dagokionez, zenbait esaldi konplexuren ulermen eta ekoizpenean ere urradura espezifikoak azaleratu ziren. Ekoizpen-ariketetan ez zen arazorik ageri ez gaztelaniaz ez euskaraz. Ulermen-ariketetan, berriz, zenbait arazo ageri ziren euskaraz soilik egitura jakin batzuetan, hain zuzen, pinguinoa garbitzen duen umea bezalako subjektuzko erlatibozkoetan eta nor orrazten du erreginak? bezalako objektuzko galderetan.
Bestalde, berretsi zen afasiaren sintomak ez direla modu eta neurri berean azaleratzen elebidunen bi hizkuntzetan, zenbait antzekotasun kualitatibo egon arren, alde kualitatibo eta kuantitatiboak aurkitu baitziren. Hiztegi-mailako arazoetan antzekotasun kualitatiboak ageri ziren (maila semantikoa urratu gabe bietan, eta maila fonologikoak urratuta), baina baita alde kuantitatiboak ere: hutsak euskaraz gehiago ziren. Maila morfosintaktikoan alde kualitatiboak aurkitu ziren: ulermen-arazoak euskaraz bakarrik antzeman ziren. Horrek aditzera ematen du afasiadunak gaztelania hobeto mantendu edota berreskuratu duela euskara baino. Hizkuntza-errehabilitazioa gaztelaniaz egitea, eta lesioaren ondoren gaztelania nagusiki erabiltzeak azal lezakete gaztelania hobeto mantentzea aztertutako afasiadunarengan.
Oro har, ikerlan honetako emaitzek, afasiari buruzko beste ikerketa batzuekin batera, erakutsi dute bi hizkuntzak eta hizkuntza-osagaiak hein batean modu bereizian daudela antolatuta elebidunen burmuinean; horregatik gerta daiteke hizkuntzak eta hizkuntza-osagaiak modu bereizian eta desberdinean urratuta suertatzea. Emaitza hauek ondorio garrantzitsuak dituzte afasiko elebidunen azterketari begira; ezinbestekoa da hizkuntza-osagai eta hizkuntza guztiak zehaztasunez aztertzea hizkuntza-arazoak oharkabean ez pasatzeko.
Artikuluaren fitxa:- Aldizkaria: Ekaia
- Zenbakia: Ale berezia. 2018
- Artikuluaren izena: Zenbakizko biskositateak eragindako soinu-eztandaren simulazioaren zailtasunak
- Laburpena: Burmuineko lesioen ondorioz afasia deritzen hizkuntza-arazoak ager daitezke. Arazo horiek era askotakoak izan daitezkeen arren, oro har, ez dira hizkuntza-osagai guzti-guztietan azaleratzen (adb. hotsetan, hitzetan, esaldien antolamenduan), ezta elebidunen hizkuntza guztietan ere. Hain zuzen, elebidunen kasuan, gerta daiteke hizkuntza batean arazoak agertzea eta bestean arazorik ez azaleratzea (edo arazoak arinagoak izatea) edota bi hizkuntzak ez berreskuratzea maila eta modu berean. Elebidun afasikoen hizkuntza-arazoak aztertzeak aukera ematen du hizkuntzak eta hizkuntza-osagaiak burmuinean nola antolatzen diren ezagutzeko, hots, egitura partekatuak dituzten edota mailaren batean bereizita dauden jakiteko.
- Egilea: Amaia Munarriz-Ibarrola
- Argitaletxea: UPV/EHUko argitalpen zerbitzua
- ISSN: 0214-9001
- Orrialdeak: 191-208
- DOI: 10.1387/ekaia.17899
————————————————–
Egileaz:
ELEBILAB, Euskal Hizkuntza eta Komunikazioa Sailean landu du tesia Amaia Munarriz-Ibarrolak.
————————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post Afasia elebiduna: hizkuntza-arazoak osagai eta hizkuntza guztietan? appeared first on Zientzia Kaiera.
A nadie le preocupan las grasas trans
Hemos encontrado evidencia científica suficiente como para afirmar que el consumo de grasas trans afecta a nuestra salud, sobre todo a lo relativo a nuestra salud cardiovascular. Es por eso que en 2020 no podrán comercializarse alimentos con grasas trans en Canadá[1]. En 2015 se prohibieron en EEUU, con un plazo de retirada que finaliza en 2018. En Dinamarca, Austria, Letonia y Hungría, solo se permite una cantidad muy limitada. En cambio, en la mayoría de los países de la Unión Europea, incluida España, no existe ninguna ley que lo regule.
La Organización Mundial de la Salud recomienda que el consumo de grasas trans no supere el 1% de las calorías ingeridas. La Food and Drug Administration (FDA) recomienda una ingesta tan baja como sea posible. En Europa, algunos países, como los nórdicos, han dictado sus propias normas y recomendaciones, sin embargo, la European Food Safety Authority (EFSA) solamente indica que el consumo debe ser lo más bajo posible.
A pesar de la limitada regulación, la presencia de grasas trans en los alimentos es cada vez más pequeña y consumimos menos del 1% que establece la OMS, por eso no tendríamos que preocuparnos por ellas.
-
Efecto sobre la salud de las grasas trans
Las primeras evidencias de los efectos adversos de las grasas trans sobre la salud se publicaron en la década de los 90, cuando diversos estudios realizados en humanos mostraron que su ingesta aumentaba el riesgo de padecer alteraciones cardiacas tanto o más que las grasas saturadas. Desde entonces, se han publicado múltiples estudios científicos llegando a las mismas conclusiones: un aumento de un 2% de la energía a partir de grasas trans incrementa significativamente el riesgo de sufrir enfermedades cardiovasculares hasta en un 23 %. [2][3][4]
El efecto negativo de las grasas trans sobre la salud cardiovascular se debe a que producen alteraciones en el metabolismo de las lipoproteínas: su ingesta está relacionada con el aumento de la concentración de colesterol total y colesterol LDL en sangre (el malo) y con la disminución del colesterol HDL (el bueno).
Se continúan haciendo estudios sobre la posible implicación del consumo de grasas trans en el desarrollo de otras enfermedades, como la diabetes tipo 2, entre otras. Aunque todavía se desconocen los mecanismos por los cuales las grasas trans disminuyen la sensibilidad a la insulina. [5]
-
Qué son las grasas trans
La denominación trans no tiene nada que ver con los transgénicos, sino que se corresponde con la nomenclatura que utilizamos los químicos para un tipo de enlace.
Los ácidos grasos (coloquialmente denominados grasas) son moléculas formadas por una cadena hidrocarbonada (carbonos unidos entre sí como las cuentas de un collar) y un extremo denominado ácido carboxílico. La cadena hidrocarbonada es la que hace que unos ácidos grasos sean diferentes a otros: puede ser más larga o más corta, y puede presentar carbonos unidos por un enlace simple o por un enlace doble.
Si el ácido graso presenta algún enlace doble, estaremos ante una grasa insaturada. Si no hay ningún enlace doble (si son todos simples) estaremos ante una grasa saturada.
Por norma general, las grasas saturadas son las que debemos evitar en la dieta, puesto que son las que hemos relacionado con ciertas cardiopatías. Y las grasas insaturadas son las saludables. Pero esta norma tiene una excepción, y es que las grasas insaturadas no son todas iguales. Esos dobles enlaces pueden estar orientados de diferente manera. Si la orientación es cis, significa que el ácido graso adquiere forma curva. Pero si es trans, significa que el ácido graso adquiere forma recta (ver imagen anterior).
Puede parecer una diferencia muy sutil, pero ese cambio en la orientación y la forma que adquiere el ácido graso insaturado hace que pase de ser saludable (cis) a no serlo (trans).
Tanto las grasas saturadas, como las grasas insaturadas trans, presentan algo en común. Ambas tienen forma recta, y esto les confiere una característica: funden a temperaturas más altas o, lo que es lo mismo, pueden ser sólidas o más viscosas a temperatura ambiente. La razón de esto es, precisamente esa forma recta. Si nos las imaginamos como piezas, son fácilmente apilables. Podemos hacer coincidir los carbonos unos sobre otros, sin dejar huecos entre sí (ver imagen inferior). Si alguna de esas piezas fuese curva, nos complicaría la tarea. Pero si todos son rectos, se podrían apilar perfectamente, lo que se traduce en que entre ellos surgen unos enlaces débiles. El resultado macroscópico de esto es que tendremos una grasa más sólida y con un mayor punto de fusión.

Las grasas insaturadas cis son las que presentan un mayor impedimento para enlazar sus cadenas hidrocarbonadas entre sí. Esto se traduce en puntos de fusión más bajos, es decir, cuantas más grasas insaturadas cis, mayor es la tendencia a mantenerse líquidas a temperatura ambiente.

-
Por qué hay alimentos con grasas trans
La industria alimentaria no produce grasas trans de forma deliberada, sino que estas grasas se producen como consecuencia de otros procesos, sobre todo durante la síntesis de grasas saturadas.
Desde hace años sabemos que la mayoría de las grasas saturadas no son saludables. Sin embargo, las encontramos en algunos alimentos. La razón de que estén ahí es que las grasas saturadas presentan ciertas ventajas tecnológicas. Hacen que algunos alimentos tarden más tiempo en echarse a perder, ofrecen texturas más cremosas, evitan que los alimentos se reblandezcan y los hacen permanecer crujientes más tiempo. Mejoran la experiencia de consumo y son responsables del efecto “derretirse en la boca”. Esto se debe a su estructura y cómo ésta afecta al punto de fusión. Nos gustan por muchas razones.
En el proceso de conversión de grasas insaturadas en grasas saturadas o parcialmente insaturadas es donde se pueden producir grasas trans. Este proceso suele hacerse con grasas de origen vegetal para que ganen consistencia. Estas grasas vegetales, en gran medida insaturadas, se someten a un proceso de hidrogenación. Esto consiste en hacerlas reaccionar con gas hidrógeno en presencia de un catalizador metálico a una presión y temperatura controladas. El resultado es que el hidrógeno pasa a formar parte de la grasa rompiendo los enlaces dobles. Es decir, el hidrógeno destruye las insaturaciones. Y si la reacción se lleva a cabo hasta su término, obtendríamos grasas completamente saturadas. Por ese motivo llamamos “grasas totalmente hidrogenadas” a las grasas saturadas y “grasas parcialmente hidrogenadas” a las grasas que han perdido alguno de sus enlaces dobles.
Durante estas reacciones se producen, de forma indeseada, las grasas trans. Es decir, algunos enlaces se acaban transformando en enlaces dobles trans. Actualmente conocemos mucho mejor los mecanismos de la reacción, y ajustando las condiciones de la reacción somos capaces de evitar que se produzcan grasas trans durante la hidrogenación.
Los tratamientos térmicos en los procesos de desodorización, en el refinado de aceites vegetales o de pescado, o el calentamiento y fritura de los aceites a altas temperaturas, también generan grasas trans. Por este motivo, algunos países europeos han establecido que la temperatura de fritura no debe superar los 180 oC. [5]
También hay alimentos que de forma natural presentan grasas trans. Pero ojo, no podemos catalogar a un producto de sano o insano solo por eso, sino que hay que contemplar el alimento en su conjunto. Por ejemplo, en los productos lácteos y en las carnes los rumiantes (vacas, corderos y ovejas), las grasas trans se encuentran de manera natural en una concentración del 3% al 6% porque las bacterias que se encuentran en el rumen de estos animales cambian la configuración de los ácidos grasos insaturados de cis a trans.
Las grasas trans producidas por efecto del metabolismo ruminal se absorben en el intestino, se distribuyen en el tejido mamario, entre otros, y se excretan finalmente a través de la leche. Más del 70% del contenido en ácidos linoleicos conjugados (CLA) de la leche se corresponden ácido ruménico, al que se le atribuyen la mayoría de sus propiedades beneficiosas [6]. Así que no hay que dejar de consumir leche por esto.
La evidencia científica apunta a que el consumo de cantidades moderadas de grasas trans procedentes de la leche no contribuye a aumentar el riesgo cardiovascular. La ingesta de ácidos grasos contenidos en los productos lácteos se asocia al descenso de partículas de colesterol LDL (el malo)[7].
-
Consumes menos grasas trans de las que crees
A comienzos de los 90 se estimaba que en Europa consumíamos entre 2 y 17 g al día de grasas trans. Para conocer con precisión la ingesta de grasas saturadas en los distintos países europeos, la Comisión Europea financió el proyecto TRANSFAIR [8]. Su objetivo fue valorar el consumo de grasas trans en 14 países europeos occidentales durante los años 1995 y 1996. Los valores de la ingesta media diaria obtenida en el estudio variaron entre los distintos países. Los valores más elevados, 5,4 g al día (2% de las calorías de la dieta) se encontraron en Islandia y los más bajos 1,5 g al día (0,5%) en Grecia e Italia. En el caso de España, la ingesta media se situaba en 2,1 g al día (0,7%). El estudio concluía que, en general, el consumo de grasas trans en Europa occidental no era preocupante. En cambio, en Estados Unidos, la ingesta diaria estimada mediante un cuestionario de frecuencias de consumo fue de 3-4 g al día.
Desde la publicación de los resultados del proyecto TRANSFAIR, muchos países han realizado estudios sobre los contenidos de grasas trans en los alimentos de uso habitual y la industria ha comenzado a utilizar nuevas tecnologías que disminuyen su formación. La ingesta en la mayor parte de los países europeos ha descendido a niveles inferiores al 1%[9], debido fundamentalmente a la reformulación de los productos que las contenían. En países como Reino Unido o Francia, la ingesta oscila entre el 0,8-1%, siendo proporcionalmente mayor la ingesta de grasas trans de origen natural.
La Agencia Española de Seguridad Alimentaria y Nutrición (AESAN), elaboró un Informe Científico [10] sobre el riesgo asociado a la presencia de grasas trans en los alimentos en 2010, en el que se llegaba a la conclusión de que la ingesta estaba por debajo del 0,7%. En el informe publicado en 2015 [11] se llegó a la conclusión de que la presencia de grasas trans en los alimentos había disminuido todavía más, llegando a ser indetectables en muchos de ellos. La implicación de la industria alimentaria fue clave en este descenso. Lo consiguieron reformulando sus productos y desarrollando nuevas técnicas de evitación de formación de grasas trans. Estos datos hacen que sea prácticamente imposible superar la recomendación de la OMS de consumir menos del 1% de calorías en forma de grasas trans.
-
En España no hay una ley que regule las grasas trans
La Ley 17/2011 del 5 de julio de seguridad alimentaria y nutrición establece en relación a las grasas trans que «en las escuelas infantiles y en los centros escolares no se permitirá la venta de alimentos y bebidas con un alto contenido en ácidos grasos saturados, ácidos grasos trans, sal y azúcares». Sabemos que esta ley nos la saltamos alegremente. También «está limitado el contenido de grasas trans en fórmulas infantiles (han de contener menos del 4% del total de ácidos grasos)». Este artículo de la ley sí que lo respetamos. Con respecto a los demás alimentos no existe ningún tipo de reglamento, ni siquiera se establecen unos valores mínimos.
Sin embargo, a pesar de la falta de regulación, la presencia de grasas trans en los alimentos es mínima, y según la AESAN no representa un problema de salud [11].
-
Qué alimentos contienen grasas trans
Los aportes más altos de grasas trans en la dieta se corresponden a los alimentos elaborados con grasas hidrogenadas (margarinas, shortening -término genérico utilizado para describir grasas y aceites usados en la preparación de alimentos-, productos comerciales de pastelería, platos precocinados, hamburguesas, patatas fritas de bolsa, aperitivos o snacks, sopas deshidratadas entre otros) y los aportes dietéticos más bajos a la carne y productos lácteos (leche, queso y yogur).
En el caso concreto de las margarinas[5], en España, el contenido en grasas trans ha ido disminuyendo en los últimos años, pasando de más del 10% en los años 80, a cero o prácticamente cero en la actualidad.
Así que de los únicos alimentos de los que podríamos preocuparnos son, como siempre, los ultraprocesados. En esta ocasión el problema no está en la presencia de grasas trans, que como hemos visto, es muy limitada, sino en el alimento en su conjunto. Un ultraprocesado con azúcares, altos niveles de sal, harinas refinadas y grasas en general de baja calidad, no se va a convertir en un alimento saludable por carecer de grasas trans.
-
Conclusiones
Las grasas trans son perjudiciales para la salud. Se producen como subproductos indeseables durante la fabricación de alimentos ultraprocesados. Actualmente la industria ha mejorado tanto estos procesos que la ingesta de grasas trans está por debajo de lo que aconseja la Organización Mundial de la Salud.
Aunque en muchos países, entre ellos España, no existe ninguna normativa que regule cuánta cantidad puede haber en los alimentos, lo cierto es que no encontramos grasas trans que debieran alarmarnos dentro de los parámetros de una dieta normal. Así que la conclusión es clara: afortunadamente ya nadie tiene que preocuparse por las grasas trans.
Fuentes:
[1] Canadá prohíbe el uso de grasas trans en los productos alimenticios.
[2] Mozaffarian, D., Katan, M.B., Ascherio, A., Stampfer, M.J. y Willett, W.C. Trans fatty acids and cardiovascular disease. N Engl J Med 2006; 354, pp: 1601-1613. Mozaffarian, D., Katan, M.B., Ascherio, A., Stampfer, M.J. y Willett, W.C. Trans fatty acids and cardiovascular disease. N Engl J Med 2006; 354, pp: 1601-1613.
[3] Clifton PM, Keogh JB, Noakes M. Trans fatty acids in adipose tissue and the food supply are associated with myocardial infarction. J Nutr 2004; 134: 874- 879.
[4]Bendsen NT, Christensen R, Bartels EM, Astrup A. Consumption of industrial and ruminant trans fatty acids and risk of coronary heart disease: a systematic review and meta-analysis of cohort studies. Eur J Clin Nutr. 2011;65:773-83.
[5]Informe FESNAD sobre la ingesta de grasas trans. Situación es España. 2013.
[6] Cruz-Hernández, C., Kramer, J.K.G., Kraft, J., Santercole, V., Or-Rashid, M., Deng, Z., Dugan, M.E.R., Delmonte, P. y Yurawecz, M.P. (2006). Systematic analysis of trans and conjugated linoleic acids in the milk and meat of ruminants. Advances in CLA Research. 2006; 3:45-93.
[7] Sjogren, P., Rosell, M., Skoglund-Andersson, C., Zdravkovic, S., Vessby, B., De, F.U., Hamsten, A., Hellenius, M.L. y Fisher, R.M. Milk-derived fatty acids are associated with a more favourable LDL particle size distribution in healthy men. J Nutr 2004; 134: 1729-1735.
[9] EFSA Panel on Dietetic Products, Nutrition, and Allergies (NDA). Scientific Opinion on Dietary Reference Values for fats, including saturated fatty acids, polyunsaturated fatty acids, monounsaturated fatty acids, trans fatty acids, and cholesterol. The EFSA Journal, 2010; 8, 1461.
[10] Informe del Comité Científico de la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) sobre el riesgo asociado a la presencia de ácidos grasos trans en alimentos. Revista del Comité Científico de la AESAN nº 12, Madrid 2010.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo A nadie le preocupan las grasas trans se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Germenez

1. irudia: Mikroskopioaren garapenari esker, ordura arte ezezagunak ziren izakiak aurkitu ziren.
Mikroskopiaren garapenak, XVII. mendearen hasieran, ahalbidetu zuen ordura arte ezezagunak ziren izaki bizidunak aurkitzea. Antoni van Leeuwenhoek-ek mendearen azken laurdenean egindako behaketa aitzindariek agerian jarri zuten “animaliakulu”-en existentzia ur ezberdinetan, hortzetan edo giza esperman. Eskuragai zeuden tresna optiko gehienen akatsek eragotzi zuten behaketa zinez esanguratsuak egitea XIX. mendeko 30eko urteak arte.
1835ean Agostino Maria Bassi-k frogatu zuen onddo ñimiño batek muskardina eragiten zuela zeta-harretan. Laster lotuko ziren mikrobioak beste gaixotasun batzuekin: aipagarria da Casimir Joseph Davaine, behin eta berriz behatu zituena barra-itxurako egiturak –berak “bakteridia” deitutakoak – karbunkoz (antrax) hiltzen ziren animalien odolean. Egitura horien eta gaixotasunaren arteko lotura, alegia kausa ala ondorio ote ziren, eztabaida irekia zen.

2. irudia: Karbunkoz (antrax) hiltzen ziren animalien odolean topatutako egiturak ‘Bacillus anthracis’ bakteria zen.
Garai horretatik aurrera, hartzidura- eta usteltze-prozesuetan interesatutako zientzialari europarrak pixkanaka hasi ziren gaixotasunaren teoria germinal bat garatzeko bidean. 1840an Jacob Henle-k horrelako teoria baterako marko teoriko orokorra finkatu zuen; aldi berean, Theodor Schwann-ek frogatu zuen airean zegoen zerbait –eta ez airea bera– zela izaki bizidunen gorputzetan usteltzea hasten zuena. 1864an Louis Pasteur-ek zientzialarien eta herritarren arreta erakarri zuen teoria germinalaren kausalitatearen bere azalpenarekin. Horrek eztabaida handia sortu zuen hurrengo hamarkadan, harik eta Robert Koch-ek lehenbizi karbunkoaren azken eragilea identifikatu zuen arte (1876) eta geroago tuberkulosia eta kolerarena. Dena den, gaixotasunaren hainbat teoria germinalek hedatzen jarraitzen zuten XIX. mendeko azken hamarkadetan; XX. mendeko hasiera arte ez zen adostasunik lortuko.
Koch-ek eta bere kolaboratzaileek teoria germinalari egindako ekarpena mikroorganismoen identifikaziotik haratago zabaldu zen. Kochek programa bat idatzi zuen, informalki “Kochen postulatuak” izenaz ezagutzen zena. Programa horrek indarrean jarraitzen du hainbat berrikuspenen ondoren, oinarrizko tresna gisa baita mikrobio jakinen eta gaixotasunen arteko lotura kausala berresteko. Kochek eta bere kideek ekarpen garrantzitsuak egin zizkioten bakterioen identifikazioari, tindaketa-teknikak garatuz garaiko koloratzaile industrialetan oinarrituta; horrela, 1900erako finkatuta zeuden dozenaka gaixotasunen kausa bakterianoak. Horrek bi ondorio nagusi izan zituen: lehenik, mediku asko konbentzitu ziren gaixotasun bakoitzaren kausa bakterio bat izan behar zela, eta bigarrenik, gaixotasunak soilik sintomen bidez ezagutzeari utzi zitzaion, eta beren kausengatik ere hasi ziren ezagutzen, laborategian.
Bakterio-iragazpen prozesuen hobekuntzek, 1880. urtetik aurrera, ikusarazi zien ikertzaile askori existitu behar zirela gaixotasunak eragiten zituzten agenteak, bakterio ezagunak baino txikiagoak zirenak. Horrela, 1896an Martinus Willen Beijernick-ek birus iragazlearen ideia proposatu zuen, oso eztabaidagarria baina balioduna: ustez uretan disolbagarria den mikrobio bat, aski txikia iragazkietatik pasatzeko, eta ikusezina garaiko mikroskopioetan. Identifikatutako mota horretako lehen eragileak tabakoaren mosaikoarena, ahoeriarena (abereen sukar aftosoa) eta sukar horiarena izan ziren. Birologia azkar asko garatu zen zientzia gisa XX. mendearen hasieran. Fagoen fenomenoa ―bakterioak bakarrik kutsatzen dituzten birusak― Frederick William Twort eta Félix d’Hérélle-k identifikatu zuten, nork bere aldetik, Lehen Mundu Gerran. Mikroskopio elektronikoaren garapenak, 30eko urteetan, birusak ikustea ahalbidetu zuen.

3. irudia: Tabakoaren mosaikoaren birusa da identifikatu zen lehen birusa.
XX. mendean zehar germenen ideia herritarren kontzientzian errotu zen, neurri handi batean erakundeen publizitate-kanpainei esker eta, neurri handiagoan, norberaren eta etxearen garbiketarako produktuei esker.
Germenak, oraindik ere, etengabeko mehatxu dira giza osasunerako, mundu-mailako garraioaren unibertsaltasun eta bizkortasunak, eta industria-mailan prozesatutako elikagaien erabilerak larriagotua.
Birusen egituraren argitzeak eta, XX. mendeko azken hamarkadetan, prioien (proteina infekziosoak) aurkikuntzak ezinbesteko egin dute teoria germinal klasikoa berrikustea, organismo patogeno bizien ideian oinarritzen dena.
——————————————–
Egileaz: Cesár Tomé López (@EDocet) zientzia dibulgatzailea da eta Mapping Ignorance eta Cuaderno de Cultura Cientifica blogen editorea.
Itzulpena: Leire Martinez de Marigorta
Hizkuntza-begiralea: Gidor Bilbao
——————————————–
The post Germenez appeared first on Zientzia Kaiera.
El tamaño sí importa, que se lo pregunten a Colón (o de la geometría griega para medir el diámetro de la Tierra)
Si miramos a nuestro alrededor, puede dar la impresión de que vivimos en un planeta plano, como así lo creyeron muchos pueblos en la antigüedad. Babilonios, egipcios, chinos, incas, nativos americanos, o incluso los primeros griegos, pensaron que la Tierra era plana. Según el filósofo y matemático griego Tales de Mileto (aprox. 624-547 a.n.e.), la Tierra es un disco flotando en un mar de agua, mientras que, para su discípulo Anaximandro (aprox. 610-545 a.n.e.), es un cilindro, con la ecúmene (el mundo habitado) en una de sus tapas planas. Precisamente, el mapa de la ecúmene de Anaximandro está considerado uno de los primeros mapas geográficos del mundo.
Reconstrucción del mapa de Hecateo, basado en el mapa de Anaximandro, perteneciente al “Cram’s atlas of the world, ancient and modern” (1901), de G. F. Cram. Imagen de la David Rumsey Map Collection [2] Sin embargo, también fueron los antiguos griegos quienes pronto descubrirían que la Tierra tiene forma esférica, como aparece recogido en el diálogo del filósofo griego Platón (aprox. 427-347 a.n.e.) Fedón o la inmortalidad del alma o en el Tratado del Cielo de su discípulo Aristóteles (384-322 a.n.e.), este último con argumentos físicos y lógicos que lo demostraban.
El siguiente pasaje es del diálogo Fedón o la inmortalidad del alma (Platón, Diálogos, Espasa-Calpe, 1984):
Primeramente, repuso Sócrates, estoy convencido de que, si la Tierra está en medio del cielo, y es de forma esférica, no tiene necesidad ni del aire ni de ningún otro apoyo que la impida caer…
Además, estoy convencido de que la Tierra es muy grande y que no habitamos en ella más que esta parte que se extiende desde Fasis hasta las columnas de Hércules, repartidos alrededor del mar como las hormigas y las ranas alrededor de un pantano…
Se dice, mi querido Simmias, que si se mira esta Tierra desde un punto elevado, se parece a uno de esos balones de cuero…
Por otra parte, los argumentos de la esfericidad terrestre que aparecen en la obra de Aristóteles son sencillos y contundentes, como puede leerse en el libro El sueño del mapa perfecto (RBA, 2010), la posición de las estrellas en el firmamento, la existencia de usos horarios o la existencia y forma del horizonte.

Una vez conocida la forma del planeta en el que vivimos, surge la cuestión de conocer cuál es su tamaño. De nuevo, fue la ciencia griega la que se puso manos a la obra, y realizó algunas estimaciones, utilizando la geometría, del perímetro terrestre.
Ya Aristóteles, en el mencionado Tratado del cielo, escribía que los “matemáticos” habían calculado la longitud de la circunferencia del globo terráqueo, estableciéndola en 400.000 estadios (más adelante, discutiremos el valor de esta unidad de longitud). Según parece la estimación citada por Aristóteles se debía al matemático y astrónomo griego Eudoxo de Cnido (aprox. 400-347 a.n.e.), considerado el fundador de la astronomía matemática.
La siguiente estimación del tamaño de la Tierra aparece en la obra El Arenario de uno de los más grandes científicos griegos, Arquímedes de Siracusa (aprox. 287-212 a.n.e.), quien en el transcurso de la discusión sobre la cantidad de granos de arena que se necesitarían para llenar todo el universo, y, por tanto, sobre el tamaño del universo, afirma que “el perímetro de la Tierra es de 3.000.000 de estadios y no más”, aunque también reconoce que hay quienes afirman que es de 300.000 estadios, que a él le parece demasiado pequeña.

La medición griega más famosa, y certera, del perímetro de la Tierra se debe al sabio polifacético griego Eratóstenes de Cirene (276-194 a.n.e.). Eratóstenes trabajó en geografía, matemáticas, astronomía, filosofía, cronología, gramática, crítica literaria e incluso escribió poesía, lo que motivó que sus compañeros le pusieran el mote “pentathlos”, en referencia a la prueba atlética “penthlaton” que integraba cinco disciplinas. Pero el hecho de que trabajara en tantos campos también fue la razón por la cual le pusieran también otro apodo, “beta”, es decir el segundo, que puede interpretarse como una persona que ocupa el tiempo en muchas cosas no puede ser excelente en cada una de ellas. A pesar de este apodo, Eratóstenes fue uno de los grandes sabios de la antigüedad. Con 30 años fue nombrado director de la Biblioteca de Alejandría, puesto en el que permaneció hasta su muerte, 45 años después.
Antes de continuar nuestro viaje, una breve parada para hablar de la Biblioteca y el Museo de Alejandría.
Tras anexionar Egipto a su imperio, Alejandro Magno (356-323 a.n.e.), rey de Macedonia, fundaría la ciudad de Alejandría en el año 331 a.n.e., la cual se convertiría en la ciudad más importante e influyente durante siglos, sustituyendo a Atenas en hegemonía cuando esta perdió su esplendor. A la muerte de Alejandro, cuando este contaba con 33 años, se desmanteló su imperio y en el trono de Egipto se instaló el rey Ptolomeo I, fundando la dinastía de los Lángidas. Este decide poner en práctica el proyecto aristotélico de un saber universal, motivo por lo que construye la Biblioteca y el Museo, y hace el siguiente llamamiento: “Pido a todos los soberanos y gobernantes de la Tierra que envíen a nuestra ciudad de Alejandría las obras de poetas y prosistas, retóricos y sofistas, médicos y adivinos, historiadores, filósofos y …”.
La Biblioteca llegaría a tener 700.000 rollos. Hay que tener en cuenta que las obras se escribían en papiros (el nombre griego para papiro es Biblos, de donde surge la palabra Biblioteca), los cuales no se plegaban, sino que se enrollaban alrededor de un bastón. Cada obra podía estar formada por varios rollos (volumen en latín), es decir, varios volúmenes.

“Buscadores de libros” se pusieron a rastrear en los principales mercados del mundo mediterráneo, comprando, a precio de oro, todos los manuscritos que encontraban, y si no podían comprarlos, los conseguían por otros medios (robo, soborno o extorsión). Además, cuando un navío entraba en el puerto de Alejandría los soldados entraban en el barco en busca de todos los manuscritos que se encontraban en el navío para llevarlos a los talleres de la Biblioteca, donde eran cuidadosamente estudiados y copiados por escribas. Si se trataba de un ejemplar raro, se le devolvía al dueño la copia. A esta colección de la Biblioteca se la llamó “los fondos de los barcos”.
El Museo era una especie de centro de investigación financiado por el estado, dedicado a todas las Musas, de ahí su nombre, es decir, a todo tipo de conocimiento. Por él pasaron grandes sabios como Euclides, Apolonio, Eratóstenes, Hiparco, Aristarco, Herón o Ptolomeo.
Con el paso de los siglos el sueño de toda la sabiduría del mundo reunida en la Biblioteca de Alejandría se desvanecería. Diferentes desastres asolaron Alejandría, miles de libros se quemaron y la Biblioteca acabó totalmente destruida. Lo cierto es que la destrucción de las obras de la Biblioteca de Alejandría es sin duda una de las mayores tragedias de la historia de la humanidad, en la que se han perdido para siempre parte de la cultura y ciencia humanas.
Pero volvamos a la estimación del diámetro de la Tierra realizada por Eratóstenes, quien estableció en 252.000 estadios la longitud del meridiano terrestre que pasa por Alejandría. Conocemos el método utilizado por Eratóstenes gracias al astrónomo griego Cleomedes (aprox. 10-70) y a algunos autores clásicos como Herón, Estrabón, Plinio o Vitrubio, entre otros.
La medición de la circunferencia terrestre realizada por Eratóstenes tenía en cuenta que la Tierra es esférica, que podemos considerar que los rayos del Sol llegan paralelos al encontrarse con la superficie terrestre, debido a la distancia a la que se encuentra el astro, así como que las ciudades consideradas, Alejandría y Siena (en la actualidad, Asuán), estaban situadas en el mismo meridiano.
La primera estimación necesaria para el cálculo fue la de la distancia entre Alejandría y Siena, que el director de la Biblioteca consideró de 5.000 estadios. Según cuenta la leyenda, Eratóstenes preguntó a los caravaneros que comerciaban entre ambas ciudades, quienes le contestaron que un camello, que recorría una distancia aproximada de 100 estadios al día, tardaba 50 días en ir de una ciudad a otra. Aunque es muy probable que el sabio griego consultase ese dato en los libros de la biblioteca, contrastando las informaciones que caravaneros o saldados pudieran proporcionarle.
Por otra parte, la ciudad de Siena se encontraba en el trópico de Cáncer, es decir, que al mediodía del solsticio de verano (hacia el 21 de junio) los rayos solares caían perpendicularmente sobre la ciudad, lo cual podía ser comprobado observando que la luz se reflejaba en el fondo de un pozo profundo.
Además, Eratóstenes necesitaba medir el ángulo de inclinación del sol en Alejandría con respecto a la vertical (el ángulo α en la imagen con el esquema de la medición), lo cual se podía calcular con un sencillo gnomon (es decir, una estaca vertical colocada sobre una base horizontal), como se muestra en el esquema, aunque parece ser que Eratóstenes utilizó un gran obelisco.

Haciendo uso de un particular gnomon, el obelisco en la ciudad de Alejandría, Eratóstenes midió el ángulo de la inclinación del Sol respecto a la vertical (el ángulo α) en el mediodía del solsticio de verano, que, según sus cálculos, era 1/50 de una circunferencia, es decir, 360º / 50 = 7,2º. Como ya hemos dicho, el sol cae verticalmente en ese momento sobre la ciudad de Siena, luego el arco del ángulo del meridiano entre Alejandría y Siena es también 7,2º.

Ya solo queda un pequeño cálculo. Si la longitud de un arco de meridiano de 7,2º, entre Alejandría y Siena, es de 5.000 estadios, entonces la circunferencia completa, correspondiente a los 360º, será de (360º / 7,2º) x 5.000 = 50 x 5.000 = 250.000 estadios.
Aunque según algunos autores, Eratóstenes llevó a cabo diferentes mediciones hasta considerar la estimación final de 252.000 estadios.
Uno de los problemas actuales para poder valorar las estimaciones antiguas del perímetro terrestre es el valor de la medida de longitud utilizada, en este caso, el estadio. En aquellos tiempos no existían medidas unificadas y el valor de los estadios variaba de unos lugares a otros, por lo que existen diferentes posibilidades a la hora de convertir los estadios en metros. Si consideramos el estadio egipcio, cuyo valor era de 157,5 metros, la estimación de Eratóstenes del perímetro terrestre era de 39.690 kilómetros. Si tenemos en cuenta que la longitud de uno de los meridianos terrestres es aproximadamente de 39.940 kilómetros (mientras que el ecuador mide 40.075 kilómetros), podemos decir que la de Eratóstenes no era una mala estimación.
Curiosamente, todas las estimaciones que realizó el director de la Biblioteca de Alejandría fueron ligeramente incorrectas, pero los errores se compensaron para dar una estimación que se aproxima bastante a la realidad. Las ciudades de Alejandría y Siena no se encontraban exactamente en el mismo meridiano, la longitud entre ambas ciudades era imposible de calcular en aquella época con cierta exactitud y con el método del gnomon el cálculo del ángulo de los rayos solares era más bien aproximado.

Otra estimación importante del tamaño de la Tierra fue realizada por el político, astrónomo y filósofo estoico griego Posidonio (aprox. 130-50 a.n.e.), quien fuera uno de los grandes geógrafos de su tiempo. Al igual que en el anterior caso, su medición también nos ha llegado a través de diferentes autores clásicos.
De nuevo, la idea fue medir un arco de meridiano, en concreto, entre las ciudades de Rodas y Alejandría (aunque, como en el caso anterior, no están exactamente sobre el mismo meridiano). Desde su observatorio en Rodas, Posidonio observó que la estrella Canopus, la segunda más brillante del cielo, se encontraba sobre el horizonte, mientras que esa misma estrella se veía elevada en el cielo un ángulo de 1/48 de circunferencia completa, es decir, 7,5º (el ángulo θ en la siguiente imagen). Por lo tanto, el ángulo del arco de meridiano entre Rodas y Alejandría era también 7,5º. Según Cleomedes, Posidonio consideró que la distancia entre Rodas y Alejandría era de 5.000 estadios, lo que hacía que la estimación de la Tierra fuera de 48 x 5.000 = 240.000 estadios. Sin embargo, el geógrafo e historiador griego Estrabón (aprox. 63 a.n.e.-24 n.e.), en su Geografía, recoge la posterior estimación de Posidonio de 180.000 estadios, obtenida al realizar un cálculo más acertado de la distancia entre ambas ciudades de 3.750 estadios.

Si consideramos los estadios egipcios la estimación de Posidonio, de 180.000 estadios, equivalía a 28.350 kilómetros, quedando así reducidas las dimensiones reales de la Tierra.
El método de Posidonio es, como el de Eratóstenes, sencillo, ingenioso y geométricamente impecable, aunque comete un error desde el punto de vista de la física. El filósofo estoico no tuvo en cuenta la refracción atmosférica terrestre, que provoca que cuando observamos objetos celestes cerca del horizonte su posición esté más baja de lo que nosotros creemos. Lo cual provoca que veamos el Sol, o las estrellas, por encima de su posición real. Si los rayos de luz no sufrieran este efecto, Posidonio no habría visto Canopus cuando lo vio, sino más tarde, y, en consecuencia, el ángulo que habría obtenido habría sido menor.

El astrónomo, matemático y geógrafo greco-romano Claudio Ptolomeo (aprox. 90-170), dio por buena la estimación de Posidonio de 180.000 estadios (unos 28.350 kilómetros), y es la que recogió en su obra Geografía cuando en la misma aborda la cuestión del tamaño de la Tierra.
La Geografía de Ptolomeo, que estaba formada por 8 libros, era una recopilación de todo el saber geográfico del mundo en su tiempo. El libro I era un tratado de cartografía, de los libros II al principio del VII se daban las coordenadas geográficas, longitud y latitud, de gran cantidad de lugares de la ecúmene, 8.000 ubicaciones diferentes, en el final del libro VII se describían tres proyecciones cartográficas para crear mapas del mundo (aunque los mapas de Ptolomeo que conocemos hoy en día se deben a las primeras ediciones impresas del siglo XV) y el libro VIII era un atlas de mapas regionales, que contenía cuatro mapas de África, doce de Asia y diez de Europa.

Los diferentes manuscritos de la Geografía de la época de Ptolomeo se perdieron y la obra estuvo “perdida” hasta el siglo XIII que apareció una copia bizantina. La primera edición manuscrita en latín fue de 1406, y le seguirían muchísimas más (de hecho, se han conservado 38 códices o libros manuscritos). Pero fundamentalmente, a partir del momento en el que se empiezan a realizar ediciones impresas de las obras, junto con los dos conocidos mapas del mundo y los demás mapas regionales (en especial la hermosa edición impresa en Ulm, de 1482, con los conocidos grabados de mares azules y bordes amarillos, uno de cuyos mapas puede verse en la entrada Imago mundi, 7 retratos del mundo), la obra se convierte en una referencia fundamental en geografía y cartografía, y un auténtico “best-seller” durante varios siglos.
Terminaremos esta entrada del Cuaderno de Cultura Científica con un par de comentarios sobre el navegante y explorador italiano (aunque hay expertos que opinan que pudo ser catalán, gallego, portugués, andaluz, e incluso vasco) Cristóbal Colón (1451-1506) y el “descubrimiento” de América.

El primer comentario está relacionado con la forma de la Tierra. Una de las creencias asociadas al descubrimiento de América, que nos enseñaron en nuestra etapa escolar, es que en aquél tiempo todo el mundo creía que la Tierra era plana, y que Colón tuvo que enfrentarse a esa creencia para encontrar quien apoyara su búsqueda de las Indias por el Océano Atlántico.
Es cierto, que una interpretación literal de la Biblia en la Edad Media llevó a la concepción de una Tierra plana. Esta idea fue popularizada por la famosa Topographica Christiana del monje griego Cosmas Indicopleustes (siglo VI). La forma plana del Orbis Terrarum se convirtió en una verdad oficial defendida por muchos teólogos cristianos y personas afines al poder, y fue la creencia que mucha gente humilde a la que no llegó otro conocimiento más que el que recibían de la Iglesia.

Sin embargo, como hemos comentado, muchos siglos antes los griegos ya habían descubierto que la Tierra tenía forma esférica, y esta idea no fue abandonada por los sabios, ni las personas cultas, durante la Edad Media. Por este motivo, en los tiempos de Cristóbal Colón no había ninguna duda sobre la forma del planeta. Este mito erróneo tiene su origen en la biografía romántica que escribió el escritor estadounidense Washington Irving (1783-1859), Vida y viajes de Cristóbal Colón (1828).
El segundo comentario está relacionado con el tamaño de la Tierra. Entre los libros que se conoce que leyó, y anotó, Cristóbal Colón están Historia rerum ubique gestarum (1477) del Papa Pío II (Aeneas Sylvius Piccolomini, 1405-1464), que contiene la estimación de Eratóstenes del tamaño de la Tierra, la versión impresa (1480) del Imago Mundi de Pierre d’Ailly (1350-1420), la primera versión en latín (1478) de la Geografía de Ptolomeo, con la estimación de Posidonio y sus mapas cónicos del mundo, así como la primera edición en latín (1485) del libro de Marco Polo (1254-1324), narrando sus viajes a Catay (China) y Cipangu (Japón), De consuetudinibus et condicionibus orientalium regionum (1300).
Una de las personas que creyó en el relato que Marco Polo hizo de su viaje fue el matemático y astrónomo italiano Paolo Toscanelli (1397-1482). Toscanelli, después de hablar con algunos navegantes e influenciado el tamaño de la Tierra recogido en las Geografías de Estrabo y Ptolomeo, propuso alcanzar Asia viajando por el oeste y diseñó un mapa del Atlántico que mostraba la cercanía, por otra parte errónea, de Catay y Cipangu, con Europa, sin América, que no se sabía que existía, de por medio.


El navegante Cristóbal Colón tuvo conocimiento de las ideas y el mapa de Toscanelli, además de leer la Geografía de Ptolomeo, con la medida del perímetro terrestre de Posidonio, lo que le animaría a aventurarse en un viaje hacia las Indias a través del océano Atlántico. En el camino “descubriría” un “nuevo mundo”, que en un principio llamarían las “Indias Occidentales”, en contraposición a las “Indias Orientales”, a las que nunca llegó.
“Por el Oro, Dios y la Gloria” (2016), de Igor Babailov. Imagen de [7]
Biblioteca
1.- Raúl Ibáñez, El sueño del mapa perfecto; cartografía y matemáticas, RBA, 2010.
2.- David Rumsey Map Collection.
3.- Aubrey Diller, The Ancient Measurements of the Earth, Isis, vol. 40, n. 1, p. 6-9, 1949.
4.- I. E. Drabkin, Posidonius and the Circumference of the Earth, Isis, vol. 34, n. 6, p. 509-512, 1943.
5.- V. Frederick Rickey, How Columbus Encountered America, Mathematics Magazine, vol. 65, n. 4, p. 219-225, 1992.
6.- Denis Guedj, El Teorema del Loro, Anagrama, 2000
7.- Catàleg d’obres de Joan Brull i Vinyoles
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El tamaño sí importa, que se lo pregunten a Colón (o de la geometría griega para medir el diámetro de la Tierra) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Salaketa faltsuak atzemateko gai den softwarea garatu du Poliziak
XIX. mendean Eugene Vidocq detektibeak kriminalistikaren oinarriak jarri zituenetik denbora dezente igaro da, eta askotarikoak dira delituak argitu aldera komisaldegietan erabiltzen diren teknikak. Horietako batzuk oso ezagunak dira, bai telebistan edota auzi ospetsuenetan agertu direlako: DNA bidezko identifikazioak, erretratu robotak edota hatz-aztarnak dira horren adibide.

1. irudia: Kriminalistikaren alorrean delituak atzemateko teknika ugari garatzen ari dira, besteak beste, delitua noiz eta non izango den aurreratu nahian. (Argazkia: Juanma Gallego)
Baina badira beste zenbait teknika hain ezagunak ez direnak, batez ere garapen bidean daudelako, eta segurtasunari eta norbanakoen askatasunei eragiten dieten faktore guztietan bezala, halabeharrez tentu handiz garatu behar direlako.
Adibidez, datu espazialak, denborazkoak eta jarduera kriminalari lotutako estatistikak batuz, geodelituaren arloa garatzen ari da, eta AEBtako hainbat estatutan app gisa erabiltzen hasiak dira, patruilariek erronda egin baino lehenago eremurik “beroenak” zeintzuk izan litezkeen jakin dezaten. Gugandik gertu, duela hainbat urte Gasteizko Delituen Atlasa osatu zuen Eileen Matz ikasleak, Udaltzaingoarentzat erabilgarria izango zelakoan, baina Udalak ez du zabaldu izan nahi horren erabileraren inguruko informaziorik.
Datuen bidezidor beretik, bestelako aplikazioak zabaldu dira. Adibidez, Journal of Drug Issues aldizkarian argitaratutako ikerketa batean AEBtako zenbait hiritan kokainak zuen prezioari buruzko datuak erabili zituzten trafikatzaileek erabiltzen hasiak zituzten ibilbide berriak azalarazteko.
Are gehiago, neurozientziaren alorrean ere hasierako probak egin dira azken urteotan, pertsona batek esandakoa egia ote den igartzen saiatzeko, poligrafoaren famatuaren bertsio berritu bat balitz bezala. Neurozuzenbidea deitu izan zaio diziplinari. Jose Ramon Valdizan neurofisiologo espainiarra da mundu mailan teknika horietako bultzatzaile handienetako bat, eta bereziki P300 garuneko uhinaren analisia baliatu du ospa handiko hainbat kasu ikertzeko. Kazetari honi Valdizanek aitortu dio teknikak duen trabarik handiena: Espainiako legeak ez du teknika hori aintzat hartzen, eta defentsako abokatuek hori baliatzen omen dute sumario osoa bertan behera uzten saiatzeko.
Duela gutxi teknika honen aldaera berri bat aurkeztu dute. Kasu honetan, auzipetuen testigantzak ez, baizik eta lapurreta txikien haritik idatziz jasotako salaketak ikertzen duen softwarea asmatu dute. Hala izanik, ez dirudi traba legal gehiegirik izango duenik.
VeriPol izena eman diote, eta funtsean salaketen testua aztertzen duen programa bat da. Knowledge-Based Systems aldizkarian argitaratutako ikerketa artikuluan zehaztu dutenez (Researchgaten ere eskuragarri), sistema eraikitzeko hiru metodologia erabili dituzte: Hizkuntzaren Prozesamenduko algoritmoak, aldagaien aukeraketa, eta ikasketa automatikoko algoritmoak. “Honek aukera ematen digu ulertzeko jendeak nola gezurra esaten dion poliziari, eta baita benetako salaketa batek zer nolako itxura duen jakiteko”, zehaztu dute artikuluan.
Bertan azaldu dutenaren arabera, lapurretei buruz egiten diren salaketa faltsuak zehaztea zaila da, baina egileek kalkulatu dute halako salaketen %57 ez direla egiazkoak.

2. irudia: Batez ere telefono mugikorren ustezko lapurretak atzeman dituzte VeriPol ereduari esker; asko asmatzen omen dira asegurua kobratzeko. (Argazkia: Josh Felise / Unsplash)
Egoera horri aurre egin nahi izan zion Miguel Camacho Espainiako Polizia Nazionaleko inspektoreak. Polizia izateaz gain, matematikaria eta estatistikaria da Camacho, eta polizia prediktiboan doktoretza egin du Los Angeleseko UCLA Unibertsitatean. Bertatik Espainiara itzultzean bururatu zitzaion software hori garatzea, El País egunkariak argitaratutako artikulu baten arabera.
Hainbat kolaboratzailerekin batera VeriPol izeneko eredua garatu du, eta Espainiako Polizia Nazionalak salaketak biltzeko erabiltzen duen SIDENPOL izeneko fitxategian txertatu ahal izateko prestatu zuten. Modu horretan, poliziak jasotako salaketa errealekin probatu ahal izan dute tresna. Ikerketa artikuluan bertan zehazten dutenez, zientzia literaturan ikerketa helburuetarako erabili diren beste ereduak ez bezala, benetako testuekin frogatu eta balioztatu den lehen eredua da VeriPol.
Artikuluan aitortu dute oso arlo berria dela honakoa, eta, horregatik, zaila egin zaie orain arte proposatu diren beste hainbat eredurekin alderatzea. Gainera, testu faltsuak atzemateko ereduek posta elektronikoan izaten den spam-a edo internet bitartez egindako produktuen kritika faltsuak izan dituzte ohiko jomuga.
Poliziari gezurra esaten zaionean maizen erabiltzen diren hitz multzoak atzematen ditu VeriPolek. Sistema “entrenatzeko” 2015ean jasotako 1.122 salaketa izan dituzte oinarri. Horietatik 534 benetakoak ziren, eta 588, faltsuak. Salaketa horietan guztietan argi zegoen benetakoak ala faltsuak ote ziren, itxitako auziak zirelako. Gehienetan, lapurreta txikiak azaltzen zituzten salaketak ziren, hala nola mugikorren edo diru-zorroen ebasteak. Antza, salaketa gehienak sakelako telefonoarekin lapurretari lotuta daude, eta arlo honetan salaketa faltsu asko omen daude aseguruak kobratzeko. Baina erraza omen da iruzur horiek atzematea: egileen arabera, VeriPolek %91 asmatzen du. Horretan trebatuta dagoen polizia baten kasuan, asmatze tasa %75 dela kalkulatu dute.
Artikuluaren egileen esanetan, benetako salaketek zehaztasun gehiago eskaini ohi dituzte, baina salaketa faltsuetan zehaztasun horiek alboratzen dira. Era berean, benetako salaketek gertatutakoa eta lapurra bera sakontasun handiagorekin deskribatzen dituzte. Diskurtso faltsuan, berriz, ustez lapurtutako objektuan jartzen dute arreta, teorian izan den gertakarian arreta jarri beharrean. Hortaz, “asegurua”, “kontratua”, edota “iPhone” bezalako hitzak maiz agertzen dira.
Ba dira bereziki esanguratsuak diren bestelako terminoak. “Eguna” da horietako bat (“duela hiru egun lapurtu zidaten”, “ostegunean lapurtu zidaten” esan beharrean). “Motxila”, “kaskoduna” edo “beltzez jantzita” dira salaketa faltsuetan sarri errepikatzen diren terminoak.
Sinesgarritasunaren adierazle diren terminoak ere badira, hala nola “autobusa”, “tiratu” edo “hil”. Norabide berdinean, “ataria” edo “eskailburua” bezalako terminoek ere fidagarritasuna daukate, etxetik gertu izandako gertaeraren adierazle direlako; aldiz, gezurra diotenek ustezko gertakaria etxetik “urrun” kokatu nahi dute. Ezezko esaldi asko egoteak zalantzagarritasun adierazletzat hartzen da, eta baita “apenas” bezalako hitzak.
Proba pilotua izan da honakoa, baina egileek espero dute sistema polizialean txertatu ahal izatea. Iazko abenduak sistema honek Espainiako Polizia Fundazioaren Ikerketa saria eskuratu zuen, sustantzia arriskutsuak atzematea errazten duen “sudur elektroniko” batekin batera.
Erreferentzia bibliografikoa:
Quijano-Sánchez, Lara, et al., (2018). Applying automatic text-based detection of deceptive language to police reports: Extracting behavioral patterns from a multi-step classification model to understand how we lie to the police. Knowledge-Based Systems 149, 155-168. DOI: https://doi.org/10.1016/j.knosys.2018.03.010
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Salaketa faltsuak atzemateko gai den softwarea garatu du Poliziak appeared first on Zientzia Kaiera.