Alta velocidad: ineficiente, injusta e insostenible
David Hoyos, Andoni Kortazar y Gorka Bueno Mendieta

En 2022 se cumplirán 30 años desde la puesta en marcha de la primera línea de alta velocidad en España, Madrid-Sevilla. Tras más de 56 000 millones de euros invertidos en la segunda red más extensa del mundo (3 086 km), los argumentos sociales, económicos y ambientales favorables al modelo español de alta velocidad ferroviaria se han desvanecido a la luz de la evidencia científica acumulada.
La emergencia climática no hace sino apuntalar el sinsentido del AVE y urge a repensar la política española de transportes con medidas concretas y creíbles, consistentes con los compromisos climáticos del Acuerdo de París.
Piedra angular de la movilidad sostenible
La Comisión Europea declaraba 2021 como el año europeo del ferrocarril. La promoción de modos más sostenibles de transporte ha sido una de las prioridades de la política europea desde finales del siglo pasado. El objetivo ha sido reconciliar un crecimiento imparable del transporte de pasajeros y mercancías con unos crecientes efectos perjudiciales para la sociedad, el medio ambiente e incluso la propia economía.
El ferrocarril, central en esta nueva política de transporte, ha adquirido un protagonismo especial en el caso español en forma de inversiones masivas en alta velocidad ferroviaria.
Paradójicamente, entre 1990 y 2018, la cuota modal del ferrocarril ha bajado del 7 % al 6 % en el transporte de pasajeros y del 10 % al 4 % en lo que se refiere al transporte de mercancías. No es de extrañar que en el periodo de vigencia del Protocolo de Kyoto, el transporte es el único sector que ha aumentado sus emisiones de gases de efecto invernadero (GEI) (+73 %), representando en la actualidad un 31 % del total.
Ineficiente en lo económico e injusta en lo social
La evaluación económica del modelo ferroviario de alta velocidad español ha concluido en la ausencia de rentabilidad financiera y social de todos los corredores. En otras palabras, la sociedad nunca recuperará el dinero invertido.
Detrás de estos resultados se encuentra una escasa demanda fruto de una planificación deficiente y alejada de las necesidades sociales y unas inversiones caracterizadas por permanentes retrasos, sobrecostes y corrupción –como han reflejado diversos informes de los tribunales de cuentas europeo y español–. Todo ello convierte a ADIF-Alta Velocidad en la empresa pública más endeudada del Estado.
Los promotores de este modelo ferroviario destacan la necesidad de culminar una red mallada en todo el Estado para mejorar su utilidad. Sin embargo, los estudios realizados concluyen que la rentabilidad social es aún menor en la medida en que se conectan núcleos con menor demanda potencial de pasajeros.
Desde el punto de vista social, la escasa demanda obedece a la inexistencia de una disposición a pagar alta velocidad por parte de los usuarios (que apenas alcanza a cubrir los costes variables del servicio). Esto se traduce en una regresividad de la inversión.
El AVE tampoco ha demostrado favorecer el desarrollo regional ni cambios en productividad. Sus mayores efectos se reducen a la propia construcción y a la reorganización (especulación) urbana en torno a las estaciones.
Otra de las consecuencias de las masivas inversiones en alta velocidad ha sido el abandono de la red española de cercanías. Esta da servicio al 90 % de los usuarios del ferrocarril en España y atiende fundamentalmente a la movilidad obligada.
Insostenible en lo ambiental
Dejando a un lado importantes efectos ambientales negativos, como la ocupación de suelo, el efecto barrera, el impacto paisajístico o la contaminación acústica y atmosférica, el debate sobre el carácter ecológico del tren de alta velocidad se ha centrado en el balance de emisiones de gases de efecto invernadero debido, lógicamente, a su implicación en el cambio climático.
Los defensores del tren de alta velocidad han argumentado, con razón, que dadas sus menores emisiones por persona/mercancía transportada, desviar tráficos desde la carretera y el avión hacia el ferrocarril de alta velocidad era beneficioso para el medio ambiente.
Sin embargo, estos análisis han contado con una carencia fundamental: obviar la contabilidad de las emisiones asociadas a la construcción de estas infraestructuras. Ninguna familia valoraría, por ejemplo, sustituir un electrodoméstico por otro de mayor eficiencia energética sin tener en cuenta el coste del nuevo electrodoméstico.
El análisis de ciclo de vida es vital en este contexto. La amenaza del cambio climático alienta numerosas propuestas de energías “limpias” que, tras ser debidamente analizadas, acaban teniendo un balance neto incluso negativo. Se ha visto recientemente, por ejemplo, en el caso del hidrógeno azul.
Según los resultados de nuestro reciente estudio, el primero –del que tengamos conocimiento– que ha intentado abordar este análisis en el marco de las publicaciones académicas, el balance medioambiental neto del conjunto de la red española de alta velocidad es, sin ser perjudicial, considerablemente más pobre de lo que se pensaba.
Teniendo como referencia el año 2016 (últimos datos disponibles), la red española de alta velocidad requiere una media de 15 años de funcionamiento para compensar las emisiones GEI asociadas a su construcción (hasta 62 y 87 años en lo que se refiere a emisiones de SO₂ y partículas PM₁₀ respectivamente). No obstante, encontramos diferencias notables entre los corredores: 9 años en el corredor andaluz, 12 en el catalán, 20 en el corredor levantino y 79 en el caso del corredor norte.
Al igual que ocurría con la evaluación económica, el factor más influyente en estos pobres resultados es la baja densidad de transporte, la escasa desviación de viajeros de modos más contaminantes como el automóvil o el avión y el hecho de ser una red exclusiva de pasajeros, dejando fuera el transporte de mercancías que se realiza casi exclusivamente por carretera.
El estudio constata, además, que los resultados empeoran a medida que la red se expande a corredores con menor demanda de transporte.
El problema, sin embargo, no es solo que algunos corredores no estén justificados. Una vez ponemos en su contexto los resultados del balance climático de la red española de alta velocidad, nos encontramos con que apenas contribuye a reducir un 1 % las emisiones anuales totales de transporte en España.
El AVE ante la emergencia climática
Todo lo anterior debería haber servido para alentar un debate en torno a la inversión en alta velocidad ferroviaria en España hace 20 o 30 años. Habría permitido abandonar unas inversiones que se han demostrado beneficiosas para las empresas constructoras y perjudiciales para el resto de la sociedad.
Sin embargo, el debate actual no es –o al menos, no debería ser– este. El debate actual nada tiene que ver con estar a favor o en contra del tren de alta velocidad como modo de transporte, ya que indudablemente tiene virtudes como su rapidez, comodidad y puntualidad.
El contexto ha cambiado radicalmente al encontrarnos en una situación inédita global de emergencia climática. La comunidad científica mundial ha hecho un llamamiento unánime a reducir drásticamente las emisiones de gases de efecto invernadero con el fin de limitar el aumento de la temperatura global a 1,5 grados. Una llamada a la acción que se está traduciendo en compromisos internacionales de reducción de emisiones cada vez más ambiciosos –neutralidad climática en 2050 y hasta un 55 % en 2030, en apenas 8 años–. “No hay plan B porque no hay planeta B”, decía recientemente Emmanuel Macron en el aniversario del Acuerdo de París.
Así, el debate necesario y urgente es en qué medida puede contribuir o no el AVE a la reducción drástica de emisiones comprometidas en París y que, a la luz de los resultados del último informe del IPCC, deberá ser aún mayor tras la Conferencia de Glasgow.
Y es en este contexto donde nos encontramos que el modelo ferroviario de alta velocidad no solo no es la solución, sino que la obstaculiza y nos hace perder un tiempo que no tenemos en la necesaria transición ecológica del transporte en España.
Sobre los autores: David Hoyos es profesor agregado en el Departamento de Métodos Cuantitativos, Andoni Kortazar, profesor interino en el Departamento de Economía Aplicada V y Gorka Bueno Mendieta, profesor titular de Tecnología Electrónica de la Universidad del País Vasco/Euskal Herriko Unibertsitatea.
Este artículo fue publicado originalmente en The Conversation. Arículo original.
El artículo Alta velocidad: ineficiente, injusta e insostenible se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El impacto medioambiental del ciclo de vida del tren de alta velocidad en España
- Cómo regular la velocidad de disolución de los biometales de las prótesis
- Un equipo de alta fidelidad de ciencia ficción
Koordinazio polimero luminiszenteak: gailu argitsuen etorkizuna
Koordinazio polimeroek (CPs) azken urteetan jasan duten hazkundea ikaragarria izan da material ez-organiko hibridoen arloan. Konposatu hauen karakteristikarik erakargarriena beraien egitura kristalinoa diseinatzeko erraztasuna eta hauek aurkezten dituzten propietate ugariak dira. Egitura horiek eraikitzeko bi osagai beharrezkoak dira: estekatzaileak eta metalak. Estekatzaileak atomo emaileak dituzten molekula organikoak dira eta nodoak metal edo kluster metalikoak (1. irudia).

Esan bezala, konposatu horiek propietate anitzak erakusten dituzte haien egitura hibridoa dela medio, eta horrek hainbat aplikaziotan erabiltzeko gaitasuna ematen die. Horien artean, gehien nabarmentzen den erabilera gas edo molekula txikien (H2, CO2…) adsortzioa da, gas horien biltegiratze edo banaketarako prozesuak goitik behera aldatu dutenak “Metal-Organic-Frameworks” (MOFs) deritzon koordinazio polimeroetan. Bestalde, konposatu horiek beste ezaugarri interesgarri batzuk eskaintzen dituzte hala nola katalisi arloan edo luminiszentzian. Azken horien interesa asko hazi da azken urteetan gailu argitsu hobeak sortu ditzaketelako, aplikazio-esparru anitzak dauzkatenak, hala nola trafiko-seinaletan, pantaila digitalean edo faltsifikazio sistemetan. Halaber, ezaugarri hori konbina daiteke molekula zehatzak detektatu ditzaketen sentsore gisa erabil daitezkeen material berriak sortzeko.
Luminiszentziari materialak argia igortzeko duten gaitasunari deritzo, aldez aurretik energia xurgatu behar izan duelarik. Bi argi igorpen mota bereiz ditzakegu: fluoreszentzia eta fosforeszentzia. Lehenengoaren kasua argi igorpena oso azkarra da, aurrez aurretik xurgatuta energia xurgatu bezain laster bueltatzen dute argi moduan; beraz, energia iturria kenduz gero argia igortzeari uzten diote. Fosforeszentzian berriz, xurgatutako energiaren igorpena argi moduan askoz motelagoa da, igorpenak denboran luzatzea ahalbidetzen duena eta kitzikatze iturria behin kenduta argia igortzen jarraitzen dute. Denboran luzatzeko argi igorpenari iraupen luzeko fosforeszentzia (ingelesez Long-Lasting Phosphorescence, LLP) deitzen zaio.

Luminiszentzia konposatuaren izaera hibrido metal-organikotik dator, hau da, metalaren eta estekatzailearen ezaugarrien arteko konbinaziotik. Horretarako, metalaren eta estekatzailearen aukeraketa egokia egitea ezinbestekoa da gure konposatuak luminiszenteak izan dezaten. Metalen artean, geruza osoko metalak dira egokienak, hala nola zink (II) edo kadmio (II), biek d10eko konfigurazio elektronikoa dute. Geruza osoa izateagatik, d-d trantsizioetan oinarritutako erlaxazio prozesu ez-erradiatiboak (ez dutenak argirik igortzen) ezin dira eman eta ondorioz igorpen luminiszentea bermatzen du. Horrek esan nahi du beste metal batzuk ere baliagarriak direla koordinazio polimero luminiszenteak eraikitzeko baldin eta geruza osoko metalak baldin badira, hala nola metal-lurralkalinoek. Estekatzailearen aldetik, konposatu organikoak elektroi pare bakartiak dituzten atomoak eduki behar ditu, adibidez oxigeno, nitrogeno edo fosforo atomoak, eta elkarrekintza supramolekularrak sortzen laguntzen dituzten talde funtzionalak, hala nola eraztun aromatikoak edo karboxilato taldeak.
Dena den, konposatu hauek aurreko mendetik ezagunak diren arren, azkenengo hamarkadan hazkunde handia jaso dute bere egituraren natura hibridoa metal-organikoak osagaien konbinaketa mugagabea eskaintzen duelako eta horren ondorioz propietate luminiszenteak egokitzea erraza suertatzen delako. Horrenbestez, molekula adimenduak sor ditzakegu sistema optiko gisa erabiltzeko. Igorpen luminiszenteak dituzten koordinazio-polimeroak aplikazio gutxi batzuetan sustatu badira ere, bere garapena abiapuntuan baino ez dago eta; hortaz, ibiltzeko geratzen den bidean tarte handia dago oraindik ere iraupen luzeagoko argi igorpena erakusten duten material berri eta hobeak sortzeko.
Iturria:
Pajuelo Corral, Oier; Seco, Jose Manuel; Cepeda, Javier (2020). «Koordinazio polimero luminiszenteak: gailu argitsuen etorkizuna»; Ekaia, 37, 2020, 159-174. (https://doi.org/10.1387/ekaia.20840) Artikuluaren fitxa:- Aldizkaria: Ekaia
- Zenbakia: Ekaia 37
- Artikuluaren izena: Koordinazio polimero luminiszenteak: gailu argitsuen etorkizuna.
- Laburpena: Koordinazio-polimero luminiszenteak aurreko mendetik ezagutzen diren arren, izugarrizko hazkundea izan dute aurreko hamarkadatik gaur egun arte, erakusten duten argi-igorpen gaitasun paregabeei esker. Material horiekin, gailu argitsuen arloan belaunaldi berri bat garatzen hasi da, bereziki sentsore gisa edo faltsifikazio-sistemetan erabiltzeko. Material hauen aplikazio gehienek intentsitate handiko igorpenak edota igorpen iraunkorrak izatera behartzen dute. Zentzu horretan, koordinazio-polimeroak aukera egokiak dira, beren izaera metal-organikoa dela eta; haien egitura kristalinoa nahi diren propietate fotoluminiszenteak erakusteko diseina daitezke, horrela eginkizun zehatz batera bideratzeko. Azpimarratzekoa da azken urteotan ikusi egin dela koordinazio-polimeroek iraupen luzeko argi-igorpenak emateko gaitasuna daukatela. Lan honen helburu nagusia da koordinazio-polimero luminiszenteak eta, bereziki, argi-igorpen fosforeszenteak sortzen dituztenak nola eraiki eta haietan gertatzen diren fenomenoak azaltzea.
- Egileak: Oier Pajuelo Corral, Jose Manuel Seco, Javier Cepeda
- Argitaletxea: UPV/EHUko argitalpen zerbitzua
- ISSN: 0214-9001
- eISSN: 2444-3255
- Orrialdeak: 159-174
- DOI: 10.1387/ekaia.20840
————————————————–
Egileez:
Oier Pajuelo Corral, Jose Manuel Seco eta Javier Cepeda UPV/EHUko Donostiako Kimika Zientzien Fakultateko Kimika Ez-organiko Sailekoak dira.
———————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post Koordinazio polimero luminiszenteak: gailu argitsuen etorkizuna appeared first on Zientzia Kaiera.
El error de usabilidad que definió la temperatura más alta de la Tierra

Si me preguntan a mí, la temperatura más alta de la historia debió de producirse el sábado pasado en el salón de mi casa. No tenía ningún termómetro a mano, pero según mis estimaciones, la sensación térmica durante la ola de calor en el centro de Madrid ascendió a los 74,3 ºC (74,5 ºC cuando el ventilador apuntaba para otro lado).
Los climatólogos, en cambio, tienen su propia versión de los hechos. Según sus registros históricos, la temperatura más alta de la Tierra jamás anotada por un ser humano ascendió a 58 grados centígrados. Esta fue la cifra que nos legó un soldado italiano durante un tórrido verano en el desierto de Libia, en 1922. Sin, embargo no está exenta de polémica. Existen varias inconsistencias en estos registros que parecen apuntar a un error. Concretamente, a un error de usabilidad de su termómetro.
Pero pongámonos en contexto. Estamos en 1922. Imagina que eres un soldado destinado en la región de Al Azizia, cerca de Trípoli. En algún momento, te han dado instrucciones para apuntar diariamente lo que marca el termómetro, pero probablemente no te han explicado muy bien cómo hacerlo ni tampoco para qué. Y ahí estás tú, sudando como un pollo, viendo hincharse una barrita de Mercurio en medio del desierto africano.
Probablemente, la sensación térmica de ese soldado debió de parecerse bastante a la de mi piso de Madrid. Se le derretía el alma y la mollera, y él ni siquiera contaba con un triste ventilador. Aún así, tuvo la paciencia de fijarse en el termómetro cada día y fue anotando sus numeritos: 50, 56, 58, 53, 53… da calor solo de leerlo. Difícilmente podía saber que sus anotaciones pasarían a definir en el récord de temperatura registrada sobre la Tierra durante un total de 90 años.

Los apuntes de aquel soldado nos permiten rastrear las huellas de su posible error. Dos días antes del 13 de septiembre (el día en que se batió el récord), la caligrafía de los registros cambia. Resulta evidente que entra en escena un nuevo apuntador. El mismo día el orden de todos los datos se invierte: la temperatura máxima pasa a estar en la columna de la izquierda, la mínima a la derecha. Claramente, nuestro héroe no estaba prestando mucha atención. ¿Pero es posible que se confundiese, también, al interpretar su aparato de medición?
Esta es la hipótesis que defienden los autores de un estudio publicado hace algunos años por la Organización Meteorológica Mundial (OMM)1. Durante 2010 y 2011, un panel internacional de expertos llevó a cabo una investigación en profundidad sobre este récord en los registros y concluyó que no podían darse por buenos. Las mediciones de aquel soldado no solo son incoherentes con las registradas en otras estaciones cercanas. Tampoco pueden compararse con los valores de temperatura observados posteriormente en el mismo lugar, y constituirían un microclima impropio de la región. Pero además, parece que el propio termómetro podría haber jugado un papel en aquel error. Se trataba de un modelo Bellani-six, con dos masas flotantes sobre dos columnas de fluido. Al contraerse o dilatarse, el fluido empujaba las masas, que se superponían sobre una escala e indicaban la temperatura máxima y mínima del aire durante el día. Pero aquellas masillas eran bastante alargadas y era importante saber que la temperatura debía medirse en su punto más bajo (esto es, inmediatamente, encima de la columna de fluido).
Si aquel soldado italiano, por inexperiencia o por falta de atención, hubiese anotado la temperatura que figuraba encima de la masa del termómetro, todas sus mediciones habrían resultado anormalmente altas, como de hecho sucede. Un error que recuerda poderosamente al de cierto compositor europeo, que se aceleró, quizás, al anotar los tempi de sus sinfonías2.
En 2012 y tras concluir su estudio, la Organización Meteorológica Mundial decidió descartar los registros de Al-Haziza de 1922. Desde entonces, la temperatura más alta registrada en la Tierra ha descendido 1,3 ºC. El 7 de julio de 1913, en el Valle de la Muerte de Estados Unidos, California, algún desdichado con el cerebro achicharrado anotó una temperatura de 56,7 ºC (esperamos que con algo más de acierto, aunque tampoco está del todo claro).
Referencias:
1K.I, El & Cerveny, R.s & Burt, Christopher & Eden, Philip & Parker, David & Brunet, Manola & Peterson, Thomas & Mordacchini, Gianpaolo & Pelino, Vinicio & Bessemoulin, Pierre & Stella, José & Driouech, Fatima & M.M, Abdel & Pace, Matthew. (2013). World Meteorological Organization Assessment of the Purported World Record 58°C Temperature Extreme at El Azizia, Libya (13 September 1922). Bulletin of the American Meteorological Society. 94. 199-204. 10.1175/BAMS-D-12-00093.1.
2Martín-Castro A., Ucar I. (2020). Conductors’ tempo choices shed light over Beethoven’s metronome. PLOS ONE 15 (12) : e0243616. doi: 10.1371/journal.pone.0243616
Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica
El artículo El error de usabilidad que definió la temperatura más alta de la Tierra se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El misterio de la temperatura constante
- Un equipo de alta fidelidad de ciencia ficción
- Escaneando la Tierra con neutrinos solares
Siempre es buen momento para jugar: Pong Hau Ki y Madelinette
Había pensado empezar esta entrada del Cuaderno de Cultura Científica diciendo que el verano es un buen momento para jugar a cualquier tipo de juego, ya sea un juego popular, de ingenio, de estrategia, de azar, de construcción, solitario, matemático o del tipo que sea, aunque la verdad es que cualquier época del año es un buen momento para jugar. No nos olvidemos nunca de jugar.
En otras entradas de la sección Matemoción ya hemos hablado de algunos juegos, como el molino o alquerque de nueve (en la entrada Mujeres jugando (el juego del molino) relacionada con un cuadro del Museo de Bellas Artes de Bilbao), el tangram (por ejemplo, en las entradas Tangram o Un teorema sobre el tangram), el tchuka ruma (en la entrada Tchuka Ruma, el mancala solitario), el juego coreano kono (en la entrada El juego coreano kono), …

… el salto de la rana, el cinco por cinco, veinticuatro, o el puzle dieciséis inglés (en El salto de la rana y familia), el juego Vee-21 (en la entrada Embaldosando con L-triominós (Un ejemplo de demostración por inducción)), el clásico y universal mancala (en Juegos del mundo: el mancala), el Tetris (en Tetris, embaldosados y demostraciones), algunos juegos con tabletas de chocolate (como los comentados en la entrada Juegos matemáticos con tabletas de chocolate), el rompecabezas geométrico cubo soma (en El cubo soma: diseño, arte y matemáticas), el juego de cartas SET (cuyo análisis matemático presentamos en dos entradas, Matemáticas en el juego de cartas SET (1) y Matemáticas en el juego de cartas SET (2)), el juego probabilístico que analizó el matemático inglés Arthur Cayley, la ratonera (explicado en la entrada La ratonera, el juego de Cayley), el Sim (en El juego del Sim), el solitario locura instantánea (en la entrada Locura instantánea, un rompecabezas con cubos de colores), el tradicional juego de la morra (en La morra, jugando a contar con los dedos), algunos rompecabezas matemáticos (en las entradas Rompecabezas matemáticos con números y Más rompecabezas matemáticos con números) o el margarita y el bloqueado (analizados en la entrada La simetría como estrategia ganadora: la margarita y bloqueado).
En esta entrada del Cuaderno de Cultura Científica me ha parecido una buena idea recuperar un juego tradicional, estos son siempre una fuente de inspiración y de entretenimiento, que analicé en el libro Del ajedrez a los grafos, la seriedad matemática de los juegos (RBA, 2015), el pong hau ki.

El pong hau ki es un juego tradicional chino, que también encontramos en Corea, con el nombre ou moul ko no, en Tailandia como sua tok tong o en la India como do guti, cuyo tablero y forma de juego nos recuerda al clásico tres en raya. En Europa no se empezó a jugar hasta más recientemente, quizás en la época medieval, con el nombre la herradura, así como una variación más moderna de este, el madelinette.
El tablero del pong hau ki está formado por cinco vértices, los cuatro de un cuadrado y el dado por la intersección de las dos diagonales del mismo, y siete aristas que los unen, todas las posibles, menos uno de los lados del cuadrado (véase la imagen de arriba o el esquema de abajo). Hay dos fichas de cada color (por ejemplo, blancas y negras), colocadas inicialmente como se muestra en la siguiente imagen, y cada color le corresponde a un jugador.

Las reglas del pong hau ki son las siguientes. Cada uno de los dos jugadores, por turnos, mueve una ficha de su color hacia la casilla adyacente que esté vacía. Por ejemplo, en la posición inicial, tanto las blancas como las negras, si empiezan la partida, solo pueden mover una de sus fichas a la casilla central. Gana el jugador que consigue bloquear las dos fichas de su oponente, de forma que este no pueda mover a la casilla libre.
Se considera que este es un juego infantil por su sencillez, como ocurre con el tres en raya o el salto de la rana, pero al igual que estos, tiene más interés del que pueda parecer a primera vista.
Empecemos analizando cuál es el número de posiciones posibles en el juego ou moul ko no. Tenemos cuatro fichas que debemos colocar en el tablero y dejar un hueco vacío. Si todas las fichas fuesen distintas (por ejemplo, las denominamos blanca 1, blanca 2, negra 1 y negra 2) y marcásemos la casilla vacía con una ficha trasparente, entonces el número de formas de colocar las cinco fichas en las cinco casillas sería el factorial de 5, denotado en matemáticas como 5!, cuyo valor es 5! = 5 x 4 x 3 x 2 x 1 y que son el número de permutaciones de cinco elementos (véase El problema matemático de las cartas extraviadas). Sin embargo, las dos fichas blancas son iguales, luego podemos intercambiar las casillas en las que están y sigue siendo la misma posición, luego debemos dividir entre dos. Lo mismo para las fichas negras. De hecho, hemos obtenido la regla para calcular las permutaciones con repetición. En consecuencia, hay 30 posiciones distintas en el juego, ya que:
Por otra parte, si miramos la simetría respecto al eje vertical central del tablero, hay dos posiciones que son simétricas respecto a ese eje, es decir, la parte de la izquierda de la posición es igual a la parte de la derecha (que se corresponden con las posiciones 1 y 9 de la siguiente imagen), y catorce pares de posiciones relacionadas, esto es, al intercambiar las fichas de un lado y otro del eje se pasa de una posición a la otra (por ejemplo, la posición 2 de la siguiente imagen –las dos fichas negras abajo, una ficha blanca en medio y una ficha blanca en la posición de arriba a la derecha– se corresponde con la posición simétrica siguiente: las dos fichas negras abajo, una ficha blanca en medio y una ficha blanca en la posición de arriba a la izquierda). Luego, esencialmente tenemos que hay 16 posiciones distintas (salvo simetría) en el sua tok tong.
Si numeramos las casillas del 1 al 5, de arriba abajo y de izquierda a derecha, y etiquetamos cada posición diciendo qué ficha está en cada casilla (B para blanca, N para negra y 0 para vacía), por ejemplo, BN0NB es la posición inicial, podemos listar las 16 posiciones del juego.

El matemático Philip D. Straffin, en su artículo Position graphs for Pong Hau K’i and Mu Torere (Mathematics Magazine, 1995), analizó mediante grafos (véase Locura instantánea, un rompecabezas con cubos de colores o El problema de los tres caballeros y los tres criados), la estrategia ganadora del Pong Hau Ki. Cada una de las dieciséis posiciones del juego es un vértice del grafo y existe una arista entre dos vértices si es posible realizar un movimiento que lleve de una posición a otra. El grafo es además etiquetado, puesto que cada arista llevará la etiqueta B o N, dependiendo de si el movimiento lo realiza el jugador que juega con blancas, o el que juega con negras. El grafo no es dirigido puesto que el movimiento entre dos posiciones puede ser en ambos sentidos.
En consecuencia, el grafo asociado a la herradura, teniendo en cuenta las dieciséis posiciones esenciales del mismo, es el siguiente.
Solo existe una posición ganadora para las blancas, si les toca mover a las negras, que es la posición 15, 0BBNN. Lo mismo para las negras, si mueven blancas, la posición 13, 0NNBB (vemos que es la misma configuración, solo se intercambia la posición de las casillas de las fichas blancas y negras). Para que las blancas lleven la partida a la posición 15, tienen que hacerlo a través de las posiciones 14 o 16, sin embargo, las negras pueden evitar esas posiciones. Lo mismo ocurre para las negras, en relación a la posición 13. De hecho, el juego, bien jugado, se mantendrá en un movimiento infinito entre los ciclos 1-2-3-4-5-6 y 4-11-10-9-8-7. Lo cual implica que el pong hau ki siempre terminará en tablas, salvo que se cometa un error, como ocurre con el tres en raya.
Una forma alternativa de jugar a la herradura, para darle un poco más de interés, es que el tablero esté inicialmente vacío y que los jugadores empiecen colocando por turnos cada una de sus fichas en el mismo. Si observamos el grafo anterior, la táctica para no perder es la misma que partiendo de la posición inicial dada (posición 1), solo que ahora hay que evitar las posiciones conflictivas al ir colocando las fichas al principio. Si empiezan las blancas, las negras evitarán las posiciones en las que tocándole mover a las blancas ganen, que son las posiciones 14 y 16, y las blancas evitarán la posición 13, que es la posición ganadora para las negras si mueven blancas (o, en ambos casos, sus posiciones simétricas).

El madelinette es una versión más compleja e interesante del juego de la herradura, que podría haber sido inventada por el militar y matemático aficionado francés Henri August Delannoy (1833-1915). El madelinette se juega con tres fichas de cada color y al tablero se le añade el segmento horizontal que pasa por el centro, obteniéndose así un total de siete casillas (como se muestra en la imagen anterior). Según el matemático francés Édouard Lucas (1842-1891), en sus Recreaciones matemáticas, las posiciones ganadoras, perdedoras y de tablas de los juegos la herradura y el madelinette fueron estudiadas por Henri Delannoy.
El madelinette se puede jugar a partir de la posición inicial que aparece en la anterior imagen, o con el tablero vacío, y el objetivo es de nuevo bloquear las fichas del jugador contrario.
Con un argumento similar al del juego pong hau ki se obtiene que el número de posiciones distintas del madelinette es
que dan lugar a 70 parejas de posiciones simétricas, una de la otra, respecto al eje vertical central.
Si pintásemos el grafo etiquetado asociado a este juego, resulta ser más complejo que el del pong hau ki, puesto que de cada posición (vértice del grafo) podemos pasar mediante un movimiento a más posiciones que antes. Por ejemplo, si empezasen moviendo las fichas negras, de la posición inicial se podría pasar a una de las siguientes tres posiciones siguientes. Además, aunque en la primera posición las blancas solo tendrían un movimiento posible, en las otras dos posiciones existirían dos opciones de movimiento.
Delannoy estudió qué posiciones son ganadoras, perdedoras o que terminan en tablas, jugando bien, suponiendo que mueven blancas (un razonamiento simétrico se obtiene si mueven negras). De las 70 posiciones diferentes (salvo simetría) hay 21 ganadoras para las blancas, 12 para las negras y 37 que serán empates.
A continuación, como ejemplo mostramos tres posiciones, una ganadora para las blancas, otra ganadora para las negras y otra que termina en empate, suponiendo que mueven blancas:
Al contrario que en la herradura, aquí hay más posiciones ganadoras para ambos colores, hay muchas más combinaciones y es fácil cometer fallos o despistes. Por eso mismo, el juego se hace más interesante.
Para terminar, lo que decimos siempre, lo mejor de un juego es jugar y disfrutarlo. Divertíos.
Bibliografía
1.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, El mundo es matemático, RBA, 2015.
2.- Philip D. Straffin, Position graphs for Pong Hau K’i and Mu Torere, Mathematics Magazine, vol. 68, n. 5, 1995.
3.- Édouard Lucas, Recreaciones Matemáticas, vol. 1 – 4, Nivola, 2007, 2008.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Siempre es buen momento para jugar: Pong Hau Ki y Madelinette se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Adivinando o empleando la lógica?
- Ajedrez y matemáticas: el problema de Guarini
- En el lugar correcto en el momento adecuado
Dozena erdi ariketa 2021eko udarako (4): Auto ibilbidea
Gogoan izan ahalegina bera –bidea bilatzea– badela ariketa. Horrez gain, tontorra (emaitza) lortzen baduzu, poz handiagoa. Ahalegina egin eta emaitza gurekin partekatzera gonbidatzen zaitugu. Ariketaren emaitza –eta jarraitu duzun ebazpidea, nahi baduzu– idatzi iruzkinen atalean (artikuluaren behealdean daukazu) eta irailean emaitza zuzenaren berri emango dizugu.
Hona hemen gure laugarren ariketa: Auto ibilbidea.Jonek ibilbide bat egin du kotxez. Batez besteko abiadura 55 km/h izan da eta ordu-kopuru oso bat behar izan du ibilbidea egiteko. Hasieran, kilometro-kontagailuak abc markatzen zuen, a ≥ 1 eta a + b + c ≤ 7 izanik. Amaieran, cba irakurri du Jonek kontagailuan. Zein zen hasierako abc zenbakia?
———————————————————————————-
Ariketak “Calendrier Mathématique 2021. Un défi quotidien” egutegitik hartuta daude. Astelehenetik ostiralera, egun bakoitzean ariketa bat proposatzen du egutegiak. Ostiralero CNRS blogeko Défis du Calendrier Mathématique atalean aste horretako ariketa bat aurki daiteke.
———————————————————————————-
Utzi zuen erantzuna iruzkinetan!
The post Dozena erdi ariketa 2021eko udarako (4): Auto ibilbidea appeared first on Zientzia Kaiera.
Los mitos como protociencia

Los mitos son una expresión de la existencia de la especie, un espejo en constante cambio de las percepciones de la condición humana. Los mitos se basan en un pasado real impreciso en el tiempo, una realidad del comportamiento humano que trasciende un tiempo y un lugar determinados. La ciencia también tiene estos atributos. La estrecha asociación entre el mito y la ciencia se ve claramente cuando se considera la ciencia antigua. Los antiguos lucharon por explicar el entorno natural y su propia humanidad con respecto a lo divino. Las explicaciones iniciales incorporaron dioses y héroes, sucesos fantásticos y acontecimientos dignos de ser recordados. Debajo de lo fantástico y lo extraordinario de la tradición oral, los poemas cantados por el antiguo bardo, existía un verdadero intento de comprender y describir la naturaleza y al propio ser humano.
La antigua civilización sumeria fue el resultado de la organización, el trabajo y la ingeniería de los diques y canales que controlaban los ríos Tigris y el Éufrates, muy propensos a las inundaciones, y que irrigaban la tierra reseca durante la estación seca. La cultura sumeria se basa en última instancia en al agua y sus usos. La epopeya sumeria de la creación, Enûma Elish, describe a Apsu, la personificación deificada de las aguas originales de la creación; a Adad, la de las tormentas; a Ea, la de las aguas; a Ennugi, la del riego; Ningirsu, la de la fertilidad del suelo regado; a Ninurta, la de los de pozos de agua dulce.
Los sumerios está clero que pensaban mucho en el agua. La lluvia y el agua del río daban lugar a abundantes cosechas, vigiladas por Nisaba, la diosa de las cosechas. Ninhursag, la diosa madre, también supervisaba todas las plantas y animales o, lo que es equivalente, a todos los alimentos. Una vez que se recogían las cosechas, Shulpae se encargaba del éxito de los banquetes; Siduri aportaba lo suyo, como diosa del vino que era. Los milagros del agua, la comida, la abundancia, la bebida, los banquetes y los estómagos llenos tenían que ser explicados, y no era concebible otra que no fuese por la benevolencia de los dioses.

Los egipcios, igualmente, dependían del clima, como todas las civilizaciones, pero especialmente del Nilo y sus inundaciones anuales, y del Sol siempre presente. El Sol era tan importante que se necesitaban varios dioses para compartir su poder: Amón, Ra (el sol al mediodía), Atón (el sol al mediodía), Atón (el disco solar), Jepri (el sol en el este), Atum (el sol en el oeste). También se necesitaban varias deidades para el Nilo, gobernando varias regiones de Egipto según la ubicación del propio Nilo (alto o bajo Egipto). Los dioses y diosas de la fertilidad se asociaban con frecuencia con el Nilo: Happi era el dios de las inundaciones del Nilo durante el verano. Nun y Nefertum eran deicaciones de las aguas del abismo que estuvieron presentes en la creación. Sobek, el dios cocodrilo, era el dios del pantano.
Los egipcios, dedicados a comprender la naturaleza de la que tanto dependían, adoraban a los dioses de la ciencia y el saber. Imhotep, quien supuestamente fue un constructor durante la era de las pirámides en el tercer milenio a. e. c., evolucionó hasta ser un dios de la curación y la magia. Serket era su contraparte femenina, la diosa de la curación. Seshat y Thoth eran las deidades de la erudición, de los escribas y de la sabiduría.

Grecia es un paisaje de profundos valles, enormes crestas, bosques ocultos y montañas infranqueables. Los dioses de Grecia eran, por tanto, los de las montañas, los bosques, los ríos, la costa rocosa y las islas del Egeo y el Adriático. Se cree que antes de la llegada al poder de los griegos micénicos, los primeros griegos y la gente de Creta y las islas adoraban a las deidades de la naturaleza dominadas por las diosas de la fertilidad. Atenea, Afrodita, Hera, Artemisa, Hestia, Deméter y Rea fueron una vez, en el pasado mítico, los principales objetos de culto entre los griegos.
En un momento dado, el hijo de Rea, Zeus, dio un golpe de estado divino ocupando el lugar de su padre Cronos y llevando al poder también a sus hermanos Poseidón y Hades. Zeus gobernaba a través de la fuerza, a través del terrible rayo, que solo él controlaba, y que inspiraba terror tanto a dioses como a humanos. Poseidón personificó el mar; Hades se identificó tanto con su cometido que terminó convirtiéndose en él, el inframundo. Las diosas de la fertilidad perdieron poder o cambiaron de forma; por ejemplo, Atenea se convirtió en una virgen con apariencia de hombre; Hera se convirtió en una diosa malhumorada e impotente, siempre regañando a su hermano y esposo Zeus; Afrodita pasó a ser una diosa casquivana del amor que siempre metía a dioses y humanos en líos con la lujuria y el adulterio como fatores comunes; Deméter conservó su papel de diosa de la fertilidad del grano y de la agricultura.
Los poemas de Homero y de Hesíodo ilustran cómo los antiguos bardos personificaban los fenómenos naturales y humanos por medio de los dioses y diosas. Hesíodo explicó la presencia del mal mediante Pandora y su estúpido esposo Epimeteo, quien poseía el don de la retrospectiva pero no el de la previsión, que era la especialidad de su hermano Prometeo. Las mentiras y los robos se explican por la presencia de Hermes, experto en juegos de manos. Hesíodo, creyente en el recurrente concepto a través de los tiempos de que vivía en una época que encarnaba el declive de la cultura de «los buenos tiempos», argumentó que su época era una Edad de Hierro de maldad y desesperación, a diferencia de las edades anteriores de la humanidad: la Edad de Oro de los hombres que eran como dioses; la Edad de Plata, cuando Zeus castigó la arrogancia humana; la Edad del Bronce, cuando los humanos eran gigantes; y la Era Heroica, cuando existían héroes, descendiente de los dioses, pero destruida por la Guerra de Troya.
Los himnos homéricos y la Ilíada y la Odisea describen una cosmovisión totalmente antropomórfica. Los dioses y diosas se mezclan constantemente con los humanos, tanto que los humanos nunca están completamente seguros de quién es dios y quién es mortal. Quizás el extraño en la puerta sea un ser divino enviado para probar al ser mortal, une duda y preocupación recurrentes en los personajes de la Ilíada y la Odisea. Los dioses simbolizan la mente consciente y lo que hoy llamaríamos el subconsciente, por ejemplo, cuando Aquiles quiere destruir a Agamenón en el Libro 1 de la Ilíada, es la diosa Atenea la que interviene personalmente para calmar su ira y proporcionándole razón y paciencia.
La Odisea describe la dicotomía de civilización (el pensamiento, personificado por Ulises) y salvajismo (el cíclope). Ulises utiliza repetidamente su ingenio, artimañas, engaños y, en fin, el pensamiento analítico para salir de apuros. Ulises tiene sabiduría, es decir, ejerce la razón sobre las pasiones, tiene previsión y retrospectiva, tiene paciencia cuando los demás son impulsivos. Las divinidades de la sabiduría, el pensamiento y el ingenio lógicamente ayudan a Ulises. Atenea lo cuida, al igual que Hermes (después de todo era su bisnieto).
De hecho, encontramos en la mitología griega un énfasis en las deidades que personifican el pensamiento humano de una forma u otra. Además de Atenea, Apolo es un dios de la sabiduría, de la lira, de los sueños, de la profecía, de los videntes. Prometeo enseña a los humanos la creatividad, el pensamiento analítico, la inventiva y la curación.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Los mitos como protociencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cristalografía (1): Protociencia, del «Homo erectus» a Linneo
- Mesopotamia (1): La epopeya de Gilgamesh
- Antes del hierro
Células madre para el tratamiento de la enfermedad inflamatoria intestinal
María Larumbe / GUK

La enfermedad inflamatoria intestinal (EII) es un concepto amplio que se usa para describir distintas patologías inmunomediadas, inflamatorias y crónicas, como la enfermedad de Crohn y la colitis ulcerosa, que presentan inflamación crónica del tracto digestivo. En la descripción que da la ACCU – Confederación Crohn y Colitis Ulcerosa – ambos trastornos alteran la capacidad del organismo para digerir los alimentos y absorber los nutrientes. Las personas que padecen esta enfermedad pueden presentar diarrea, sangre en las heces, cansancio, dolor abdominal, pérdida de apetito y peso o fiebre, entre otros síntomas.
En los últimos años, se está viviendo un aumento de la incidencia de la EII en la población a nivel mundial, sobre todo en las zonas urbanas de los países desarrollados. Más allá de las causas de componente genético, se sabe que algunos factores como el estrés que conlleva un estilo de vida frenético, las sustancias tóxicas presentes en el ambiente y la alimentación juegan un papel fundamental en la alteración de la flora intestinal. Esto provoca una respuesta inmune anómala que da lugar a la inflamación y sintomatología de la EII, dando como resultado que se reporten más casos de esta enfermedad.
Hasta la fecha no existe ningún tratamiento que cure esta enfermedad. Los fármacos disponibles en el mercado — como los aminosalicilatos, corticoesteroides e inmunomoduladores — tratan de disminuir la inflamación intestinal, evitar brotes de los síntomas y mantener la dolencia en remisión, pero no consiguen dar una respuesta definitiva.
Sin embargo, la evolución de las terapias avanzadas en farmacia y medicina abre la puerta al tratamiento efectivo de este tipo de patologías inflamatorias e inmunológicas. En concreto, en el grupo de investigación de NanoBiocel de la Facultad de Farmacia de la UPV/EHU — expertos en el desarrollo y encapsulación de medicamentos — llevan desde 2017 trabajando en un proyecto que tiene como objetivo desarrollar un medicamento efectivo para tratar esta enfermedad basado en células madre mesenquimales.
¿Por qué se han decantado por este tipo de células? Como explica Rosa Hernández — catedrática en Farmacia y responsable del proyecto dentro del grupo — “las células madre mesenquimales poseen una gran capacidad terapéutica a través de las sustancias que secretan entre ellas múltiples citoquinas y factores de crecimiento, y que pueden regular el funcionamiento de un sistema inmune alterado como sucede en el caso de pacientes con enfermedad de Crohn o colitis ulcerosa”.
Las terapias celulares no son desconocidas. Se llevan aplicando desde hace tiempo para el tratamiento de enfermedades como la leucemia. Es el caso del trasplante de médula ósea, que consiste en el reemplazo de células enfermas por células madre sanas.
Sin embargo, la aplicación de las terapias celulares en el tratamiento de la EII, presenta, según Hernández, ciertos problemas que son necesarios solventar para desarrollar un medicamento efectivo. “La célula es un organismo vivo que no se puede comprimir al igual que otros principios activos sintéticos como el ácido acetilsalicílico — principio activo de la Aspirina —. Por tanto, es necesario desarrollar nuevos sistemas que puedan encapsular esas células para implantarlas en el cuerpo y que sean capaces de secretar las sustancias terapéuticas durante largo tiempo”.
En este sentido, como afirma Hernández, no son los primeros en tratar de aplicar este tipo de terapias al servicio del tratamiento de la EII. “Partiendo de investigaciones previas en este ámbito, nuestro objetivo es desarrollar un sistema de administración que consiga potenciar y alargar los efectos positivos de las células madre, evitando además los problemas asociados a este tipo de terapias como son la rápida eliminación del organismo y la generación de trombos. Para ello, la correcta encapsulación de la célula es clave”.
Se trata de una investigación ambiciosa y colaborativa, financiada por el Ministerio de Ciencia e Innovación, que cuenta — además de con la participación del propio grupo de la UPV/EHU — con la colaboración de expertos en medicina, bioquímica, farmacia y biología de otras universidades como Harvard (EE.UU), la Universidad Católica de Lovaina (Bélgica) o centros médicos como el servicio de patología del Hospital Universitario de Álava.
Una factoría celular 24/7
Dentro de esta investigación multidisciplinar y colaborativa, el principal reto consiste en conseguir encapsular las células madre de forma efectiva y lograr que estén el suficiente tiempo en el organismo para mitigar la inflamación persistente y regenerar los tejidos dañados.
Para conseguir este objetivo, altamente complejo, han trabajado en el desarrollo de tres elementos fundamentales: un hidrogel para encapsular las células (soporte); las propias células madre (principio activo del medicamento) y el interferón gamma (sustancia activadora de las células).

En primer lugar, para resolver el problema de la encapsulación, han desarrollado un hidrogel en colaboración con la Universidad de Harvard, el cual funciona a modo de soporte y protege la célula. “Este hidrogel, compuesto por polímeros de origen natural, posee unas características biomiméticas que permiten que la célula se encuentre ‘como en casa’, proporcionando las condiciones adecuadas para que su supervivencia sea mayor”. Además, al introducir las células en este hidrogel, se tienen localizadas y se evita que puedan migrar a cualquier otra parte del organismo.
Por otro lado, el segundo componente que se ha utilizado para desarrollar este medicamento es el más importante: el propio principio activo, es decir, la célula. “En este caso, hemos optado por células madre mesenquimales de origen adiposo. A futuro, si todo va bien, al realizar la traslación clínica, el objetivo sería poder obtener las células de la grasa del propio paciente para que fuese un trasplante totalmente autólogo y que ocasione menos problemas desde el punto de vista de la respuesta inmune”. En este sentido, también se está investigando en el uso de otras células como las del folículo piloso, que tienen muy buenas propiedades inmuno-moduladoras y requieren de técnicas muy poco invasivas.
Por último, el tercer componente busca activar las células madre para que puedan secretar de manera continuada y prolongada las sustancias inmuno-moduladoras requeridas para tratar esta enfermedad. “Lo que hemos desarrollado son unas micropartículas que hemos unido a una sustancia ‘activadora’ llamada interferón gamma, que da las señales a la célula madre para que secrete las sustancias beneficiosas que disminuyan los síntomas de la EII.”
Este trabajo se ha realizado con el objetivo de crear un sistema multifuncional para su administración a nivel subcutáneo en el paciente, de forma que libere ininterrumpidamente estas sustancias terapéuticas, como si se tratara de una fábrica celular en constante funcionamiento.
Actualmente, la investigación se encuentra en fase preclínica. “Acabamos de realizar la primera prueba de concepto en ratones, siguiendo el modelo en estos animales para conseguir reproducir la enfermedad al igual que en los humanos”. Para llevar a cabo esta tarea, han contado con la colaboración del servicio de patología del Hospital Universitario de Álava, que diagnostica la enfermedad patológica en humanos y les han apoyado en la creación del modelo en ratones.
Tras realizar la autopsia a los ratones, “lo que se ha comprobado es que las células encapsuladas continúan vivas y siguen secretando las sustancias inmuno-moduladoras, lo que supone un paso hacia adelante en la investigación”, afirma Hernández. Sin embargo, hasta que no comprobemos los resultados histológicos no podremos determinar si este tratamiento ayuda a la regeneración tisular, es decir, de los tejidos del organismo”, afirma Hernández.
Tratamiento para otras enfermedades inmunológicas
La investigación, que comenzó hace cuatro años, tiene todavía un largo camino por delante. “Tendremos que acometer ajustes e ir controlando poco a poco el sistema, incorporando nuevos elementos que conseguirán mejorar el comportamiento de la célula en cuanto a las secreciones. Además de esto, probaremos otro tipo de células con propiedades inmuno-moduladoras, aunque las que estemos utilizando actualmente sean el gold standard.
A futuro, este tipo de terapias, tal y como explica Hernández, “se podrán introducir en el tratamiento de otras patologías inmunológicas en las que también aparecen inflamaciones o respuestas inmunes disfuncionales, como es el caso del lupus u otras enfermedades autoinmunes. Además, hoy en día también las estamos aplicando en terapias de regeneración de heridas crónicas con buenos resultados”.
En este sentido, las terapias celulares se están utilizando incluso en ensayos clínicos para la investigación de la COVID-19, tratando de frenar la respuesta inmune exacerbada en algunos pacientes con este virus.
Conseguir dar el salto del laboratorio al paciente y traducirlo en una mejora de su calidad de vida es el objetivo último de esta investigación. “Queremos aportar todo nuestro conocimiento en el desarrollo de fármacos para ayudar a conseguir unos tratamientos que sean más prolongados en el tiempo, más seguros y que mejoren la calidad de vida de los pacientes con estas patologías”.

Rosa Hernández es catedrática en Farmacia y Tecnología Farmacéutica y miembro del grupo de investigación NanoBioCel de la Universidad del País Vasco UPV / EHU.
El artículo Células madre para el tratamiento de la enfermedad inflamatoria intestinal se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Medicina regenerativa: utilización de células madre para el tratamiento de enfermedades humanas
- Naukas Pro 2017: Manuel Collado y las células madre
- Cómo criopreservar células madre
Duela 37 milioi urteko sasizaldi espezie ezezagunak
Zanbranako (Araba) paisaia subtropikalean orain dela 37 milioi urte bizi ziren ugaztun paleoteridoen (sasizaldi) beste bi espezie ezezagunak deskribatu ditu UPV/EHUko Ornodunen Paleontologiako ikertaldeak. Leire Perales-Gogenolak zuzendutako ikerketa honi buruz Journal of Vertebrate Paleontology nazioarteko aldizkariak artikulu bat argitaratu du duela gutxi. Leptolophus cuestai eta Leptolophus franzeni izendatu dituzte espezie berriak, Miguel Ángel Cuesta eta Jens Lorenz Franzen paleontologoen omenez (lehendabizikoa Palentzian sortua, eta bigarrena, berriz, Bremengoa; biak ere Europako Eozenoan adituak).
Gaur egun, ugaztun hipomorfoen (edo ekuoideoak) barruan genero bakar bat (Equus) eta zaldi, asto eta zebra espezie gutxi batzuk baino ez daude, baina Eozenoan (duela 56-33,9 milioi urte bitarte) aniztasun handiagoa zegoen. Paleoteridoak izan ziren Europan gehien hedatutako taldeetako bat –garai hartan Europa artxipelago bat zen–. Montmartreko (Paris) harrobietan topaturiko fosiletatik abiatuta, George Cuvier naturalista frantses ospetsuak 1804an deskribatutako Palaeotherium generotik datorkie izena.

Europako artxipelagoan, paleoteridoen (edo sasizaldien) dozena erdi genero baino gehiago zeuden, erdiak baino gehiago endemikoak Iberiar uhartean, eta Eozenotik Oligozenorako trantsizioan izaniko krisi klimatiko-biologikoan (Stehlinen Grande Coupure edo Eten Handia ere esaten zaio) desagertu ziren. Gorputzaren itxura aintzakotzat harturik, paleoteridoak egungo zaldien antzekoak ziren, baina txikiagoak. “Imajinatzen duzue fox terrierraren, dogo alemaniarraren eta asto baten neurriko hiru behatzeko zaldiak Arabako paisaia subtropikal batean? Sasizaldi horietako asko Zanbranako aztarnategian deskribatu dira –zehaztu du Ainara Badiola doktore eta ikertaldeko kideak–. Adibidez, Pachynolophus zambranensis eta Iberolophus arabensis espezieak kokagune paleontologiko horretantxe definitu ziren lehenbizikoz”.
Orain arte ezagutzen ez ziren espezie horien hortzen ezaugarri atipikoek pentsarazten dute eremu iberiarrean ingurumen baldintzak desberdinak zirela Europako erdialdekoekin alderatuta. Baita areagotu egiten dute paleoteridoen faunen erregistro fosila eta biodibertsitatea. “Atzeko haginek koroa oso altua dute, eta zementuzko geruza lodi batez estalita daude. Hortz mota hori beste paleoterido iberiar batzuetan ere ageri da, eta litekeena da eremu iberiarraren eta Europa erdialdearen arteko ingurune-baldintzen diferentziaren adierazgarri izatea: Iberia aldean baldintza idorragoak edo baso ez hain itxiak, eta eremu irekiagoak izatea”, azaldu du Perales-Gogenolak.
Europan, baso intertropikalak galduz joan ziren Eozeno amaieran, eta bide eman zieten landare komunitate epelagoei, eremu irekiagoei. Zaldi modernoak edo ekidoak gerora agertu ziren Europan, Miozenoan (23-5,3 milioi urte). Haien hortzek koroa oso garaiak dituzte, eta egokiturik daude silize askoko landaredian bazkatzeko (larreak). Zanbranako (Araba) goi Eozenoko aztarnategiko Leptolophus cuestai espezie berriaren atzeko haginek ere ohi baino koroa altuagoak dituzte, Europako lehen ekidoetako batzuen antzekoak.
Interes paleobiologikoaz gainera, Zanbranako ugaztunen askotariko fosilek –primateak, karraskariak, martsupialak, haragijaleak, artiodaktiloak eta perisodaktiloak– informazio berria ematen digute Europan eta gure inguruan denbora geologikoan izaniko klima eta ingurumen aldaketei buruz.
Gaur egun, UPV/EHUko Ornodunen Paleontologiako ikertaldea paleoteridoen material gehiago deskribatzen ari da, eta litekeena da perisodaktilo ekuoideoen artean ezohiko hortz ezaugarriak dituzten genero eta espezie berriak deskribatzea.
Iturria:UPV/EHU prentsa bulegoa: Duela 37 milioi urteko sasizaldi espezie ezezagunak
Erreferentzia bibliografikoa:Leire Perales-Gogenola, Ainara Badiola, Asier Gómez-Olivencia & Xabier Pereda- Suberbiola. (2020). New Leptolophus (Palaeotheriidae) species from the Iberian Peninsula and early evidence of hypsodonty in an Eocene perissodactyl. Journal of Vertebrate Paleontology. DOI:10.1080/02724634.2021.1912061
The post Duela 37 milioi urteko sasizaldi espezie ezezagunak appeared first on Zientzia Kaiera.
Se suponía que esto era el futuro, una reseña
Juan Ignacio Pérez Iglesias, lector
Cuando vi por primera vez una imagen de la portada de este libro pensé “no puede ser, es amarillo”. “Es raro que algo de fuste merezca una cubierta amarilla”. Lo pueden comprobar, echen un vistazo a su biblioteca y verán que el amarillo es uno de los colores más escasos. No es que esté por completo ausente, en nuestra biblioteca hay algunos, pero son raros; no hay más de tres de cada cien libros que tengan el lomo de ese color, y menos aún los que lo sean enteramente.
Cuando compramos “Se suponía que esto era el futuro” y lo abrimos, nos dimos cuenta, sin embargo, de que el color de la portada encajaba con el tratamiento que la editorial había querido dar a la maqueta. El uso del color en este libro es espectacular; juega un papel fundamental en la presentación porque ayuda a definir espacios y secciones, y a poner el foco en los conceptos clave que se tratan a lo largo del texto.
El libro de Alvy y Wicho es tan denso de contenido como ligero en su presentación y lectura. Está lleno de nociones e ideas, algunas ciertamente complejas, pero tratadas con un lenguaje que permite hacerlas accesibles a personas de muy diferente nivel de formación y contexto cultural. A quienes tengan por costumbre leer el blog Microsiervos, no les resultará nueva la forma de tratar los temas. A quienes no conozcan el blog o no acostumbren a leerlo, seguramente sí. Por resumir, Alvy y Wicho llevan lustros haciendo comprensibles y amenos conceptos que, de suyo, no lo son. Tras tanto adiestramiento, se nota que dominan el arte de la anotación breve, un difícil arte. Esto, en lo que a la forma se refiere.
Y si nos vamos al fondo, lo que tenemos son una pléyade de nociones de ciencia y, sobre todo, tecnología, esenciales para hacernos una idea cabal de a dónde nos han conducido los avances habidos durante el último medio siglo, aproximadamente, en áreas tales como informática, telecomunicaciones, exploración espacial, y otras relacionadas (o no tanto). Los autores son escépticos, y eso tiene reflejo en la forma en que tratan los temas y también en algunos de sus contenidos. Y dedican algunos apartados a desmontar mitos muy arraigados. El libro es, en cierto sentido, un destilado asequible de cultura tecnológica contemporánea. Y para quienes -como quien suscribe- el futuro siempre resultó una quimera inalcanzable, una valiosa guía para orientarme por sus vericuetos extraños.
Una última observación: me parece un libro muy útil para personal docente de enseñanza primaria y secundaria obligatoria, y también para padres y madres de criaturas y adolescentes; mucho de lo que se trata en este libro debería transmitírseles a los chicos y chicas que se desenvuelven con aparente (a la par que engañosa) normalidad en un entorno cuyos recovecos, con sus sombras y sus luces pueden ofrecer, más que una vista fiel de la realidad, un caleidoscopio de espejismos. Mejor incluso: regálenles el libro.
Post scriptum: Después de leer “Se suponía que esto era el futuro” he llegado a la conclusión de que solo podía tener cubierta amarilla.
Ficha:
Autor: Álvaro «Alvy» Ibáñez & Javier «Wicho» Pedreira
Título: Se suponía que esto era el futuro
Año: 2021
Editorial: Montena
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
El artículo Se suponía que esto era el futuro, una reseña se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- En el control de la inteligencia artificial nos jugamos el futuro
- Sin moda no hay futuro
- El futuro es inescrutable, sus amenazas también lo son
Recuperación de fauna en la ría de Bilbao
Bizkaia tuvo un enorme desarrollo económico, tecnológico y social en la segunda mitad del siglo el siglo XIX, y alcanzó su máximo esplendor a finales de ese siglo y a principios del siglo XX. Este desarrollo fue consecuencia de la confluencia de varios factores, entre los que se encontraba la explotación eficiente de los recursos minerales del territorio. La industrialización asociada en el entorno de la ría del Nervión supuso un impacto ecológico enorme en el que solo las especies animales muy resistentes a la contaminación podían subsistir. Eso ha cambiado tal y como se muestra en este vídeo. El vídeo forma parte del proyecto «La Ría del Nervión a la vista de las ciencias y las tecnologías».
Edición realizada por César Tomé López
El artículo Recuperación de fauna en la ría de Bilbao se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La recuperación de la fauna en la ría de Bilbao
- La ría de Bilbao como medio de transporte de mineral
- La recuperación de la vida marina en el Abra de Bilbao
Claves del éxito invasor de especies vegetales en Europa
La fecha de introducción y el origen geográfico determinan en gran medida la abundancia, extensión geográfica y amplitud ecológica de las plantas invasoras; y sus características biológicas, ligadas a un crecimiento rápido, juegan un importante papel en ese éxito. Estas tres dimensiones biológicas (abundancia, extensión geográfica y amplitud ecológica) son fundamentales para entender el éxito de esas especies invasoras.
Esta es una de las conclusiones principales de un estudio internacional en el que ha participado Idoia Biurrun, profesora del Departamento de Biología Vegetal y Ecología, de la Facultad de Ciencia y Tecnología de la UPV/EHU, aportando datos de la presencia y abundancia de plantas exóticas en comunidades vegetales del norte de la Península Ibérica, así como colaborando en la interpretación de los resultados del estudio. Estos datos, combinados con datos de toda Europa, han sido imprescindibles para calcular el éxito de cada especie exótica en las tres dimensiones: abundancia local, extensión geográfica y amplitud ecológica. Este marco tridimensional mejorará nuestros conocimientos sobre la dinámica de la distribución de las plantas y, por tanto, ayudará a anticipar y gestionar futuras invasiones.

Las plantas exóticas son aquellas que crecen lejos de su hábitat natural, tras haber sido introducidas en estos nuevos territorios gracias a la acción humana. Las que son capaces de establecerse en estos nuevos ambientes y mantener poblaciones capaces de reproducirse son las especies naturalizadas, y algunas de ellas se vuelven invasoras y pueden producir graves impactos ecológicos y socioeconómicos. Como comenta Idoia Biurrun, son bien conocidos en nuestro ámbito el carrizo de la pampa (Cortaderia selloana) o el bambú japonés (Reynoutria japonica). No todas las especies introducidas tienen la misma “invasividad”, concepto que expresa el éxito o la efectividad a la hora de invadir nuevos hábitats. En consecuencia, un equipo internacional de científicos encabezados por el profesor Mark van Kleunen, experto en invasiones biológicas mundialmente reconocido, ha investigado los diferentes tipos de “invasividad”, así como los potenciales factores que la determinan en las especies introducidas en Europa.
Se investigaron estas tres dimensiones (abundancia local, extensión geográfica y amplitud ecológica) en el ámbito continental europeo para una gran proporción de la flora, tanto nativa como exótica. La introducción temprana en Europa y la capacidad de crecer rápido son características comunes de muchos “super invasores”. Estos descubrimientos mejoran nuestro conocimiento sobre la distribución de las especies vegetales –tanto invasoras como nativas– y pueden ayudar a una mejor predicción y gestión de futuras invasiones.
¿Son todas las especies exóticas igualmente invasoras?
Los expertos en el campo de la ecología son cada vez más conscientes de que el término “invasor” no describe una única propiedad. Existen diferentes características en la distribución de las especies que nos informan sobre su posible carácter invasor. Con el objetivo de conocer más sobre las diferentes vías que pueden seguir las especies introducidas para hacerse invasoras, los autores han combinado dos grandes bases de datos: la base de datos global sobre flora exótica naturalizada (the Global Naturalized Alien Flora –GloNAF-) y la base de datos europea de vegetación (European Vegetation Archive –EVA-).
El estudio partía de la premisa de que estas dimensiones deberían estar relacionadas en las plantas exóticas, tal y como lo están en las distribuciones nativas. Después de todo, las especies exóticas en un lugar son nativas en algún otro lugar. El estudio demostró que las asociaciones entre las tres dimensiones (abundancia local, extensión geográfica, amplitud ecológica) de las especies exóticas que son invasoras en Europa siguen el mismo patrón que la flora nativa europea: las plantas que tienen éxito en una de las dimensiones también tienden a tenerlo en las otras.
A pesar de las similitudes entre plantas nativas y exóticas en sus patrones de asociación, existe una diferencia decisiva entre ambos grupos: a diferencia de las plantas nativas, las invasoras no evolucionaron en los hábitats invadidos en los que se han introducido recientemente. Por ello, los autores del estudio se propusieron como segundo objetivo identificar los condicionantes o factores clave para el éxito de la invasión en cada una de las tres dimensiones, independientemente de que las tres dimensiones puedan estar relacionadas.
Descubrieron que las plantas que tienen valores altos en las tres dimensiones tienden a proceder de otros continentes, como Asia o América, mientras que las plantas que se han introducido desde otras partes de Europa no suelen tener gran éxito como especies invasoras. Además, los “super-invasores” extra europeos a menudo tienen propiedades biológicas que les ayudan a crecer rápido, a cambio de mecanismos de defensa menos desarrollados. Estos resultados apoyan la hipótesis conocida como enemy release hypothesis, que se podría traducir como “hipótesis del escape de los enemigos”. La idea es que las especies invasoras, cuando invaden nuevos territorios, dejan atrás muchos de sus patógenos, herbívoros y competidores, con los que evolucionaron en sus hábitats nativos. Ello les permite “crecer fuera de control”, y este efecto puede ser aún más pronunciado cuando en el proceso de invasión se han cruzado fronteras continentales, tales como océanos o grandes cordilleras.
El equipo científico también encontró excepciones a la regla antes mencionada por el que las plantas con éxito en una dimensión de la invasión también lo tienen en las otras dimensiones, e identificaron algunas causas posibles para estas excepciones. Por ejemplo, cuanto más reciente es la fecha de introducción, más probable es que la planta invasora no cumpla esta regla. Ello se debe a que estas plantas son nuevas en el territorio, y todavía no han desarrollado su potencial. Ello implica que nos debemos de preocupar por las plantas invasoras que tienen éxito en una única dimensión pero son de introducción reciente, pues es bastante probable que se expandan también en las otras dimensiones. Por consiguiente, este marco de las “dimensiones de la invasividad” no solo es una herramienta eficaz para explicar los actuales patrones de naturalización y mejorar nuestro entendimiento sobre la dinámica de la distribución de las especies, también nos puede ayudar a anticipar futuras invasiones y desarrollar estrategias de gestión individualizadas para un mejor control de las plantas invasoras.
Referencia:
Fristoe TS, Chytrý M, Dawson W, Essl F, Heleno R, Kreft H, Maurel N, Pergl J, Pyšek P, Seebens H, Weigelt P, Vargas P, Yang Q, Attorre F, Bergmeier E, Bernhardt-Römermann M, Biurrun I, et al. (2021) Dimensions of invasiveness: Links between local abundance, geographic range size, and habitat breadth in Europe’s alien and native floras PNAS doi: 10.1073/pnas.2021173118
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Claves del éxito invasor de especies vegetales en Europa se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los vegetales de la dieta neandertal
- Especies exóticas invasoras
- Cómo pronosticar el éxito del tratamiento del cáncer con inmunoterapia
Biomarkatzaile berrien identifikazioa giltzurrun gutxiegitasun kronikoaren diagnostikorako
Giltzurrun gutxiegitasun kronikoa (GGK) da arazo funtzional zein estrukturalen ondorioz giltzurrunek bere zeregina betetzeko duten gaitasunaren galera. GGKaren ondorioz, haurrek zailtasun-metabolikoak, zailtasun-kardiobaskularrak eta garapen-zailtasunak pairatzen dituzte, eta hori dela eta, populazio-talde horietan morbilitate eta heriotza-tasak handiak dira. Ildo horretan, esku-hartze terapeutiko eraginkorra lortzeko, diagnostiko azkarra ezartzea premiazkoa da. Egun, gaixotasunaren diagnostikoan serumeko kreatinina biomarkatzaile klasiko bezala erabiltzen bada ere, faktore anitzek kreatininaren kontzentrazioa aldatzea eragin dezakete. Hori dela eta biomarkatzaile honek sentikortasun mugatua du, bereziki gaixotasunaren lehenengo faseetan. Hortaz, diagnostiko goiztiarragoa eta erantzun hobea lortzeko biomarkatzaile berriak aurkitzeko beharra dago GGK pairatzen duten paziente pediatrikoetan.
Metabolomika lagin biologikoen profil metabolikoaren azterketa sistematikoaren bidez biomarkatzaile berriak aurkitzea ahalbidetzen duen tresna da, 1500 Da arteko molekula txikiak helburu dituena. Kontrol-taldearen eta talde gaixoaren arteko profil metabolikoen konparaketan zenbait metabolitoren kontzentrazioen igoera edo jaitsiera identifika daiteke, eta hortaz, metabolito horietako batzuk biomarkatzaile bezala erabili daitezke.

Lan honetan bi estrategia erabili dira haurretan gertatzen den GGKaren diagnostiko azkarra ezartzeko: metabolomika bideratua (edo targeted) eta metabolomika ez-bideratua (edo untargeted). Ikerlan hauetan Gurutzetako Unibertsitate Ospitalean jasotako GGK zuten haurren eta haur osasuntsuen plasma erabili da.
Metabolomika bideratua bide metaboliko, entzima sistema edota talde metaboliko jakinekin erlazionatuta dauden eta aldez aurretik definitutako metabolito ezagunen determinazioan eta kuantifikazioan oinarritzen da. Kasu honetan, analizatzen diren konposatuak ezagunak direnez, laginaren tratamendua oso espezifikoa da eta analisiak sentsibilitate ahalik eta handiena izateko diseinatzen da. Aurretik egin diren ikerketetan oinarrituz, urearen zikloan, argininaren metilazioan eta arginina-kreatina bide metabolikoetan parte hartzen duten 16 aminoazido, aminoazidoen eratorri eta erlazionatutako metabolito ezberdinak GGK duten haurren eta kontrolen plasman analizatzeko helburua planteatu da. Horretarako, metabolomika metodo bideratu bat garatu eta balioztatu da, likido kromatografia-masa espektrometria bidez kuadrupolo-hegaldi denbora analizatzailearekin (LC-QTOF). Gurutzetako haurren plasma laginak analizatu eta emaitzak aldagai anitzeko analisi estatistikoaren bidez aztertu eta gero, GGK zuten pazienteen plasman kreatinina, zitrulina, S-adenosilmetionina eta dimetilarginina simetrikoaren kontzentrazioa altuagoa dela ikusi da. Hortaz, azken hiru metabolito hauek biomarkatzaile berri posibletzat hartu dira, kreatinina biomarkatzaile klasikoarekin batera.
Metabolomika ez-bideratuaren helburua, ordea, jatorri desberdineko lagin taldeen artean ahalik eta metabolito gehienen konparazioa egitea da, inongo aldez aurretikako hautaketarik gabe, bi taldeen artean esanguratsuak diren metabolitoak soilik identifikatzeko. Kasu honetan, lan fluxua ondorengoa izaten da: laginen prestaketa eta bereizmen altuko masa espektrometria ekipoen bitarteko analisia (QTOF erako ekipoak, kasu), datuen prozesamendua, analisi estatistikoa edo kimiometrikoa eta azkenik, adierazgarriak diren metabolitoen identifikazioa, datu baseen eta kandidatuen estandarren analisiaren bidez. Gurutzetako haur osasuntsuen eta GGK pairatzen zuten haurren plasmak LC-QTOF teknikaren bidez konparatu eta gero, 232 entitate ezezagun lortu dira. Analisi kimiometrikoaren bidez entitate murrizketa egin eta gero, GGK duten haurren eta haur osasuntsuen metabolomen artean estatistikoki desberdinak diren 5 entitate aurkitu dira. Azkenik, bost metabolito horien artean lau identifikatzea posible izan da datu-baseak eta estandar analitikoak erabiliz: n-butirilkarnitina, cis-4-dezenoilkarnitina, bilirrubina eta esfingosina-1-fosfato.
Ikerketa metabolomiko bideratu eta ez-bideratu hauen emaitzak batera hartuta, kreatinina biomarkatzaile klasikoaz gain beste zazpi biomarkatzaile berri proposatu dira GGK duten haurren diagnostiko goiztiarra egitea ahalbide lezaketenak. Etorkizunera begira, zazpi biomarkatzaile horiek GGK duten haurrak eta haur osasuntsuak bereizteko esanguratsuak diren egiaztatzeko populazio pediatriko ezberdin eta zabalago bat ikertzea proposatzen da.
Iturria:
Benito, Sandra; Unceta, Nora; Sánchez-Ortega, Alicia; Gómez-Caballero, Alberto; Goicolea, M. Aránzazu; Barrio, Ramón J. (2020). «Ikerketa metabolomikoek bultzatutako biomarkatzaile berrien identifikazioa haurretan ematen den giltzurrun gutxiegitasun kronikoaren diagnostikorako»; Ekaia, 37, 2020, 65-81. (https://doi.org/10.1387/ekaia.20859)
- Aldizkaria: Ekaia
- Zenbakia: Ekaia 37
- Artikuluaren izena: Ikerketa metabolomikoek bultzatutako biomarkatzaile berrien identifikazioa haurretan ematen den giltzurrun gutxiegitasun kronikoaren diagnostikorako.
- Laburpena: Giltzurrun gutxiegitasun kronikoaren (GGK) ebaluazioa egiten da iragazpen glomerularraren tasaren (IGT) bidez, eta kalkulatzen da serumeko kreatininaren kontzentrazioan oinarritutako ekuazioen bidez. Hala ere, serumeko kreatinina kontzentrazioa hainbat faktoreren arabera alda daiteke, eta horrek GGKaren diagnostikoa arriskuan jar dezake, bereziki gaixotasunaren fase goiztiarrenetan. Haurretan GGKak, arazo metaboliko eta kardiobaskularrez gain, garapen-arazoak eta malnutrizioa eragiten ditu. Haur osasuntsuekin alderatuta, zailtasun horiek 30 aldiz handitzen dute heriotza-tasa GGkaren fase aurreratuenetan dauden haurretan. oro har, gaixotasun jakin baterako biomarkatzaileen presentziak diagnostiko goiztiarragoa eta erantzun hobea ahalbidetzen dute. Hori dela eta, GGK pairatzen duten helduetan ikerketa integrala egin da biomarkatzaile berriak topatzeko, baina populazio pediatrikoan ikerlanak oraindik oso mugatuak dira, eta biomarkatzaile berrien beharra dago. Helburu horrekin, haur osasuntsuen eta GGK pairatzen duten haur gaixoen arteko profil metabolikoen konparazioa egin da, metabolomika bideratu zein ez-bideratuak aplikatuz. Ikerketaren ondorioz, GGK pediatrikoaren detekzio goiztiarrean erabilgarri izan daitezkeen zazpi metabolito berri aurkitu dira, kreatinina biomarkatzaile klasikoarekin batera. Metabolito horiek, kreatininarekin batera erabiliz, kreatinina soilaren erabilerarekin ez bezala, haur gaixoak eta osasuntsuak bereiztea ahalbidetzen dute.
- Egileak: Sandra Benito, Nora Unceta, Alicia Sánchez-Ortega, Alberto Gómez-Caballero, M. Aránzazu Goicolea, Ramón J. Barrio
- Argitaletxea: UPV/EHUko argitalpen zerbitzua
- ISSN: 0214-9001
- eISSN: 2444-3255
- Orrialdeak: 65-81
- DOI: 10.1387/ekaia.20859
————————————————–
Egileez:
Sandra Benito, Nora Unceta, , Alberto Gómez-Caballero, M. Aránzazu Goicolea eta Ramón J. Barrio UPV/EHUko Farmazia Fakultateko Kimika Analitikoa Sailekoak dira
Alicia Sánchez-Ortega UPV/EHUko Lascaray Ikerguneko Analisirako Zerbitzu Zentralekoa da
———————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post Biomarkatzaile berrien identifikazioa giltzurrun gutxiegitasun kronikoaren diagnostikorako appeared first on Zientzia Kaiera.
El misterio del suelo número 726 y la búsqueda de vida en Marte
César Menor-Salván

El 20 de julio se cumplía el 45 aniversario del aterrizaje en Marte de la histórica misión Viking. Días después, fallecía Gilbert Levin, uno de los investigadores principales de la misión. A pesar del tiempo transcurrido, y (en mi caso) de modo muy tangencial, aún pudimos participar en la discusión de uno de los aspectos más polémicos de la misión: las evidencias de vida en Marte. Esta es la historia.
Hacia 2007, en el Centro de Astrobiología de Madrid estábamos iniciando una línea de investigación sobre los restos moleculares que los seres vivos dejan en materiales geológicos (biofirmas orgánicas o biomarcadores). Acabábamos también de proponer instrumentación para estudiar la composición orgánica de Titán y Encelado, que viajaría en la futura misión TandEM.
Nuestro trabajo llamó la atención de Christopher McKay, del Centro de Investigación Ames de la NASA, quien nos envió una muestra del suelo número 726. Era el último coletazo de 30 años de discusión científica sobre los resultados de la misión Viking a Marte.
La misión Viking constaba de dos naves, cada una de ellas formada por un orbitador y un aterrizador (lander). Viking 1 aterrizó en Marte el 20 de Julio de 1976 en Chryse Planitia. Viking 2 lo hizo el 3 de septiembre en Utopia Planitia, al otro lado del planeta. Los landers transmitieron datos hasta noviembre de 1982. Los objetivos de la misión eran obtener imágenes, datos ambientales, geofísicos y de composición de la atmósfera y suelo. También intentaba responder a la gran pregunta: ¿hay o hubo vida en Marte?

Viking en busca de vida
Los Viking realizaron, entre otros, dos experimentos:
- El experimento LR (labeled release o radiorespirometría), desarrollado por los equipos de Harold Klein, director del Equipo de Biología, y Gilbert Levin.
- El experimento de análisis molecular (molecular analisis experiment), usando el instrumento GCMS, desarrollado por el químico del MIT Klaus Biemann.
Para el experimento LR, se incubó suelo con nutrientes orgánicos marcados con carbono-14, midiéndose la emisión de CO₂ radiactivo, lo que sugeriría la presencia de actividad metabólica.
El objetivo del instrumento GCMS era identificar compuestos orgánicos presentes en el suelo o el aire. Para el análisis, una muestra de suelo se calentaba a alta temperatura, para volatilizar posibles compuestos orgánicos. Los compuestos orgánicos volatilizados entrarían en el analizador para identificarlos.
El método es intuitivo: si calentamos cualquier muestra de suelo a temperatura elevada, emitirá compuestos orgánicos procedentes de la vida microscópica y restos vegetales presentes en el suelo. En la Tierra, ni siquiera es necesario calentar, pues el petricor, que hace tan agradables las tormentas veraniegas, ya es un biomarcador.
En Marte, el experimento LR dio un resultado positivo. Sin embargo, el instrumento GCMS no detectó ningún compuesto orgánico en el suelo marciano. ¿Qué significaba? ¿Había vida en el suelo, pero no se podían detectar sus componentes? ¿Acaso no había vida y el resultado se debía a un efecto químico?
El suelo número 726
Los datos de la misión Viking no respondían a la pregunta sobre si había vida en Marte, pero tampoco lo negaban. Más bien abrían nuevas cuestiones. Antes del lanzamiento de la misión, los instrumentos se probaron con diversos tipos de suelos, para obtener una librería de referencia que ayudara a interpretar los datos de Marte.
El equipo de Gil Levin realizó los experimentos con el suelo 726. Este fue recogido en 1966 en la Antártida, en un remoto nunatak llamado Coalsack Bluff, en las montañas Transantárticas. En las pruebas, el suelo 726 daba un resultado similar al del suelo marciano: positivo en el experimento LR y ningún compuesto orgánico detectado con el instrumento GCMS.
El suelo 726 contenía trazas de partículas de carbón y kerógeno, un material de origen biológico común en las rocas. ¿Significaba esto que en Marte había algo de vida? ¿Por qué el GCMS no podía detectar compuestos orgánicos en el suelo 726? ¿Era debido a que el diseño del instrumento no era adecuado? Había que discutirlo, ya que no podemos permitirnos enviar un instrumento cuestionable para detectar huellas de vida.
Para Levin, los datos de Viking sugerían la presencia de vida. Para otros, el resultado del experimento LR era explicable si el suelo es químicamente oxidante. Se discutió la capacidad del instrumento GCMS para detectar pequeñas cantidades de componentes orgánicos.
Se planteó que el problema no era el instrumento, un prodigio técnico, sino que el tratamiento de la muestra no era adecuado para la misión. Tal como estaba diseñado, solo podría detectar ciertos compuestos orgánicos presentes en una cantidad elevada. Por ello, McKay nos envió muestras del suelo 726 a varios implicados en el estudio de biomarcadores. El objetivo era comprobar si podían verse componentes orgánicos en el suelo, y decidir si el tratamiento de muestra del Viking era adecuado o no.

Perclorato y la esterilidad del suelo de Marte
La discusión terminó en 2008, cuando el Phoenix Mars Lander descubrió perclorato en el suelo de Marte. Una explicación a los resultados de la Viking era el carácter oxidante del suelo. Las sales de perclorato son oxidantes y se descomponen formando hipoclorito (lejía), entre otras cosas, debido a la radiación que asola la superficie marciana. La combinación de oxidantes y radiación sugería que el suelo marciano es estéril e incompatible con la materia orgánica.
Así, la superficie no es el lugar idóneo para buscar vida o biomarcadores. Aun en el caso de que los hubiera en el suelo, estables gracias a la baja temperatura y sequedad del planeta, en el momento en el que se intentaran analizar serían destruidos por el perclorato. Por ello, Viking no podía identificar huellas de vida en ningún caso. Había que cambiar de estrategia: buscar huellas de vida en el subsuelo o atrapadas en arcillas, así como evidencias indirectas a través del estudio de minerales y rocas.

¿Y el suelo 726? Sí, contenía biomarcadores. McKay y sus colaboradores tenían razón: el experimento de análisis molecular, tal como estaba configurado en la Viking, no tenía sensibilidad suficiente, aunque ya daba igual. Ahora sabemos que los experimentos de Viking se diseñaron bajo una perspectiva demasiado geocéntrica. Se necesitaba otro enfoque, que se aplica en los rovers Curiosity y Perseverance.
Un instrumento similar al GCMS de Viking, sin embargo, puede ser importante en la exploración de otros lugares, como Europa o Titán, donde los compuestos orgánicos son claves. Será fascinante ver los datos de las misiones en curso y futuras.
Sobre el autor: César Menor-Salván es profesor ayudante doctor de bioquímica y astrobiología en el Departamento de Biología de Sistemas de la Universidad de Alcalá
Este artículo fue publicado originalmente en The Conversation. Artículol original.
El artículo El misterio del suelo número 726 y la búsqueda de vida en Marte se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Marte y el enigma de la vida: el gran desembarco robótico de 2021
- Sería buena noticia que no hubiera vida en Marte ni la hubiese habido nunca
- La FCT viaja a Marte
La ley de Stigler… o de Merton, ¿o quizás de Boyer?
El matemático Stephen Mack Stigler (1941) es profesor emérito de la Universidad de Chicago. Especialista en estadística, su investigación se ha centrado en la historia de esta disciplina y en la teoría de estimadores robustos.

Es muy conocido por la llamada ley de Stigler, un axioma que formuló en 1980 y que puede enunciarse del siguiente modo:
«Ningún descubrimiento científico recibe el nombre de quien lo descubrió en primer lugar».
En el artículo Stigler’s law of eponymy, Stephen Mack Stigler comienza hablando del sociólogo Robert King Merton (1910-2003) quien, según afirma el matemático, es el verdadero creador de “su ley”, la ley de Stigler.
Pero empecemos por el principio. En 1968 Merton analizó el fenómeno que denominó efecto Mateo en su artículo The Matthew Effect in Science. En este ensayo, el sociólogo estudiaba cómo los científicos de mayor prestigio reciben a menudo un crédito excesivo por sus contribuciones, mientras que aquellos menos conocidos obtienen menor reconocimiento por sus descubrimientos o avances en investigación.
Merton comenzó a pensar en este efecto a raíz de su artículo Resistance to the Systematic Study of Multiple Discoveries in Scienceen el que analizaba las posibles explicaciones del fenómeno de «descubrimiento simultáneo» por el que dos o más científicos logran un descubrimiento idéntico, aproximadamente al mismo tiempo y de manera independiente. El sociólogo argumentaba que, en general, el investigador más famoso consigue el crédito de ese avance en investigación, independientemente de quién fue el primero o de la importancia real de la contribución en comparación con la de la otra persona. Merton lo denominó efecto Mateo en referencia al versículo de la Biblia (Evangelio de Mateo 25:29) que dice: «Porque a todo el que tiene se le dará y le sobrará, pero al que no tiene, se le quitará hasta lo que tiene».
En 1979 se invitó a Stigler a contribuir con un artículo en un libro en homenaje a Merton. El matemático conocía su trabajo sobre el efecto Mateo y el término de profecía autocumplida también acuñada por el sociólogo. Y decidió escribir un texto incorporando ambos conceptos: Stigler’s law of eponymy. Con este título confirmaba, además, que los nombres de los hallazgos o invenciones no suelen ser los de sus creadores…
Algunos ejemplos de la ley de Stigler en matemáticas
-
El teorema de Pitágoras, del que Bartel Leendert Van der Waerden decía (ver [2]): «Estoy convencido de que el excelente matemático neolítico que descubrió el teorema de Pitágoras tenía una prueba del teorema».
-
El teorema de Euler para poliedros, que fue anunciado hacia 1635 por René Descartes (ver [2]).
-
La regla de l’Hôpital, que fue descubierto por Johann Bernoulli (ver [2]).
-
El triángulo de Pascal, que ya era conocido por los matemáticos árabes en el siglo XI (ver [2]).
-
La distribución normal o de Gauss, descubierta por Abraham de Moivre (ver [3]).
-
La ley de Benford, descubierta medio siglo antes por Simon Newcomb (ver [4]).
Algunos ejemplos de la ley de Stigler en ciencia
-
La ley de Coulomb y la ley de Ohm, ambas debidas a Henry Cavendish.
-
La posición de Trendelenburg, técnica nombrada anteriormente por médicos como Aulo Cornelio Celso o Guy de Chauliac.
-
El efecto Auger, descubierto por Lise Meitner en 1922.
-
La ley de Hubble, renombrada como ley de Hubble-Lemaître ya que Georges Lemaître la descubrió dos años antes que Edwin Hubble.
-
Y otras muchas que pueden encontrarse en [4].
Nota 1
En 1972, casi de manera simultánea a Merton, el matemático Hubert Kennedy (1931) acuñó el nombre de ley de Boyer en su artículo Who Discovered Boyer’s Law?. Esta ley afirma que:
«Las fórmulas y teoremas matemáticos generalmente no reciben el nombre de sus descubridores originales».
Es prácticamente la ley de ley de Stigler. ¿Y quién es Boyer? Es el historiador de las matemáticas Carl Benjamin Boyer (1906-1976) quien, en su libro A History of Mathematics (1968), daba algún ejemplo de este fenómeno descrito por Kennedy. Tras hablar de las llamadas series de Maclaurin y de cómo otros autores habían hablado antes de ellas, Boyer comentaba en su libro: «Clío, la musa de la historia, ¡es a menudo voluble al asignar nombres a los teoremas!». Por este motivo Boyer forma parte del título de esta entrada.
Nota 2
El efecto Matilda alude a la discriminación sistemática que han sufrido las mujeres en el ámbito de la ciencia. Recibe este nombre por la activista Matilda Joslyn Gage quien fue la primera persona en hacerse eco de este fenómeno.
La socióloga Harriet Zuckermann sufrió este efecto: sus investigaciones fueron cruciales para que Merton reconociera, describiera y definiera el efecto Mateo en The Matthew Effect in Science, sin citar a la científica excepto en algún pie de página. Ya lo decía Mateo: «Porque a todo el que tiene se le dará y le sobrará, pero al que no tiene, se le quitará hasta lo que tiene».
Recomiendo el artículo de Uxune Martinez Mujer, ciencia y discriminación: del efecto Mateo a Matildapara saber más del tema.
Referencias:
[1] Karl Smallwood, Stigler and “his” law of eponymy, Today I found out,17 febrero 2016
[2] Richard H. Williams and Roy D. Mazzagatti, Mathematical Firsts—Who Done It?, Mathematics Teacher 79 (5) (1986) 387-391
[3] Wikipedia, ley de Stigler
[4] List of examples of Stigler’s law
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad
El artículo La ley de Stigler… o de Merton, ¿o quizás de Boyer? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El ethos de la ciencia y las normas de Merton
- La ciencia quizás tenga valores… pero no sabemos cuáles son
- Variaciones artísticas del teorema de Napoleón
Dozena erdi ariketa 2021eko udarako (3): Triangelu koloredunak
Gogoan izan ahalegina bera –bidea bilatzea– badela ariketa. Horrez gain, tontorra (emaitza) lortzen baduzu, poz handiagoa. Ahalegina egin eta emaitza gurekin partekatzera gonbidatzen zaitugu. Ariketaren emaitza –eta jarraitu duzun ebazpidea, nahi baduzu– idatzi iruzkinen atalean (artikuluaren behealdean daukazu) eta irailean emaitza zuzenaren berri emango dizugu.
Hona hemen gure hirugarrenn ariketa: Triangelu koloredunak.Zenbat triangelu egin daitezke hiru erpinak kolore bereko puntuetan hartuta?
———————————————————————————-
Ariketak “Calendrier Mathématique 2021. Un défi quotidien” egutegitik hartuta daude. Astelehenetik ostiralera, egun bakoitzean ariketa bat proposatzen du egutegiak. Ostiralero CNRS blogeko Défis du Calendrier Mathématique atalean aste horretako ariketa bat aurki daiteke.
———————————————————————————-
Utzi zuen erantzuna iruzkinetan!
The post Dozena erdi ariketa 2021eko udarako (3): Triangelu koloredunak appeared first on Zientzia Kaiera.
Después del hierro

A finales del segundo milenio a.e.c. en Asia Menor tuvo lugar una revolución en la metalurgia que condujo a importantes cambios en la distribución del poder y la riqueza, a la adopción de nuevas herramientas por parte de los agricultores y de nuevas armas para los soldados. Esta revolución fue fue el desarrollo de un proceso aparentemente simple: extraer mineral de hierro del suelo y calentarlo a temperaturas tan altas que el hierro purificado se podía trabajar con el yunque y el martillo.
Después de milenios de herramientas y armas de bronce, que eran difíciles de fabricar y, por tanto, caras y destinadas a la aristocracia, el hierro señaló el paso de buena parte del poder al comerciante y al agricultor de clase media del primer milenio a.e.c. La difusión de la alfabetización y la acuñación de moneda fueron otros factores que también contribuyeron a esta redistribución de la influencia y el poder económicos y sociales en detrimento de la antigua aristocracia terrateniente. Y entonces, cada vez más, la filosofía y la ciencia se convirtieron en una actividad en la que otros, además de unos pocos privilegiados, podían participar.
Los primeros usuarios del hierro fueron los hititas del este de Anatolia, que dependían de la experiencia de los armenios para trabajar el hierro. Al parecer, este pueblo había descubierto los medios para calentar el hierro de la misma manera que se calienta el cobre para expulsar las impurezas; el herrero podía entonces martillar el hierro forjado para darle forma. Sin embargo, el hierro forjado no era útil como arma y tenía un uso esencialmente decorativo. Los egipcios, que tomaron prestado el uso del hierro de los hititas, al principio usaando hierro procedente de meteoros, el «hierro del cielo», empleaban hierro forjado.
El acero es un conjunto de aleaciones que contienen fundamentalmente hierro con distintas proporciones de carbono (hasta el 1,7 %) y, en ocasiones, pequeñas cantidades de otros elementos como manganeso, silicio, cromo, molibdeno o níquel. El proceso de convertir el hierro en acero probablemente ocurrió por primera vez hacia el final del segundo milenio a.e.c. en Anatolia. Este nuevo proceso implicaba el uso de la fragua y los fuelles. El carbón se hacía arder en un recinto semicerrado, la fragua, donde se insuflaba oxígeno con los fuelles, hasta que se alcanzaban temperaturas extremas, más de 1.100 grados Celsius. A estas temperaturas el hierro se fundía hasta un punto en el que se eliminaban las impurezas e incorporaba una pequeña proporción de carbono.
Los primeros pueblos que utilizaron armas de hierro con filo de acero —los hititas de Turquía, los dorios que invadieron Grecia y destruyeron la civilización micénica y los pueblos del mar, como los filisteos que se expandieron por el Mediterráneo oriental arrasando y conquistando— no destacaban precisamente por sus avances culturales. Sin embargo, estos pueblos aparentemente primitivos conquistaron pueblos mucho más sofisticados que todavía usaban armas de bronce.
A partir del 1000 a.e.c., en la región mediterránea, los guerreros que podían elegir escogían armas de hierro. Durante el primer milenio a.e.c. todavía se usaron armas de bronce, pero lo hacían los perdedores.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Después del hierro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La clave ecológica en el uso de herramientas en aves
Más de dos décadas de estudio sobre el uso de herramientas en aves apuntan al papel determinante de los factores ecológicos en el desarrollo de esta habilidad.
Hoy sabemos que el uso de herramientas, antiguamente atribuido exclusivamente al ser humano, está presente en multitud de taxones y no es necesariamente un indicativo de una notable capacidad cognitiva. Muchos animales simplemente repiten ciertos mecanismos de manera instintiva, automatizada e invariable.
Un grupo de creciente interés en este ámbito es el de las aves. Se sabe que varias familias de aves, como los córvidos o los loros, tienen una elevada capacidad cognitiva y la evolución les ha hecho más capaces de observar e interaccionar con su entorno de manera flexible e inteligente. Sin embargo, pese a la abundancia de especies dentro de estas familias notables de aves, los casos de uso habitual de herramientas en su entorno natural son escasos.
https://culturacientifica.com/app/uploads/2021/07/Uso-Herramientas-Aves1.movVídeo: Las aves y el uso de herramientas. (Animación: Alberto Molina Serrano)
Los cuervos de Nueva Caledonia (Corvus moneduloides), los cuervos hawaianos (Corvus hawaiiensis) o el pinzón de Darwin carpintero (Camarhynchus pallidus) comparten un factor importante, el entorno. Tanto Nueva Caledonia, Hawaii o las Galápagos (los lugares de origen de las tres especies, respectivamente) son entornos aislados, donde (hasta la llegada del ser humano) los depredadores eran escasos o inexistentes y donde tampoco abundaban las fuentes fáciles de alimento. La escasez de competencia en estos entornos dejaba disponibles ciertos nichos de alimentación de difícil acceso (frutos con pinchos, larvas de insectos escondidas en la corteza de los árboles, etc.). La necesidad de alimentarse, unida a la tranquilidad y el tiempo disponible por no tener que escapar de depredadores, permitió a estas aves explorar, innovar y finalmente, perfeccionar el uso de herramientas para sobrevivir.
Se sabe que, aunque ciertos animales no utilicen herramientas en su hábitat, poseen la capacidad fisiológica y cognitiva para hacerlo. El ejemplo más notable se llamaba «Fígaro», una cacatúa de las Tanimbar (Cacatua goffiniana), especie que en la naturaleza no había sido observada nunca utilizando herramientas, alojada en el Messerli – Research Institute en Viena, que improvisó una herramienta de madera para alcanzar una piedra que había caído fuera de su jaula. El resto de cacatúas del centro aprendieron rápidamente, inicialmente por observación e imitación, pero pronto experimentando y modificando el mecanismo. Otro suceso notable lo protagonizó un ejemplar de la misma especie, esta vez perteneciente a una población invasora establecida en Singapur, que fue observado utilizando ramitas para agujerear un coco y alimentarse de su interior.
El creciente número de estudios y observaciones de estos comportamientos en aves parecen subrayar la importancia de las condiciones ecológicas como condicionantes del uso de herramientas.
Referencias consultadas:
Osuna-Mascaró y Auersperg, (2018). On the brink to tool use? Object combinations during foraging in a feral Goffin’s cockatoo (Cacatua goffiniana) may result in rewarding tool innovations. Animal Behavior and Cognition, 5(2), 229–234. DOI: 10.26451/abc.05.02.05.2018
Autor: Alberto Molina Serrano (@alb_molinas), alumno del Postgrado de Ilustración Científica de la UPV/EHU – curso 2019/20
Artículo original: Sobre el origen del uso de herramientas en aves. Antonio J. Osuna Mascaró, Cuaderno de Cultura Científica, 24 de junio de 2017.
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
El artículo La clave ecológica en el uso de herramientas en aves se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sobre el origen del uso de herramientas en aves
- Las aves de Prometeo
- Tamaño corporal y función renal de aves y mamíferos
Artzaintza uzteak arriskuan jarriko luke gaur egun ezagutzen dugun Idiazabal gazta
UPV/EHUko Lactiker – Animalia Jatorriko Elikagaien Kalitatea eta Segurtasuna ikerketa-taldeak egiten dituen ikerketen artean, nabarmena da artzaintzan oinarritutako Idiazabal gazta ekoizpen-sistemarekikoena. Honek diziplina anitzekoa da. Besteak beste, gaztaren kalitate teknologiko, nutritibo eta sentsorialean zuzenean eragiten duten ekoizpeneko prozesu biokimiko, mikrobiologiko eta teknologikoen karakterizazioan egiten du lan; bai eta higiene- eta osasun-segurtasunean ere, helburu izanik kalitate eta segurtasun handiko produktua lortzeko behar den informazioa helaraztea ekoizpen-sektoreari. Baita ekoizpen-sistemaren gaur egungo ahuleziak artzaintza-sistemak bertan behera uzten ari dela pixkanaka, adibidez
Taldeak 25 urte baino gehiago daramatza arlo horretan lanean, eta Idiazabal jatorri-deiturako gazta-ekoizpenaren alderdi guztiak aztertu ditu. Taldearen beste ekarpen zientifiko nagusietako bat izan da “Idiazabal gaztaren ezaugarri sentsorialak zehaztea, karakterizatzea eta parametrizatzea, berez ezagutzen dugun bezala ezagutzeko”, azaldu du Luis Javier R. Barrónek, Lactiker taldeko ikertzaile nagusiak. Horretarako, UPV/EHUko Zentzumen Analisiaren Laborategiarekin (LASEHU) lankidetzan ari dira. Laborategi hori Idiazabal gaztaren kalitate sentsoriala kontrolatzeko ziurtatuta dago, eta han aztertzen dute “gaztek Idiazabalgo baldintza sentsorialak betetzen dituzten. Desberdintasun sentsorialak daude gazta batzuetatik besteetara, eta horrek adierazten du ekoizleek askotariko usain-, zapore- eta testura-ñabardurekin egiten dutela gazta; eta horri guztiari balio handia ematen dio kontsumitzaileak”, erantsi du.

Taldea Idiazabal gazta egiten duten artisau-gaztandegi txikiekin aritzen da lankidetzan. “Gaztandegi horietan erabakigarria da gaztagilearen zeregina; izan ere, gazta egiteko parametroen kontrola araututa dago, baina ez da modu automatizatuan egiten. Esan daiteke halako gaztandegi txikietan egindako gaztak egile-produktuak direla”, azaldu du UPV/EHUko katedradunak.
Berriki egindako azterlan batean, gazta egiteko baldintzen eta gazuraren propietateen eta lortutako gaztaren propietateen arteko erlazioak ikertu dira, gaztaren errendimendua hobetzeko eta produktuaren kalitateari eusteko helburuarekin. Ikertzailearen arabera, lortutako emaitzak “lagungarri izan daitezke koagulazioko eta gazura kentzeko prozesuetan jarraibide espezifikoak ezartzeko, eta, hala, Idiazabal gazta artisauaren ekoizpen-prozesua hobetzen lagundu dezakete”. Lactikerrek berriki egin duen beste azterlan batek balio izan du aztertzeko zer neurritan eragiten duten ingurumen- edo teknologia-baldintzek haraneko edo mendiko gaztandegietan ekoitzitako ardi-esne gordinezko gazten bereizketa sentsorialean.
Lactiker taldeak, artisau-gaztandegi txikiekin lan egiteaz gain, jatorri-deiturarekin eta ekoizle-elkarteekin ere lan egiten du, hala nola Artzai-Gazta elkartearekin. Ane Aldalur doktoreak egindako doktorego-tesiaren emaitza gisa, gaztandegi txikiei zenbait gomendio ematen dizkien triptiko bat argitaratu eta banatu du taldeak: “Gure ustez, gaztagileentzat lagungarri izango da, fabrikazio-prozesua hobeto kontrola dezaten. Guk gaztagileengandik ikasten dugu, eta haiek gugandik. Haiek dute gazta egiteko esperientzia, eta guk zergatiak eta hobekuntza posibleak bilatzen ditugu, baita arazo batzuk nola konpondu ere”, esan du taldeko ikertzaile nagusiak.

Era berean, Lactiker taldeak zenbait urte daramatza elikagaiak ekoizteko sistemen (bereziki artzaintzan oinarritutakoen) jasangarritasuna ebaluatzeko helburu nagusia duen ikerketa-lerro batean lanean. Beste ikerketa-talde batzuetako lankideekin ari da lan hori egiten. Artzaintzan oinarritzen diren sistemen jasangarritasuna ebaluatzeko moduak bilatzen dituzte; jasangarritasuna ekonomian, ingurumenean, elikagaien kalitatean eta segurtasunean, gizartean, kulturan eta abarretan oinarritzen dena. Ikertu behar dute ea epe ertain edo luzera sistema horiek jasangarriak izango diren bizi dugun mundu globalizatu honetan. Gaztandegi txikiek jasangarriak badira egin ahal izango dute aurrera. Eta hori ere gizarteari helarazi behar zaio. Arazo eta zailtasun ugari daude, baina esanguratsuenetako bat —eta Europako eta Mediterraneoko beste herrialde batzuetako eremu askotan gertatzen ari dena— da artzaintza-sistemak bertan behera uzten ari direla pixkanaka: larratzen diren ardien esnetik ez datorren gazta egiten bada, Idiazabal gaztak gaur egun dituen ezaugarri eta propietateak izateari utziko dio, eta pixkanaka galduko dira artzaintzak landa-eremuko ingurumenari, biodibertsitateari, kulturari eta garapenari eragiten dizkion ondorio positiboak.
Iturria:UPV/EHU prentsa bulegoa: Artzaintza uzteak arriskuan jarriko luke gaur egun ezagutzen dugun Idiazabal gazta
Erreferentzia bibliografikoaAne Aldalur, María Ángeles Bustamante, Jesús Salmerón and Luis Javier R. Barron. (2021). Relationships between cheese-processing conditions and curd and cheese properties to improve the yield of Idiazabal cheese made in small artisan dairies: A multivariate approach. Journal of Dairy Science DOI:10.3168/jds.2020-18926
Gustavo Amores, Francisco José Pérez-Elortondo, Marta Albisu, and Luis Javier R. Barron. (2021). Short communication: To what extent do environmental or technological conditions affect the sensory differentiation of raw ewe milk cheeses produced in valley or mountain farms? Journal of Dairy Science DOI:10.3168/jds.2020-18358
The post Artzaintza uzteak arriskuan jarriko luke gaur egun ezagutzen dugun Idiazabal gazta appeared first on Zientzia Kaiera.
Hormigas que esclavizan hormigas

Las llamamos, con toda propiedad, esclavistas. Las esclavas no son de su misma especie, sino de otra muy próxima desde el punto de vista biológico. Esclavizan a sus parientes genéticos, por así decir. Algunas hormigas esclavistas capturan obreras de la especie a la que esclavizan y las llevan a su colonia para que trabajen para ellas: atienden a sus crías, les ayudan a defenderse, buscan alimento para ellas y mantienen limpias las colonias. Lo más frecuente es que capturen los ejemplares en estados muy tempranos de desarrollo, en forma de larvas o pupas; las llevan a su colonia y, una vez se convierten en hormigas obreras, empiezan a trabajar para sus dueñas. Pero en algunas especies capturan trabajadoras adultas.
La emergencia de la eusocialidad en las hormigas, esto es, el desarrollo de sociedades complejas, con castas de individuos que desempeñan diferentes tareas (trabajo, reproducción, defensa) y que cooperan para mantener una colonia y sacar adelante a la prole, vino acompañado por una multiplicación de los genes que codifican las moléculas quimiorreceptoras, tanto del olor como del sabor; ello da muestra de la gran importancia que tiene la comunicación química en estas especies. Por eso, tiene especial interés el hecho de que las obreras de hormigas esclavistas sean capaces de reproducirse. Podría decirse que han recuperado ese rasgo, lo que se atribuye a la pérdida de la capacidad para percibir y responder a las feromonas de la hormiga reina que inhiben la actividad reproductora.
En un estudio reciente han secuenciado el genoma de ocho especies de hormigas, tres parásitas, sus tres especies parasitadas y dos especies no parasitadas, para averiguar si en esas tres especies parásitas se habían perdido quimiorreceptores. Y lo que han encontrado es que las parásitas tenían la mitad de los receptores del gusto que las otras cinco especies y tres cuartas partes de los del olfato. En otras palabras, en esas especies se ha perdido la capacidad gustativa en un 50% y la olfativa en un 25%. Son capaces, por tanto, de identificar por esas vías muchas menos sustancias que las que identifican las parasitadas y las dos que no son ni parásitas ni parasitadas.
La pérdida de los receptores gustativos se atribuye a que esas especies ya no buscan alimento, porque lo hacen por ellas -y a sus órdenes- las parasitadas y, por lo tanto, no necesitan recibir y decodificar tanta información por esa vía. Y la desaparición de receptores olfativos se atribuye, en parte al menos, a la pérdida o atenuación de la condición eusocial en esas especies. Es perfectamente lógico que, de la misma forma que la eusocialidad vino acompañada por una multiplicación de los quimiorreceptores, la pérdida de parte de estos conlleve igualmente una atenuación de esa condición tan especial.
Muchos de los genes del olfato perdidos por las especies parásitas son comunes a las tres estudiadas. Se trata, por lo tanto, de lo que los biólogos denominamos una convergencia, pues la pérdida de los genes en cuestión se ha producido de forma independiente en esas especies. Y dado que es muy improbable que tales cosas ocurran por casualidad, la consecuencia que se extrae es que se trata de una pérdida ventajosa, una de la que decimos que es de alto valor adaptativo, probablemente porque producirlos y mantenerlos conlleva un coste que no se ve compensado por una ganancia equivalente.
La metáfora resulta sugerente: en las hormigas, la adopción del esclavismo conlleva la atenuación o pérdida de la eusocialidad y de las capacidades sensoriales que la posibilitan. La evolución no sigue ninguna flecha temporal; la historia humana seguramente tampoco.
Fuente:
Jongepier E. et al (2021): Convergent loss of chemoreceptors across independent origins of slave-making in ants. bioRxiv 2021.05.11.443570. doi: 10.1101/2021.05.11.443570
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Hormigas que esclavizan hormigas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El Puente Bizkaia, icono de la era industrial

Bizkaia tuvo un enorme desarrollo económico, tecnológico y social en la segunda mitad del siglo el siglo XIX, y alcanzó su máximo esplendor a finales de ese siglo y a principios del siglo XX. Este desarrollo fue consecuencia de la confluencia de varios factores, entre los que se encontraba la explotación eficiente de los recursos minerales del territorio. Clave en esta explotación estuvo el uso de la ría del Nervión como medio de transporte. El crecimiento en habitantes e instalaciones en sus márgenes llevó a la necesidad de construir sistemas que permitieran pasar personas y mercancías de una margen a la otra. Ahí surge la idea del puente Bizkaia en 1888. El Puente de Bizkaia está reconocido por la UNESCO como Patrimonio Mundial de la Humanidad.
En este vídeo se recogen los hitos más importantes en la construcción del Puente de Bizkaia actual, así como algunas de sus características estructurales. El vídeo forma parte del proyecto «La Ría del Nervión a la vista de las ciencias y las tecnologías».
Edición realizada por César Tomé López
El artículo El Puente Bizkaia, icono de la era industrial se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Por qué hay hierro en Bizkaia?
- La ría de Bilbao como medio de transporte de mineral
- Cuando por Bizkaia corrían rinocerontes