Sistemas respiratorios: transporte de dióxido de carbono
El dióxido de carbono es un producto terminal del metabolismo energético aerobio. Su presencia en los fluidos internos a altas concentraciones altera el pH, por lo que ha de ser eliminado. El CO2 sigue la misma ruta que el O2, aunque en sentido contrario. Pasa de las células a la sangre u otros fluidos internos y de ahí al exterior a través de la pared corporal o del órgano respiratorio.
Sin embargo, el transporte de dióxido de carbono se produce de forma muy diferente a como ocurre el del oxígeno. El CO2 puede hallarse en la sangre (1) en forma disuelta, (2) combinado con proteínas sanguíneas en forma de compuestos carbamino, y (3) combinado químicamente con el agua en forma de ión carbonato o bicarbonato.
Cuando el CO2 se disuelve en disoluciones acuosas experimenta una serie de reacciones:
CO2 + H2O ⇌ H2CO3
H2CO3⇌ H+ + HCO3–
HCO3–⇌ CO32- + H+
En condiciones fisiológicas, el ión carbonato se encuentra en los fluidos de la mayoría de animales en concentraciones muy bajas, por lo que a los efectos que nos interesan aquí podemos limitarnos a la siguiente reacción:
CO2 + H2O ⇌ H+ + HCO3–
La concentración de dióxido de carbono disuelto en una disolución acuosa dependerá, como ocurre con el oxígeno, de su tensión parcial y vendrá determinada por los principios de la solubilidad de los gases. Sin embargo, la concentración de bicarbonato va a depender de la presencia de sustancias tamponadoras (amortiguadoras) del pH.
Aplicando la ley de acción de masas a la ecuación anterior tenemos que [HCO3–] [H+]/[CO2] = K, siendo K una constante.
Dado que [CO2] se mantiene constante, también lo es el producto [CO2] K, por lo que la expresión anterior indica que la concentración del ión bicarbonato ([HCO3–]) dependerá de la concentración de protones ([H+]), de manera que cuanto menor sea esta, mayor será aquella. Por lo tanto, si la concentración de protones se mantiene baja, el bicarbonato podrá alcanzar una concentración relativamente alta. Por esa razón, si en la disolución hay sustancias tamponadoras efectivas, la concentración de protones podrá mantenerse relativamente baja y, en consecuencia, podrá alcanzarse una alta concentración de bicarbonato.
Las reacciones de amortiguación pueden representarse de la siguiente forma: HX ⇌ H+ + X– , donde X– representa a los compuestos o grupos químicos que se combinan con los protones, amortiguando el pH de ese modo. Así, cuando se añaden protones a una solución tamponada, la reacción se desplaza a la izquierda, lo que ayuda a mantener a bajas concentraciones la concentración de H+. Y por otro lado, si se retiran protones de la disolución, la reacción se desplazará hacia la derecha, liberándose aquellos del compuesto HX. Como en el caso anterior, de acuerdo con la ley de acción de masas tenemos que [H+] [X–]/[HX] = K’, siendo K’ otra constante.
Se da la circunstancia de que la efectividad de una reacción amortiguadora es máxima cuando la mitad de los grupos X– están combinados con los H+ y la otra mitad no lo están; en otras palabras, el cambio que sufre el pH al añadir o retirar protones de la disolución es mínimo cuando [HX] = [X–]. Bajo esas condiciones [H+] = K’, por lo que la máxima capacidad tamponadora se produce cuando pH = pK’1. Así pues, si se aplica este principio a una sangre cualquiera, las reacciones de amortiguación relevantes son aquellas cuyos valores de pK’ se encuentran próximos al pH de la sangre.
La sangre de los mamíferos y de la mayor parte de los demás vertebrados es muy eficaz amortiguando el pH porque contiene abundantes grupos tampón, la mayor parte en la hemoglobina. Los grupos con valores adecuados de pK’ son los amino terminales de las proteínas sanguíneas y, sobre todo, los grupos imidazol, que se encuentran allí donde en una estructura proteica haya histidina. Son estos últimos los principales grupos amortiguadores, y son tan efectivos que retiran de la disolución el 99.999% de los protones que se producen. Gracias a ello, la sangre tiene capacidad para captar importantes cantidades de dióxido de carbono, ya que la mayor parte del mismo se encuentra en forma de ión bicarbonato.
También en el caso del CO2, como en el del O2, cabe hablar de curvas de disociación o curvas de equilibrio, aunque la forma y el significado de estas difiere de forma notable de las correspondientes para el oxígeno. Como se ha señalado más arriba, además de la fracción que se combina con el agua para dar iones bicarbonato y protones, la sangre contiene CO2 en forma disuelta y también en forma de compuestos carbamino. A las tensiones parciales de CO2 propias de la sangre arterial y de la sangre venosa, su concentración total (disuelto o en forma de otra especie química) no se aproxima a un valor asintótico máximo como lo hace el O2, sino que mantiene una tendencia creciente.
En las especies cuya sangre experimenta el efecto Bohr, la curva de disociación del CO2 es dependiente del grado de oxigenación de la sangre. A este fenómeno se le denomina efecto Haldane y consiste en una menor afinidad para con el CO2 de la sangre oxigenada que de la desoxigenada. Esto quiere decir que cuando la sangre llega al órgano respiratorio y empieza a captar oxígeno, cede el CO2 con mayor facilidad. Se debe a que la sangre oxigenada tiene menos capacidad amortiguadora que la desoxigenada, razón por la cual, también tiene menos capacidad para contener iones bicarbonato. Como ocurría con la descarga de O2 en los tejidos a causa del efecto Bohr, el efecto Haldane facilita la descarga de CO2 en la sangre que llega a los pulmones, con lo que eleva la capacidad de la sangre para transportarlo.
La conversión de CO2 en bicarbonato en el plasma sanguíneo de los vertebrados es un proceso relativamente lento: se necesita un minuto para alcanzar el equilibrio. Sin embargo, las cosas son muy diferentes en el interior de los eritrocitos, ya que en estos se encuentra la anhidrasa carbónica, enzima que acelera el proceso de forma muy notable.
Así pues, cuando entra el CO2 en la sangre, una pequeña parte se disuelve y otra, mucho más importante, difunde rápidamente al interior de los glóbulos rojos. Allí una fracción se combina con los grupos amino de la hemoglobina para formar carbaminohemoglobina (o carbohemoglobina) y otra fracción se convierte rápidamente en bicarbonato gracias a la acción de la anhidrasa carbónica. Ambos procesos dan lugar a la aparición de protones, que se unen, principalmente, a los grupos imidazol de la misma hemoglobina y de esa forma se amortigua el pH del interior de los glóbulos rojos. El bicarbonato formado en los eritrocitos, por su parte, no se acumula en su interior, ya que es intercambiado por iones cloruro gracias a la acción de una transportador antiporte de membrana. De no producirse tal intercambio, el aumento de su concentración dentro de los glóbulos rojos provocaría una disminución de la velocidad de la reacción catalizada por la anhidrasa carbónica.
Aparte de en los eritrocitos, también hay anhidrasa carbónica en las membranas de las células endoteliales que forman las paredes de los capilares pulmonares y en las membranas de las células musculares esqueléticas en algunos vertebrados. Los protones que resultan de la reacción del CO2 con el agua para dar bicarbonato se combinan con proteínas plasmáticas, lo que permite amortiguar el pH también en el plasma.
Un aspecto muy importante del transporte de CO2 en la sangre es que cada una de las formas en que este se produce contribuye en una medida muy diferente al total. Veamos esto con cierto detalle en la sangre humana2, la más estudiada y, por ello, mejor conocida a estos efectos.
La concentración total de CO2 en la sangre venosa es de 23.21 mmol·l-1 y en la arterial, de 21.53 mmol·l-1, por lo que la descarga total es de 1.68 mmol·l-1. La fracción que se descarga, como puede verse, es muy pequeña, de algo más de un 7% del dióxido de carbono que hay en la sangre venosa.
En el plasma venoso hay 16.99 mmol·l-1, de los que 0.8 se encuentran en forma disuelta y 16.19 en forma de ión bicarbonato; en el plasma arterial, por su parte, la concentración total es de 15.94 mmol·l-1, del que 0.71 se encuentra disuelto y 15.23 como ión bicarbonato. La descarga total es de 1.05 mmol·l-1 (0.09 en forma disuelta y 0.96 en forma de iones bicarbonato), por lo que esta es la principal contribución al transporte de dióxido de carbono, ya que representa el 62.5% de la total. Hay que tener en cuenta, no obstante, que la mayoría de iones bicarbonato se forman en el interior de los eritrocitos por lo que, en última instancia, los glóbulos rojos juegan un papel determinante y muy principal en el proceso.
Los eritrocitos contienen 6.22 mmol·l-1 de CO2 en la sangre venosa y 5.59 mmol·l-1 en la arterial. La descarga de esa fracción es de 0.63 mmol·l-1, un 37.5% del total. Y en lo relativo a las diferentes formas de transporte, se puede precisar que en forma disuelta se transporta una fracción mínima (las concentraciones venosa y arterial son, respectivamente, de 0.39 y 0.34 mmol· l-1), en forma de bicarbonato la descarga es de 0.13 mmol· l-1 (4.41 y 4.28 mmol·l-1 en sangre venosa y arterial, respectivamente), y 0,45 mmol· l-1 en forma de carbohemoglobina, aunque las concentraciones de CO2 en esta forma son realmente bajas (1.42 y 0.97 mmol· l-1). Como puede apreciarse, aunque la concentración de dióxido de carbono en forma de carbaminos es relativamente baja, su contribución al transporte no lo es tanto.
En conclusión cabe señalar que la mayor parte del CO2 se transporta en forma de CO3H–, ya que considerada en conjunto la descarga de esa forma es de 1.09 mmol·l-1, un 65% de la total. En forma de compuestos carbamino se descargan los 0.45 mmol· l-1, un 27% del total. El resto, 0.14 mmol·l-1, se descarga de forma disuelta, pero tan solo representa un 7%. En todo caso, conviene resaltar que el pigmento respiratorio es protagonista principal, tanto de forma directa –por su contribución gracias a la combinación del CO2 con grupos amino y grupos imidazol- como de forma indirecta, por su efecto amortiguador del pH- del transporte del dióxido de carbono.
Fuentes:
Richard W. Hill, Gordon A. Wyse & Margaret Anderson (2004): Animal Physiology. Sinauer Associates, Sunderland.
John D. Jones (1972): Comparative physiology of respiration. Edward Arnold, Edinburgh.
Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.
Notas:
1pK’ = -log K’
2Las cifras no son muy diferentes para el resto de mamíferos, aves y reptiles. Sin embargo, en peces y anfibios no se forman grupos carbamino porque su hemoglobina se encuentra acetilada y eso impide la combinación con el CO2.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Sistemas respiratorios: transporte de dióxido de carbono se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sistemas respiratorios: los pigmentos respiratorios
- Sistemas respiratorios: el pulmón de los mamíferos
- Sistemas respiratorios: la emergencia de un doble sistema circulatorio
¿La teoría de la invariancia es física o metafísica?
La hipótesis que plantea Einstein en sus artículos de 1905 no es solo elegante y simple, es de consecuencias enormes, aunque estas consecuencias fueron tan sorprendentes en su momento como aún lo son hoy cuando se las aborda por primera vez. Tan contraintuitivas son, que todavía hoy son legión los que afirman que Einstein estaba equivocado (el que ello esté relacionado con el antisemitismo de la llamada “física alemana” nazi, es un factor menor, aunque no marginal).
Recopilemos algunos aspectos importantes de lo que hemos visto hasta ahora antes de seguir y veremos que nos falta por tratar algo importantísimo.
Einstein se da cuenta de que existe una inconsistencia en la interpretación habitual de la teoría de Maxwell, y al generalizar las ideas de Galileo sobre el movimiento relativo establece dos postulados generales. De estos dos postulados extrae consecuencias que afectan al estudio de los procedimientos para medir los conceptos más fundamentales de la física (tiempo, longitud, masa, energía); estas consecuencias se extraen de la misma forma en la que se obtienen resultados geométricos a partir de postulados: solo se usa la lógica.
Usando la lógica, pues, llega a la conclusión general de que las mediciones de estas variables pueden ser diferentes para diferentes observadores en movimiento relativo entre sí. Concluye que, mientras que las leyes de la física [1] y la velocidad de la luz son las mismas para todos los observadores, de ahí que Einstein hablase de teoría de la invariancia, los valores de conceptos básicos que entran en las leyes de la física, como el tiempo o la masa, no son los mismos para todos, son relativos con respecto al marco de medición. Es por esto que popularmente se llama teoría de la relatividad; en concreto teoría de la relatividad especial, ya que en esta teoría las velocidades relativas de los observadores deben ser uniformes (sin aceleración), por lo tanto, se aplican únicamente a un caso especial, el de sistemas inerciales.
Pero alguien podría objetar que esto es indiscernible de las discusiones metafísicas sobre el sexo de los ángeles. Cualquiera puede inventar un par de postulados y, siguiendo la lógica, llegar a las conclusiones más absurdas, pero perfectamente consistentes, y afirmar que tiene una teoría revolucionaria [2]. ¿Por qué aceptamos la teoría de Einstein como ciencia? Por tres razones: la primera y principal es por la confirmación experimental; la segunda por su consistencia interna y la tercera porque es coherente con otras teorías bien establecidas.
Esta última frase merece que nos detengamos en ella un poco más, habida cuenta de la cantidad de personas que parecen tener dificultad para distinguir lo que es ciencia de lo que son patrañas evidentes [3], como las “teorías” que niegan a Einstein sin fundamento.
Cada hipótesis científica, ya sea deducida a partir de unos pocos postulados o inducida experimentalmente, debe pasar la prueba rigurosa del examen experimental por varios investigadores, habitualmente de forma reiterada e independiente y a lo largo de un período de tiempo que puede ser largo. De hecho, cuanto más implicaciones tenga la nueva hipótesis, más extensa será la evidencia experimental requerida antes de que pueda ser aceptada.
Debería parecer obvio que, además, la derivación de una nueva hipótesis no puede contener ningún error lógico o violación infundada de leyes y principios aceptados. Y que debe ser compatible con las teorías existentes, o bien debe mostrar convincentemente cómo y por qué estas teorías deben ser revisadas. De hecho, se necesitó más de una década para comprobar la consistencia interna, la coherencia y confirmar experimentalmente las ideas de Einstein.
Lejos de ser “dogmáticos”, como algunos prejuzgan, los científicos siempre son escépticos hasta que la evidencia sea abrumadora. Dicho de otra forma, la falsabilidad bien entendida afirma que toda hipótesis es falsa hasta que se demuestra más allá de toda duda razonable lo contrario [4].
Hemos visto cómo y por qué la física clásica de Newton y Maxwell tuvo que revisarse para su aplicación a fenómenos a altas velocidades relativas. Pero no olvidemos que, a medida que la velocidad relativa disminuye, todos los resultados “extras” de la teoría de la relatividad se desvanecen suavemente hasta dejarnos con la familiar física clásica del mundo cotidiano. La teoría de la relatividad está tan probada que ahora se usa como una herramienta para estudiar teorías relacionadas y para construir nuevos experimentos. La mayoría de estos experimentos involucran partículas subatómicas que se mueven a velocidades extremadamente altas, como los aceleradores de partículas, aunque algunos también son realizables en condiciones más ordinarias. Estos resultados experimentales serán lo próximo que veamos.
Notas:
[1] En puridad, las leyes de la física generalizadas para todos los rangos de energía posibles; las leyes newtonianas son casos particulares de esta generalización.
[2] Esto es mucho más común de lo que se cree. Hay dos grandes tipos de “teorías de esta especie”, la de los revolucionarios incomprendidos (habitualmente de la física), con teorías del todo y grandes soluciones, pero que desarrollan en foros, blogs y webs, y curiosamente nunca en artículos con revisión por pares, y las pseudociencias. Un ejemplo magnífico es la homeoptía: de dos postulados falsos, uno de ellos incompatible con una verdad científica incuestionable, la existencia de los átomos, se desarrolla todo un cuerpo de doctrina que permite que algunos ganen mucho dinero a costa de la salud de otros.
[3] No hablamos aquí del problema de la demarcación, algo mucho más sutil y peliagudo, sino de distinguir lo que es ciencia real de mentiras que deberían ser evidentes.
[4] A este respecto quizás sea interesante leer Provisional y perfectible
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo ¿La teoría de la invariancia es física o metafísica? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La teoría de la invariancia
- Incompletitud y medida en física cuántica (I): la teoría superpositiva
- El principio de relatividad (y 4): la versión de Einstein
Elikagaiei buruzko hausnarketa bat
Prentsan ere sentsazionalismo handia zabaldu zen eta, adibidez, entzun zen minbizi tasa %18 igotzen zela haragi prozesatua janez gero, baina, horrek benetan %5etik %6rako igoera bat dakar eta ez %5etik %23ra —matematiken erabilera okerraren beste adibide bat—. Bestalde, ez zen askotan gogorarazi haragi prozesatuari buruz esandakoa ez zela berria, eta lehenago ere ezaguna zela haragi prozesatuak minbizi tasak handitzen zituela -1990eko hamarkadatik, gutxienez-. Jakina, MOEren erabakiaren aurretik ere dieta aholku gehienetan gomendatzen zen haragi prozesatu asko ez jatea.

1. irudia: Haragi prozesatua minbizi eragile frogatuen taldean sailkatu zuen IARC agentziak 2015ean. (Argazkia: congerdesign – domeinu publikoko irudia. Iturria: Pixabay.com)
MOEren menpekoa den IARC Minbizia Ikertzeko Nazioarteko agentziak esan zuenez, nahiko ebidentzia zeuden haragi prozesatua jatearen eta kolon eta ondesteko minbizia izatearen arteko lotura egiteko, eta horregatik minbizi eragileen 1 taldean sailkatu zituen haragi prozesatuak eta 2A taldean haragi gorria. Esan behar da IARC agentziak 5 talde dituela substantziak sailkatzeko, minbiziari buruz lortutako ebidentzien arabera. 1 taldean minbizia eragiten dutenak sailkatzen dira -edari alkoholdunen kontsumoa, plutonioa, tabakoa, margolari lanbidea, erradiazio ionizatzaileak, eta abar-, 2A taldean kartzinogeno probableak edo animalien kasuan bakarrik frogatu ahal izan dena minbizi eragileak direla -akrilamida, egurraren errekuntzaren gasak, glifosatoa, malaria, ile-apaintzaile lanbidea-, 2B taldean kartzinogeno posibleak edo datu mugatuagoak lortu direnak -B1 aflatoxina, kafea, gasolina, ehungintzan lan egitea-, eta 3 taldean sailkatzen dira nahiko datu ez dagoenean -kafeina, ur oxigenatua, sulfitoak eta abar-. Azkenik, bada 4 taldea delakoa, zeinetan kartzinogenoak ez direnak sailkatzen diren.
Aipagarria eta deigarria da konturatzea laugarren taldean substantzia bakarra –kaprolaktama– sailkatu ahal izan dela, alegia, IARCen arabera substantzia bakarra legoke minbizia eragiten ez duela frogatu ahal izan dena. Izan ere, ia ezinezkoa da frogatzea substantzia bat ez dela toxikoa -izatez, ia guztiak toxikoak dira dosiaren arabera-. Ideia hori Russellen teontziaren analogiaren bidez azal daiteke: Bertrand Russell filosofoak esan zuen Lurraren eta Marteren artean biraka portzelanazko teontzi bat ez dagoela frogatzea ezinezkoa dela. Jakina, ideia bera hartuz, ia ezinezkoa da frogatzea substantzia batek ez duela minbizia eragiten edo ez dela toxikoa.
Kontuak kontu, IARC agentziaren lehen taldean dauden substantzia guztiek minbizia eragiten dutela frogatu da, baina, ez da adierazten zein den izan beharreko esposizioa minbizia agertzeko. Nolabait, tabakoa, plutonioa edo haragi prozesatua talde berean egoteak ez du esan nahi modu berean minbizia eragiten dutenik. Datu batzuk emate aldera, mundu mailan haragiaren kontsumoarekin lotutako minbiziak 34.000-50.000 dira urteko, baina tabakoarekin, alkoholaren kontsumoarekin edo aire-kutsadurarekin lotutakoak 1.000.000, 600.000 eta 200.000 dira, hurrenez hurren. Era berean, edari alkoholdunak aspalditik daude lehen taldean sailkatuta eta ez da eztabaida edo beldur handirik sortzen gizartean.
Substantzia oro toxikoa izan daitekeSubstantzia naturalak sintetikoak baino hobeak eta osasungarriagoak direla pentsatzeko uste okerra oso zabaldua dago. Oro har, argi dago substantzia bat naturala edo sintetikoa izan daitekeela, baina, horrek ez du zer ikusirik toxikotasunarekin. Fruta askok kantitate handitan oso toxikoak diren substantziak dituzte -udareak formaldehidoa, sagarrak amigdalina, kalabazinak kurkubitazina, adibide gutxi batzuk emate aldera-. Esaterako, sagarraren edo melokotoiaren haziak amigdalina dauka eta honek zianuroa askatzen du digestioan zehar hidrolizatzen denean. Noski, kantitate izugarriak beharko lirateke amigdalinaren kausaz heriotza eragiteko. Kalkulu azkar batzuk eginez, sagarrak 600 mg/kg amigdalina du eta amigdalinaren dosi hilgarria -LD50 delakoa- 400-500 mg/kg dira, alegia, 70 kg-ko lagun batek 50 kg sagar hazi jan beharko lituzke bere bizitza arriskuan jartzeko.

2. irudia: Ura ere substantzia toxikoa da eta hilgarria izan daiteke dosi handiak hartzen badira. (Argazkia: congerdesign – domeinu publikoko irudia. Iturria: Pixabay.com)
Melokotoi hazien kasuan ere antzekoak dira kalkuluak. Etxeko gatzaren, azukrearen eta C bitaminaren dosi hilgarriak 750 g, 1,8 kg eta 700 g dira, hurrenez hurren. Ura bera ere toxikoa da eta, LD50 = 90 g/kg dela jakinda, 5-6 litro ur jarraian edatea hilgarria izan daiteke. Badaude ur intoxikazioz hil diren pertsonen kasuak. Hiponatremia kasuetan organismoaren elektrolitoen desoreka gertatzen da eta horrek heriotza eragin dezake. Horrek esan nahi du uraren kontsumoa arriskutsua dela edo ura edateagatik hiltzen ari garela? Bada, ez. Are gutxiago, urari esker bizi gara. Modu berean, elikatu egin behar gara bizitzeko, baina, gauza guztietan bezala, neurrian dago gakoa.
Informazio osagarria:
- Todo lo que necesitas saber acerca del anuncio de la OMS sobre carne y cáncer, gominolasdepetróleo.com
- Carne roja, cáncer y glifosato, J.M. Mulet, sabemos.es
- 10 datos telegráficos sobre cáncer, carne y OMS, J. Revenga, juanrevenga.com
- Fatal water intoxication, D. J. Farrell, L. Bower, Journal of Clinical Pathology, 56(10), 802-804-2003.
—————————————————–
Egileaz: Josu Lopez-Gazpio (@Josu_lg) Kimikan doktorea eta zientzia dibulgatzailea da. Tolosaldeko Atarian Zientziaren Talaia atalean idazten du eta UEUko Kimika sailburua da.
—————————————————–
The post Elikagaiei buruzko hausnarketa bat appeared first on Zientzia Kaiera.
Zelula amen kriobabeste geldoa

1. irudia: Haritz Gurruchaga ikertzaileak kriobabeste geldoa ikertu du. Argazkia: Nuria González.
Zenbait metodo daude zelulak biomaterialetan babesteko eta horietako batean zentratu da ikerketa: kriobabeste geldoan. Laginak aldez aurretik tratatu eta profil zehatz bati jarraiki izozten dira, laginak desizoztu eta gero beren eginkizuna eta ezaugarriak berreskuratu ahal izateko.
Paziente ezberdinetako laginak erabili dira matrize bizia osatzeko eta hiru atal izan ditu ikerketak:
- Lehenik eta behin, Vitoria-Gasteizko Vithas San Jose Ospitaleko Kirurgia Artroskopikoa Unitateak (UCA) optimizatutako matrizea zelula ama mesenkimalak babesteko egokia dela frogatu zen.
- Ikerlanaren bigarren zatiak irtenbide horren osaera hoberena zehaztea zuen xede eta molekula ezberdinak konbinatuz, izoztean zehar babeste propietate bikainak dituzten soluzio ezberdinak lortu dira.
- Azkenik, biosistema babestu ahal izateko konbinaziorik onena zein den zehaztasun osoz jakin ahal izateko, saiakera zehatzagoak egin dira ehunak berreskuratzeko ardura izango duten zelulen funtzionalitatea zehazteko helburuarekin, tenperatura baxuetan gordeta zeuden bitartean beren ezaugarriak galtzen ez zituztela baieztatuz.
Horrekin guztiarekin baieztatu ahal izan denez, posible da zelulen eta beren ostatu den matrizearen ezaugarri onuragarriak babestea. Lan honek ate berria ireki dio zelula ama mesenkimalen babesteari, prozedura berri eta erraz bat proposatuta, bai prozesuen kostua zein konplexutasuna gutxituz.
Zelula ama mesenkimalakZelula heldu eta pluripotenteak (ehun mota ezberdinak sortzeko gai) dira zelula ama mesenkimalak. Morfologia fribroblastoidea dute eta zelula linu ezberdinetan (kondrozito, osteozito eta adipozitoak, besteak beste) bereizteko gaitasuna ere.

2. irudia: Irudiko fibroblastoen morfologia dute zelula ama mesenkimalak.
Asko areagotu da zelula ama mesenkimalen erabilera hainbat izaerako gaixotasunak tratatzeko. Aplikazio horietako bat Osteoartritisaren tratamendua (saiakera klinikoko fasean oraindik) da aplikazio horietako bat, kartilago artikularraren eta bere inguruko ehunaren endekapen geldia dakarren gaixotasuna. Azken ikerketek iradokitzen dutenez, zelula ama mesenkimalek kaltetutako ehuna berreskuratzeko eta handitutako ehunaren inguruko komunikazioa aldatzeko gaitasuna dute, gaixotasunaren ondoriozko mina gutxituz.
Vitoria-Gasteizko Vithas San Jose Ospitaleko UCAk zelula ama mesenkimalak erein eta hezteko oso propietate onuragarriak agertzen dituen matrizea garatu du. Plaketetan aberatsa den plasma, likido sinobiala eta paziente berberaren likido sinobialetik ateratako zelula ama mesenkimalak dira matrizearen osagaiak.
Behin baino gehiago jaso behar dute tratamendua osteoartritisa duten pazienteek eta, frogatu denez, zelula ama mesenkimalek zenbait ezaugarri onuragarri galtzen dituzte gaixoaren adinak gora egin ahala. Zelula ama mesenkimalak daramatzan aldamioa babesteak, beraz, potentzial terapeutiko handia izan dezake etorkizunean paziente bakoitzaren osteoartritisa tratatzeko.
Iturria: UPV/EHUko prentsa bulegoa: Zelula amen kriobabestea.
Erreferentzia: “Cryopreservation of Human Mesenchymal Stem Cells in an Allogeneic Bioscaffold based on Platelet Rich Plasma and Synovial Fluid”. PedrazScientific Reports 7, Article number: 15733 (2017) DOI: 10.1038/s41598-017-16134-6
The post Zelula amen kriobabeste geldoa appeared first on Zientzia Kaiera.
¿En qué se parecen un ratón y una manta raya?

Un ejemplar de “Leucoraja erinacea”, la raya que camina en el fondo del océano
Parece el comienzo de un chiste, ¿verdad? Pero no lo es. Se trata de una pregunta que se han hecho científicos genetistas de la Universidad de Nueva York. ¿En qué se parecen un ratón y un tipo de raya conocida como Leucoraja erinacea?
La primera respuesta que nos viene a la mente es que nada, no se parecen en nada. Uno es un mamífero de sangre caliente, con pelo y bigotes que vive en un laboratorio o como polizón inadvertido en una casa, mientras que el otro es un pez que respira a través de agallas, que repta por el fondo del océano, de un acuario o de la piscina también de un laboratorio.
Y sin embargo, algo tienen en común: la habilidad de caminar, y esto podría cambiar nuestra idea sobre cómo evolucionó esa habilidad en los animales terrestres, un momento considerado como el de cambios adaptativos más radicales en la evolución de los animales terrestres.
Por qué unos nadan y otros caminan
Pero vayamos por partes. Resulta que la capacidad locomotora de la mayoría de los peces se basa en movimientos ondulatorios, mientras que la habilidad de caminar en los animales cuadrúpedos se basa en un patrón locomotor que alterna los lados derecho e izquierdo. Es fácil de entender porque nuestro propio caminar se basa en ese patrón. Ese patrón se corresponde con una huella genética que predispone a los animales a desarrollar esa capacidad.
Siempre se ha considerado que el paso de los movimientos ondulatorios al movimiento alternante derecha-izquierda fue algo lineal y que ocurrió después de que los primeros animales saliesen del océano.
Bien, pues los científicos de la Universidad de Nueva York han descubierto que la Leucoraja erinacea, a diferencia de la mayoría de los peces, posee esa huella genética que le predispone a ese movimiento alternante derecha-izquierda y, según sus conclusiones, esos genes provienen de un ancestro común de las rayas con los primeros tetrápodos y que vivió hace 420 millones de años, mucho antes de que los vertebrados saliesen del mar y caminasen por la tierra.
Es decir, que algunos animales pudieron tener la configuración neurológica necesaria para caminar mucho antes de que saliesen del mar.
Un pez que camina, ¿cómo lo hace?
La investigación comenzó con una pregunta sencilla: ¿cómo ha evolucionado con el tiempo la forma de moverse de distintas especies? El autor del estudio, Jeremy Dasen, profesor asociado del Intituto de Neurociencia de la Universidad de Nueva York, ya había trabajado antes estudiando el movimiento de las serpientes, pero en este caso no sabía por dónde empezar.
Así que hizo lo que haríamos todos: buscar en Google. Buscó vídeos de rayas, y encontró uno en el que una de ellas parecía estar caminando por el fondo del océano. Le pareció muy interesante, y de ahí surgió la primera pregunta: ¿cómo lo hace?
Con ayuda del Laboratorio Biológico Marino de Woods Hole, de la Universidad de Chicago, recogieron unos cuantos ejemplares y comenzaron a observarlos. Comenzaron por lo básico: estas rayas son habitantes del fondo marino que no tienen patas, y por tanto, su caminar no se parece en nada a lo que estamos acostumbrados. Lo que utilizan son unas aletas situadas en la parte anterior de su pelvis, situadas debajo de su gran aleta en forma de rombo, que compone todo el cuerpo y que se ondula cuando nadan.
Normalmente se desplazan nadando, pero cuando comen o quieren moverse más despacio es cuando ponen en marcha ese movimiento aleatorio derecha-izquierda en el que parece, visto desde debajo, que unos diminutos pies impulsan al animal.
Los mecanismos neuronales que nos hacen caminar
Pero a Dasen y su equipo no les interesaba solo la biomecánica del pez, también los genes que controlan los mecanismos neuronales de ese movimiento. Comenzaron estudiando los genes Hox, un grupo de genes con un papel esencial en el desarrollo embrionario y por tanto en que el organismo en cuestión tenga la forma y las partes correctas. Cuando estos genes se silencian o están desordenados, el organismo puede terminar siendo deforme o no salir adelante.

Vistas desde abajo se distinguen las dos aletas pélvicas con las que caminan las rayas
Los científicos analizaron también la transcripción genética del gen FOXP1 que se encuentra en la espina dorsal de los cuadrúpedos y que interviene en la formación de las neuronas motoras que dan pie al movimiento de caminar. Cuando el factor FOXP1 es silenciado en ratones, los animales pierden la habilidad de coordinar los músculos de las piernas y sufren una descoordinación motora severa: no es que no tengan las patas para caminar, es que su cerebro no sabe cómo hacerlo.
Ambos están presentes en las rayas, igual que lo están en los ratones, y se cree que se remontan hasta hace más de 420 millones de años lo cual es sorprendente porque se creía que la habilidad para caminar después de que la vida saliese de los océanos o ocupase firme, y no antes.
“No hay fósiles de neuronas”
“Hay mucha literatura científica sobre la evolución de las extremidades, pero muy poca tiene en cuenta el aspecto neuronal porque es mucho más difícil de estudiar: no hay fósiles de los nervios o las neuronas. Pero hay formas mejores de estudiar la evolución que simplemente mirando estructuras óseas”, explica Dasen a The Smithsonian Magazine.
Efectivamente, otros investigadores han analizado fósiles para aprender más sobre los primeros animales que se arrastraron por la tierra. Uno de ellos fue el Elginerpeton pancheri, uno de los primeros tetrápodos que vivieron fuera del océano hace unos 375 millones de años, o el Acanthostega, otro vertebrado primitivo cuyos fósiles han sido estudiados par aprender sobre el desarrollo de sus extremidades.
Mientras, algunos biólogos han ido uniendo piezas analizando algunos de los peces más extraños que aún viven hoy, la mayoría con líneas ancestrales que se remontan millones de años, como los celacantos, los sarcopterigios o los peces pulmonados (estos también mueven sus aletas pélvicas de forma parecida a caminar).

Los poliptéridos son peces con pulmones además de agallas capaces de caminar cuando se encuentran fuera del agua
Por último, un protagonista en esta búsqueda del eslabón que falta en la cadena de acontecimientos que nos llevó a caminar fuera del agua ha sido el poliptérido, o bichir, una especie de pez africano que tiene pulmones además de agallas y que puede sobrevivir fuera del agua, donde se mueve de forma similar al caminar.
La flexibilidad del sistema nervioso
Ahora, los científicos saben cómo son las rutas neuronales de ese caminar, y lo parecidas que son a las de los animales terrestres, algo que, indican los científicos, es una señal de la flexibilidad del sistema nervioso, de su desarrollo y sus funcionales.
Una flexibilidad que ha sido clave a lo largo de la historia evolutiva de todas las especies: gracias a ese ancestro común que vivió hace 420 millones de años, ahora hay en la Tierra peces que nadan, serpientes que reptan, ratones que caminan y mantas raya que utilizan una combinación única de todos esos movimientos.
Y quizá, ahora que sabemos todo esto, podamos aprender un poco más el bipedismo en nosotros, los humanos.
Referencias:
Heekyung Jung et al (2018) The Ancient Origins of Neural Substrates for Land Walking Cell doi: 10.1016/j.cell.2018.01.013
Lorraine Boissoneault What a walking fish can teach us about human evolution Smithsonian Magazine 08/02/2018Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo ¿En qué se parecen un ratón y una manta raya? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Antes de que el león se hiciese con el trono de rey de la selva
- Adiós al yeti: las desventuras y tribulaciones de un criptozoólogo
- Los enigmas que nos cantan desde el fondo del océano
Asteon zientzia begi-bistan #189
Azken 45 urteotan bidali den espazio-ontzirik handiena eta “ahaltsuena” espazioratu dute aste honetan: SpaceX enpresak diseinatu du eta Falcon Heavy izena jarri diote. Bere potentziari esker, giltzarria bilaka daiteke gizakia Martera bidaltzeko asmoan. Saiakera gaizki irten zitekeela aurreikusten zuten arduradunek, baina ez da horrela gertatu. Arrakastatsua izan da. Ikusi bideoa!
AstronomiaTRAPPIST-1 exoplanetak eguzki-sistemako planeten antzekoak direla baieztatu dute. Iaz jakin zen izar nano gorri eta hotzaren inguruan zazpi planeta zeudela. Orain ezagutzera eman dituzte emaitzak: gehienak arrokatsuak dira eta badute ura. Zehazki, haien masaren % 5 da ura, Lurraren beraren kasuan baino dezente gehiago (ozeanoak gure planetaren masaren % 0,02 baino ez dira).
Carlos Briones astrobiologoa elkarrizketatu dute Berrian. Bere lana Unibertsoan bizia bilatzea da, horretarako Lurrean bizia nola sortu zen ikertzen du. Besteak beste, laborategian egiten duen lanaz mintzatu da: “Diziplina arteko zientzia da gurea. Laborategian bereziki bionanoteknologia erabiltzen dugu, biziaren jatorria argitzeko. Lurrean biziaren lehen pausoak nolakoak izan ziren argitzen saiatzen gara”. Bere lankideekin batera kimikaren eta biologiaren arteko trantsizioa nolakoa izan zen argitzen saiatzen da: “Estruktura horiek nola hasi ziren automuntatzen, ondoren sistema konplexuagoak garatzeko”. Bizia sortzearen auziaz ere mintzo da.
BiologiaZefalopodoek milaka urte daramatzate itsasoetan. Gero arrainak sortu ziren eta gailendu egin zitzaien. Nola gertatu zen hori? Zefalopodoak oso trebeak dira igeri egiten baina igeriketa-modu horrek energia asko kontsumitzen du eta, energiarekin batera, oxigeno asko. Izan ere, zefalopodo batek arrain batek baino lau bider oxigeno gehiago kontsumitu behar du abiadura bera lortzeko. Arrainak gailendu ziren eta ozeanoetako harrapari nagusi bilakatu ziren, besteak beste, garatutako igeri egiteko moduari eta arnas pigmentuaren ezaugarriei esker.
DemografiaJoan den azaroan 7.500 milioi biztanletik gora egin genuen gure planetan. Luze hitz egin da giza populazioak jasan duen gorakadaz. Artikulu honen hasieran, galdera bat: Zenbat gizaki bizi izan ote dira Lurrean historian zehar? Lehenik, abiapuntua argi izan behar da. Autoreak dioen bezala, duela 50.000 urte izango genuke abiapuntua, “uste baita une horretan egin zuela Afrikatik kanpo Homo sapiens espezieak”. Bigarren urrats batean, kalkulatu beharko litzateke zenbat Homo sapiens bizi ziren duela 50.000 urte Lurrean. Hemen ez dago aztarnarik, beraz estimazioak egin behar dira. Hainbat ikertzailek esan dute 5 milioi biztanle zeudela orain 8.000 urte. Hirugarren pausoa, ezarri behar da zein jaiotze tasa egon den hasieratik gaur egun arte. Egindako estimazioen arabera (testuan irakurgai dituzue), inoiz bizirik egon diren gizakien % 6-7 bizi da egun gure planetan.
Fisika eta KimikaLur arraroen bitartez “margotutako” harea erabilita, kodetze sistema eraiki du Danimarkako ikertzaile talde batek. Argi mota berezi baten aurrean jartzen direnean, hondar ale horiek kitzikatuak izaten dira, eta argi kode berezia, ia-ia bakarra, sortzen dute. Artikuluaren autoreak azaltzen du lur arraroek, taula periodikoan, lantanidoen taldea osatzen dutela. Azken urteetan asko erabiltzen ari dira industrian, bereziki elektronikaren alorrean. Teknika berri hau hackeatzea ezinezkoa dela esan dute. Modu berean, kriptografian erabiltzeko aukera dagoela ere proposatu dute. “Patroi edo giltza digital hau erabil daiteke bai faltsutzeen kontrako giltza fisikoa egiaztatzeko edo edozein mezu enkriptatzeko ere”, esan dute ikertzaileek.
GenetikaHeste minberaren sindromea (HMS) gaixotasun gastrointestinalaz mintzatu da Koldo bere blogean. Orain dela gutxi egindako ikerketa bat ezagutzera eman du. Sakarasaren genea aztertu zuten horretarako. Zergatik? Koldok azaltzen digunez, gene honekin lotutako gaixotasun genetikoak (sakarasaren eskasia kongenitoa delakoak) HMS mota baten antzeko sintomak dituelako: “Sakarosa digeritzeko gai ez direnez, hesteetako bakterioek hartzidura egiten dute sakarosarekin, ta horrek tripako mina ta beherakoa sortzen ditu”. Gene horrek sortzen dituen aldaera arraroak izan zituen aztergai eta berretsi dute gene honen eta HMS arteko lotura badagoela.
Asko ikertzen diren bi geneen adibideak ekarri dizkigu Koldok. MTHFR (metilenetetrahydrofolate) eta ESR1 dira horiek. Lehenengoa 1. kromosoman kokatzen da eta izenak honakoa esan nahi du: metionina aminoazidoaren (aminoazidoak proteinen “piezak” dira) ekoizpenean parte hartzen duela. Gaixotasun baskularretan, nerbio-sistema zentraleko garapenean, koloneko minbizian eta leuzemia akutuan eragin dezake. Bere espresioa ehun guztietan gertatzen da. 20 generekin elkarrekintzak ditu eta 18 prozesu biologikoetan parte hartzen du. Bigarren genea, ESR1 delakoa, 6. kromosoman kokatzen da eta estrogeno hormonaren hartzailea da. Sexu-garapenean ezinbesteko funtzioa du eta bular eta endometrioko minbizietan, migrainan eta osteoporosian eragina du. 954 generekin elkarrekintzak ditu eta 48 prozesu biologikoetan parte hartzen du. Gene hau hizpide izanda, Koldok, orobat, hartzaileei buruz ere hitz egin digu. Ez galdu!
GeologiaArantza Aranburu geologoari elkarrizketa egin diote, aurkeztu duen ‘Lurraren Bidean’ dokumentalaren harira. Geologia gizarteratu nahian, Euskal Herriko historiaren 300 milioi urte bildu dituzte. Ikus-entzunezko pieza honetan, Aranburuk esan duenez, “Euskal Herriko geologiaren bi pasarte kontatu ditugu 50 minutuan. Ikusten diren ebidentzietatik abiatu eta interpretazio bat eman diegu, metodo zientifikoaren bidez”.
IngeniaritzaGaur egungo eredu energetikoa energia ez berriztagarrietan oinarritzen da. Baina eredu energetikoen aldaketa egin behar dela bistan da, energia berriztagarrien erabilera sustatuz. Espainiako zein Europako hainbat legek energia berriztagarrien erabilera sustatzen dute. Espainiaren kasuan, esaterako, ur bero sanitarioko (UBS) eskaria asetzeko eguzki energia termikoko kontribuzio minimo bat egin behar dela azaltzen da. Urtaro arteko biltegiratze termikoko sistema (STES: Seasonal Thermal Energy Storage) kalefakzioko eta UBSko beharrak asetzeko erabili ohi da. Eguzki energia termikoa erabiltzen duen sistema da, non udako hilabeteetan, eguzki energia termikoa biltegiratzen den, ondoren, neguko hilabeteetan erabiltzeko. Europako energiaren kontsumo osoaren %40 eraikinek eragiten dute. Espainiaren kasuan, berokuntza %50 da, eta UBSa, berriz, %27. Proiektu honen bitartez, Espainia mailan Urtaroko biltegiratze termikoko sistemen (STES) bideragarritasun ekonomiko zein energetikoa aztertu da.
MedikuntzaUPV/EHUko ikerketa batean jakinarazi dute mingarriagoa dela odola ateratzea zainean kateter bat jartzea baino. Guztira, zaineko 780 kateter jarri eta arteriako 101 odol lagin atera dira oxigeno eta karbono dioxido mailak eta bikarbonato kontzentrazioa neurtzeko (gasonometria). Numeric Pain Rating Scale (NRS-11) izeneko eskala baliatuta neurtu da mina: 0tik 10era bitarteko balioa ematen dio norberak hautemandako minari; 3tik gorako mina ez litzateke onartu behar. Zainean kateterra jartzeak batez beste 2,8ko puntuazioa izan zuen eta gasometriak 3,6. Horretaz gain, ziztatzen den lekuaren (eskumuturra/ukondoko tolestura edo kubitu aurreko hobia) arabera aldeak ikusi dira. Mingarriagoa da gasometria arteria humerala kubitu aurreko hobiaren parean ziztatzean arteria erradiala eskumuturrean ziztatzen denean baino.
Minbizia izateko arriskua adinarekin handitzen da. Ikusi dute mutazioen hipotesiak baino hobeto azaltzen duela immunitate sistemaren ahultzeak zahartzean minbizi gehiago izatea. Immunitate-sistemaren zahartzearen arrazoi nagusietako bat timoa txikitzea da. Timoa txikiagoa egiten den heinean T zelula gutxiago sortzen dira, eta tumoreak sortzea galarazteko gaitasuna txikitu egiten da.
———————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
———————————————————————–
Egileaz: Uxue Razkin Deiako kazetaria da.
———————————————————————–
The post Asteon zientzia begi-bistan #189 appeared first on Zientzia Kaiera.
Ez da pertzepzio bat
Arlo horietan lan egiten duten emakume guztien artean, okerrago tratatuak izan direla adierazteko probabilitatea handiagoa da hiru emakume taldetan: lankide gehienak gizonak diren inguruneetan lan egiten dutenak, batetik; ordenagailuekin lotutako lanak egiten dituztenak, bestetik; eta graduondoko ikasketak dituztenak, bestetik.
Azterlanak, gainera, azaltzen du gizonak eta emakumeak nola dauden banatuta STEM kategorian sailkatutako 74 lanbideetan: emakumeen aldeko desoreka dago osasunaren arloan (% 75 emakumeak), eta gizonen aldekoa fisikan (% 39 emakumeak), informatikan eta ordenagailuetan (% 25) eta ingeniaritzan (% 14). Nolabaiteko oreka dago matematikan (% 47) eta bizitzaren zientzietan (% 48); oro har, lanpostuen % 50 betetzen dituzte emakumeek. Datu hauek eta aurrekoak Estatu Batuetakoak dira, baina ondorio nagusiak baliozkoak izan daitezke mendebaldeko herrialde guztietarako.
Soilik ikerketaren eta akademiaren munduari erreparatuz gero, emakume ikertzaileak mendebaldeko herrialde guztietako (Mendebaldeko Europa eta Ipar Amerika) ikertzaile guztien % 32 dira; Espainian, dena dela, % 39ra iristen dira. Gure ingurunean, graduondoko ikasketetako emakumeen eta doktoregoa bukatzen dutenen ehunekoa gizonena baino zertxobait handiagoa da, eta, kasu batzuetan, UPV/EHUn gertatzen den bezala, STEM diziplinetan emakume gehiago sartzen dira doktoregora (% 58) gizonak baino (% 42). Alabaina, zenbait ikerlanek erakutsi duten moduan, mailaz maila gora egiten den heinean eta, batik bat, ardura, autoritate eta errekonozimendu handieneko mailetan, emakumeen proportzioek behea jotzen dute % 10 eta % 25 artera iritsi arte, instantziaren eta sektorearen arabera. CSICek, MICINNek eta Europako Batzordeak (She Figures 2015) horren inguruan egindako txostenetan informazio ugari eta zehatza ematen da.
Txosten horietan adierazten diren joerak ulertzeko, ikusi besterik ez dago zenbat emakumeri ematen zaizkien sari gorenak euren diziplinetan, eta, bereziki, zenbat emakumeri eman zaien Nobel saria. Sortu zirenetik, Nobel sarien % 3 baino ez zaizkie eman emakumeei. Ehuneko txiki hori arrazoitzeko, esan ohi da sariok sortu zirenetik emakume oso gutxi aritu direla zientzia ikerketaren arloan. Zalantzarik gabe, jarduera bat egiten duten biztanle segmentu batean zenbat eta kide gutxiago izan kolektibo batekoak, orduan eta kide gutxiago iritsiko dira maila gorenetara. Baina, azken hamarkadari begiratuz gero, emakumeei sarien % 6,5 eman zaizkie. Egia da saritzen diren merituak hainbat hamarkada lehenagokoak izan daitezkeela, baina benetan zalantzagarria da XX. mendearen azken laurdenean zientziaren maila gorenean aritu ziren guztien % 6,5 soilik izatea emakumeak. Eta horrela izan balitz, desoreka hori, neurri handi batean, beste desoreka batzuen ondorio izango litzateke: gizonek eta emakumeek zientzia karrera bat maila gorenean egiteko bide ematen duten baliabide eta posizioak eskuratzeko dituzten aukera desberdinen ondorio, hain zuzen [3].
Emakumeek karrera zientifiko eta profesionaletako maila goreneko posizioetan egoteko dituzten mugak bidegabeak dira izatez, eta, gainera, bi ondorio kaltegarri dituzte. Alde batetik, gaitasun handieneko emakumeek guztien ongiari egin diezaioketen ekarpenaz gabetzen dute zientzia sistema eta oro har gizartea. Bestetik, estereotipoak are gehiago elikatzen dituzte, lanbide zientifiko eta teknologikoak emakumeentzat desegokiak balira bezala erakusten baitituzte, eta estereotipo horiek ondorio are kaltegarriagoak izan ditzakete (bukatzen ez den soka).
Euskal Herriko Unibertsitateak konpromisoa du gizon eta emakumeek eskubide eta aukera berberak izango dituzten gizarte bat lortzeko. UPV/EHUko Kultura Zientifikoko Katedrak ere konpromiso horixe bera du, eta helburutzat hartu du, betiere bere ahalbide apalen barruan, egoera hori aldatzen laguntzea. Horregatik, 2014ko maiatzaren 8az geroztik Mujeres con ciencia argitaratzen du.
Gaur, baina, otsailaren 11 honetan, ez dugu ahaztu nahi izan Nazio Batuek sustatzen duten Zientziaren arloko Emakume eta Neskatoen Nazioarteko Eguna. Helburu horrekin, “Ez da pertzepzio bat” egin dugu, testu honekin batera doan bideoa, zeinaren bidez salaketa egin nahi baitugu eta esku hartzeko eta batik bat lan egiteko deia zabaldu nahi baitugu. Hori dela eta, UPV/EHUko Kultura Zientifikoko Katedrarentzat, zientziaren arloko emakume eta neskatoen eguna izango da bai bihar, bai etzi, bai hurrengo egunetan.
“Ez da pertzepzio bat“ ekoizpena Jose A. Pérez Ledok zuzendu du. Euskal Herriko Unibertsitatean grabatu da bertako bost zientzialari eta ikertzaileren parte-hartzeari esker:
- Itziar Alkorta, biokimikaria.
- Arantza Aranburu, geologoa.
- Gotzone Barandika, kimikaria.
- Txelo Ruiz, informatika-ingeniaria.
- Ana Zubiaga, genetikaria.
Oharrak:
[1] Pew Research Center Estatu Batuetako think tank prestigiotsua da, joera sozial eta demografikoak ikertzen espezializatua.
[2] Lanaren emaitzak joan den urtarrilaren 9an argitaratu ziren, baina landa lana 2017ko udan egin zen, hau da, hainbat sektore profesionaletako gizon entzutetsuen kontra sexu jazarpenagatik jarri ziren salaketen olatua sortu baino lehenago.
[3] Aipaturiko desoreken adibide argigarri bat da Jennifer eta Johnen kasua.
———————————————————————————-
Egileaz: Juan Ignacio Pérez Iglesias (@Uhandrea) UPV/EHUko Fisiologiako katedraduna da eta Kultura Zientifikoko Katedraren arduraduna.
———————————————————————————
The post Ez da pertzepzio bat appeared first on Zientzia Kaiera.
No es una percepción
De acuerdo con las conclusiones de un estudio recién publicado por el Pew Research Center [1], el lugar de trabajo de las mujeres que desempeñan profesiones relacionadas con ciencia, tecnología, ingeniería o matemáticas (agrupadas bajo el acrónimo STEM) es un entorno diferente, en ocasiones más hostil, que el de sus compañeros masculinos. Perciben con más frecuencia discriminación y acoso sexual [2], y piensan que el ser mujer representa más una desventaja que una ventaja para el éxito de sus carreras.
Entre todas las que trabajan en estas áreas, la probabilidad de que declaren haber sido tratadas peor es mayor en tres grupos de mujeres: las que trabajan en entornos en los que la mayoría de compañeros son hombres, las que trabajan en tareas relacionadas con ordenadores y las que tienen estudios de posgrado.
El estudio aporta información adicional acerca de la distribución de hombres y mujeres en las 74 ocupaciones clasificadas dentro de la categoría STEM, con un desequilibrio a favor de las mujeres en el campo de la salud (75% mujeres) y a favor de los hombres en física (39% mujeres), informática y ordenadores (25%) e ingeniería (14%). Hay un cierto equilibrio en matemáticas (47%) y ciencias de la vida (48%); en conjunto, el 50% de los puestos de trabajo está ocupado por mujeres. Estos y los anteriores datos corresponden a los Estados Unidos aunque lo más probable es que sus principales conclusiones sean válidas para el conjunto de países occidentales.
Si nos limitamos al mundo de la investigación y la academia, las investigadoras representan el 32 % del total en los países occidentales (Europa Occidental y Norteamérica), aunque en España ese porcentaje llega al 39 %. En nuestro entorno el porcentaje de mujeres en los estudios de grado y entre quienes completan el doctorado es algo superior al de hombres, y en algunos casos, como ocurre en la UPV/EHU, acceden al doctorado más mujeres (58%) que hombres (42%) en disciplinas STEM. Sin embargo, tal y como han mostrado diversos estudios, conforme se asciende en el escalafón y, sobre todo, en los niveles de máxima responsabilidad, autoridad y reconocimiento, las proporciones de mujeres se desploman hasta valores de entre el 10% y el 25%, dependiendo de la instancia y sector de que se trate. Los informes al respecto del CSIC, MICINN y Comisión Europea (She Figures 2015) aportan abundante y pormenorizada información.
Las tendencias que apuntan esos informes tienen su reflejo más depurado en la proporción de mujeres a las que se conceden los máximos galardones en sus respectivas disciplinas y, muy en especial, a las que se ha concedido el premio Nobel. Desde su creación, solo el 3% de estos premios ha sido otorgado a mujeres. Suele argumentarse, para justificar ese bajo porcentaje, que refleja la presencia de las mujeres en el mundo de la investigación científica desde que existen esos galardones. Es indudable que cuanto menos son los miembros de un colectivo a segmento de la población que desempeñan una actividad, menos son quienes alcanzan los niveles más altos. Pero si nos fijamos en la última década, se han concedido a mujeres el 6,5 % de los galardones. Y si bien es cierto que los méritos que se reconocen pueden datar de décadas atrás, es más que dudoso que las mujeres solo hayan representado el 6,5 % de quienes se dedicaron a la ciencia al más alto nivel durante el último cuarto del siglo XX. Y de haber sido así, tal desequilibrio sería, en buena medida, consecuencia de otros desequilibrios relacionados con las diferentes oportunidades de hombres y mujeres para acceder a los recursos y las posiciones que facultan para desempeñar una carrera científica al más alto nivel [3].
Los límites a la presencia de las mujeres en las posiciones de más alto rango en las carreras científica y profesional son, de suyo, injustos y tienen, además, dos consecuencias perniciosas. Por un lado, privan al sistema científico y a la sociedad en general de la aportación de las mujeres más capacitadas al bien común. Y por la otra, contribuyen a alimentar los estereotipos que muestran a las profesiones científicas y tecnológicas como inadecuadas o impropias de las mujeres, con las consecuencias amplificadoras que tales estereotipos tienen (el círculo vicioso).
La Universidad del País Vasco está comprometida con el objetivo de una sociedad en la que hombres y mujeres tengan los mismos derechos y gocen de las mismas oportunidades. La Cátedra de Cultura Científica de la UPV/EHU comparte ese compromiso y se ha propuesto, en la medida de sus modestas posibilidades, contribuir a cambiar ese estado de cosas. Por esa razón publica desde el 8 de mayo de 2014 Mujeres con ciencia.
Pero hoy, 11 de Febrero, no hemos querido quedar al margen de la celebración internacional, promovida por Naciones Unidas del Día Internacional de la Mujer y la Niña en la Ciencia. Con ese propósito hemos producido “No es una percepción“, el vídeo que acompaña este texto. Quiere ser un gesto de denuncia y, en consecuencia, una llamada a la acción y, sobre todo, al trabajo. Por eso, para la Cátedra de Cultura Científica de la UPV/EHU mañana, como ayer, también será día de la mujer y la niña en la ciencia.
“No es una percepción” es una producción dirigida por Jose A. Pérez Ledo y grabada en la Universidad del País Vasco gracias a la colaboración de cinco científicas e investigadoras de la propia universidad:
- Itziar Alkorta, bioquímica.
- Arantza Aranburu, geóloga.
- Gotzone Barandika, química.
- Txelo Ruiz, ingeniera informática.
- Ana Zubiaga, genetista.
Notas:
[1] Pew Research Center es un prestigioso think tank estadounidense especializado en el estudio de tendencias sociales y demográficas.
[2] Aunque los resultados del trabajo se publicaron el pasado 9 de enero, el trabajo de campo se realizó en el verano de 2017, antes de que se produjese la ola de denuncias por acoso sexual contra personajes masculinos prominentes de diferentes sectores profesionales.
[3] El caso de Jennifer y John es un ejemplo ilustrativo de los desequilibrios mencionados.
—————————————————————–
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
El artículo No es una percepción se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Presentación del estudio “Percepción social de la ciencia y la tecnología en el País Vasco”
- Hoy es el día de la mujer y la niña en la ciencia, todos lo son
- La percepción del propio peso es peor en las chicas que en los chicos
Naukas Bilbao 2017 – Raúl Gay: Todo sobre mi órtesis
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Raúl Gay habla de discapacidad desde una perspectiva muy diferente a la habitual: llamando a las cosas por su nombre. Posiblemente, una de las charlas más memorables de esta edición de Naukas Bilbao.
Raúl Gay: Todo sobre mi órtesisEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Raúl Gay: Todo sobre mi órtesis se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
- Naukas Bilbao 2017 – Mónica Lalanda: Una muerte de cómic
- Naukas Bilbao 2017 – Diana González: Identidad digital y robots
Ezjakintasunaren kartografia #202
Minbizi mota jakin bati erasotzeko moduak ezusteko tokietan egon daitezke, D bitaminaren errezeptoreetan, adibidez. NuRCaMein-en Vitamin D receptor, a powerful weapon against colorectal cancer.
Tesla espaziora bidaltzeagatik eta Space X programagatik hain entzutetsu egin den Elon Musk-en beste megaproiektu bati arreta jartzea ideia ona da. Iván Rivera eta The limits of Hyperloop.
Molekula baten egitura intimoa ezagutzea ahalbidetzen duten teknikak gero eta sofistikatuagoak eta eskuragarriagoak dira laborategi normaletan erabiltzeko (orden baten barruan). DIPC Submolecular resolution using inelastic electron tunnelling spectroscopy at 5 K artikuluan.
–—–
Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.
The post Ezjakintasunaren kartografia #202 appeared first on Zientzia Kaiera.
Traducción automática neuronal sin supervisión
La mayoría de los sistemas de aprendizaje automático requieren supervisión humana, y la traducción automática no es una excepción: el ordenador utiliza millones de traducciones hechas por personas para extraer patrones y, de esta forma, aprender a traducir cualquier texto. Este método funciona bien con pares de idiomas como el inglés y el francés, pues existen muchas traducciones entre ambos. Sin embargo, no es tan efectivo para la gran mayoría de pares de idiomas con recursos limitados, como es el caso del alemán-ruso o el euskera-inglés, por ejemplo.
En este contexto, Mikel Artetxe, Eneko Agirre y Gorka Labaka, investigadores del grupo IXA de la Facultad de Informática de la UPV/EHU, han desarrollado un método de traducción automática basado en el aprendizaje sin supervisión, es decir, sin necesidad de diccionarios o traducciones humanas.
“Imagina que le das a una persona una gran cantidad de libros escritos en chino y otros tantos, distintos, en árabe, con el objetivo de que aprenda a traducir del chino al árabe. A priori parece una tarea imposible para un ser humano. Pero nosotros hemos demostrado que un ordenador es capaz de hacerlo”, afirma Mikel Artetxe, que está realizando su tesis doctoral sobre el procesamiento del lenguaje natural y el aprendizaje automático.
Este nuevo método que proponen los investigadores de la UPV/EHU supone un gran avance en el campo de la traducción automática, ya que abre una nueva línea de trabajo que muestra que las redes neuronales, algoritmos informáticos que se inspiran en el cerebro humano, pueden aprender a traducir sin necesidad de traducciones preexistentes.
Se da la casualidad que otro estudio, desarrollado por un equipo de investigadores de Facebook y la Universidad de la Sorbona de París, ha propuesto un método similar. “Es sorprendente -subraya Artetxe- que nuestros métodos sean tan parecidos. Pero al mismo tiempo es positivo, pues significa que esta nueva aproximación va por el buen camino”.
Los dos estudios, de los que se ha hecho eco la revista científica Science en su sección digital de noticias, fueron publicados en el repositorio virtual arXiv con un día de diferencia, y serán presentados en uno de los congresos más relevantes del área, el sexto encuentro internacional sobre el aprendizaje de representaciones (International Conference on Learning Representations – ICLR), que se celebrará en el mes de abril en Vancouver, Canadá.
En los únicos resultados comparables entre ambos estudios, el método del grupo IXA de la UPV/EHU obtuvo resultados ligeramente superiores, con una puntuación BLEU del 15% entre el francés y el inglés. A modo de comparativa, la máxima puntuación la obtienen métodos supervisados como Google Translate con cerca del 40%, si bien una persona supera el 50%. “Estamos en los inicios -aclara Mikel Artetxe- por lo que no sabemos hasta dónde puede llegar esta nueva línea de investigación”.
Referencia:
Mikel Artetxe, Gorka Labaka, Eneko Agirre, Kyunghyun Cho (2017) Unsupervised Neural Machine Translation arXiv:1710.11041
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Traducción automática neuronal sin supervisión se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Buscando la traducción automática perfecta
- Chatbots de traducción automática profunda
- La hiperactividad neuronal impide que las microglías realicen su trabajo
Nacido para ser autista

Mary Temple Grandin
En los años sesenta, Leo Kanner (uno de los dos primeros descubridores del autismo) defendía su teoría de las “madres nevera/refrigerador”. En ella argumentaba que el autismo de los hijos era consecuencia de la falta de contacto materno adecuado: afirmaba que estas madres de hijos autistas eran distantes, poco afectivas con sus hijos y llegó incluso a decir que esas mujeres se habían “descongelado” lo justo para dar a luz a un hijo. Según Kanner, si una mujer tenía un hijo autista era porque ella había hecho algo mal. Esta idea falsa que directamente culpabilizaba a las madres tuvo un importante calado e incluso hoy en día es posible encontrar personas que argumentan que el origen de los trastornos del espectro autista (TDA) se deben a la educación, traumas, etc. Lo cual significa que hay gente que cree que los TDA son algo adquirido. Mientras que el enfoque opuesto es pensar que los TDA son trastornos del desarrollo: es decir, que su origen está en alteraciones internas producidas durante el propio desarrollo del individuo.
Antes de ver cuál de estos dos planteamientos es el correcto, creo que es importante aclarar qué es exactamente el autismo. Lo primero que debemos saber es que no existe “el autismo” sino los trastornos del espectro autista (TDA), dentro de los cuales hay una gran diversidad. Esto ya se ve en los dos primeros estudios donde se documentan estos trastornos: el trabajo de Leo Kanner (1943) describe niños que mayoritariamente tienen muchas dificultades para hablar y discapacidad intelectual, mientras que en el estudio de Hans Asperger (1944) los niños tienen un uso preciso del lenguaje y no presentan discapacidad intelectual. Hablo de niños porque los TDA afectan principalmente a varones en una proporción que va desde 4 a 1, hasta 8 niños por cada niña según el tipo de TDA. Independientemente del género, algunas de las características principales de los trastornos del espectro autista son problemas en el uso del lenguaje o habilidades sociales. Además, junto con el propio trastorno los pacientes suelen padecer algún tipo de discapacidad intelectual en más de la mitad de los casos o epilepsia (alrededor del 30% de los casos); entre otros problemas.
La primera pista sobre el origen de estos trastornos la tenemos en el incremento de los casos en las últimas décadas, que ahora se sitúa en cerca del 1% de la población y es un porcentaje superior al documentado con anterioridad. Esta subida se debe principalmente a tres motivos: el primero es una mejora de las técnicas diagnósticas que permiten detectar más casos, el segundo es un cambio en lo que entendemos por TDA hacia una definición clínica más amplia que recoge casos que antes no se consideraban TDA, y el tercer motivo es un incremento de la edad a la que las parejas conciben hijos. Aquí está la pista. Muchos estudios están documentando que cuanto más mayores son los progenitores a la hora de concebir un hijo (y en muchos de ellos se señala que es especialmente importante la edad del padre), más probable es que su descendencia tenga un TDA. ¿Por qué? Porque conforme envejecemos nuestra capacidad de generar células reproductoras es peor y los genes que trasmitimos a través de ellas contienen más fallos. Esto indica que los problemas genéticos tienen un papel importante en el desarrollo del TDA, y eso es algo que también se ve si uno estudia árboles genealógicos o trabajos donde se ha documentado casos de gemelos. En ellos se ha visto que si uno de ellos desarrolla un TDA, en el 60-90% de los casos el otro hermano también desarrollará un TDA.
Que la genética tenga un factor decisivo en la aparición de TDA no es suficiente para definirlo como un trastorno que se produce durante el desarrollo del organismo: para ello es esencial ver cuándo aparece el TDA. Los seres humanos nacemos extremadamente poco desarrollados, siendo además el cerebro el tejido más inmaduro y tarda unas dos décadas en acabar de formarse. Trastornos neurológicos que se manifiesten dentro de este espacio de tiempo pueden deberse en parte a anomalías del desarrollo, y cuanto más pronto aparezcan pues es más probable que el desarrollo nervioso esté implicado en su aparición. En el caso de los TDA, los diagnósticos tempranos se sitúan entorno a los dos/tres años de edad. Lo cual ya es muy temprano pero es que además, en estudios con bebés de seis meses ha sido posible analizar el funcionamiento de sus redes neuronales a los seis, doce y veinticuatro meses; encontrándose que aquellos pequeños que a los veinticuatro meses eran diagnosticados con un TDA, a los seis meses ya presentaban alteraciones en el funcionamiento de sus redes neuronales. Y además, se ha hallado una correlación entre la severidad de estas anomalías a los seis meses y la gravedad de los síntomas a los veinticuatro meses.
En resumen, todo esto nos dice que los TDA son intrínsecos a la propia formación del sistema nervioso del paciente y por lo tanto es parte de ellos mismos. No es algo que se adquiera después de nacer sino que se manifiesta después de nacer. Se nace siendo autista. Esto es importante por dos aspectos: en primer lugar para no culpar al entorno, la familia, el calendario de las vacunas infantiles, etc. de los casos que aparezcan. Y en segundo lugar es vital para el tratamiento: actualmente la única posibilidad para intentar mitigar los síntomas del TDA es diagnosticar y tratar a los pacientes cuanto antes, porque los procesos del desarrollo son mayoritariamente irreversibles pero durante las fases iniciales a veces hay un cierto margen para dirigirlos parcialmente en otra dirección.
Este post ha sido realizado por Pablo Barrecheguren (@pjbarrecheguren) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
Referencias:
- Constantino, J. N., & Marrus, N. (2017). The Early Origins of Autism. Child and Adolescent Psychiatric Clinics of North America, 26(3), 555–570.
- John D. Lewis*, Alan C. Evans, John R. Pruett Jr, Kelly N. Botteron, Robert C. McKinstry, Lonnie Zwaigenbaum, Annette Estes, Louis Collins, Penelope Kostopoulos, Guido Gerig, Stephen Dager, Sarah Paterson, Robert T. Schultz, Martin Styner, Heather Hazlett, and Joseph Piven, for the IBIS network. (2017). The emergence of network inefficiencies in infants with autism spectrum disorder. Biol Psychiatry. 2017 August 01; 82(3): 176–185.
- Principles of Neural Science, Fifth Edition (2012). Editorial McGraw-Hill Education.
- Swaab D. We are our brains (2014). Penguin Books.
El artículo Nacido para ser autista se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El universo recién nacido
- Luminoterapia para el cambio de estación
- ¿Cuántos animales se usan en España para experimentación?
Ainhoa Plaza-Zabala: “Glia zelulak ezinbestekoak dira giza garunaren funtzionamendurako” #Zientzialari (88)
Neurona bakoitzeko hamar glia zelula daudela kalkulatzen da. Zelula mota hauek ezinbestekoak dira neuronen eta giza garunaren funtzionamendu egokirako. Izan ere, neuronak ezingo lirateke bizi glia zelulek ematen dizkieten baliabiderik gabe.
Azken hamarkadetan egindako ikerketek glia zelulak neuronen euskarri fisiko bat baino gehiago direla aditzera eman dute. Neuronekin batera garuna osatzen duten zelula hauek propietate eta funtzio bereizgarriak dituzte. Besteak beste, glia zelulek neuronen ingurumenaren konposizioa kontrolatzen dute, baliabide energetikoak ematen dizkiete neuronei eta azken hauen arteko komunikazioa kontrolatzen dute.
Baina, zein motatako glia zelulak daude eta zein da bakoitzaren funtzioa? Zein ondorio ekar ditzake glia zelulen funtzionamendu txarrak? Galdera hauei erantzun bat emateko Achucarro Basque Center for Neuroscience zentroan ikertzailea den Ainhoa Plaza-Zabalarekin izan gara.
‘Zientzialari’ izeneko atal honen bitartez zientziaren oinarrizko kontzeptuak azaldu nahi ditugu euskal ikertzaileen laguntzarekin.
The post Ainhoa Plaza-Zabala: “Glia zelulak ezinbestekoak dira giza garunaren funtzionamendurako” #Zientzialari (88) appeared first on Zientzia Kaiera.
Autismo y educación: problemas y pautas en el aula
¿Cómo se tratan algunos de los trastornos cognitivos más frecuentes en las aulas? ¿Son efectivos los programas y herramientas del sistema educativo actual? ¿Carecen de eficacia algunas de las prácticas educativas más populares?
Estas son algunas de las cuestiones que se debatieron en la jornada “Las pruebas de la educación”, que se celebró el pasado 2 de febrero de 2018 en el Bizkaia Aretoa de Bilbao. El evento, en su segunda edición, estuvo organizado por la Cátedra de Cultura Científica de la UPV/EHU y el Consejo Escolar de Euskadi, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT).
Las ponencias de los expertos que expusieron múltiples cuestiones relacionadas con la educación, basándose siempre en las pruebas científicas existentes. Los especialistas hicieron especial hincapié en destacar cuál es la mejor evidencia disponible a día de hoy con el objetivo de abordar las diferentes realidades que coexisten en las aulas y en el sistema educativo en general.
“Las pruebas de la educación” forma parte de una serie de eventos organizados por la Cátedra de Cultura Científica de la UPV/EHU para abordar cuestiones del día a día como la educación o el arte desde diversos ámbitos de la actividad científica. La dirección del seminario corre a cargo de la doctora en psicología Marta Ferrero.
En “Autismo y educación: Problemas y pautas en el aula”, José Ramón Alonso, neurobiólogo y catedrático de biología celular en la Universidad de Salamanca, nos acerca al concepto del autismo, sus posibles causas y los tratamientos más empleados, con el objetivo de identificar las pautas concretas que pueden ayudar a maestros y profesores a tratar en el aula este trastorno cognitivo.
José Ramón Alonso: ''Autismo y educación: Problemas y pautas en el aula''Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Autismo y educación: problemas y pautas en el aula se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Las ideas erróneas sobre educación entre el profesorado: prevalencia, causas y soluciones
- La ciencia perdida: los curiosos casos de los protocolos de TDAH y de leer.es
- Del mito al hecho: hemisferios, gimnasia cerebral y estilos de aprendizaje
Urtaroarteko biltegiratze termikoko sistema baten bideragarritasun tekno-ekonomikoaren azterketa
Espainiako zein Europako hainbat legek energia berriztagarrien erabilera sustatzen dute, Espainiako Kode Teknikoa (CTE) eta Energy Performance of Building Directive (EPBD), besteak beste. Espainiaren kasuan, (CTE), DB-HE agirian, energia aurrezteko eskakizunak betetzeko arauak eta prozedurak azaltzen dira. Horren barnean, HE4 dokumentuan, ur bero sanitarioko (UBS) eskaria asetzeko eguzki energia termikoko kontribuzio minimo bat egin behar dela azaltzen da, Espainiako gune klimatiko ezberdinen araberakoa. Europaren kasuan, ordea, EPBD-ak kontsumo ia nuluko eraikinerantz bideratzen gaitu (NZEB, Nearly Zero Energy Buildings), hau da, eraikinek kontsumitzen duten energiaren kantitate bera produzitu behar dutela.
Europako energiaren kontsumo totalaren %40 eraikinek eragiten dute. Horietan berokuntza eta ur bero sanitarioaren erabilerak nabarmentzen dira batik bat. Espainiaren kasuan, ur bero sanitarioaren kontsumoak %27 suposatzen du eta berokuntzak, ordea, %50a.
Urtaroarteko biltegiratze termikoko sistema (STES: Seasonal Thermal Energy Storage) kalefakzioko eta UBSko beharrak asetzeko erabili ohi da. Eguzki energia termikoa erabiltzen duen sistema da, non udako hilabeteetan, eguzki kolektore termikoen laguntzaz, eguzki energia termikoa (beroa) biltegiratzen den, ondoren, neguko hilabeteetan erabiltzeko helburuarekin. Izan ere, udan, eguzki energia termiko altuagoa biltegira dezakegu neguan baino. Gainera, urteko bero-eskari ia totala neguan ematen da, hau da, udan ia ez dago bero-eskaririk. Bi arrazoi horiek kontuan hartuta, udan (apiriletik urrira arte) soberan dagoen eguzki energia termikoa biltegiratuko da, hala, neguko bero-eskariak asez.
Lau STES mota ezberdin bereizten dira: ur depositua, putzuko biltegiratzea, biltegiratze geotermikoa eta akuiferoak. Horiek biltegiratze ahalmen handiko biltegi termikoak dira eta bertan ur bero kantitate handiak biltegira daitezke. Beraz, distritu baten bero-beharraren zati handi bat asetzeko ahalmena dute. Eguzki kolektoreekin eta biltegiratuta dagoenarekin ase ezin daitekeen eskaria ekipo laguntzaile batek aseko luke. Artikulu honen bitartez ur depositu motako biltegiak izango lukeen ahalmena aztertu izan da.
Simulazioak egiteko, TRNSYS (TRaNsient System Simulation program) sistema iragankorren simulazio programa erabili da. Oro har, energia berriztagarrien ingeniaritzan egiten ditu simulazioak. Programa honek hiri askotako aldagai klimatologikoen data baseak dauzka bere baitan, Espainiako probintzien hiriburuenak barne.
Hortaz, TRNSYS-aren laguntzaz, Espainiako gune klimatiko ezberdineko hainbat hiritan bi distritu tamaina ezberdinak simulatu dira. Bata txikia, 100-200 arteko etxebizitza kopuruarekin eta bestea distritu handia, 1000-2000 arteko etxebizitzekin. Bi kasuetan, tankearen tamaina ezberdinekin eta eguzki kolektore azalera ezberdinekin egin dira simulazioak. Hala, sistema horren bitartez lortzen den eguzki frakzioa (ase daitekeen UBS-ko eskariaren portzentajea) eta hori eraikitzeak suposatuko lukeen inbertsioa ikusi da.
Honakoa ondorioztatu da emaitzei erreparatuz:
Tankearen bolumena eta kolektoreen azalera handituz, eguzki frakzioa handitzen da. Baina eguzki kolektoreen azalerak garrantzi handiagoa du, eta, hortaz, errentagarriago suertatzen da kolektoreen azaleraren tamaina handitzea tankearen bolumena baino.
Alderdi ekonomikoari dagokionez, konprobatu da zenbat eta distritu handiagoa izan, orduan eta inbertsio handiagoa egin beharko dela, baina horrek geroz eta onura gehiago dakartza.
Artikuluaren fitxa:- Aldizkaria: Ekaia
- Zenbakia: Ekaia 30
- Artikuluaren izena: Urtaroarteko biltegiratze termikoko sistema baten bideragarritasun tekno-ekonomikoaren azterketa.
- Laburpena: Gaur egun, Europako energiaren kontsumo osoaren %40 eraikinek eragiten dute. Kontsumo horren barnean, eraikinetako berokuntza eta ur bero sanitarioaren (UBS) erabilera nabarmentzen da, batik bat. Espainiaren kasuan, berokuntza %50 da, eta UBSa, berriz, %27.Proiektu honen bitartez, Espainia mailan Urtaroko biltegiratze termikoko sistemen (STES) bideragarritasun ekonomiko zein energetikoa aztertu da. Espainiako hainbat hiritako eskari termikoak simulatu dira, eta STESaren bitartez berogailuko eta UBSko eskari osoaren %45-60 artean asetzeko saiakera egin da. Beraz, ikusita eraikinetan kontsumo energetiko handia izaten dela eta, gainera, jakinda Eraikuntzarako Kode Teknikoak (CTE) ur bero sanitariorako eguzki-energia termikoaren kontribuzio minimoa derrigortzen duela, sistema horien bideragarritasunaren azterketa ezinbestekoa da. Hala, energia berriztagarrien erabilera sustatzen da.
- Egileak: Oihane Setién Echenique eta Carol Pascual Ortiz
- Argitaletxea: UPV/EHUko argitalpen zerbitzua
- ISSN: 0214-9001
- Orrialdeak: 71-79
- DOI: 10.1387/ekaia.15854
—————————————————–
Egileez:
Oihane Setién Echenique Aula Tecnalian dabil eta Carol Pascual Ortiz Tecnaliako Energia eta Ingurumeneko Dibisioan.————————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post Urtaroarteko biltegiratze termikoko sistema baten bideragarritasun tekno-ekonomikoaren azterketa appeared first on Zientzia Kaiera.
Si hacer fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino
Muchos de los fármacos que conocemos son compuestos muy complejos. Esto quiere decir que están formados por muchos átomos unidos entre sí de una manera concreta. Hacer que estos átomos se unan de una forma y no de otra es una tarea complicada. Al estudio de estos procesos de ensamblaje de átomos se le llama «síntesis química».
Los átomos no se comportan como piezas de Lego. No siempre podemos ensamblarlos y desensamblarlos a nuestro antojo, ya que unos átomos tienen más afinidad por unos que por otros, tienen tendencia a colocarse en unas posiciones y no en otras, a girarse, etc. Por eso es tan importante diseñar una buena ruta de síntesis, en la que cada átomo acabe ocupando la posición deseada.
Uno de los átomos más famosos de los fármacos es el carbono. El carbono está presente en casi todos los fármacos que conocemos. Es capaz de unirse a otros átomos de forma muy diferente. El carbono es como una pieza de Lego con cuatro posiciones de ensamblaje. Desgraciadamente es muy difícil conseguir una pieza solitaria de este carbono. En la naturaleza siempre está unido a más piezas y, en el caso de tener alguna posición libre (formando lo que denominamos radicales libres) son muy inestables y enseguida encuentran a quién unirse.
Esto ha sido un quebradero de cabeza para los químicos que trabajan en síntesis. Al menos hasta ahora. Recientemente, un grupo de investigadores del Instituto Catalán de Investigación Química (ICIQ), liderado por el joven químico Marcos García Suero, acaba de encontrar un método revolucionario que permite conseguir la ansiada pieza solitaria de carbono. Esta pieza sólo tiene una de sus posiciones ocupadas por hidrógeno, el resto están listas para ensamblarse a los átomos que deseemos. Esta pieza se denomina carbino.
El carbino fue una de las primeras moléculas halladas en el espacio interestelar. Los astrofísicos lo detectaron en los años 30 del siglo pasado. Estos carbinos se detectan en eventos astonómicos muy energéticos y violentos, como en la formación de estrellas. Duran muy poco como carbinos porque tienen esa tendencia a unirse rápidamente a otros átomos. Esto es lo que los hace tan escurridizos.
Lo que han hecho los investigadores del ICIQ es sintetizar un equivalente de los carbinos. Este equivalente se llama radical diazometilo. Si seguimos con la analogía de las piezas de Lego, el radical diazometilo sería como una pieza de carbino con sus posiciones ocupadas por piezas de quita y pon, fáciles de intercambiar por piezas definitivas.
Tanto el hallazgo de este carbino equivalente, como la forma de sintetizarlo, ha llevado a estos investigadores a publicar su descubrimiento en la prestigiosa revista científica Nature. Su artículo lleva por título «Generación de carbinos equivalentes por medio de catálisis fotorredox». Para obtener carbino en el laboratorio no se pueden emular los violentos eventos astronómicos. Lo que han hecho estos investigadores es darle un empujón a la reacción de obtención de estos carbinos ayudándose de catalizadores. Los catalizadores que utilizaron son unos compuestos con rutenio sensibles a la luz, de ahí el prefijo foto de catálisis fotorredox. El catalizador, al recibir un fotón de luz LED, da el pistoletazo de salida para que se forme el carbino. Los procesos de fotocatálisis son, de hecho, una de las líneas de investigación más importantes del ICIQ.
Estos investigadores han probado la eficacia del carbino para modificar a antojo algunos medicamentos ya existentes. Así, han modificado con éxito el principio activo del ibuprofeno, del antidepresivo duloxetina, del antitumoral taxol, y del fingolimod, el primer tratamiento oral que existe para la esclerosis múltiple.
Este carbino no solo se podrá usar para mejorar los fármacos que ya conocemos, sino que podrá ayudar a acelerar el diseño y desarrollo de nuevos medicamentos. Si la química del desarrollo de fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino.
Agradezco a Fernando Gomollón Bel su ayuda con este artículo.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Si hacer fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cómo mecanizar una pieza de cobre usando bacterias
- Otra pieza en el puzle de la fotosíntesis
- Cómo hacer más eficiente un mini aerogenerador
Arrainak vs. zefalopodoak

———————————————————————————————————–
Zefalopodoek milaka urte daramatzate itsasoetan. Arrainak sortu baino lehen, haiek ziren itsasoetako harrapari nagusiak. Zefalopodoak ziren aktibitate-maila altuena garatzen zuten animaliak. Baina gero arrainak sortu ziren, uretako ornodunak, lehen ornodunak, eta gailendu egin zitzaizkien. Sortu eta berehala, sekulako arrakasta lortu zuten; arrainak harrapari nagusi bilakatu, eta zefalopodoak bigarren maila batean geratu ziren.Arrainen arrakasta horren gakoa da hemen laburki aztertu nahi duguna. Litekeena da oxigenoa izatea gako hori, edo hobeto esanda, oxigenoarekin zerikusi handia duten fisiologia-ezaugarriak.
Zefalopodoen igeri egiteko modua ikusgarria da benetan, oso trebeak dira. Baina ez da batere eraginkorra arrainen igeri egiteko moduaren alboan, zefalopodoen jet-propultsioko igeriketa oso garestia baita. Igeriketa-modu horrek energia asko kontsumitzen du eta, energiarekin batera, oxigeno asko. Izan ere, zefalopodo batek arrain batek baino lau bider oxigeno gehiago kontsumitu behar du abiadura bera lortzeko.
Energia gehiago kontsumitu behar izatea, berez, eragozpena da janaria mugatua denean (eta janaria ia beti izaten da mugatua). Baina baliteke energia baino areago oxigenoa izatea kasu honetan gakoa. Abiadura bera garatzeko zefalopodoek arrainek baino lau bider oxigeno gehiago erabili behar dute. Garrantzi handikoa izan daiteke hori, noski, baina, horrez gain, zefalopodoen odolaren oxigeno-edukiera arrainena baino askoz txikiagoa da: %5ekoa zefalopodoena eta %10ekoa arrainena. Horren ondorioz, arrainek zefalopodoek baino askoz oxigeno gehiago eskura dezakete kanpo-mediotik, bi aldiz gehiago, zehatzagoak izateko.
Zefalopodoen arnas pigmentua hemozianina da, eta arrainena hemoglobina. Arrainek globulu gorrietan gordetzen dute, baina zefalopodoek plasman disolbatuta daramate. Hori dela eta, zefalopodoek ezin dute hemozianina-kontzentrazio altuagorik izan; pigmentua plasman disolbatuta egonik, haren kontzentrazioa handituko balitz odolaren biskositatea gehiegizkoa izango litzateke.
Laburtuz, arrainek garatu zuten igeri egiteko modua, batetik ,eta arnas pigmentuaren ezaugarriak, bestetik, horiek biak izan omen ziren ozeanoetako harrapari nagusi gisa gailendu ahal izateko gakoak.
—————————————————–
Egileez: Juan Ignacio Pérez Iglesias (@Uhandrea) eta Miren Bego Urrutia Biologian doktoreak dira eta UPV/EHUko Animalien Fisiologiako irakasleak.
—————————————————–
Artikulua UPV/EHUren ZIO (Zientzia irakurle ororentzat) bildumako Animalien aferak liburutik jaso du.
The post Arrainak vs. zefalopodoak appeared first on Zientzia Kaiera.
Óxido de vanadio (IV), un material para una revolución de ciencia ficción

Nanoestrellas de óxido de vanadio (IV)
Primero vino el interruptor. Luego el transistor. Ahora otra innovación puede revolucionar la forma en que controlamos el flujo de electrones a través de un circuito: el óxido de vanadio (IV), de fórmula VO2. Una característica clave de este compuesto es que se comporta como un aislante a temperatura ambiente, pero como un conductor a temperaturas superiores a 68 °C. Este comportamiento, también conocido como transición de aislante de metal, podría ser muy útil para una variedad de aplicaciones nuevas y emocionantes.
Los científicos conocen desde hace mucho tiempo las propiedades electrónicas del VO2, pero no han podido explicarlas hasta ahora. Resulta que su estructura atómica cambia de fase a medida que aumenta la temperatura, pasando de una estructura cristalina a temperatura ambiente a una metálica, a temperaturas superiores a 68 ° C.
Lo verdaderamente interesante es que esta transición ocurre en menos de un nanosegundo, algo que lo hace muy útil para aplicaciones electrónicas. No solo eso, además de a la temperatura, resulta que el VO2 también es sensible a otros factores que podrían hacer que cambie de fase, como la inyección de energía eléctrica, determinadas iluminaciones, o la aplicación de un pulso de radiación de terahercios (en el límite entre microondas e infrarrojo). Todo ello implica que el consumo energético del interruptor es minúsculo.
Contrariamente a lo que podamos suponer, 68ºC es una temperatura de transición demasiado baja para la electrónica de los dispositivos actuales, donde los circuitos funcionan sin problemas a unos 100 ºC. Una solución a este problema la propusieron investigadores de la Escuela Politécnica Federal de Lausana (Suiza) en julio de 2017 que consistía en añadir germanio a una lamina de VO2. Simplemnete con esto la transición pasaba a ocurrir a 100 ºC.

Un chip basado en dióxido de vanadio (IV) fabricado en la Escuela Politécnica Federal de Lausana. Imagen: EPFL / Jamani Caillet
Solucionado este problema, investigadores del mismo grupo suizo, que incluye a la ingeniera española Montserrat Fernández-Bolaños, han sido capaces de fabricar por primera vez filtros de frecuencia modulables ultracompactos. Esta tecnología hace uso de las características de interruptor por cambio de fase del VO2 y es especialmente eficaz en un rango de frecuencias que es crucial para las comunicaciones espaciales, la llamada banda Ka. Esta banda es la que se emplea, por ejemplo, para la descarga de datos científicos del telescopio espacial Kepler y es la que se usará en telescopio espacial James Webb. Los filtros pueden programarse para modular entre los 28,2 y los 35 GHz.
Estos primeros resultados es muy posible que estimulen la investigación de las aplicaciones del VO2 en dispositivos electrónicos de potencia ultrabaja. Además de las comunicaciones espaciales que mencionábamos, otras posibilidades podrían ser la computación neuromórfica (computación basada en circuitos analógicos que simulan estructuras neurobiológicas) y los radares de alta frecuencia para automóviles autónomos.
Referencia:
E. A. Casu , A. A. Müller, M. Fernández-Bolaños et al (2018) Vanadium Oxide bandstop tunable filter for Ka frequency bands based on a novel reconfigurable spiral shape defected ground plane CPW IEEE Access doi: 10.1109/ACCESS.2018.2795463
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Óxido de vanadio (IV), un material para una revolución de ciencia ficción se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Siligrafeno, ¿el material para la revolución optoelectrónica?
- Un equipo de alta fidelidad de ciencia ficción
- Ciencia para todos a través del cine y la literatura de ciencia ficción
Las vacas de Narayana, la versión hindú de los conejos de Fibonacci
En octubre de 2002, el compositor minimalista norteamericano Tom Johnson visitó la Universidad del País Vasco/Euskal Herriko Unibertsitatea. Durante dicha visita Tom Johnson ofreció dos interesantes seminarios sobre su forma de componer utilizando las matemáticas y se organizaron algunos conciertos. Una de las composiciones musicales que tuve el placer de escuchar entonces fue Las vacas de Narayana (1989), interpretada por los miembros del grupo Kuraia Ensemble (Asociación de Música Contemporánea del País Vasco), Andrea Cazzaniga (violín), Rafael Climent (clarinete) e Iñigo Ibaibarriaga (saxofón).

El compositor minimalista norteamericano Tom Johnson preparando el instrumento para ejecutar la obra “Galileo” (2001), que estrenó en la Facultad de BBAA de la UPV/EHU en 2002
Para componer la obra Las vacas de Narayama, Tom Johnson se basó en el problema homónimo propuesto por el matemático indio Narayana Pandita (1340-1400) en su tratado de aritmética Ganita Kaumudi (1356). Una de las cuestiones estudiadas por Narayana Pandita en esta obra fueron las sucesiones que él llamó “aditivas”, entre las que se encuentra la que nosotros conocemos como sucesión de Fibonacci.
El problema de las vacas de Narayana dice lo siguiente:
Si las vacas tienen una cría cada año, y cada ternera, después de los tres años que necesita para convertirse en una vaca madura, tiene una cría a principio de cada año, ¿cuántas vacas habrá después de 20 años a partir de una primera ternera?

El proyecto artístico “CowParade” es un proyecto internacional que se ha desarrollado en muchas ciudades del mundo, entre ellas Bilbao, Barcelona o Madrid. La vaca “cowculus” fue exhibida en Kansas city (EE.UU.)
Si empezamos con una ternera recién nacida, a principios de año, durante los tres primeros años solamente tendremos una (1) vaca, esa primera ternera. El cuarto año empezará realmente a crecer la población bovina, con la vaca inicial y su primera ternera, luego dos (2) vacas en total. Habrá una ternera más al principio de cada uno de los dos siguientes años, luego tres (3) el quinto año y cuatro (4) el sexto. Al inicio del séptimo, la primera ternera nacida de la vaca original ya puede tener también terneras, por lo que ese año habrá dos vacas adultas y cuatro terneras, en total, seis (6) vacas. El siguiente año una nueva ternera pasa a la madurez y tres vacas tienen una ternera cada una, luego en total hay tres vacas maduras y seis terneras, luego nueve (9) vacas. Al inicio del noveno año, habrá trece (13) vacas, cuatro adultas y nueve terneras. En el siguiente gráfico hemos representado la evolución de vacas en esos nueve primeros años.

Gráfico del problema de las vacas de Narayana en los nueve primeros años
Pero continuemos… ¿cuántas vacas habrá el décimo año? Estarán las que ya estaban el año anterior, es decir, trece (13) vacas, más las terneras de las vacas que ese año pueden tener crías, que son exactamente las vacas que había hace tres años, seis (6) vacas, en total, diecinueve (13 + 6 = 19) vacas. Como se ve en el siguiente gráfico, seis son vacas maduras y trece son terneras, pero también podemos numerarlas por generaciones, la vaca original es la primera generación, hay siete vacas de la segunda generación, diez de la tercera y una de la cuarta.

Gráfico del problema de las vacas de Narayana en el décimo año
El razonamiento que hemos realizado para obtener el número de vacas al inicio del décimo año es, de hecho, general y realmente nos da una fórmula recursiva para resolver el problema de las vacas de Narayana. Si se denota por v(n) el número de vacas que habrá en el año n, entonces
v(n) = v(n – 1) + v(n – 3),
siendo además, v(1) = v(2) = v(3) = 1.
Por lo tanto, se pueden obtener fácilmente los primeros veinte números de la sucesión de vacas de Narayana,
1, 1, 1, 2, 3, 4, 6, 9, 13, 19, 28, 41, 60, 88, 129, 189, 277, 406, 595, 872, …
Luego, después de veinte años, es decir, al inicio del año veintiuno, habrá 406 + 872 =1.278 vacas.
Incluso, podemos hacer una tabla de la sucesión de vacas de Narayana, viendo las vacas que hay de cada generación.
Observando esta tabla con los primeros años ya podemos extraer algunas curiosas conclusiones. Por ejemplo, el número de vacas de la segunda generación son los números naturales, puesto que son las vacas que van naciendo de la vaca original, y cada año tiene una nueva ternera, luego cada año una más, 1, 2, 3, 4, 5, …
En la tercera generación se obtienen los números triangulares, ya que son las sumas de los primeros números naturales, puesto que son las vacas descendientes de las de la generación anterior. Por ejemplo, en el décimo año hemos visto que el número de vacas de la segunda generación eran 1 + 2 + 3 + 4 = 10. Recordemos que los números triangulares T(n), que se llaman así puesto que son los que se obtienen al colocar piedras o discos circulares formando un triángulo equilátero (como se ve en la imagen siguiente), son aquellos que son la suma de los primeros números naturales, T(n) = 1 + 2 + 3 + … + (n – 1) + n.

: Los números triangulares son aquellos que son la suma de los primeros números naturales, 1, 1 + 2 = 3, 1 + 2 + 3 = 6, 1 + 2 + 3 + 4 = 10, 1 + 2 + 3 + 4 + 5 = 15, 1 + 2 + 3 + 4 + 5 + 6 = 21,…
Por el mismo motivo, las vacas de la cuarta generación serán los llamados números tetraédricos, 1, 4, 10, 20, 35, … ya que serán las sumas de los primeros números triangulares, los que aparecen en la tercera generación. Recordemos que los números tetraédricos son el número de bolas que hay en una pirámide triangular (como la de la imagen), es decir, un tetraedro, y que es igual a la suma de los primeros números triangulares, TT(n) = T(1) + T(2) + … + T(n).

Los números tetraédricos son aquellos que son la suma de los primeros números triangulares, 1, 1 + 3 = 4, 1 + 3 + 6 = 10, 1 + 3 + 6 + 10 = 20, 1 + 3 + 6 + 10 + 15 = 35, … Imagen de cults3d.com
Dejemos por un momento la sucesión de las vacas de Narayana y volvamos a la composición musical basada en este problema. Pero antes presentemos brevemente a su autor, el compositor Tom Johnson.

El compositor norteamericano Tom Johnson
Tom Johnson (Greeley, Colorado, EE.UU.), es un compositor minimalista y teórico de la música estadounidense. Se graduó en la Universidad de Yale, donde obtuvo además su grado avanzado en música. Fue alumno del compositor Morton Feldman (1926-1987), uno de los artífices, junto con John Cage (1912-1992), de la música aleatoria.
Es un compositor minimalista, ya que trabaja con formas simples, escalas limitadas y de manera general, con material reducido. Y dentro del minimalismo destaca por el uso de las matemáticas en el proceso creativo. Fórmulas matemáticas, trigonometría, simetrías, teselaciones, combinatoria, sucesiones de números enteros, teoría de números o fractales, son algunas de las teorías matemáticas que utiliza en sus composiciones.
Tom Johnson ha escrito de su música: “quiero encontrar la música, no componerla”, o como decía su maestro Morton Feldman “Deja a la música hacer lo que quiere hacer”. Mientras John Cage, o Morton Feldman, realizan esta búsqueda mediante el azar, Tom Johnson lo hace mediante las matemáticas.
Entre sus obras encontramos óperas como Riemannoper (1988), Trigonometría (1997) o la más famosa La ópera de las cuatro notas (1972), que fue representada en España en 2015 por Vania Produccions bajo la dirección de Paco Mir (que muchos conoceréis por ser uno de los miembros del trío Tricicle) o composiciones musicales muy creativas e interesantes, como Nueve campanas (1973), Simetrías (1981), Melodías Racionales (1982), Melodías infinitas (1986), Música para 88 (1988), Las vacas de Narayana (1889), Galileo (2001), Mosaicos (2002), o Ritmos de Vermont (2008), entre muchas otras.
Ha escrito libros como la colección de artículos de crítica musical The voice of the new music (Apollohuis, 1989), Self-similar Melodies (Editions 75, 1996) o Looking at numbers (Birkhauser, 2014).
En la composición musical Las vacas de Narayana, Tom Johnson realiza en esta obra una demostración musical del problema matemático. Para ello, divide la pieza en diferentes partes, cada una de las cuales se corresponde con un año del problema de las vacas, y en cada una de esas piezas hay tantas notas como el número de vacas que hay ese año, siendo una nota larga para cada vaca madura y una nota corta para cada ternera.
Aunque antes de seguir hablando de esta composición, lo que debemos hacer es escucharla. Esta pieza está incluida en el álbum Kentzy plays Johnson (2004), con el saxofonista Daniel Kientzy y en el álbum Cows, Chords and Combinations (2011), del grupo Ensemble Klang. Os traemos aquí dos conciertos que están en youtube. Uno es un concierto en Toronto en 2010, organizado por Continuum Contemporary Music.
mientras que el otro es un concierto en 2014, en el Switchboard Music Festival
Como hemos podido observar los conciertos empiezan en el cuarto año, cuando la vaca original tiene su primera ternera. Además, Tom Johnson distribuye las notas largas y cortas, que se corresponden con vacas maduras y terneras en la composición, siguiendo unas estructuras de árbol similares a los que hemos incluido más arriba para los diez primeros años del problema, y leyendo las vacas que hay, de arriba hacia abajo y de derecha a izquierda en esos diagramas de tipo árbol.
Por ejemplo, si escuchamos (o leemos la partitura, cuya primera página hemos incluido más abajo) la sucesión de notas que se corresponde con el quinto año del concierto (el octavo en el problema entero de las vacas de Narayana, o también en la partitura escrita) y miramos al diagrama de árbol de ese año, observaremos que las notas serán
larga – corta – corta – corta – larga – corta – larga – corta – corta

Primera página de la partitura de “Las vacas de Narayana” (1989), de Tom Johnson
Cuando se escucha la obra de Tom Johnson, los primeros años de la composición musical sirven para entender el problema de las vacas de Narayana y la forma en la que el compositor asocia las notas musicales con las vacas maduras y crías, mientras que según van pasando los años vamos percibiendo la estructura, que surge a partir del problema matemático, de la composición musical.
Regresemos de nuevo a las matemáticas de la sucesión numérica de las vacas de Narayana. Es un hecho muy conocido, tanto en la literatura matemática, como por las personas interesadas en la sucesión de Fibonacci (véase alguno de los libros titulados La proporción áurea, de Mario Livio o Fernando Corbalán), que si se toma el cociente entre dos miembros consecutivos de la sucesión de Fibonacci F(n + 1) / F(n), esta sucesión de cocientes, converge (al ir aumentando n) a la proporción áurea, phi = 1,6180339…
1/1 = 1; 2/1 = 2; 3/2 = 1,5; 5/3 = 1,666…; 8/5 = 1,6; 13/8 = 1,625; 21/13 = 1,615…; 34/21 = 1,619…; 55/33 = 1,617…; etc…
¿Ocurrirá algo similar si tomamos la sucesión de los cocientes de números consecutivos de la sucesión de las vacas de Narayana? La respuesta es afirmativa, como vamos a ver a continuación.
Empezamos en la fórmula recursiva de la sucesión de vacas de Narayana
v(n + 1) = v(n) + v(n – 2),
a la que le dividimos por v(n) y además, en el último sumando, multiplicamos y dividimos por v(n – 1), para obtener la expresión
v(n + 1) / v(n) = 1 + v(n – 2) / v(n – 1) × v(n – 1) / v(n).
Si llamamos κ al límite, cuando n tiene de infinito, del cociente v(n + 1) / v(n), la anterior expresión nos dice que κ satisface la ecuación de tercer grado κ 3 – κ 2 – 1 = 0, que podemos llamar la ecuación de Narayana. Esta ecuación tiene tres soluciones, dos de ellas imaginarias, y la solución real que buscamos es (calculada con WolframAlfa)
Aproximadamente, κ = 1,46557123187676802665673… que podríamos llamar la proporción de Narayana.

Kodhai. Vaca rescatada del Santuario Dakshin Vrindavan, de la artista Charlotte Gerrard
Vamos a terminar esta entrada del Cuaderno de Cultura Científica mostrando algunas caracterizaciones interesantes de la sucesión de vacas de Narayana.
A. Número de embaldosados con triominós rectos de rectángulos 3 × (n – 1).
Consideremos un rectángulo de tamaño 3 × (n – 1), como el que aparece en la imagen de abajo (ese en particular es de tamaño 3 × 5), entonces el número v(n) de la sucesión de vacas de Narayana para el año n, es igual a la cantidad de embaldosados posibles con triominós rectos, fichas de tamaño 1 × 3, también llamados I-triominós (véase la entrada Embaldosados con L-triominós (un ejemplo de demostración por inducción) [https://culturacientifica.com/2014/07/16/embaldosando-con-l-triominos-un-ejemplo-de-demostracion-por-induccion/]), es decir, el número de diferentes maneras que hay de colocar triominós rectos en el rectángulo 3 × (n – 1).

El número de vacas del sexto año, v(6), es 4, al igual que el número de embaldosados con triominós rectos del rectángulo 3 × 5
Esta caracterización es una versión geométrica del siguiente resultado de la Teoría de números relacionado con las particiones de los números.
B. Número de composiciones del número n – 1, con el 1 y el 3.
Recordemos primero dos conceptos básicos de la Teoría de números, como son las particiones y las composiciones. Una partición de un número entero positivo es una forma de expresarlo como suma de números enteros positivos, donde el orden no es relevante. Por ejemplo, el número 3 puede expresarse como suma de tres formas distintas {1 + 1 + 1, 2 + 1, 3}, mientras que existen cinco particiones del número 4 {1 + 1 + 1 + 1, 2 + 1 + 1, 2 + 2, 3 + 1, 4}. Si se denota por p(n) el número de particiones de n, entonces p(3) = 3 y p(4) = 5.
Si en las particiones se tuviera en cuenta el orden, se obtendrían las composiciones, o particiones ordenadas, que se denotan c(n). Así, las particiones ordenadas de 4 son: {1 + 1 + 1 + 1, 2 + 1 + 1, 1 + 2+ 1, 1 + 1 + 2, 2 + 2, 3 + 1, 1 + 3, 4}. Luego, c(4) = 8, mientras que p(4) = 5.
La sucesión de números de Narayama, al igual que la de Fibonacci (véase, por ejemplo, el libro Cayley, el origen del álgebra moderna), se puede relacionar con ciertos tipos de composiciones de números. En particular, la anterior caracterización geométrica es equivalente a que el número v(n) de la sucesión de vacas de Narayana para el año n, es igual al número de composiciones del número n – 1 con únicamente los números 1 y 3. Así, como las composiciones, con 1 y 3, de 6 son {1+1+1+1+1+1, 1+1+1+3, 1+1+3+1, 1+3+1+1, 3+1+1+1, 3+3}, entonces v(7) = 6.
C. Número de formas de colocar n – 2 alfombras tatami en una habitación de tamaño 2 × (n – 2), sin que los vértices de 4 alfombras coincidan.
Recordemos que las alfombras tatami de las casas tradicionales japonesas tienen una relación de tamaño de 1 × 2.

Una distribución de alfombras tatami en una habitación de tamaño 2 × 7

Una distribución no válida de alfombras tatami, ya que los vértices de cuatro alfombras coinciden, en una habitación de tamaño 2 × 7
Existen 13 formas de cubrir una habitación de tamaño 2 × 7 con alfombras tatami, sin que coincidan las esquinas de cuatro de ellas, que es exactamente el número v(9). De hecho, esas 13 maneras pueden describirse de la forma 1111111, 111112, 111121, 111211, 112111, 121111, 211111, 11212, 12112, 21112, 12121, 21121, 21211.
Si lo pensamos un momento, la descripción con 1 y 2 de colocar las alfombras tatami (1 para las verticales, 2 para las horizontales) nos está diciendo realmente que podemos describir el número de la sucesión de vacas de Narayana v(n) como las composiciones de n – 2 con tan solo los números 1 y 2, pero sin que haya dos 2 juntos.
D. Número de composiciones del número n – 2, con el 1 y el 2, sin que haya dos 2 juntos.
Como despedida de esta entrada otra pieza del compositor minimalista norteamericano Tom Johnson, la primera de sus melodías racionales, en mi opinión una hermosa pieza, interpretada por el Gruppo di Musica Contemporanea Steffani, en el Conservatorio Steffani, de Castelfranco Veneto (Italia), en 2009.

Portada del disco Rational Melodies/Bedtime stories, de Tom Johnson, con Roger Heaton al clarinete. El diseño de la portada es la obra de Esther Ferrer, “Project Drawing With Prime Number Series, Spiraling Out From 19.000.041”
Bibliografía
1.- Página web de Editions 75
2.- Tom Johnson, Kientzy plays Johnson (álbum), 2004.
3.- Jean-Paul Allouche, Tom Johnson, Narayana’s Cows and Delayed Morphisms, Cahiers du GREYC Troisiemes Journées d’Informatique Musicale (JIM 96) 4, p. 2-7, 1996.
4.- Parmanand Singh, The so-called Fibonacci Numbers in Ancient and Medieval India, Historia Mathematica 12, p. 229-244, 1985.
5.- Krishnamurthy Kirthi, Subhash Kak, The Narayana Universal Code, ArXiv, 2016.
6.- Tom Johnson, Self-Similar Melodies, Editions 75, 1996.
7.- Tom Johnson, Looking at numbers, Birkhäuser, 2014.
8.- Fernando Corbalán, La proporción áurea, El lenguaje matemático de la belleza, RBA, 2010.
9.- Mario Livio, La proporción áurea, La historia de phi, el número más sorprendente del mundo, Ariel, 2006.
10.- Página web de la artista Charlotte Gerrard
11.- N. J. A. Sloane, La sucesión de vacas de Narayana, A000930 [https://oeis.org/A000930], Enciclopedia on-line de sucesiones de números enteros.
12.- Raúl Ibáñez, Cayley, el origen del álgebra moderna, colección Genios de las matemáticas, RBA, 2017.
13.- Frank Ruskey, Jennifer Woodcock, Counting Fixed-Height Tatami Tilings, The Electronic Journal of Combinatorics 16, 2009.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Las vacas de Narayana, la versión hindú de los conejos de Fibonacci se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un rebaño de vacas pastando como sistema complejo
- Los números (y los inversos) de Fibonacci
- #Naukas14 ¿Por qué explota una granja de vacas?
Faltsutzeei aurre egiteko, lur arraroetan oinarritutako kodetze sistema
Behin baino gehiagotan agertu da gaiaren inguruko kezka: konputazio kuantikoa garatzen den heinean, gero eta errazagoa izango omen da kodeak apurtzea. Azken hamarkadetan eratu den informazioaren gizarteak kode horien beharra du. Izan ere, ia dena lotuta dago Internetera eta sarearen bitartez egiten diren operazioek gutxienezko segurtasuna behar dute. Batzuek diote, ordea, konputazio kuantikoak ere kode hobeagoak ezartzeko bidea emango duela… arrautza ala oiloa, nor ote aurrena?
Informazioa lapurtzeaz gain, produktuak faltsutzeko lehia ere abian da aspalditik. Teknologiak halako iruzurrak sortzeko aukera errazten du. Batzuetan enpresek baino ez dute jasaten kalte ekonomikoa, baina, beste zenbaitetan kontsumitzaileentzako arriskua ere egon daiteke tartean. Adibidez, faltsututako botiken kasuan.
Lehia teknologiko hau argitzen den bitartean, zientzialariek fisika eta kimika elkartzen diren eremu oparoan jarraitzen dute ikertzen; tartean, kode ziurragoak lortzeko ahaleginetan. Norabide horretan, Kopenhageko Unibertsitateko (Danimarka) ikertzaileek aurkeztu dute azken aurrerapena, Science Advances aldizkarian argitaratutako artikulu baten bitartez.

1. irudia: Hasierako probak egiteko erabilitako txartelak. Bakoitzean 200 kode sartzeko aukera dago (Argazkia: Kopenhageko Unibertsitatea)
Sistemaren oinarria lur arraroen bitartez margotutako hondar aleetan datza. Argi mota berezi baten aurrean jartzen direnean, hondar ale horiek kitzikatuak izaten dira, eta argi kode berezia, ia-ia bakarra, sortzen dute. Kontuaren koska, noski, hondar aleen antolaketan datza eta baita espektroskopia bidezko irakurketan.
Taula periodikoan, lur arraroek lantanidoen taldea osatzen dute. Azken urteetan asko erabiltzen ari dira industrian, bereziki elektronikaren alorrean.
Horrelako kode bat sortzeko, ikertzaileek honako prozesua erabiltzen dute: hondar lagin handi bat hartu, eta hondarra hiru hobi desberdinetan banatzen dute. Ondoren, hodi bakoitzean lur arraro zehatz bat sartzen dute: Europioa, Terbioa eta Disprosioa.
Modu horretan, hondar ale bakoitza lur arraro batekin “margotuta” gelditzen da (edo dopatuta, kimikarien hizkera erabilita). Behin hori eginda, hiru laginak nahasten dituzte, eta euskarri batean, bildu dituzten hondar aleekin osatutako geruza fin bat osatzen dute. Uhin-luzera zehatza duen argia jasotzean, lur arraro bakoitzak argia modu desberdinean islatzen du. Hortaz, azalera txiki horrek berezko argi marka berezia izango du. Marka hori irakurtzeko, hiru laser ezberdin dituen gailu bat erabiltzen da. Bakoitzak era selektiboan kitzikatzen ditu lur arraroetako ioiak. Era horretan, ausazko patroi bat sortzen da hondarrez betetako gailuaren azaleran. Kitzikapen horren atzean eratzen den argiaren marka jasotzen da ondoren eta datu-base batean gordetzen da. Produktuaren fabrikatzaileak baino ez du izango datu hori; nahi izanez gero, produktua saltzaileak aukera izango du alderatzeko bere saltokian dagoen produktua benetan fabrikatzaile ofizialak ekoiztu ote duen ala norbaitek ziria sartu dion. Produktu bakoitzak kode bakarra izango du, beraz.
Antzeko bidea jorratu izan diren aurreko teknikekin alderatuz, prozesu berriaren abantailak nabarmendu dituzte ikerketa artikuluan. “Lantanidoetan oinarritutako koloratzaileak guztiz fotoegonkorrak dira, eta argia xurgatzen eta igortzen dute oso ondo zehaztuta dauden espektro elektromagnetikoko eremuetan”.
Diotenez, “hackeatu” ezin den segurtasun neurria da asmatutakoa. Kopenhageko Unibertsitateko ikertzaile Thomas Just Sørensen-en esanetan “munduko ziurrena” litzateke honakoa. Praktikan, eta estatistikaren arabera, marka hori ia bakarra dela adierazi du ikertzaileak prentsa ohar batean. “Bi produktuk ‘hatz marka’ berdina izateko duten probabilitatea hain da txikia ezen, praktikan, existitzen ez dela esan baitaiteke”, ziurtatu du Sørensenek. Guztiz imajinaezin den probabilitate hori 1/6.10104 da, hau da, aukera bat 104 zeroz jarraitutako 6 zenbaki bakoitzeko.

2. irudia: Itxura honetakoak dira argia islatzean sortzen diren patroiak. Horietatik, hasierakoa baino ez da onargarria (Irudia: Science Advances/Kopenhageko Unibertsitatea/ moldatuta)
Bestetik, teknika hau kriptografian erabiltzeko aukera dagoela ere proposatu dute. “Patroi edo giltza digital hau erabil daiteke bai faltsutzeen kontrako giltza fisikoa egiaztatzeko edo edozein mezu enkriptatzeko ere”.
Praktikotasunari begiraUnibertsitateak sistema patentatu du jada eta, ikertzaileek egin duten aurreikuspenen arabera, urtebete barru merkatuan egon daiteke teknologia berria. Une honetan, eskanerrak hobetzeko lanean ari dira.
Zelako kostuan, ordea? Jakina da, askotan, merkatura heltzean, segurtasun neurri txukunek ez dutela arrakastarik lortzen erabilitako gailu bakoitzaren prezioa handiegia delako, babesten duen produktuaren prezioarekin alderatuz. Besteak beste, RFID teknologiaz babestutako alarmekin gertatu izan da hori. Irrati frekuentzia bidezko segurtasun gailu horiei asko kostatu zaie merkatura heltzea.
Kasu honetan, ez dirudi kostua arazo handiegia izango denik, gutxienez, euskarriari dagokionez. Produktuak markatzeko dispositiboaren kostua daniar koro bat baina pixka bat handiagoa izango dela aurreikusten dute ikertzaileek. Egun, 14 euro zentimo inguru balio du daniar koroak. Halere, produktuaren kodea irakurtzeak eta konprobatzeak guztira zenbat balioko duen kalkulatzeke dago oraindik.
Merkea izango omen den teknologia hau ausazkotasunean oinarritzen da. Ikerketa artikuluaren hasieran argitu dutenez, faltsutzeen aurka egun martxan dauden teknologia gehienak prozesu deterministetan oinarritzen dira. Horrek esan nahi du prozesuak bide jakin bat jarraitzen duela. Beraz, bide hori nolakoa den jakinda, aukera dago kodea “apurtzeko”. Horregatik nahiko erraza da, adibidez, softwarea edota WIFI sareak babesteko kodeak sortzeko algoritmoak igartzea. Danimarkako adituek aurkeztutako sistema, berriz, ez da determinista. Hasitako bideak nola jarraituko duen igartzeko modurik ez dago, erabat ausazkoa baita.
Erreferentzia bibliografikoa:
Carro-Temboury M. et al. An optical authentication system based on imaging of excitation-selected lanthanide luminescence. Science Advances 26 Jan 2018: Vol. 4, no. 1, e1701384 DOI: 10.1126/sciadv.1701384
———————————————————————————-
Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.
———————————————————————————-
The post Faltsutzeei aurre egiteko, lur arraroetan oinarritutako kodetze sistema appeared first on Zientzia Kaiera.