Datos vs. ideología: ¿Es la asignación de una renta básica universal la forma más eficiente de reducir la pobreza?

Foto de Niels Steeman via Unsplash
El actual estado del bienestar instaurado en países como España es un sistema levantado tras el desastre socioeconómico de la Gran Depresión y la Segunda Guerra Mundial. A medida que los países occidentales iban recomponiendo sus economías comenzaron a diseñar métodos para cuidar de sus ciudadanos más pobres a través de becas, servicios y subvenciones destinados a propósitos concretos, como alimentos o vivienda.
Es innegable que este sistema ha mejorado la calidad de vida general, y en especial la de los ciudadanos que reciben esas ayudas. Pero no lo ha tenido fácil: hace falta una burocracia nutrida y compleja para administrar los fondos y para asegurarse de que los ciudadanos que los reciben cumplen con los criterios establecidos.
Así que hay voces que defienden un sistema diferente, el de la renta básica universal (RBU), según el cual se reparte directamente una cantidad de dinero determinada a los ciudadanos más pobres sin imponer en qué deben gastarlo. Para los progresistas, esta podría ser una forma más eficaz de erradicar la pobreza; para los conservadores, se trata de una versión del estado del bienestar que resultaría mucho más sencilla y barata de implementar.
Los experimentos que han puesto a prueba la RBU
Pero, ¿es esto verdad? Hacen falta experimentos que nos den datos empíricos sobre los que sostener estas afirmaciones y posibles variaciones en políticas económicas y sociales que llevan décadas en pie. La revista Nature ha publicado recientemente un artículo en el que recoge y detalla algunos de los experimentos que se están llevando a cabo en todo el mundo en la materia.
Como por ejemplo, el que se realizó entre 1974 y 1978 en la ciudad canadiense de Dauphin. A los ciudadanos más pobres de Dauphin se les entregó un cheque mensual durante esos años sin indicarles en qué debían gastarlo. Mientras tanto se analizaron los cambios en distintos indicadores sociolaborales. Problemas de financiación confinaron todos esos datos en un despacho hasta que fueron rescatados y publicados en 2011 y revelaron, entre otras cosas, que los adolescentes de las familias incluidas en este programa completaron un año más de escolarización en comparación con otras familias en circunstancias parecidas, y que las hospitalizaciones se redujeron un 8,5% durante ese periodo, especialmente aquellas relacionadas con accidentes, heridas y problemas de salud mental. Y para los que temiesen que la RBU fuese a llevar a los participantes a abandonar sus trabajos, un dato interesante: las tasas de empleo se mantuvieron estables durante todo el experimento.

Foto de Lucas Favre en Unsplash
Basándose en esos datos y experiencias actualmente se están realizando estudios más amplios y profundos. Uno de los mayores se lleva a cabo en el oeste de Kenia. Allí, cada mes 21.000 adultos reciben 2.250 chelines keniatas (unos 19 euros, entre un cuarto y la mitad de los ingresos de un hogar medio en la zona más pobre del país) provenientes de la organización GiveDirectly, y lo harán algunos durante dos años, y otros durante 12. Otras personas no recibirán renta y servirán como grupo de control. Se trata del experimento más amplío y prolongado sobre esta materia hecho hasta ahora.
¿Qué se consideraría un éxito?
Su éxito es algo fácil de evaluar. Para empezar, porque no está del todo claro qué se podría considerar un éxito en la aplicación de la RBU: puede que haga mejorar unos indicadores (salud, educación) y disminuir otros (empleo y, paradójicamente, también educación). Además, es importante observar los efectos no solo individuales sino de toda la comunidad al completo y no solo a corto plazo sino de forma sostenible en el tiempo.
En el artículo de Nature, la economista del MIT Tavneet Suri, una de las principales investigadoras del estudio en Kenia, describe cuál sería el ciclo de mejoras que supondría el mejor resultado de la aplicación de la RBU: mujeres mejores alimentadas tendrán hijos más sanos que las madres desnutridas, que podrán atender más años a sus estudios (por salud y porque su familia no requerirá sus ingresos para subsistir), lo cual les dará mayores y mejores oportunidades laborales y a la vez retrasará la edad de matrimonio y maternidad, que también significa madres y bebés más sanos.
Para medir todo esto, los investigadores planean medir todos los indicadores posibles, del emprendimiento en la región hasta la salud, la educación y el estado nutricional. Harán entrevistas puerta a puerta, seguimiento telefónico y tendrán reuniones en profundidad con las personas más mayores para tener un panorama general del efecto de la RBU.

Foto de Didier Weemaels en Unsplash
El intento fallido en Finlandia
Recientemente, otro experimento relacionado con la RBU ha tenido problemas en Finlandia. En marzo de 2016 el gobierno anunció que, en colaboración con una ONG, iban a entregar 560 euros mensuales a 2.000 personas que en ese momento recibían un subsidio de desempleo durante dos años. A ese dinero se aplicaría una fiscalidad más leve que al subsidio y no estarían obligados a buscar empleo activamente para seguir recibiéndolo. Tampoco lo perderían si empezaban a trabajar.
Aunque al principio tuvo una buena acogida, la opinión pública terminó resentida con este sistema por sus costes. Además, esos ingresos no eran ni mucho menos suficientes para cubrir las necesidades básicas y no había un grupo de control para evaluar los resultados. En abril de 2018 el parlamento finlandés se negó a otorgar fondos para un año más del experimentos. Los fallos de procedimiento desvirtuaron el experimento y se han convertido en una barrera para poner en marcha otros programas parecidos.
La política (y no solo los datos) es lo que cuenta
Pero incluso aunque se pongan en marcha, como se ha puesto el estudio keniata, ¿cómo de fiables serán esos datos, sean positivos o negativos? Teniendo en cuenta que siguen siendo muestras relativamente pequeñas en comparación con la población de un país, y que los fondos vienen de iniciativas privadas, es difícil predecir, aun en caso de éxito, si un país podría sostener un sistema así o si sus habitantes tendrían la voluntad de financiarlo con sus impuestos.
Un recordatorio de que en la mayoría de los casos será la política, y no los resultados empíricos, los que determinen que la RBU se convierta en un sistema generalizado. Algo que, por supuesto es inevitable: si la política es la asignación y gestión de los recursos públicos según las prioridades de cada persona, grupo o ideología, ¿es la asignación de dinero sin obligaciones la mejor forma de reducir la pobreza, mejorar la salud y aumentar la calidad de vida?
Referencias:
Money for nothing: the truth about universal basic income – Nature
The Town with No Poverty: The Health Effects of a Canadian Guaranteed Annual Income Field Experiment – Canadian Public Policy
This Kenyan village is a laboratory for the biggest basic income experiment ever – Vox
Finland to end basic income trial after two years – The Guardian
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo Datos vs. ideología: ¿Es la asignación de una renta básica universal la forma más eficiente de reducir la pobreza? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Colonialismo científico: los investigadores africanos se rebelan contra el expolio de datos genéticos
- La reacción de las madres al llanto de los bebés es universal
- Una simulación más eficiente de la evolución del Sistema Solar
Neptunistas y plutonistas

Las capas se corresponden con distintos periodos de actividad del volcán Chimborazo (Ecuador)
El debate entre neptunistas y plutonistas acerca del origen de las rocas de la corteza terrestre se desarrolló a finales del siglo XVIII y comienzos del XIX.
Los neptunistas (llamados así por el dios oceánico romano, Neptuno) creían que, desde un punto de vista fundamental, todas las rocas se habían formado en el agua. Según el neptunista más pominente, Abraham Gottlob Werner (1749-1817), profesor en la Academia de Minería de Freiberg en Sajonia desde 1775 [1], originalmente la superficie de la Tierra estaba cubierta por un caldo espeso, caliente y acuoso. Conforme este caldo se iba enfriando comenzaron a cristalizar los minerales que formaron las rocas que constituyen la base de las cadenas montañosas. Más tarde las rocas “no cristalinas” [2] se depositarion como capas de estratos sobre las rocas primarias [3] cristalinas.
Pero la mera observación de la naturaleza planteaba problemas a esta hipótesis. Probablemente el más obvio se podía plantear como una pregunta muy simple: “¿Y los volcanes?” Los neptunistas respondían con toda tranquilidad que los volcanes eran consecuencia de que se estabn quemando restos de plantas y, por lo tanto, eran intrascendentes.
La tradición neptunista tiene una componente teológico-metafísica en su epistemología, es decir, parte de la base de que puedo conocer de forma válida el mundo pensando, más que observando. Podemos encontrar antecedentes de cosmogonías químicas, como las de los protoquímicos del siglo XVII Joachim Becher y Georg Ernst Stahl, basadas en la asunción de que los procesos que se observan en el laboratorio pueden ser la base de las hipótesis acerca de la formación de los minerales que se encuentran en la naturaleza.

Humboldt y Aimé Bonpland en el volcan Chimborazo. Óleo de Friedrich Georg Weitsch (1810)
Este tipo de afirmaciones chocaban de frente frente con los vulcanistas (llamados así por el dios volcánico romano, Vulcano). Por ejemplo, Rudolph Eric Raspe o Nicolas Desmarest afirmaban que los basaltos , encontrados a menudo entre los estratos, habían fluido desde los volcanes. Los estudios de campo en el Massif Central francés confirmaban esta idea. Curiosamente uno de los primeros centros en abrazar esta idea fue precisamente la llamada Escuela de Freiberg, algunos de cuyos miembros, como Leopold von Buch y Alexander von Humboldt, llevaron a cabo importantes estudios de volcanes sobre el terreno durante la primera mitad del siglo XIX.
Sin embargo, el vulcanista más prominente e influyente había que encontrarlo en la empírica isla de Gran Bretaña. James Hutton, muy influido por las ideas newtonianas, fue quien mejor y más completamente formuló las ideas que terminaron llamándose plutonistas (por el dios inframundano romano, Plutón). Según Hutton el calor era responsible tanto de la consolidación de las rocas del fondo del océano como de su elevación para formar la tierra seca.
En abierto contraste con la aproximación racionalista/continental neptunista, John Playfair escribió Illustrations of the Huttonian Theory of the Earth (1802) en la mejor tradición empirista/británica, concentrándose en las pruebas que apoyaban la teoría neptunista de Hutton y apenas mencionando consideraciones naturalfilosóficas o químicas.
James Hall llevó a cabo experimentos en Estados Unidos, que hoy serían inconcebibles por si peligrosidad, sometiendo piedra caliza a calor y presión enormes, y vivió de chiripa para informar sobre sus resultados: efectivamente la roca se consolidaba eb esas circunstancias. Sin embargo, ni Playfair ni Hall consiguieron convencer a la comunidad geológica de que los estratos se consolidaban por el calor.
Para los años veinte del siglo XIX la mayoía de los geólogos estabn de acuerdo en que los estratos se formaban bajo el aguay que el basalto y otras rocas ígneas eran expulsadas por los volcanes. Esa era la parte fácil. El origen de las rocas duras y cristalinas [2] como los granitos y los gneises eran el verdadero problema. A finales del XIX los mineralogistas aún andaban peleando por el origen de los granitos, en una reedición del debate neptunista-plutonista.
Si la primera fase del debate tuvo una componente filosófica. Esta segunda parte tuvo una componente, digamos, “contrarreformista” [4], en el sentido de que se apreciaban aún más componentes claramente no científicos en el debate. Fue Charles Lyell en la introducción histórica a su muy influyente Principles of Geology (1830) el primero en alertar sobre ello. De hecho, el debate, planteado en los términos en los que se hacía era completamente estéril, como el debate contemporáneo entre defensores y detractores de la teoría de la evolución por selección natural de Darwin. Puede argumentarse que se percibe una clara influencia en la tesis neptunista de la Biblia, en concreto de la idea del diluvio universal, mientras que los plutonistas eran, innegablemente, magníficos geólogos de campo.
En cualquier caso, la evolución posterior de la mineralogía, petrología y geología ha demostrado que ambos bandos aportaron ideas y datos empíricos que contribuyeron a desarrollar las teorías modernas sobre el origen de minerales y rocas.
Notas:
[1] Con él estudiaron minería, entre otros, Alexander von Humboldt y Andrés Manuel del Río en 1791/92.
[2] A simple vista diríamos hoy. Recordemos las definiciones de roca y mineral que vimos aquí.
[3] Sobre la distinción entre rocas primarias y secundarias véase esto.
[4] La Contrareforma fue un movimiento en la Europa católica como reacción a la Reforma de Lutero
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Neptunistas y plutonistas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Montañeros, espeleólogos y mineros
- Diagramas de fases, migmatistas y magmatistas
- Microscopios petrográficos y libros de geoquímica
Un cóctel peligroso
Hace unos lustros llegamos a olvidarnos de ellas, aunque en realidad no habían desaparecido; sólo retrocedido. Los tratamientos farmacológicos, por un lado, y una mayor prevención, por el otro, habían conseguido mantener a raya a las enfermedades de transmisión sexual. La penicilina fue efectiva en los años cuarenta del pasado siglo para curar la sífilis; muchos soldados que habían combatido en la segunda guerra mundial se beneficiaron del tratamiento antibiótico. Y la emergencia del SIDA a comienzos de los ochenta condujo a muchas personas a practicar sexo de forma segura, recurriendo al uso de preservativos como nunca antes se había hecho. Pero las cosas parecen haber cambiado.
En varios países occidentales se viene observando un aumento continuado de la incidencia de la sífilis, gonorrea y clamidiasis durante los últimos años. En España, en concreto, los casos de sífilis y gonorrea han aumentado desde comienzos de este siglo. Y es posible que el mismo fenómeno haya ocurrido también en otros países.
Los especialistas atribuyen el repunte de la incidencia de estas enfermedades al hecho de haberse perdido el miedo al SIDA con la consiguiente relajación de las medidas profilácticas. Los más mayores quizás han abandonado las prácticas seguras, pero muchos jóvenes posiblemente ni siquiera han llegado a adoptarlas. Se perdió el miedo al SIDA como consecuencia de los grandes avances en antirretrovirales, que han conseguido aumentar de forma impresionante la esperanza de vida de las personas seropositivas. Además, desde 2012 se dispone de las denominadas medicinas profilácticas pre-exposición, que son fármacos antirretrovirales que se toman de forma preventiva con objeto de evitar el contagio del VIH. El uso creciente de estos fármacos ha venido acompañado por una disminución del uso de preservativos. Y el problema es que los condones protegen frente a todas las enfermedades de transmisión sexual, pero los antirretrovirales solo lo hacen frente a virus como el VIH.
A la pérdida del miedo parece haberse unido en los últimos años un segundo factor. Las aplicaciones para citas –dating apps– han experimentado un auge enorme. Estas aplicaciones facilitan una mayor promiscuidad, pues pueden poner en contacto a mucha gente con suma facilidad. Eso, en principio, no debería ser un problema. Pero en la práctica lo es porque, al parecer, quienes conciertan citas para practicar sexo de ese modo utilizan menos los condones que el resto. Se desconoce si hay relación causal entre esos dos comportamientos y, de haberla, en qué dirección se produce. Esto es, no está claro si el uso de las dating apps conduce per se a la adopción de pautas de riesgo en las relaciones sexuales o si quienes hacen un mayor uso de las apps en cuestión son quienes, de suyo, tienden a “relajar” las precauciones con mayor frecuencia. Sea una cosa o la otra, la combinación de los dos factores –mayor promiscuidad y menos precauciones- es un peligroso cóctel.
La gonorrea, la sífilis y la clamidiasis son enfermedades provocadas por bacterias y por esa razón mucha gente no les tiene miedo. Confían en que, de contraer cualquiera de ellas, podrán curarse tratándose con antibióticos. Sin embargo, de la misma forma que está ocurriendo con otras bacterias patógenas, también estas están desarrollando resistencias frente a los antibióticos habituales y si aumenta la prevalencia de estas enfermedades, cabe esperar que también aumenten las resistencias, con lo que el problema podría alcanzar proporciones preocupantes.
Solo la prevención puede evitar contagios. Y dado que en este momento no se dispone de vacunas para estas enfermedades, la alternativa sensata al cóctel peligroso consiste en practicar sexo tomando las debidas precauciones; o sea, pasa por ponerse el condón.
—————————————————————–
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 25 de marzo de 2018.
El artículo Un cóctel peligroso se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- “Conócete a ti mismo” no solo es un consejo estúpido, es realmente peligroso
- Mapa genético al nacer
- El bisturí que opera ADN
Naukas Bilbao 2017 – Aberrón entrevista a María Martinón y a José Mª Bermúdez de Castro
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Dos de los grandes especialistas en paleoantropología a nivel mundial explican en esta entrevista, entre otras cosas, por qué su disciplina se parece cada vez más a Juego de Tronos.
Entrevista a JM Bermúdez de Castro y María MartinónEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Aberrón entrevista a María Martinón y a José Mª Bermúdez de Castro se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – María José Calderón y Belén Valenzuela: Esta física es la leche
- Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
- Naukas Bilbao 2017 – Álex Méndez: Luz de luna
Andamios con aplicaciones biomédicas a partir subproductos alimentarios ricos en quitina

Scaffolds obtenidos por bioimpresión de proteína de pescado. Foto: Biomat
Partiendo de subproductos alimentarios ricos en quitina, y tras un tratamiento específico basado en los principios de la química verde, es posible obtener biomateriales que pueden ser procesados por técnicas empleadas actualmente por la industria. La quitina es el segundo polímero natural más abundante después de la celulosa y constituye el exoesqueleto de insectos, arácnidos y crustáceos, entre otros.
El grupo BIOMAT de la UPV/EHU trabaja en la obtención de quitina a partir de fuentes alternativas. Las materias primas que utiliza el grupo son residuos de la industria conservera, a partir de las cuales esperan desarrollar un proceso optimizado de obtención de quitina y proteína, que podrían ser utilizadas en una amplia gama de aplicaciones, ya que poseen propiedades de gran interés, entre las que destacan su biocompatibilidad y biodegradabilidad. Además, se pueden obtener materiales en una gran variedad de formatos (polvo, pellet, film, hidrogel).
Asimismo, la quitina se puede utilizar como refuerzo en la obtención de hidrogeles para aplicaciones biomédicas basados en proteínas. Los hidrogeles son materiales porosos con alto contenido en agua, formados por entramados moleculares que les confieren gran elasticidad y resistencia, y que cumplen una serie de requisitos específicos relativos a biocompatibilidad, biodegradabilidad y citotoxicidad necesarios para las aplicaciones biomédicas. Precisamente, el grupo de investigación ha obtenido muy buenos resultados al usar quitina obtenida de las plumas de calamar como refuerzo en la fabricación de hidrogeles de proteína.
“Imagina un producto hecho de proteína, que sea muy ligero, muy resistente y en el que se adhieran y crezcan las células. Suena complicado, pero en los últimos años hemos investigado cómo desnaturalizar las proteínas para poder modificarlas en función de las propiedades requeridas para cada aplicación específica y, una vez renaturalizadas, siguen siendo biocompatibles y no generan rechazo”, subraya Pedro Guerrero, investigador del grupo BIOMAT.

Hidrogel de proteína reforzado con quitina de calamar. Foto: Biomat
“Uno de nuestros objetivos consiste en desarrollar nuevos materiales para formular hidrogeles similares a los tejidos biológicos, por tanto, estos hidrogeles deben tener unas propiedades específicas para poder interactuar con células o fármacos, por ejemplo”, explica el investigador.
El grupo BIOMAT pretende desarrollar un nuevo material basado en proteína y quitina para fabricar “andamios” (scaffolds) innovadores y que este material sea, además, apto para la fabricación aditiva mediante tecnología Fused Deposition Modeling (FDM), bioimpresión por inyección y bioimpresión por extrusión. “Existe la necesidad de desarrollar nuevos materiales para fabricar estructuras 3D, examinando no sólo las características del material sino también su viabilidad para emplearlo utilizando las técnicas industriales de diseño asistido por ordenador. El reto no está solo en la tecnología de las impresoras, sino también en los materiales que se utilizan para alimentar dichas impresoras”, añade el Dr. Guerrero.
Esta estrategia consiste en modular y controlar las propiedades químicas, físicas y biológicas bajo condiciones de reacción moderadas para fabricar scaffolds para ingeniería de tejidos, depositando una capa de proteína termoplástica sobre otra de forma sucesiva hasta completar el scaffold. Como ventaja de partida, los materiales basados en proteínas son biocompatibles y biodegradables y, por tanto, aptos para la ingeniería tisular.
Una vez obtenidos los materiales basados en proteínas, estos deben cumplir una serie de requerimientos para su utilización en ingeniería de tejidos: ser biocompatibles con los tejidos; mostrar una biodegradabilidad controlada para ser sustituidos por el tejido una vez que éste se haya regenerado; no ser citotóxicos, para evitar respuestas adversas en el organismo; tener las propiedades mecánicas requeridas para cada tipo de aplicación, en función de la localización del scaffold; y poseer una porosidad y una morfología apropiadas para favorecer el crecimiento celular y el transporte de metabolitos, nutrientes y moléculas bioactivas, tanto dentro del scaffold como entre este y el medio circundante. Los resultados de los análisis, llevados a cabo en colaboración con el grupo de la Dra. Rosa Hernández en la Facultad de Farmacia de la UPV/EHU, muestran la viabilidad de los materiales desarrollados para aplicaciones biomédicas.
Referencia:
Tania Garrido, Alaitz Etxabide, Koro de la Caba, Pedro Guerrero (2017) Versatile soy protein films and hydrogels by the incorporation of β-chitin from squid pens (Loligo sp.) Green Chem. DOI: 10.1039/C7GC02982A
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Andamios con aplicaciones biomédicas a partir subproductos alimentarios ricos en quitina se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Dando valor a los residuos marinos para cuadrar la economía circular
- Hidrógeno a partir de composites de fibra de carbono
- Subproductos agrícolas para mantener la calidad nutricional de los lácteos
Killifish, una vida acelerada
La posibilidad de tratar de manera efectiva el envejecimiento con fármacos como si de una enfermedad más se tratase era tenido por una quimera irreal, cuando no directamente producto de la charlatanería de feria (como las que desgraciadamente frecuentan nuestras ciudades hoy en día), hasta hace pocos años. La primera pista de que quizás el envejecimiento no era ese proceso inexorable, designio de los dioses, consecuencia del paso del tiempo que no admitía siquiera el atrevimiento de ser estudiado con la pretensión de buscar una solución vino de la mano de un gusano.
En concreto de individuos de la especie Caenorhabditis elegans, un gusano sencillo de aproximadamente 1 mm de longitud que vive en ambientes templados y que desde los años 70 del siglo pasado comenzó a habitar los laboratorios de investigación genética.
Pero, ¿cuál es el organismo modelo idóneo para estudiar envejecimiento?
Existe un gran número de descubrimientos relacionados con la biología del envejecimiento que se realizaron en seres unicelulares como la levadura, Saccharomyces cerevisiae. Por ejemplo, en esta levadura se descubrió el gen Sir2, iniciador de toda la saga relacionada con las sirtuínas y el popular resveratrol. Y la mosca, Drosophila melanogaster, también ha aportado lo suyo. Pero es obvio que la levadura y la mosca, pese a su utilidad, son organismos bastante alejados de los humanos.
En los laboratorios de investigación biomédica la especie predominante con mucha diferencia es el Mus musculus, el ratón, y, como no puede ser menos, también se estudia envejecimiento en este animal. Un modelo en auge es el del pez cebra, Danio rerio, cuyos embriones son transparentes, fácilmente manipulable genéticamente, poseedor de espectaculares capacidades regenerativas y que comparte gran parte de su genoma con los humanos, entre muchas características que hacen de él un gran modelo de estudio. Pero la esperanza de vida de un ratón ronda los 3 años y en el caso del pez cebra se acerca a los 5 años. Demasiado tiempo para los investigadores (y las agencias financiadoras).
Por ello, unos pocos investigadores han apostado establecer un modelo de envejecimiento rápido. Ese es el caso del Nothobranchius furzeri, conocido en inglés como el “african turquoise killifish” o killifish en corto. El killifish es un pequeño pez de agua dulce que vive en las charcas estacionales de Zimbabue y Mozambique. Una vez pasada la época de lluvias las charcas que son hogar de estos peces se secan y desaparecen. El killifish es capaz de producir y fecundar unos huevos que son resistentes a la sequedad y que entierra entre el barro seco para que, con la llegada de la nueva temporada de lluvias, la especie continúe adelante.
Todo el periodo de vida del killifish se desarrolla en esos 4-5 meses que duran los charcos estacionales en los que vive, resultado de una adaptación de su longevidad a las condiciones de vida extrema. Estos peces fueron en los últimos años llevados al laboratorio desde sus charcas en Zimbabue y Mozambique. Allí se han conseguido adaptar, reproducir y mantener con el objetivo de servir para el estudio del envejecimiento y de las enfermedades humanas, haciendo de este pez el vertebrado con el periodo de vida más breve que se puede crecer en cautividad. En el laboratorio también muestran un periodo de vida corto de pocos meses. Pero lo resaltable es que estos animales envejecen, es decir, muestran un periodo de vida que va desde el crecimiento y maduración sexual, hasta el declive funcional típico del envejecimiento y hasta la muerte. Es una vida completa comprimida en poco tiempo. Una vida acelerada.
Se ha realizado además un esfuerzo ingente que ha permitido en muy poco tiempo tener disponible la secuencia del genoma completo, la generación de herramientas moleculares que permiten la manipulación del genoma durante el desarrollo embrionario (y con ello la obtención de peces modificados genéticamente), el análisis de los patrones de expresión de genes …, en resumen, todo el kit básico que permite a un laboratorio moderno realizar investigación biomédica. Y como “prueba de concepto” se han eliminado genes clave en el control de la longevidad identificados hace años en otras especies y que son comunes al killifish, lo que ha permitido demostrar su utilidad en investigación del envejecimiento. Se han generado y estudiado peces que carecen de la enzima telomerasa (responsable del mantenimiento de la longitud de los telómeros), de genes clave en la estabilidad genómica, en el control de las células madre adultas, en la senescencia celular, en la regulación de la ingesta de nutrientes, etc. En todas aquellas vías que la investigación en este campo ha revelado en los últimos años como cruciales en el control de la longevidad, validando este nuevo organismo modelo.
En el último año el killifish nadó entre los medios de comunicación de medio mundo debido a un curioso estudio que generó llamativos titulares del tipo “la caca joven rejuvenece a los peces viejos”. En él se demostraba que la microbiota intestinal puede tener un papel importantísimo en el estado de salud de un organismo relacionado con la edad. Aunque la aplicación inmediata de este descubrimiento aún esté lejos (yo al menos no lo adoptaría del modo como se identificó), este ejemplo nos ilustra las posibilidades derivadas del estudio del envejecimiento con este nuevo modelo animal.
Suele ocurrir que esos nuevos organismos modelo surgen del esfuerzo individual de uno o unos pocos laboratorios que trabajan arduamente para establecer una nueva especie como animal de laboratorio y que desarrollan la mayoría de los reactivos y herramientas para su estudio. Ese es el caso del laboratorio que dirige Anne Brunet, investigadora del envejecimiento en cuyo laboratorio de la Universidad de Stanford, en California, EEUU, jóvenes investigadores como Itamar Harel (ahora con su propio grupo en la Universidad Hebrea de Jerusalén, Israel), Bérénice Benayoun (que dirige su laboratorio en la Universidad del Sur de California, EEUU) y sobre todo Dario Valenzano (líder de laboratorio en el Instituto Max Planck de Envejecimiento de Colonia, Alemania), han sido responsables en gran medida del desarrollo del killifish como modelo animal para el estudio del envejecimiento.
Lograr establecer un nuevo organismo modelo para la investigación biomédica supone un tremendo esfuerzo, una gran confianza en una idea y el apoyo de un sistema que no mira a corto plazo y cree en la originalidad e intuición de grandes científicos, prestándoles un decidido apoyo.
Este post ha sido realizado por Manuel Collado(@Mcollado_CHUS) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Killifish, una vida acelerada se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- De cómo un sistema estelar allana el camino a la vida
- Vida alienígena inteligente, una historia terráquea
- Lo que más quiero en la vida es a mi pez cebra
Los brackets de zafiro, ¿son realmente de zafiro?
Una de las formas más estéticas de pasar por un tratamiento de ortodoncia es utilizar brackets transparentes, los denominados brackets de zafiro. Existen otros métodos todavía más discretos, como el Invisaling, aunque no es válido para todos los casos y en algunas situaciones el tiempo del tratamiento podría dilatarse.
Sabemos que el zafiro es una piedra preciosa de gran valor. Una piedra del tamaño de un guisante costaría unos 1.500 €. Entonces, ¿cómo es posible que los brackets se fabriquen con este material y aun así la ortodoncia no alcance precios astronómicos? ¿Realmente llevamos zafiros pegados a nuestros dientes?
Qué es el zafiro
El zafiro es un mineral de tipo corindón. Esto quiere decir que está compuesto por óxido de aluminio. El óxido de aluminio es transparente como el vidrio, en cambio el zafiro presenta diferentes coloraciones, especialmente azuladas. Estos colores se deben a la presencia de impurezas de cromo, hierro o titanio.
Tanto el rubí como el zafiro son corindones. A estas piedras las denominamos rubí o zafiro por una clasificación arbitraria en función del color: se le llama rubí a los corindones de colores cálidos (a excepción de la variedad amarilla, que es considerada zafiro) y zafiro a los colores fríos (a excepción de las variedades blanca y gris que son rubíes).
Estas piedras preciosas tardan miles de años en formarse a partir de rocas metamórficas, y precisan alta temperatura y presión. Es uno de los motivos por los que son tan escasas y, por tanto, tan valiosas. Otra de las virtudes del zafiro es que es extremadamente duro (resistente al rayado). Le corresponde una dureza de 9 en la escala de Mohs, lo que le convierte en el mineral más duro tras el diamante.
La evolución de los brackets transparentes
Los primeros brackets estéticos aparecieron alrededor de la década de los 70. Estos brackets se fabricaban inyectando policarbonato en un molde. El policarbonato es un polímero (coloquialmente denominado plástico) de tipo termoplástico, es decir, que se puede moldear aplicando calor. Es un material transparente y resistente al impacto, lo que podría hacer suponer que sería un buen sustituto de los brackets metálicos. La realidad es que este material no tuvo el buen resultado que se esperaba. Aparecían manchas y coloraciones debidas al consumo de colorantes alimenticios, café, té, zumos y tabaco. Además, no era lo suficientemente duro, con lo que terminaba deformándose por presión del arco metálico que une los brackets entre sí.
A mediados de los 80 se desarrollaron los primeros brackets cerámicos. Estos se fabrican de dos maneras, o bien esculpiendo piedra de cristal zafiro empleando herramientas con punta de diamante, o bien a través de un aglutinado térmico de alúmina. El primero se denomina alúmina monocristalina, y el segundo alúmina policristalina, por presentar el óxido de aluminio formando diferentes tipos de cristales (diferentes ordenamientos) en lugar de uno.
Ambos materiales resisten la tinción, la ranura no se distorsiona por presión del arco y además son químicamente inertes, con lo que el paciente puede ingerir cualquier líquido y comida sin miedo al desgaste.
El arco metálico se fija a los brackets a través de gomas, con lo que estas sí terminan tiñéndose con la comida. Pero como se cambian al menos una vez al mes, no son un verdadero problema estético.
Tampoco presentan grandes problemas de fricción con el arco, obteniéndose resultados similares a los que se obtienen con los brackets metálicos convencionales. También hay brackets cerámicos que resuelven estos problemas incorporando metal a la ranura o un sistema de autoligado que evita el uso de gomas.
Cómo se pegan los brackets a los dientes
Para pegar los brackets primero se limpian los dientes con un cepillo y una pasta de pulir de polvo de piedra pómez. Luego se aplica un gel con ácido ortofosfórico, que no daña el diente y abre los poros superficiales del esmalte para ganar retención. Además, este ácido elimina completamente la placa bacteriana. Los restos se eliminan con agua.
Una vez terminada la limpieza se procede a la colocación de los brackets, para ello se utilizan composites adhesivos de secado rápido, también transparentes. Químicamente son acrilatos (como el metilmetacrilato, los poliácidos acrílicos y los diacrilatos). Para sellar el composite se aplica aire y luz ultravioleta.
Cómo se hace el zafiro de los brackets
El zafiro de los brackets de zafiro no es el mismo que el de las piedras preciosas de las joyas. Si fuese así, el precio de la ortodoncia sería desorbitado. Para la ortodoncia se fabrica el zafiro de forma sintética, de modo que obtenemos la misma estructura química y la misma composición: óxido de aluminio. Al no contener impurezas de otros metales, este zafiro será completamente transparente.
La composición del zafiro es óxido de aluminio (Al2O3), también denominado alúmina. Este compuesto se extrae de las minas de bauxita. La bauxita es una roca con alto contenido en óxido de aluminio hidratado. Este mineral se pulveriza finamente. Es el que se utiliza para fabricar aluminio. Y tiene la propiedad de que si lo calentamos lo suficiente es capaz de formar cristales de zafiro.
Para fabricarlo se parte de pequeños cristales de alúmina que se calientan en un crisol en un horno a 2.200 oC, la mitad de la temperatura de la superficie del sol, que logra fundir la alúmina. A continuación se introduce en el crisol una varilla con una minúscula porción de zafiro. Y se deja caer la temperatura para que la alúmina comience a solidificar. La porción de zafiro actúa como semilla. Alrededor de ella empezará a cristalizar la alúmina siguiendo la misma estructura cristalina que el zafiro. Este proceso de crecimiento del cristal puede tardar hasta un par de semanas. Así suelen fabricarse piedras de zafiro sintético de hasta 200 kg.
Estas piedras de zafiro sintético son tan duras como el zafiro natural. Para tallarlas es necesario emplear un mineral más duro que el zafiro: el diamante. También hay técnicas que permiten el tallado por medio de corte ultrasónico o por combinación de ambas. Así se talla el zafiro que se emplea para los brackets, para los láseres, para las esferas de los relojes o los protectores de sensores y cámaras militares.
Conclusión
Los brackets de zafiro son realmente de zafiro. En lugar del valioso zafiro natural se emplea o bien alúmina policristalina, o bien zafiro sintético. Este último es un cristal de alúmina, igual que lo es el zafiro natural, compuesto por los mismos elementos en la misma disposición.
Si llevas brackets de zafiro, llevas zafiro pegado a tus dientes. Sonríe con glamur.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Los brackets de zafiro, ¿son realmente de zafiro? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- ¿Cuánto cuesta realmente investigar en biomedicina?
- “Conócete a ti mismo” no solo es un consejo estúpido, es realmente peligroso
- Si hacer fármacos fuese como jugar a Lego, la pieza más guay se llamaría carbino
Con qué calcular ondas gravitacionales en superordenadores a exaescala
Incluso después de la medición directa de sus ondas gravitacionales, aún hay muchas preguntas sin resolver sobre los agujeros negros. ¿Qué sucede cuando dos agujeros negros se fusionan, o cuando las estrellas chocan con un agujero negro? Esto es lo que pretende contribuir a resolver un nuevo método numérico desarrollado por un equipo internacional de investigadores encabezado por Michael Dumbser, de la Universidad de Trieste (Italia). El código de simulación “ExaHyPE” está diseñado de tal manera que será capaz de calcular ondas gravitacionales en la próxima generación de superordenadores a exascala.
La dificultad de simular agujeros negros reside en la necesidad de resolver el complejo sistema de ecuaciones de Einstein. No existe una solución analítica, por lo que debe realizarse usando la fuerza bruta, numéricamente, usando para ello la potencia los superordenadores. La precisión y la rapidez con la que se puede aproximar una solución dependen del algoritmo utilizado. En este sentido ExaHyPE podría ser un hito. A largo plazo, este trabajo teórico podría ampliar las posibilidades experimentales para detectar ondas gravitacionales de otros cuerpos astronómicos además de los agujeros negros.
Esta aproximación es, esencialmente, un método Galerkin, es decir, transforma una relación continua, como una ecuación diferencial, en un operador discreto (no continuo) lo que permite optimizar los cálculos de ondas gravitacionales en superordenadores, tanto en precisión como en velocidad.
ExaHyPE ha sido diseñado para explotar las posibilidades de cálculo de los superordenadores a exaescala. Aunque aún no se han construido, los científicos de todo el mundo ya están estudiando cómo hacer uso de esta próxima generación de máquinas. Estos superordenadores representan la evolución futura de los superordenadores a petascala actuales. Para entender qué significa esto pensemos que el ordenador en el que se ha escrito este texto tiene un procesador que opera a 3 gigahertz, lo que supone que es capaz de procesar unos pocos gigaflops u operaciones de coma flotante por segundo; un superordenador como el MareNostrum del Barcelona Supercomputing Center – Centro Nacional de Supercomputación puede alcanzar los 11,15 petaflops, es decir, hace más de 10 millones de veces el número de cálculos por segundo que hace este ordenador. De esta unidad, el petaflop, es de donde viene el nombre de la generación actual de superordenadores. La próxima trabajará con exaflops, 1000 veces más rápido, del orden de un millón de billones (1018) de cálculos por segundo.
Mientras esperan que se construyan los primeros ordenadores a exaescala, los científicos de ExaHyPE ya están probando su software en los mayores centros de supercomputación de Alemania.
Posiblemente lo más interesante de este nuevo algoritmo es la posibilidad de aplicarlo, además de a objetos astrofísicos, a fenómenos terrestres con los que comparten analogías en las matemáticas subyacentes, como tsunamis y terremotos.
Referencia:
Michael Dumbser, Federico Guercilena, Sven Köppel, Luciano Rezzolla, and Olindo Zanotti (2018) Conformal and covariant Z4 formulation of the Einstein equations: Strongly hyperbolic first-order reduction and solution with discontinuous Galerkin schemes. Phys. Rev. D doi: 10.1103/PhysRevD.97.084053
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Con qué calcular ondas gravitacionales en superordenadores a exaescala se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cosmología de ondas gravitacionales en 29 órdenes de magnitud
- Comprimiendo la luz para detectar mejor ondas gravitacionales
- Las ondas gravitacionales en la película ‘Interstellar’
Quipu y yupana, instrumentos matemáticos incas (II)
En mi anterior entrada en el Cuaderno de Cultura Científica, “Quipu y yupana, instrumentos matemáticos incas (I)”, estuvimos hablando del sistema de numeración inca, que es un sistema de numeración decimal y posicional, como también lo es el sistema de numeración indo-arábigo que utilizamos de forma generalizada en la actualidad, pero cuyas cifras básicas son nudos que se realizan sobre cuerdas que cuelgan de una cuerda principal en los quipus.

Quipu inca, American Museum of National History (Nueva York), División de Arqueología
Los quipus servían para representar los números, relacionados con los diferentes usos de estos instrumentos matemáticos y sociales, sin embargo, no servían para realizar operaciones aritméticas como sumas, restas, multiplicaciones y divisiones. Como mucho podían registrar los resultados de una operación aritmética, como mostramos en la anterior entrada con la suma de cuatro cantidades y su resultado, 658 = 38 + 273 + 258 + 89.
Para realizar las operaciones aritméticas utilizaban una especie de ábaco, que el cronista José de Acosta (1540-1600) menciona en su texto Historia Natural y Moral de las Indias, como “quipus de granos de maíz”.
“… pues verles otra suerte de quipos, que usan de granos de maíz, es cosa que encanta; porque una cuenta muy embarazosa, en que tendrá un muy buen contador que hacer por pluma y tinta, para ver a como les cabe entre tantos, tanto de contribución, sacando tanto de acullá y añadiendo tanto de acá, con otras cien retartalillas, tomarán estos indios sus granos y pondrán uno aquí, tres acullá, ocho no sé dónde; pasarán un grano de aquí, trocarán tres de acullá, y, en efecto, ellos salen con su cuenta hecha puntualísimamente sin errar un tilde, y mucho mejor se saben ellos poner en cuenta y razón de lo que cabe a cada uno de pagar o dar, que sabremos nosotros dárselo por pluma y tinta averiguado. Si esto no es ingenio y si estos hombres son bestias, júzguelo quien quisiere, que lo que yo juzgo de cierto es que, en aquello que se aplican, nos hacen grandes ventajas.”
El jesuita José de Acosta nos describe la destreza con la cual los indios realizaban sus operaciones aritméticas con este instrumento de contabilidad inca, el “quipu de granos de maíz”, que hoy se conoce con el nombre de “yupana” (que procede del término quechua “yupay” que significa contar) o, simplemente, “ábaco inca”.
Sin embargo, en el texto de José de Acosta no se describe cómo es ese dispositivo para realizar operaciones aritméticas, ni cómo funciona. Otro tanto pasa en el texto Comentarios reales de los Incas (1609) del escritor e historiador Gómez Suárez de Figueroa (1539-1616), apodado el Inca Garcilaso de la Vega, que también se maravilla con el manejo que tenían del ábaco al decir que “hacían las cuentas con piedrezuelas y las sacaban tan ajustadas y verdaderas…”. En dicho texto también menciona que los indios sabían mucho de geometría y de aritmética.

Yupana de piedra tallada (1400 – 1532 d.C.), del Museo Nacional de Arqueología, Antropología e Historia de Perú. Fotografía de Daniel Giannoni
Pero respecto al instrumento para realizar esos cálculos, el ábaco inca o yupana, solo es mínimamente descrito en dos fuentes de la época. La primera es la Historia del Reino de Quito y crónica de la provincia de la compañía (1789), del sacerdote jesuita Juan de Velasco (1727-1792), quien se refiere a “ciertos archivos o depósitos hechos de madera, de piedra o de barro, con diversas separaciones, en las cuales se colocaban piedrecillas de distintos tamaños, colores y figuras angulares”. Se correspondería con una serie de artefactos encontrados en excavaciones arqueológicas, como el que aparece en la imagen anterior, y que se conocen como “yupanas arqueológicas”.
La otra fuente sobre la yupana es la imagen del quipucamayo que aparece en el texto Nueva corónica i buen gobierno (1615), del cronista Felipe Guamán Poma de Ayala, dibujado junto a los dos instrumentos matemáticos incas, el quipu y la yupana.

Dibujo de un quipucamayo, de hecho, el “contador mayor y tesorero” que informaba directamente al Inca, del libro “Nueva corónica i buen gobierno” (1615), de Felipe Guamán Poma de Ayala, que aparece con los dos instrumentos matemáticos incas, el quipu y la yupana, o ábaco inca
Esta imagen es la única “especie de explicación” que existe sobre el ábaco inca y su funcionamiento. A partir de la misma se ha intentado reconstruir su funcionamiento, pero debido a la falta de información que supone esa única imagen, existen muchas teorías que intentan explicarlo. Veremos algunas de ellas.
En la mayoría de intentos de explicar el funcionamiento de la yupana de Poma de Ayala se considera que, de forma similar a los quipus, el sistema de numeración que está detrás de la yupana es un sistema de numeración posicional decimal. Cada una de las filas se correspondería con una de las potencias de diez, las posiciones de la representación del número, es decir, las unidades (1), decenas (10), centenas (100), unidades de millar (1.000) y decenas de millar (10.000).
La interpretación más antigua se debe al antropólogo sueco Henry Wassen (1908-1996), que aparece en su artículo The ancient peruvian abacus (1931). En su interpretación de la ilustración de Poma de Ayala los círculos blancos representarían huecos del ábaco en los que colocar los maíces o piedrecitas, de forma que los círculos negros de la imagen representarían huecos en los que ya se han colocado los maíces. Además, Wassen asigna a cada una de las columnas, de izquierda a derecha, los valores 1, 5, 15, 30. Es decir, cada maíz en la primera columna de la izquierda tendría el valor de 1, dentro de la posición correspondiente en función de la fila, cada maíz de la segunda columna tendría el valor 5, el valor 15 en la tercera y 30 en la última.

(a) imagen de la Yupana de Poma de Ayala e (b) interpretación de Henry Wassen. Imagen de “La cresta del pavo real”
De esta forma, la yupana representada por Poma de Ayala estaría representando al número 408.257. En la primera fila, la de las unidades, tendríamos 2 maíces en la primera columna (2 × 1), más tres en la segunda (3 × 5), ninguno en la tercera (0 × 15) y un maíz en la cuarta columna (1 × 30), en total, 2 + 15 + 30 = 47. De la misma forma se realizaría el cálculo para las demás filas, obteniéndose el resultado mencionado,
47 + 21 × 10 + 20 × 100 + 36 × 1.000 + 37 × 10.000 = 408.257.
Una de las cuestiones que llaman la atención de esta interpretación es que hay números que se pueden representar de varias formas. Por ejemplo, el número 47 mencionado antes también se podría obtener como (2, 0, 1, 1), es decir, 2 maíces en la primera columna, ninguna en la segunda, 1 en la tercera y 1 en la cuarta, frente a la representación anterior (2, 3, 0, 1). Aunque esto bien podría tener la intención de dejar espacios para manejar los maíces en el propio proceso de la operación aritmética.
Aunque una de las mayores críticas a esta interpretación de la yupana, motivo por el cual se quedaría rápidamente desfasada, es la complejidad de la misma.
George G. Joseph en su libro La cresta del pavo real realizó una interpretación similar, pero más sencilla, y en su opinión más plausible que la de Wassen, de la yupana de Poma de Ayala. Para Joseph los maíces o piedrecillas de cada columna tendrían siempre el valor de una unidad (1), pero en la primera columna solo se podrían colocar 5 maíces, es decir, habría 5 huecos, en la segunda 3 maíces, en la tercera 2 y en la última 1.

(a) imagen de la Yupana de Poma de Ayala e (c) interpretación de George G. Joseph. Imagen de “La cresta del pavo real”
De esta forma, el valor representado en la ilustración del ábaco inca de Poma de Ayala sería 53.636, puesto que sería
6 + 3 × 10 + 6 × 100 + 3 × 1.000 + 5 × 10.000 = 53.636.
Una observación rápida de esta interpretación de la ilustración de Nueva corónica i buen gobierno, me hace preguntarme que de ser esta la interpretación correcta, cuál es el motivo por el cual los maíces (círculos negros en la imagen) están colocados en esas posiciones y no en otras. Por ejemplo, tanto en la primera fila como en la tercera hay 6 maíces en cada una de ellas que representan el 6 en cada una de las posiciones, pero están colocadas en diferentes posiciones, mientras que, si el objetivo es solamente representar a los números, sería más lógico y en orden, de izquierda a derecha, rellenando huecos.
Una posible explicación estaría en el hecho de que la yupana no es simplemente para representar números, sino para realizar operaciones aritméticas, y Poma de Ayala podría estar representando el resultado de una operación aritmética, por ejemplo, una multiplicación, de forma que los maíces habrían quedado en la posición consecuencia de los movimientos de la operación aritmética.
George G. Joseph se aventura a intentar explicar cómo serían las operaciones aritméticas con la yupana, según su interpretación de la misma. Como él mismo comenta, la adición y la sustracción no plantearían muchos problemas, y la forma de realizarse sería más o menos sencilla.
Pero realiza la siguiente conjetura sobre el mecanismo de multiplicación con el ábaco inca. Supongamos que se quieren multiplicar los números 116 y 52. Teniendo en cuenta que 52 es igual a 5 × 10, primero se desplazaría una fila hacia arriba la representación del número 116 con maíces, es decir, se obtendría el número 1.160 (10 × 116). Ahora se sumaría 1.160 a sí misma 5 veces (5 × 1.160), obteniendo 5.800. Y finalmente se añadiría dos veces 116 al resultado anterior, obteniéndose el valor buscado, 6.032, como se muestra en la imagen de abajo.
El método es esencialmente utilizar la idea de multiplicación sobre una numeración posicional, ya que
116 × 52 = 116 × (5 × 10 + 2) = 116 × 10 × 5 + 116 × 2,
de forma análoga a como se realiza en otros procedimientos de multiplicación para sistemas posicionales.

Tres pasos del posible procedimiento de multiplicación utilizando la yupana de Poma de Ayala, según la interpretación de George G. Joseph en “La cresta del pavo real”
El historiador italiano radicado en Perú, Carlo Radicati di Primeglio (1914-1990), propone también una interpretación en la que cada maíz simboliza una unidad, como en el caso de Joseph, pero en su opinión se podían poner hasta nueve maíces en cada recuadro, y no 5, 3, 2 y 1, como sugiere la imagen del texto de Poma de Ayala. A partir de esa suposición construye toda una serie de procedimientos para sumar, restar, multiplicar y dividir, que pueden verse en su texto El sistema contable de los Incas, Yupana y Quipu (1976).
Para terminar la entrada de hoy del Cuaderno de Cultura Científica veamos la última de las interpretaciones, que podríamos clasificar como clásicas, tanto por el momento en que son formuladas, como por el hecho de que mantienen la suposición de un sistema de numeración de la yupana es decimal y posicional. Es la propuesta del ingeniero textil británico William Burns Glynn (1923-2014), quien cuando llegó a Perú quedó fascinado por el arte textil peruano y por los quipus, y es quien propuso el nombre de “yupana” para el ábaco inca.
La propuesta, en cuanto a la representación de los números dentro del ábaco, es similar a la propuesta por George G. Joseph, con la diferencia de que solo son válidas para la representación de los números las tres primeras columnas (con 5, 3 y 2 huecos para piedras), mientras que la última columna sería la columna de la “memoria”, y que sería un elemento fundamental para los métodos de cálculo.
Por lo tanto, en cada fila puede haber hasta 10 piedras (5 + 3 + 2), y cuando se tienen las 10 piedras, se pueden sustituir por una de memoria mientras se está computando, lo cual equivale a una piedra en la siguiente fila (hacia arriba). Por ejemplo, en la siguiente imagen se representa el número 53.906, según el modelo de Glynn.

Representación del número 53.906, según la interpretación de Glynn
A partir de la interpretación de William Burns Glynn de la yupana, este propone los posibles métodos para realizar las operaciones aritméticas que podrían utilizar en el imperio inca. Veamos el sencillo proceso de suma, que esencialmente es el mismo que en cualquier otro ábaco.
Supongamos que queremos sumar 489 y 754. En primer lugar, se colocan las piedras en la yupana representando uno de los números, por ejemplo, el 489, y se colocan las fichas que representarían el otro número fuera de la yupana, al lado de la memoria, como se muestra en la imagen.
A continuación, se empiezan a meter piedras de las unidades que están en el lateral dentro de la yupana hasta completar las 10 (5 + 3 + 2), en este caso solo una y quedando tres aún en el lateral. Una vez completadas las diez se recogen y se pone una en la parte de la memoria, quedando como en la siguiente imagen.
Como ya quedan huecos libres en las unidades de la yupana, se colocan las piedras que aún quedan en el lateral, que son tres, y después, la piedra de la memoria se pasa a la siguiente fila, en este caso, a la de las decenas. El resultado es el siguiente.
Una vez que hemos terminado con las piedras laterales de las unidades, se realiza la misma operación para las decenas. Solo queda un hueco libre en la segunda fila, la de las decenas, luego se coloca una de las piedras laterales de las decenas y como se ha completado la fila, se quitan las 10 piedras de esa segunda fila y se pone, en su lugar, una piedra de memoria. Además, han quedado libres los huecos, por lo que se colocan las piedras restantes del lateral de las decenas, que, en este caso, son 4. El resultado es el siguiente.
Como antes, la piedra que está en la memoria (en la parte de las decenas) se traslada a la siguiente fila de la yupana, la de las centenas. Y de nuevo, se incorporan las piedras del lateral, que en este caso son 7, a la zona de la yupana, y cuando se complete la fila se quitan las 10 piedras y se coloca una en la memoria, dejando sitio para continuar colocando las piedras del lateral. Y no nos olvidemos de subir la piedra de la memoria, a la siguiente fila, en este caso, la de las unidades de millar (como se muestra en la siguiente imagen). Como ya no hay más piedras en el lateral para añadir se ha concluido la suma y el número que queda representado es el resultado, 489 + 754 = 1.243.
La interpretación de Glynn de la yupana de Poma de Ayala ha alcanzado cierta popularidad y se está utilizando en la enseñanza, como una nueva herramienta didáctica.
Existen más interpretaciones del ábaco inca que aparece en la ilustración de la Nueva corónica i buen gobierno de Felipe Guamán Poma de Ayala, algunas abandonan la condición de decimal del sistema de numeración y otros la condición de ser un sistema posicional. Pero de estas otras interpretaciones más modernas hablaremos en otra ocasión.

Dos yupanas del Perú (siglos XV-XVI), que se encuentran en el museo Raccolte extraeuropee del Castello Sforzesco, de Milán
Bibliografía
1.- Raúl Ibáñez, Quipu y yupana, instrumentos matemáticos incas (I), Cuaderno de Cultura Científica, Mayo, 2018
2.- Carlos Radicati de Primeglio, El sistema contable de los Incas, Yupana y Quipu, Librería Studium, 1976.
3.- Carlos Radicati de Primeglio, Estudios sobre los quipus, UNMSM, Fondo Editorial; COFIDE; Istituto Italiano di Cultura, 2006.
4.- Diego Pareja, Instrumentos prehispánicos de cálculo: el quipu y la yupana, revista Integración, Departamento de Matemáticas UIS, vol. 4, n. 1, p. 37-55, 1986.
5.- Felipe Guamán Poma de Ayala, Nueva corónica i buen gobierno, 1615. Versión online en la Biblioteca Real Danesa
6.- José de Acosta, Historia natural y moral de las Indias, 1589. Versión online en la Biblioteca Virtual Miguel de Cervantes, 1999.
7.- George Gheverghese Joseph, La creta del pavo real, Las matemáticas y sus raíces no europeas, Pirámide, 1996.
8.- Henry Wassen, The ancient Peruvian abacus, Comparative Ethnological Studies 9, p. 191-205, 1931.
9.- William Burns Glynn, La Tabla de Cálculo de los Incas, Lima, 1981.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Quipu y yupana, instrumentos matemáticos incas (II) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Quipu y yupana, instrumentos matemáticos incas (I)
- El quipu: ¿algo más que un registro numérico?
- Juegos matemáticos con tabletas de chocolate
La función respiratoria depende del tamaño de los animales

Fuente: San Diego Zoo
El tamaño de los animales es una variable que ha de ser tenida en cuenta siempre que estudiemos su funcionamiento. La razón de su importancia es que un buen número de funciones cursan a velocidades que dependen del tamaño, pero esa dependencia no corresponde a una proporcionalidad lineal estricta. El caso mejor conocido y de más profundas implicaciones es el de la tasa metabólica, que expresa la velocidad a la que transcurre el conjunto de reacciones químicas que configuran el metabolismo de un organismo.
Como vimos aquí, la tasa metabólica de un animal en reposo depende de su masa de acuerdo con la función potencial M = a Wb. En tal ecuación el coeficiente a puede tomar valores diversos dependiendo de las condiciones ambientales en que se encuentra el animal y de otras circunstancias, y la potencia b toma valores que pueden diferir entre especies y condiciones ambientales, pero que, para el conjunto de animales, es de 0,75. Por lo tanto, la tasa metabólica específica de masa (M/W) puede expresarse de acuerdo con la ecuación M/W = a Wb W-1 = a Wb-1 y, por lo tanto M/W = a W-0.25. O sea, la tasa metabólica es mayor cuanto menor es el tamaño de los animales.

Tasa metabólica en función de la masa. Fuente: Singer, Dominique. (2006). Human Hibernation for Space Flight: Utopistic Vision or Realistic Possibility?. Journal of the British Interplanetary Society. 59. 139-143.
Todas las actividades animales (a las que se hizo referencia aquí) conllevan gasto de energía, por lo que requieren su suministro en forma de ATP o moléculas equivalentes. Y en la inmensa mayoría de los casos ese suministro se produce gracias al catabolismo de sustratos energéticos que utiliza el O2 como aceptor final de electrones en la cadena respiratoria mitocondrial (lo vimos aquí). Por ello, el consumo de oxígeno (VO2) constituye el indicador universal del nivel que alcanza el conjunto de actividades que constituyen el metabolismo.
Dado que, como se ha señalado, la actividad metabólica varía en función de la masa de los animales de acuerdo con una función potencial en la que b vale 0.75, interesa indagar acerca de la dependencia existente entre las variables implicadas en la captación de oxígeno del exterior y el tamaño. Y para ello, debemos expresar el consumo de oxígeno en función de los parámetros respiratorios relevantes. Así, VO2 = Va (Ci –Ce), siendo Va la tasa ventilatoria -que es el volumen de medio respiratorio que intercambia el órgano respiratorio con el exterior por unidad de tiempo-, y (Ci – Ce), la diferencia de concentración de oxígeno entre las corrientes inhalante y exhalante.
La diferencia entre las concentraciones inhalante y exhalante de oxígeno es, para la generalidad de los animales, independiente del tamaño. En términos matemáticos la potencia que relaciona la diferencia entre esas concentraciones y la masa de los animales es igual a 0; o sea, (Ci – Ce) = a’ W0. La tasa ventilatoria, sin embargo, sí varía con el tamaño, y lo hace de acuerdo con una dependencia similar a la del metabolismo. Aunque el valor de b puede variar entre especies, si se consideran en conjunto las aves y los mamíferos (que son los grupos para los que se dispone de mayor volumen y mejor información), ese valor no difiere significativamente de 0.75. Así pues, Va = a’’ W0.75, como cabía esperar, puesto que si VO2 = a W0.75y (Ci – Ce) = a’ W0, y dado que Va = VO2/(Ci – Ce), entonces Va = a/a’ W0.75 – 0; o sea, Va = a’’ W0.75. En definitiva, cuanto mayor es el tamaño de un animal mayor es su tasa ventilatoria, pero esta última crece más lentamente cuanto más crece aquel o, lo que es lo mismo, la diferencia entre dos animales de distinto tamaño no es de la misma magnitud relativa que la diferencia entre los tamaños, sino que la tasa ventilatoria aumenta en menor medida que lo hace la masa del animal.
Por otro lado, la tasa ventilatoria es, a su vez, el producto entre la frecuencia respiratoria o número de ciclos respiratorios por unidad de tiempo (fc) y el volumen corriente (en inglés tidal volume) (VC): Va = fc VC. El volumen pulmonar y el volumen traqueal de aves y mamíferos son linealmente proporcionales a la masa del animal. Parece lógico, por ello, que el volumen corriente exhiba el mismo tipo de dependencia con el tamaño. En efecto, VC = a’’’ W1. Eso sí, la frecuencia respiratoria disminuye cuanto mayor es un animal de acuerdo con una función en la que la potencia que afecta a la masa vale -0.25; o sea: fc = a’’’’ W-0.25. Así ha de ser, dado que Va = a’’ W0.75 y VC = a’’’ W1, por lo que fr = a’’ W0.75/ a’’’ W1= a’’/a’’’ W0.75-1 = a’’’’ W-0.25. En definitiva, cuanto mayor es un animal, menor es la frecuencia de sus ciclos respiratorios, o lo que es lo mismo, respira más lentamente.
Fuentes:
William A. Calder III (1996): Size, Function and Life History. Dover Publications Inc, Mineola, NY, EEUU.
Knut Schmidt-Nielsen (1984): Scaling: Why Animal Size is so Important. Cambridge University Press, Cambridge, RU
Geoffrey W. West (2017): Scale. Penguin Random House, NY, EEUU
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La función respiratoria depende del tamaño de los animales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El tamaño relativo de los órganos animales
- A mayor tamaño menor intensidad metabólica
- Sistemas nerviosos: evolución del tamaño encefálico
Diagramas de fases, migmatistas y magmatistas

La cianita o distena es un silicato de aluminio que se suele encontrar en rocas metamórficas. Es uno de los minerales indicadores para estimar la temperatura, presión y, por tanto, profundidad a la que ha estado sometida la roca.
A finales del siglo XIX los mineralogistas encontraron que el desarrollo de una rama de la física, la termodinámica, aportaba una perspectiva completamente diferente a la hora de considerar el origen de minerales y rocas. En especial la desarrollada por Josiah Willard Gibbs y que da lugar a una de las expresiones más simples, y profundas, sobre los sistemas en equilibrio: la regla de las fases.
La regla de las fases de Gibbs dice que el número de fases (F) en un sistema [1] más el número de grados de libertad (L) del sistema [2] siempre es igual al número de componentes (C) más 2. Esto es, F + L = C + 2.
Los mineralogistas empezaron a construir diagramas de fases para los minerales y rocas más comunes para intentar comprender la secuencia y manera en la que se formaban los distintos cristales. Esta línea de investigación supuso la aparición de los Estados Unidos en la escena investigadora internacional, hasta ese momento dominada por británicos, alemanes, franceses y suecos. Su necesidad de aparato matemático, su rupturismo con los enfoques tradicionales y su productividad contribuyeron a que el peso de la investigación mineralógica estuviese a comienzos del siglo XX a punto de cambiar de orilla atlántica.

Diagrama de fases para silicatos de aluminio.
En 1902 se funda el Instituto Carnegie de Washington, con una laboratorio equipado con todo lo necesario específicamente para el desarrollo de diagramas de fases. Gibbs explicaba su regla de las fases en su On the Equilibrium of Heterogeneous Substances (1878); 50 años después se publicaba The evolution of igneous rocks (1928) por parte de Norman Bowen, del Instituto Carnegie, en el que se recogían todos los fundamentos geoquímicos y geofísicos necesarios para el estudio de la formación de minerales y rocas, convirtiéndose en “el manual” de petrología por excelencia.
Pero, si bien la parte, digamos, final del proceso había quedado bastante clara, el tema recurrente del origen último de minerales y rocas no se solucionó entre las paredes de los laboratorios. De hecho, tantos los investigadores de bata como los de bota se alineaban en dos campos opuestos, y frecuentemente se comparaban con neptunistas y plutonistas del siglo XIX [3].

Pliegue tigmático en una migmatita. Las migmatitas se forman cuando parte de una roca metamórfica se funde y recristaliza en forma de roca ígnea, creándose una mezcla de roca metamórfica con roca ígnea. Se forman por efecto de temperaturas extremas sobre rocas preexistentes y no son el resultado de reacciones en estado sólido.
La clave de la discusión estaba en el origen de un grupo de rocas llamadas migmatitas [4], un término que creó Jakob Sederholm en 1907 para designar a un tipo de roca que es una mezcla de roca metamórfica y roca ígnea. Por una parte estaban los migmatistas, minoritarios, que creían que las migmatitas se formaban in situ al actuar distintos fluidos sobre rocas existentes convirtiéndolas en algo completamente diferente.
Por el otro estaban los magmatistas, encabezados por Bowen y Reginald Daly, de la Universidad de Harvard, que afirmaban que la composición de las migmatitas se debía a la intrusión de magma a partir de depósitos existentes bajo la corteza terrestre. Pero los magmatistas no eran un todo compacto pues en este bando estaban los creyentes en el magma único y los creyentes en la variedad de magma, además de los debates sobre si los magmas son entes homogéneos o tienen partes diferenciadas.
Las discusiones continuaron hasta la Segunda Guerra Mundial. Tras ella, nuevas técnicas de laboratorio y nuevos sistemas de exploración, especialmente la prospección del suelo marino, sugirieron nuevos derroteros para la investigación mineralógica.
Notas:
[1] Una fase es una parte homogénea de un sistema heterogéneo separada del resto de partes por una frontera distiguible; cada estructura cristalina es una fase, por tanto.
[2] Lo de los grados de libertad es asimilable al número de variables intensivas independientes del sistema, es decir, independientes de la masa, como la presión o la temperatura.
[3] La próxima entrega de esta serie estará dedicada en exclusiva a esta batalla. Solo avanzaremos que, al igual que la de evolucionistas y creacionistas en biología, la de neptunistas y plutonistas tiene un componente de guerra de religión.
[4] Del griego μιγμα, migma, mezcla.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Diagramas de fases, migmatistas y magmatistas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Montañeros, espeleólogos y mineros
- Esa pesadilla científica llamada mineralogía
- Microscopios petrográficos y libros de geoquímica
Modelos de colaboración social y sistemas de parentesco

La sociedad hindú hace gala de un rico politeísmo y fuertes estructuras de parentesco reconocidas por ley.
En todas las sociedades humanas los individuos cooperan y muestran comportamientos altruistas. De esa forma es posible conseguir unos resultados deseables para el conjunto de la sociedad o, al menos, para una amplia mayoría de sus miembros. Para que eso sea posible los grupos humanos se han dotado de sistemas que evitan que individuos egoístas se valgan del esfuerzo de los demás sin aportar a cambio lo que les corresponde, de manera la cooperación entre sus miembros se mantenga y se preserve la cohesión social.
Durante las últimas tres décadas un conjunto de investigadores provenientes de campos tales como la antropología, la economía, la biología y la psicología, principalmente, han avanzado en la comprensión de los mecanismos que hacen posible la cooperación y han aventurado, incluso, interesantes hipótesis acerca del origen evolutivo de esos mecanismos. Sus trabajos han arrojado mucha luz acerca de los fundamentos del comportamiento prosocial y de la moralidad, que se han relacionado con procesos de evolución cultural o genético-cultural que cursan mediante lo que se conoce como selección de grupo selección multinivel.
Recientemente, Benjamin Enke, un joven economista de la Universidad de Harvard (EEUU) ha analizado la relación entre mecanismos alternativos que posibilitan los comportamientos prosociales y la intensidad y extensión de los vínculos en los sistemas de parentesco. Los mecanismos identificados abarcan aspectos diferentes de la vida social, las creencias, así como la psicología de los miembros de la comunidad. E incluyen elementos tales como (1) dioses moralizantes, (2) principios éticos orientados, alternativamente, hacia una moral individual o una comunitaria, (3) sentimientos privados de culpa o, alternativamente, de vergüenza pública (ante los demás miembros del grupo), (4) predisposición a castigar a los tramposos, y (5) importancia de la conformidad social y la adhesión a las normas.
Para realizar el análisis el autor ha relacionado un conjunto de datos sobre cooperación, confianza, y dispositivos para hacer cumplir las normas sociales correspondientes a una gran variedad de sociedades, con un índice que expresa la intensidad y extensión de los sistemas de parentesco. Este índice recoge de forma cuantitativa la medida en que las personas se insertan en amplias e interconectadas redes familiares. Para ello se ha basado en la información obtenida del Atlas Etnográfico, que atesora un conjunto de datos sobre la estructura histórica de 1.311 etnias preindustriales del Planeta, recurriendo, en concreto, a indicadores relativos a la estructura familiar, los modelos de emparejamiento y los sistemas de descendencia.
Enke observa que en la sociedades con fuertes y extensos lazos de parentesco (en adelante sociedades de “parentesco fuerte”) la gente tiene más confianza en los miembros de su grupo (sus convecinos) y menos en los extraños y extranjeros y, en general, menos confianza inespecífica. También hay menos cooperación con personas que no pertenecen al grupo, y se favorece a las personas con las que se tienen vínculos familiares a la hora de asignar los puestos de trabajo de gestión.
Los grupos humanos con lazos de parentesco débiles y limitados (en adelante sociedades de “parentesco débil”) tienden a venerar a un dios moralizante, uno que se encuentra concernido de forma activa con una prosocialidad compasiva. Las sociedades de parentesco fuerte, sin embargo, tienden a poseer valores morales relacionados con la lealtad a la propia comunidad.
La intensidad de las redes de parentesco se relaciona de forma sistemática con la estructura de su entramado institucional. Las sociedades de “parentesco débil” se han dotado de grandes instituciones que sustituyen a los cacicazgos. Por otra parte, las de parentesco fuerte se basan en mayor medida en liderazgos de menor alcance, como cacicazgos y pequeños reinos. Y a la vez, tienden a imbuir en los niños fuertes sentimientos de obediencia. La gobernanza en estas sociedades es principalmente local y menos formal que en las de parentesco débil.
La fortaleza de las redes de parentesco se encuentra correlacionada de forma positiva con la importancia relativa de los valores comunales –por comparación con los valores de carácter más individual- en el Moral Foundations Questionnaire. Por ejemplo, las sociedades de “parentesco fuerte” valoran mucho la lealtad para con los miembros del propio grupo por comparación con valores morales más relacionados con el daño individual, los derechos y la justicia.
Comparativamente, en las sociedades de “parentesco débil” tiende a prevalecer el sentimiento (privado) de culpa frente al de vergüenza (pública), a la inversa de lo que ocurre en las de “parentesco fuerte”. Este está relacionado con la propensión a recurrir al castigo directo o venganza (second-party punishment) por comparación con el recurso al castigo a cargo de un tercer agente (third-party punishment) cuando es preciso sancionar el mal comportamiento. De esa forma, los miembros de las sociedades con débiles vínculos de parentesco están más dispuestos a asumir costes personales cuando es preciso aplicar sanciones, incluso aunque no se dirima ningún asunto personal.
Y en lo relativo a la gobernanza, el “parentesco débil” está asociado con la calidad de las grandes instituciones, mientras que en las sociedades de parentesco fuerte es muy importante el cumplimiento de las normas y la importancia de los valores subjetivos que ordenan el buen comportamiento. En estas sociedades la gobernanza es principalmente informal y local.
La investigación de Enke documenta la fuerte vinculación entre los sistemas de parentesco y el conjunto de variables que definen el sistema de cooperación social. Y ayuda a entender la gran diversidad en lo relativo a los dispositivos de que se han dotado los grupos humanos para mantener los sistemas de prosocialidad y la estructura profunda que los sustenta.
Referencia:
Benjamin Enke (2017): Kinship Systems, Cooperation, and the Evolution of Culture. NBER Working Paper No. 23499
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Modelos de colaboración social y sistemas de parentesco se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El gran encéfalo humano es un “encéfalo social”
- Sistemas nerviosos: cnidarios y gusanos no segmentados
- Sistemas nerviosos: el tálamo y el hipotálamo
Historia de la lengua vasca
Oficina de comunicación de la UPV/EHU
‘Historia de la lengua vasca’ es un ambicioso y extenso trabajo que recopila la historia del euskera desde la prehistoria hasta la época contemporánea, así como su relación con otras lenguas a lo largo de los siglos. Este trabajo, que ha sido financiado por el Gobierno Vasco, se ha desarrollado de la mano de algunos de los principales expertos en esta materia, y el objetivo es que se convierta en un material de referencia para aquellas personas interesadas en conocer el devenir histórico de la lengua vasca.

Iván Igartua, Bingen Zupiria, Miren Dobaran y Joaquín Gorrochategui. Foto: Nuria González. UPV/EHU.
“A lo largo de los siglos la singularidad del euskera ha despertado el interés de lingüistas y expertos mucho más allá de nuestras fronteras, desde Wilhelm von Humboldt o Louis Lucien Bonaparte hasta Larry Task o Theo Vennemann. El euskera ha dado lugar a teorías de lo más diversas sobre su origen y su parentesco con otras lenguas. Esta obra trata de aportar una visión amplia y rigurosa sobre la historia del euskera, y lo hace de la mano de los principales expertos en esta materia. Además, lo hace en un único volumen que condensa los diferentes periodos históricos que ha vivido la lengua vasca”, indicó el consejero de Cultura y Política Lingüística del Gobierno Vasco, Bingen Zupiria en la presentación de la obra.
La ‘Historia de la lengua vasca’ es el resultado de un extenso trabajo de equipo, en el que han participado personas expertas en cada una de las fases de evolución de la lengua. En los distintos capítulos que conforman el libro, publicado por el Servicio editorial del Gobierno Vasco, cada especialista ha condensado de modo preciso y ordenado el conocimiento actual sobre la historia del euskera, identificando también aquellos aspectos que precisan de nuevas investigaciones. “Hemos procurado elaborar una historia de referencia, similar en su naturaleza y en sus presupuestos teórico-metodológicos a las historias que existen para las lenguas de nuestro entorno”, ha señalado Iván Igartua, vicerrector del Campus de Álava de la UPV/EHU y uno de los autores y coeditores del libro. Además de lingüistas y filólogos, en el equipo de trabajo han participado historiadores. La mayor parte de los autores pertenecen a la UPV/EHU, con presencia también de la Universidad Pública de Navarra (UPNA) y de la Université de Pau et des Pays de l’Adour (UPPA-IKER). El libro es, como ha indicado Joaquín Gorrochategui, catedrático de Lingüística Indoeuropea de la UPV/EHU y también autor y coeditor de la obra, “uno de los resultados más destacables que arroja la labor investigadora en el seno del grupo consolidado de Historia de la lengua vasca y lingüística histórica-comparada (IT698-13)”.
En esta ‘Historia de la lengua vasca’ se analizan los factores principales que han condicionado el devenir histórico del euskera, por más que, en función del periodo investigado, nuestro conocimiento de esos factores resulte forzosamente desigual. En cualquier caso, y para dotar de la obligada coherencia interna al conjunto del volumen, los capítulos que lo conforman muestran una estructura semejante, cuando no idéntica, lo que facilita, entre otras cosas, la comparación entre distintas épocas de evolución. De esta manera, al comienzo de cada capítulo, se ofrece una introducción de carácter histórico general que ayuda a situar el desarrollo de la lengua en el contexto correspondiente. Tras esa introducción, cada capítulo proporciona información relativa a la extensión del euskera (siempre que esta puede determinarse con cierto grado de certeza). El tercer asunto tratado en cada capítulo es la atestiguación documental de la lengua: se presentan los datos lingüísticos que podemos emplear para trazar la historia del euskera, se indica la forma en la que esos datos se utilizan para extraer conclusiones históricas y, posteriormente, se ofrece un somero análisis gráfico, fonológico y morfosintáctico de esos testimonios escritos. Una vez desgranada esa información, en un cuarto apartado se presentan las relaciones que históricamente han vinculado al euskera con otras lenguas de su entorno: las situaciones de contacto entre comunidades lingüísticas tienden a condicionar su historia, algo que se deja sentir especialmente en el caso de la lengua vasca. Por último, y aunque no en todos los capítulos, una sección específica analiza las ideas lingüísticas y el desarrollo gramaticográfico correspondientes a cada época o periodo.
En el libro se ha empleado una periodización ampliamente aceptada, relacionada con límites cronológicos que se corresponden en su mayor parte con hitos históricos externos a la propia lengua: el año 711 indica la llegada de los árabes a la península ibérica; 1745 es, entre otras cosas, el año de publicación del Diccionario trilingüe de Manuel de Larramendi; en 1876 se produjo la abolición de los fueros (momento significativo desde el punto de vista historiográfico que, además, coincide con el arranque del movimiento cultural denominado Pizkundea); y 1968 es el punto de partida del proceso contemporáneo de unificación de la lengua estándar.
La prehistoria de la lengua, periodo presumiblemente largo y no siempre claro, ha sido investigada por Joseba A. Lakarra (UPV/EHU); la antigüedad es el objeto de estudio del capítulo que firma Joaquín Gorrochategui (UPV/EHU); Patxi Salaberri (UPNA) ha analizado el euskera de la Edad Media; y Céline Mounole (UPPA-IKER) y Joseba A. Lakarra (UPV/EHU) se han encargado de estudiar el euskera arcaico (1400-1600). En cuanto al euskera antiguo y moderno, sus límites cronológicos se han establecido entre los años 1600 y 1745. Ese periodo ha sido estudiado conjuntamente por Céline Mounole y Ricardo Gómez (UPV/EHU). Blanca Urgell (UPV/EHU) ha llevado a cabo el análisis del primer euskera moderno, correspondiente al periodo comprendido entre 1745 y 1876, mientras que el estudio del segundo (o último) euskera moderno, periodo que se extiende entre 1745 y 1876, ha corrido a cargo de Iñaki Camino (UPV/EHU). Por último, Pello Salaburu (UPV/EHU) se ha encargado del estudio del euskera contemporáneo.
Hay que subrayar asimismo la participación de los historiadores Mikel Aizpuru, Juan José Larrea y Xabier Zabaltza, todos ellos de la UPV/EHU; por su aportación en los diversos capítulos de la obra.
El objetivo central del libro es, sin duda, ofrecer una referencia básica para la historia del euskera. Para el desarrollo de la vascología, era necesario recopilar de manera monográfica la información histórica de que disponemos. Y lo era, además, desde ópticas distintas: los estudiantes de filología vasca precisaban de una obra que organizara adecuadamente los saberes acumulados durante años en torno a la historia de la lengua; los investigadores aguardaban asimismo una síntesis que estableciera el marco general de la evolución del euskera y suministrara información relevante acerca de los cambios que esta ha ido experimentando a lo largo del tiempo; finalmente, existía también el convencimiento de que cualquier persona interesada en el euskera podría obtener provecho de un libro que presentara de forma ordenada y lo más atractiva posible un resumen detallado de lo que ha sido la evolución secular del euskera.
Ficha:
Editores: Joaquin Gorrochategui, Ivan Igartua, Joseba A. Lakarra
Título: Historia de la lengia vasca
Año: 2018
Editorial: Gobierno vasco / Eusko jaurlaritza
En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.
El artículo Historia de la lengua vasca se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Los cuantificadores se aprenden en el mismo orden, sea cual sea la lengua
- #Naukas16 Alucinaciones lingüísticas: los engaños de tu lengua materna
- La mutación vasca de la dardarina y el párkinson
Naukas Bilbao 2017 – Ángel Gómez Roldán: Tras la sombra de la Luna
En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.
Para poder apreciar lo impresionante que es en realidad un eclipse total de Sol hay que tener en cuenta las escalas. Lo ilustra estupendamente, Ángel Gómez Roldán, director de la revista AstronomíA.
Ángel Gómez Roldán: Tras la sombra de la LunaEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Naukas Bilbao 2017 – Ángel Gómez Roldán: Tras la sombra de la Luna se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Naukas Bilbao 2017 – Álex Méndez: Luz de luna
- Naukas Bilbao 2017 – Déborah García Bello: Saboer
- Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan
Consumo de cannabis y desarrollo de esquizofrenia
Una investigación de la UPV/EHU y del CIBER de Salud Mental (CIBERSAM) ha identificado, por primera vez, los mecanismos a escala molecular implicados en el incremento del riesgo de desarrollar esquizofrenia que se produce tras el consumo de cannabis. El equipo de investigadores ha descubierto las alteraciones que se producen en las neuronas de la corteza cerebral de ratones tratados crónicamente con THC, el principal compuesto psicoactivo del cannabis. Esta investigación abre vías para generar estrategias de prevención, así como diseñar fármacos y terapias que mejoren la vida de las personas con esquizofrenia.
En la investigación, liderada por la investigadora Leyre Urigüen y en la que también han participado Inés Ibarra-Lecue, Irene Mollinedo, Luis F. Callado, Javier Meana y Rebeca Diez-Alarcia, investigadores de la Universidad del País Vasco y adscritos CIBERSAM, se han analizado los cerebros de ratones a los que se les empezó a administrar THC de forma crónica durante la “adolescencia”, un periodo crítico para el desarrollo de su cerebro que en las personas corresponde con la adolescencia. En el estudio de la corteza cerebral de estos ratones, los investigadores han detectado alteraciones en el receptor de serotonina 2A, que es el principal responsable de que se produzcan las alucinaciones características de la psicosis y la esquizofrenia. En concreto, el equipo de investigación ha encontrado que este receptor proalucinógeno ve incrementada su funcionalidad tras el tratamiento crónico con cannabis. Además ha descrito la vía por la cual se produce esta hiperfuncionalidad.
“La descripción de esta hiperactividad del receptor de serotonina 2A, detectada por primera vez a nivel molecular en el cerebro, es el primer paso para investigar en otros campos”, comenta la doctora. Urigüen. Asimismo, la investigadora asegura que “el objetivo final es identificar la existencia de cambios moleculares similares en personas que consumen cannabis para poder relacionarlos con el riesgo de desarrollo de psicosis o esquizofrenia; y, por otro, generar nuevos fármacos que mejoren la sintomatología de los pacientes con esquizofrenia”.
Para realizar este estudio, los investigadores han utilizado técnicas de comportamiento animal y, después, cuantificaron proteínas y receptores. Las primeras mostraron que los ratones que habían sido tratados con cannabis durante la “adolescencia” presentaban una mayor predisposición a desarrollar comportamientos psicóticos respecto a los animales controles. En un siguiente paso, el equipo de investigación marcó y estudió el receptor de serotonina 2A e identificó la vía de señalización a través de la cual podría mediar un incremento en el riesgo de padecer comportamientos psicóticos.
Referencia:
Inés Ibarra-Lecue, Irene Mollinedo-Gajate, J Javier Meana, Luis F Callado, Rebeca Diez-Alarcia & Leyre Urigüen (2018) Chronic cannabis promotes pro-hallucinogenic signaling of 5-HT2A receptors through Akt/mTOR pathway Neuropsychopharmacology doi: 10.1038/s41386-018-0076-y
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Consumo de cannabis y desarrollo de esquizofrenia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un nuevo fármaco revierte el déficit cognitivo asociado a esquizofrenia
- Daños estructurales por consumo de alcohol en el cerebro humano
- El siglo de la esquizofrenia química
Marian Diamond: la científica que descubrió la plasticidad cerebral

Marian Diamond observando el encéfalo de una rata. Foto: Eric Luse/San Francisco Chronicle
A veces es posible conseguir la fama, pero pocas veces llega gracias a lo que uno espera. La historia está llena de artistas cuyas obras más conocidas no son, sin embargo, sus trabajos objetivamente más relevantes.
Los científicos también están a la merced de los caprichos de la fama.
En 1985 Marian Diamond publicó un estudio sobre el cerebro de Albert Einstein. En el trabajo había analizado varias muestras del cerebro del físico alemán y las comparó con muestras similares sacadas de cerebros control. El resultado fue que en el cerebro de Albert Einstein la cantidad de células gliales, un tipo de células que junto con las neuronas forma el sistema nervioso humano, era superior a lo normal en algunas de las áreas estudiadas. Como consecuencia de esta publicación Marian Diamond saltó a la fama, y la figura de Albert Einstein invisibilizó frente a las cámaras los grandes trabajos que Marian ya había realizado por aquel entonces.

Figura donde se representando el cerebro de Albert Einstein y están marcadas las áreas de las que se tomaron muestras. Diamond et al., 1985
En 1964 se publicó la primera evidencia sólida de que el cerebro adulto cambia anatómicamente con la experiencia. Actualmente, que el cerebro es un órgano plástico con una cierta capacidad de reorganización y adaptación a los estímulos es un hecho reconocido por toda la comunidad neurocientífica pero en los años sesenta no se creía así. De hecho, los trabajos que preceden a esta publicación se centran en estudiar si la experiencia produce cambios en la bioquímica del cerebro, no en su estructura. Incluir la anatomía fue algo innovador en el trabajo “Chemical and Anatomical Plasticity of Brain”, que tenía cuatro autores: tres hombres y una mujer, Marian C. Diamond.
En este experimento se criaron ratas en tres situaciones:
-Condición control, donde los animales vivían en situaciones de crianza corrientes.
-Condición social, donde los animales vivían con más compañeros de lo normal para aumentar sus estímulos sociales, tenían juguetes y se les motivaba a realizar varias actividades.
-Condición de aislamiento, donde entre otras limitaciones los animales vivían solos, sin juguetes, etc.
La idea era ver si vivir en un entorno con muchos estímulos o en uno de aislamiento generaba diferencias significativas en los cerebros de las ratas. Y así fue; siendo el resultado más importante del estudio las diferencias anatómicas que encontraron entre los cerebros de las ratas en condición social y de aislamiento. Este artículo supuso un cambio de paradigma hacia la idea de un cerebro cambiante, adaptativo, plástico.
Además de su carrera en el laboratorio, Marian compaginó la investigación con la docencia: fue profesora emérita de la unidad de Biología Integrativa de la Universidad de Berkeley, y afortunadamente algunas de sus clases de anotomía todavía se conservan gracias a que están disponibles en YouTube:
En la primera jornada, que a día de hoy supera el millón de visitas, mientras habla Marian tiene a su lado una mesa sobre la cual hay una sombrerera de flores azules. Cuentan que era frecuente verla por el campus universitario de un lado a otro con esa sombrerera… y en un determinado momento se acerca a la mesa, se coloca unos guantes de látex, abre la caja y extrae de ella un cerebro conservado en formaldehido: “Quiero que apreciéis lo que lleváis en vuestras cabezas porque esta masa solamente pesa unas tres libras y sin embargo tiene la capacidad de concebir el universo a mil millones de años luz… ¿no es fantástico?” les dice a sus alumnos mientras sostiene el cerebro.
Desgraciadamente, esta gran mujer falleció el 25 de julio de 2017 a los 90 años. Llevaba solamente tres años retirada de la docencia y la investigación. Pero al menos tenemos la suerte de poder disfrutar de su trabajo de investigación, sus clases y su ejemplo, que está recogido en el documental “My love affair with the brain: The life and science of Dr. Marian Diamond”.
Este post ha sido realizado por Pablo Barrecheguren (@pjbarrecheguren) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
Referencias:
- Bennett, L., & Diamond, C. (1956). “Chemical and Anatomical Plasticity of Brain” Science 1964, 459–470.
- Diamond, M. C., Scheibel, A. B., Murphy, G. M., & Harvey, T. (1985). On the brain of a scientist: Albert Einstein. Experimental Neurology, 88(1), 198–204.
- Robert Sanders (2017) Marian Diamond, known for studies of Einstein’s brain, dies at 90 Berkeley News
- Harrison Smith (2017) Marian Diamond, neuroscientist who gave new meaning to ‘use it or lose it,’ dies at 90 Washington Post
El artículo Marian Diamond: la científica que descubrió la plasticidad cerebral se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El mapa de actividad cerebral, por Rafael Yuste
- Del mito al hecho: hemisferios, gimnasia cerebral y estilos de aprendizaje
- El GPS cerebral: cómo nos orientamos en el espacio
¿Cómo despertar vocaciones científicas en los niños?
Haydée Valdés González
Estarán de acuerdo conmigo en que todos los niños nacen con muchas de las capacidades* propias de un buen científico.[1] Es decir, su habilidad innata para observar (se dan cuenta de todo y no pierden detalle de lo que les interesa), su curiosidad y su capacidad instintiva para el aprendizaje empírico les proporcionan las habilidades exploratorias y de experimentación necesarias para elaborar hipótesis que les permitan comprender el mundo que les rodea.
Además, y por lo general, las materias de ciencias apasionan a los niños hasta el punto de que resulta realmente difícil encontrar a un niño que no muestre interés alguno por temas como por ejemplo los volcanes, el espacio, los dinosaurios, los robots, los animales salvajes o las fosas submarinas. De la misma manera, los niños suelen sentirse bastante atraídos ante la posibilidad de llevar a cabo experimentos científicos.
Sin embargo, paradójicamente, cuando de materia educativa se trata, las asignaturas de ciencias (la Ciencia que se enseña en las escuelas) suelen percibirse como aburridas, inútiles y difíciles[2,3,4,5] siendo así que el interés por las materias de ciencias empieza a decaer aproximadamente hacia los diez años haciéndose aún más evidente con el paso a secundaria.[6] Por consiguiente, el porcentaje de jóvenes que optan por una formación científica o técnica al finalizar sus estudios obligatorios es bajo.[5,6,7,8]
Una consecuencia de todo ello es la imposibilidad de llevar a cabo con efectividad la presente estrategia política de formar e incorporar a las actividades científicas, tecnológicas y de innovación un mayor número de investigadores, tecnólogos y profesionales altamente cualificados y, por tanto, nos enfrentamos al problema de tener que promover vocaciones científicas en las nuevas generaciones. Consecuentemente, son múltiples las iniciativas que se están llevando a cabo con el propósito de reflexionar sobre el problema (por ejemplo ref. 9) así como también son innumerables las acciones específicas orientadas a estimular, mantener y desarrollar las vocaciones científicas en niños y jóvenes.[10]
Ahora bien, lo que a mi modo de ver resulta ciertamente curioso es que la mayoría de dichas acciones se llevan a la práctica (casi siempre) al margen de las asignaturas de ciencias impartidas en los centros educativos. Es decir, por lo general, no se emplean horas lectivas de las clases de las materias de ciencias con este propósito, lo que desde mi punto de vista, tiene tres inconvenientes especialmente reseñables.
En primer lugar, puede contribuir a que los estudiantes desliguen, aún más si cabe, los contenidos científicos que se estudian en las materias de ciencias de la Ciencia y la actividad científica [2*]. En segundo lugar, pueden dar pie a despertar vocaciones científicas artificialmente, ya que muy habitualmente la Ciencia se presenta en estas actividades como “fácil y divertida” pero considerablemente alejada de su verdadera esencia como proceso de búsqueda del conocimiento. Y en tercer lugar, dificulta considerablemente el acceso y el contacto con el mundo de la investigación y la Ciencia sobre todo de aquellos niños que se hayan en desventaja socioeconómica, con la consiguiente pérdida de captación de talento científico que eso puede suponer y la enorme injusticia educativa que supone privar a dichos niños de la oportunidad de descubrir la Ciencia.
Pero, ¿y si abordamos la promoción de vocaciones científicas desde otra perspectiva?
Volvamos al principio.
Partiendo de la premisa de que los niños son “pequeños científicos”,[1] quizás resulte mucho más efectivo concentrarnos en encontrar la manera de recoger y nutrir esa naturaleza investigadora innata desde edades tempranas[3*] creando un entorno educativo adecuado que permita seguir alimentando convenientemente el afán de conocimiento innato de los niños, de manera que afloren espontáneamente las auténticas vocaciones científicas.
Es decir, la vocación científica (como cualquier vocación, por otra parte), debería ser el resultado de una evolución de los propios niños que desarrollan un gusto por la Ciencia y que sienten la necesidad de continuar por ese camino y no el resultado derivado de un conjunto de intervenciones adultas externas, extracurriculares y, en muchas ocasiones, extraescolares (aunque bien planteadas éstas puedan ser de gran apoyo para las pertinentes acciones educativas).
Lógicamente, para lograr este propósito habría que cambiar el modelo educativo empleado en la actualidad para la docencia de las materias de ciencias[5] (que, esencialmente, es dogmático, mecanicista y memorístico) y emplear otras estrategias de enseñanza-aprendizaje de estas asignaturas que principalmente estén orientadas a desarrollar el espíritu científico de los niños.
Cambiar el programa educativo de las materias de ciencias no es una cuestión en absoluto baladí dado que, atendiendo a lo expuesto en el presente artículo, no sólo favorecerá que aflore el verdadero capital científico de nuestra sociedad sino que también, y no menos importante, facilitará una mejor cultura científica de la ciudadanía.
Notas:
* Convendría aclarar que no se trata de capacidades a un nivel de desarrollo adulto sino de capacidades infantiles, es decir, a un nivel de desarrollo inferior (infantil), lo que en muchas ocasiones implica un nivel rudimentario y primitivo.
2* Muchos alumnos acaban teniendo una percepción generalizada de que las asignaturas de ciencias(sobre todo de Física y Química en secundaria y bachillerato)no tienen usos prácticosen sus vidas cotidianas (por ejemplo ref. 2(a)).
3* Tal y como se recoge en el informe ENCIENDE, el término edades tempranas “hace referencia primordialmente a la etapa de enseñanza primaria de los 6 a los 12 años, y su extensión hacia el primer ciclo de secundaria de los 12 a los 14 años.”
Referencias:
[1] Gopnik, A. “Scientific thinking in young children: theoretical advances, empirical research, and policy implications“. Science 337, 1623 (2012).
[2] (a) Solbes, J.; Montserrat, R.; Furió C. “El desinterés del alumnado hacia el aprendizaje de la ciencia: implicaciones en su enseñanza”. Didáctica de las ciencias experimentales y sociales 21, 91 (2007). (b) Solbes, J. “¿Por qué disminuye el alumnado de ciencias?”. Alambique: didáctica de las ciencias experimentales 67, 53 (2011).
[3] Marbá-Tallada, A.; Márquez, C. “¿Qué opinan los estudiantes de las clases de ciencias? Un estudio transversal de Sexto de Primaria a Cuarto de ESO”. Enseñanza de las Ciencias, 28, 19 (2010).
[4] Dávila Acedo, M.A.; Borrachero Cortés, A.B.; Brígido, M.; Costillo, E. “Las emociones y sus causas en el aprendizaje de la Física y la Química”. International J. of Developmental and Educational Psychology 4, 287 (2014).
[5] http://www.cosce.org/pdf/Informe_ENCIENDE.pdf
[6] https://www.fecyt.es/es/node/2568/pdf-viewer
[7] Albornoz, M.; Barrere, R.; Castro-Martínez, E.; Fernández de Lucio, I.; Gordon, A.; Jacovkis, P.M.; Polino, C. “Ciencia, Tecnología e Innovación para el desarrollo y la cohesión social. Un programa iberoamericano en la década de los bicentenarios”. Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura. Anexos I y II (2014).
[9] https://www.fundacionlilly.com/es/actividades/citas-con-la-ciencia/index.aspx
[10] Véase por ejemplo: https://www.fecyt.es/es/tematica/vocaciones-cientificas
Sobre la autora: Haydée Valdés González es doctora en ciencias químicas.
El artículo ¿Cómo despertar vocaciones científicas en los niños? se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- #Naukas16 Cómo escribir un libro de ciencia para niños
- De cómo la ludificación del aula prepara a los niños para vivir en un estado policial
- Tres historias italianas: vacunas, homeopatía, niños y derechos humanos
La ciencia y el #MeToo

Imagen tomada durante una manifestación en Cambridge, Massachusetts (EE.UU.), sede de la Universidad de Harvard y el MIT, en enero de 2018. Foto: Brian Snyder / Reuters
Algunas veces cuando en una sociedad cambian los parámetros de lo que se considera civilizado ese cambio se produce de modo abierto, rápido y trasparente: es lo que está ocurriendo en buena parte de Occidente con el movimiento #metoo y todos sus derivados, que han sacado a la luz los muchos casos de trato desigual, acoso e incluso abuso hacia las mujeres que se producen en casi cualquier ámbito profesional. Los casos más llamativos han afectado a campos como el cine, el periodismo o determinadas estructuras de gobierno, pero la extensión del problema y la avalancha de testimonios dejan claro que no se trata de anécdotas o excepciones, sino de una triste constante en la estructura social humana que ha sido tolerada y ocultada durante demasiado tiempo: allá donde existen situaciones de desequilibrio de poder en estructuras profesionales ha habido hombres que han abusado de su poder en prejuicio de mujeres, llegando hasta el abuso físico. La sociedad está reaccionando, tarde y lentamente, pero de modo drástico, y comportamientos sobre los que antes se hacía la vista gorda han pasado a ser intolerables.
La ciencia, en tanto que estructura académica y de investigación, desgraciadamente no es ajena a estos problemas. Durante décadas en los laboratorios, los pasillos de los departamentos y las cafeterías de los centros de investigación se comentaban situaciones tensas y personas conflictivas, y se susurraban consejos y advertencias: ojo con ese director de tesis demasiado enamoradizo, cuidado con el brillante investigador de manos sueltas, atención a esa invitación a ir a un congreso en el extranjero junto al eminente catedrático. En tanto que sistema de obtención de conocimiento la ciencia no es inherentemente moral ni proporciona a quienes la practican una defensa contra sus propias almas oscuras; las estructuras de poder que se tejen e torno a la academia, la carrera investigadora y el componente editorial de la ciencia han funcionado como eficaces disuasorios a la hora de denunciar comportamientos de abuso de poder. A veces probar el abuso es complicado; a menudo el abusador goza de prestigio profesional y de poder real para acallar las denuncias y para lanzar represalias contra las denunciantes.
Mientras tanto los datos demuestran que el problema es real, y que afecta seriamente a la carrera científica de las mujeres. Números aterradores de estudiantes de doctorado e incluso de grado y máster han recibido como mínimo atenciones no deseadas, si no acciones peores todavía; las universidades e instituciones han sido poco receptivas y la Ley del Silencio ha cubierto muchos, demasiados casos flagrantes. En demasiadas ocasiones el abusador ha recibido, en el peor de los casos, apenas una reprimenda, mientras que las víctimas han quedado marcadas y sus carreras perjudicadas por el acto de denunciar el abuso.
Afortunadamente parece que también en ciencia esto ha pasado a ser intolerable; se están denunciando numerosos casos en muy diversas disciplinas y los acusados están teniendo que enfrentarse a consecuencias reales, mientras las instituciones y las universidades ponen en marcha programas diseñados para reducir la incidencia de esta lacra y para ponerle coto en cuanto se produzca y los propios científicos (de ambos sexos) se movilizan para ayudar. El abuso de hombres con poder sobre mujeres sin poder se ha tolerado durante demasiado tiempo, y ha llegado la hora de eliminarlo o reducirlo al mínimo que sea posible y de que quienes lo llevan a cabo paguen por ello. Aunque sólo fuese por una cuestión práctica sería imperativo acabar con esto: demasiado talento femenino se está desperdiciando en forma de mujeres que abandonan la ciencia o sufren años en sus carreras para evitar ser víctimas o como consecuencia de denunciar serlo.
Pero por supuesto hay un argumento mucho mas importante, que es moral: si los seres humanos somos iguales la sociedad debe hacer todo lo que esté en su mano para que unos no puedan abusar impunemente de otros. Tal vez la ciencia no haga a las personas intrínsecamente morales, pero esto no quiere decir que los científicos no puedan ser también gente decente. El sesgo es algo que los científicos rechazan, porque saben que sólo provoca problemas a la hora de entender el universo, y también a la hora de vivir en una sociedad razonable. La ciencia está empezando a vivir su momento #metoo, y es necesario que así sea. Porque el trato sesgado a los colegas es una forma de mala conducta científica aún mas rechazable que la falsificación de datos, y con consecuencias peores. Demasiado tiempo se ha dejado pasar ya.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo La ciencia y el #MeToo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Ciencia, poder y comercio
- La práctica de la ciencia y la práctica del sexo
- Ciencia, política y hechos
Tenebrescencia para medir la exposición a radiación ultravioleta

La hackmenita (variedad afgana) presenta fotocromismo cuando se irradia con luz ultravioleta (tonos anaranjados); los tonos azulados son, mayoritariamente, wunchita. Fuente: Wikimedia Commons
Sabemos positivamente que el exceso de radiación ultravioleta provoca cáncer y enfermedades oculares. Nada, pues, más racional que usar algún tipo de dispositivo para medir a cuánta radiación y de qué tipo nos exponemos en un momento dado. El que sea racional no quiere decir, obviamente, que la gente lo haga. El control más grosero, a partir del tiempo que se está expuesto al sol y la hora del día, es algo que muchos aficionados a estar al aire libre olvidan.
Con todo, un detector de radiación ultravioleta es algo muy útil. De hecho, hoy día se usa de forma habitual en las gafas fotocrómicas, esas que cambian de color al darles la radiación ultravioleta. El problema es que este efecto lo consigue la presencia de moléculas orgánicas, que cambian su configuración química al ser expuestas a la radiación; estos cambios terminan acumulando fallos que hacen que, tras unos años, dejen de funcionar adecuadamente.

Tenebrescencia en un cabuchón de hakmenita de calidad gemológica.
La sodalita es un tectosilicato de color azul marino que se usa en joyería. Una variante de la sodalita es la hakmanita que, dependiendo de la variedad, posee fotocromismo o la propiedad contraria, la llamada tenebrescencia, es decir, tiene un color en ausencia de radiación ultravioleta, que desaparece si recibe radiación.
Un equipo de investigadores encabezado por Isabella Norrbo, de la Universidad de Turku (Finlandia), ha desarrollado una hakmanita sintética que cambia de color en función de la cantidad de radiación ultravioleta que recibe. El material puede ajustarse para responder a distintos niveles de radiación UVA, UVB o UVC, así cómo al índice UV del Sol.
Como el cambio de color de la hakmenita no se debe a un cambio en la composición química sino a la configuración electrónica la durabilidad es mucho mayor que en las alternativas orgánicas. Por esto mismo el cambio de color es reversible. La naturaleza de los componentes (silicatos) hace que el sensor sea además muy barato de fabricar.
La intensidad de color del material se correlaciona con la dosis de radiación. El detector podría usarse como una pegatina que se puede colocar en una camiseta, en una gorra o un reloj. Bastaria usar una app para medir el estado justo antes de salir al exterior haciendo una foto y la misma app nos dirá el nivel de exposición en cualquier momento posterior haciendo una nueva foto.
La utilidad y los beneficios para la salud son indudables. Eso no quita para que sean los mismos que no beben antes de conducir o no fuman los que más utilidad real le puedan encontrar.
Referencia:
I. Norrbo et al (2018) Solar UV index and UV dose determination with photochromic hackmanites: from the assessment of the fundamental properties to the device Materials Horizons doi: 10.1039/C8MH00308D
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Tenebrescencia para medir la exposición a radiación ultravioleta se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un atlas para materiales 2D
- Preparados para una Catástrofe Ultravioleta
- Óxido de vanadio (IV), un material para una revolución de ciencia ficción
John Rainwater no existe
John Rainwater no existe. No, no existe. Pero, sorprendentemente, es el autor de algunos resultados publicados en revistas matemáticas, fundamentalmente en el área del análisis funcional.

Chuva. Imagen Wikimedia Commons.
El matemático ficticio John Rainwater fue creado como una simple broma por un grupo de estudiantes: se matriculó –le inscribieron– en 1952 en la Universidad de Washington en un curso semestral sobre funciones reales impartido por el profesor Maynard Arsove. Y no solo se matriculó, los estudiantes enviaron al profesor los ejercicios dejados como tarea para casa en nombre de Rainwater. El docente se enteró de la broma en la mitad del semestre, y el resto de los estudiantes algo más tarde cuando Arsove hizo algunos comentarios sobre una broma que le había hecho John Rainwater…
Y, a pesar de no existir, Rainwater ha dejado una apreciable huella en el ámbito de la investigación matemática…
En efecto, unos años más tarde, algunos matemáticos de renombre internacional publicaron trabajos bajo el seudónimo de John Rainwater. La mayoría de esos trabajos se centraban en análisis funcional, en particular en la teoría geométrica de espacios de Banach y en el estudio de funciones convexas.
Al principio, Rainwater ‘se dedicó’ a resolver problemas planteados en la American Mathematical Monthly, revista que publica artículos elegidos por su interés y por la calidad expositiva de sus contenidos. De hecho, la American Mathematical Society –que publica el American Mathematical Monthly– invitó a Rainwater a unirse a su sociedad.
El matemático John Rolfe Isbell (1930-2005) publicó el primer artículo en nombre de Rainwater en 1959 –Spaces whose finest uniformity is metric–. Después, otros científicos publicaron bajo el seudónimo de Rainwater o agradecieron su ayuda en sus artículos. De hecho, Isbell escribió el primero, el segundo y el décimo artículo de John Rainwater… parece que a Isbell le gustaba este ‘juego de disfraces’ porque en 2002 firmó –y cofirmó– otros seis artículos con otros dos seudónimos diferentes.

Robert Phelps. Imagen Wikimedia Commons.
El matemático Robert Phelps (1926-2013) escribió el tercero, el noveno y el undécimo artículo de Rainwater, y también el duodécimo y el decimotercero (con Peter D. Morris), el decimoquinto (con Isaac Namioka) y el decimosexto (con David Preiss).
Irving Glicksberg escribió bajo el seudónimo de Rainwater los artículos cuarto y octavo, y Edgar Asplund (1931-1975) ocultaba su nombre tras el séptimo.
El decimocuarto artículo de John Rainwater fue un poco diferente del resto: era un trabajo de álgebra –Global dimension of fully bounded Noetherian rings– y, además, el autor no agradecía a ningún colega su ayuda ‘a través de fructíferas conversaciones’, pero señalaba que su trabajo había sido subvencionado por ‘cuatro benefactores’ –eran los autores reales del artículo: Ken Brown, Ken Goodearl, Toby Stafford y Bob Warfield–.
El teorema de Rainwater es un resultado importante en la teoría de sumabilidad y el análisis funcional. Lo demostró John Rainwater –en realidad era Robert Phelps– en el artículo Weak convergence of bounded sequences (Proc. Amer. Math. Soc.14 (1963) 999) y dice:
Para que una sucesión acotada en un espacio de Banach X converja débilmente, es necesario y suficiente que converja puntualmente sobre los puntos extremos de la bola unidad en el espacio dual X*.
El seminario de análisis funcional de la Universidad de Washington lleva el nombre de Rainwater Seminar, y las notas asociadas a este evento han influido en la teoría de espacios de Banach y en el análisis convexo.
En 2002, Robert Phelps resumió el impacto de la investigación de Rainwater en el artículo [3]. El primer trabajo de Rainwater (escrito por Isbell) era un artículo sobre topología y tuvo diecinueve citas. Y la nota de Rainwater de 1963 aludida anteriormente –la que contiene el teorema de Rainwater– se citó ocho veces… ¡No está mal!
Por cierto, recordemos que John Rainwater no es el único matemático que nunca existió…
Referencias:
[1] The Empty Set, Futility Closet, 17 mayo 2018
[2] John Rainwater, Wikipedia
[3] Robert R. Phelps, Biography of John Rainwater, Topological Commentary vol. 7, no. 2, 2002
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo John Rainwater no existe se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: